Например, это чат-боты для комфортного общения или успокоения, психологические консультации для родителей. Злоумышленники с помощью таких технологий могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам.
Рыжова считает, что необходимо:
ввести регулирование сценариев применения ИИ на уровне федерального закона;
установить стандарты безопасности искусственного интеллекта;
рассмотреть вопрос введения ответственности за нарушение требований и причинение вреда с использованием технологий ИИ.
Главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН Виктор Наумов в числе рисков, связанных с развитием ИИ, назвал отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей, которые не знают о негативных последствиях использования технологий, радикальную концентрацию власти в руках производителей ИИ. Он отметил еще одну угрозу: спустя несколько десятилетий, вероятно, произойдет деградация многих свойств человека. Например, его творческих и коммуникационных способностей в условиях построения отношений с безальтернативным использованием ИИ.
«Современные ИИ-модели, например GPT, стремительно развиваются. Необходимо понимать, как они устроены, какой и чей код в них работает и на базе какого массива информации он работает. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими четырьмя параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком», – обратил внимание глава Роскомнадзора Андрей Липов.
Он добавил, что параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. Есть только один путь – создавать собственные технологии и сервисы в сфере ИИ.
Комментарии
1Вот как по мне, то несут эти граждане полную ахинею, т.к. на сегодняшний день нет никаких возможностей росчерком пера регулировать производимые искусственным интеллектом продукты, т.к. отсутствует сам тот или контроль о чём может "думать" этот самый ИИ.