Подвох, который можно пропустить
Как отметила глава Комитета Госдумы по развитию гражданского общества Яна Лантратова, даже сейчас большая часть российских школьников предпочитает западные фильмы и сериалы отечественным. А образ родной страны иначе как «варварским» там назвать нельзя.
Звучали на круглом столе и более радикальные предложения, например, запретить создавать аккаунты в социальных сетях тем, кто не достиг 16 лет, апеллируя к опыту Австралии, где такая мера уже была принята. Начать, впрочем, российские депутаты предложили с малого — законодательно закрепить понятия «виртуальный помощник» и «большая языковая модель», которые сейчас повсеместно используются в умных колонках. Ведь, как указала глава комитета по защите семьи, вопросам отцовства, материнства и детства Нина Останина, миллионы людей держат у себя дома эти гаджеты и следуют их советам, но совершенно не утруждают себя задуматься, на чем основаны рекомендации, озвучиваемые «Алисой», «Марусей», «Олегом», «Салютом», «Максом» и бог весть кем еще. Первые инициативы депутаты готовы предложить уже грядущей весной.
В целом идея достаточно здравая. В жизни действительно мало кто задумывается, чем руководствуется голосовой помощник, выдавая тот или иной совет в ответ на запрос пользователя. Нет, конечно, вряд ли кто-то терзается сомнениями по поводу источников прогноза погоды или пробок на дорогах. Но вот если шагнуть чуть дальше, то уже начинаются проблемы.
Возьмем, например, кулинарию: уже были зафиксированы случаи, когда нейросети радостно предлагали добавить в пиццу клей (разумеется, нетоксичный, чтобы не навредить здоровью), для того чтобы сыр лучше прилипал к основе. Другие языковые модели советовали есть камни для улучшения пищеварения, подсмотрев ноу-хау, очевидно, у страусов. Ну а фанатам фитнеса было предложено побегать с ножницами, ведь это не только укрепит сердечно-сосудистую систему, но и повысит концентрацию.
К сожалению, наверняка нашлось немало людей, которые без раздумий выполняли указания умной колонки, а потом оказывались на больничной койке. Просто потому, что воспринимали нейросеть как настоящий искусственный интеллект, а не то, чем они (пока еще) являются — очень мощной программой автозамены, наподобие тех, что исправляют наши опечатки в телефонах. ИИ не осознает, в нашем, человеческом понимании, что именно такое «клей», хоть и может выдать статью о нем, снабдив ссылками на десяток энциклопедий. Зато он провел поиск по ключевым словам и нашел пост на форуме, где кто-то в шутку посоветовал смешать его с сыром. Что такое «шутка», система тоже не понимает, зато видит, что слова «пицца», «клей» и «рецепт» стоят рядом. Значит, можно транслировать это пользователям!
Да, программисты неустанно работают и учат нейросети понимать, как не вредить человеку. Но было бы неплохо все же обязать разработчиков таких устройств маркировать, откуда их языковые модели берут информацию.
Мнение колумнистов может не совпадать с точкой зрения редакции