Плен китайской комнаты

Общество
Наверное, многие хотя бы краем уха слышали о концепте «китайской комнаты». Если вкратце, то это мысленный эксперимент философа Джона Серла, который, с его точки зрения, опровергал возможность наличия у искусственного интеллекта самосознания.

По мнению ученого, правильно настроенный алгоритм для стороннего наблюдателя будет создавать правдоподобную иллюзию осмысленной работы, хотя в реальности никакой мыслительной деятельности там нет.

«К чему это все?» — спросите вы. А к тому, что, обладая хотя бы базовым пониманием концепции «китайской комнаты», становится очень интересно читать новости. Вот, например, из свежего: калифорнийский стартап Simile привлек 100 миллионов долларов на создание симуляции с участием ИИ-агентов, чтобы изучать человеческое поведение без участия людей — с помощью моделей, населенных цифровыми «жителями». И хоть не являясь ни видным философом, ни исследователем искусственного интеллекта, в данном конкретном случае я встаю на сторону доктора Серла.

Тут стоит сделать оговорку. Я всеми руками и ногами выступаю за технический прогресс и вполне допускаю, что на каком-то этапе искусственный интеллект обретет если не полноценное самосознание, то как минимум его подобие. Но глядя на стремительно раздувающийся ИИ-пузырь, сложно отрицать, что попытки представить нейросети как истинных «думающих машин» выглядят как попытка бежать впереди паровоза.

Фото: Артур Новосильцев / АГН Москва

И причины этого до боли очевидны. Истерии ИИ-бума нельзя дать умереть. Крупнейшие технологические корпорации уже вложили миллиарды долларов в постройки дата-центров и выкуп мощностей (а некоторые даже задумались о приобретении своей атомной электростанции) для обучения все новых, лучших моделей нейронных сетей и теперь находятся в самоподдерживающемся процессе инвестирования друг в друг. Все для того, чтобы удерживать идею повсеместного внедрения искусственного интеллекта на плаву.

Потому и рождаются такие исследования. Мы уже убедились, что нейросети могут качественно рисовать картинки, писать тексты и снимать видео. Ну и что дальше? А... вот! пусть теперь притворяются людьми, а мы будем их изучать так, как будто это настоящие сообщества. И плевать, что ИИ в настоящем виде абсолютно чужды банальные человеческие эмоции и предубеждения, не говоря уже о том, что главная отличительная черта современной нейросети — невероятное подобострастие перед пользователем. Он, как это сейчас любят говорить, апологет «токсичной позитивности». Как на основе этого можно делать выводы о людях — неясно.

Что же со всем этим делать? Да, в общем-то, ничего. Рано или поздно ИИ-пузырь лопнет, утащив за собой в бездну несметные полчища ИИ-евангелистов, для которых данная технология — лишь олицетворение хруста зеленых бумажек, которые можно получить с разинувшей от удивления рот публики. И вот только после этого уже настоящие ученые смогут заняться проблематикой наличия самосознания у искусственного интеллекта. Да, наверное, текущие попытки игр в Бога с симуляциями человеческих сообществ послужат в определенной мере фундаментом для научных трудов будущих поколений, но реальную пользу от них мы вряд ли когда-нибудь увидим. С тем же успехом можно пытаться изучать политические процессы с помощью компьютерных игр. Занятие, конечно, увлекательное, но в целом пустое.

amp-next-page separator