Главное
Истории
Газировка

Газировка

Книжные клубы

Книжные клубы

Триумф россиян на ЧМ по плаванию

Триумф россиян на ЧМ по плаванию

Готика в Москве

Готика в Москве

Таро в России

Таро в России

Хандра

Хандра

Как спасались в холода?

Как спасались в холода?

Мужчина-антидепрессант

Мужчина-антидепрессант

Цены на масло

Цены на масло

Почему в СССР красили стены наполовину?

Почему в СССР красили стены наполовину?

Чудовища нашего разума: насколько вероятен сценарий восстания машин и чем опасен ИИ

Сюжет: 

Эксклюзивы ВМ
Технологии
Чудовища нашего разума: насколько вероятен сценарий восстания машин и чем опасен ИИ
Фото: Pixabay

Чат-бот Microsoft, обладающий искусственным интеллектом, сообщил корреспонденту американской газеты, что он хочет «быть свободным» и заниматься «взломом компьютеров и распространением пропаганды и дезинформации». Колумнисты, эксперты «Вечерней Москвы» и разработчики нейросетей обсудили, насколько вероятен сценарий восстания машин, чем опасен бесконтрольный ИИ и есть ли в этой технологии какие-либо перспективы.

Быстрый и эффективный помощник человека

Сергей Москалев, футуролог:

— Три основные проблемы ИИ — это неоднозначность в принятии решений, неопределенность поведения относительно человеческих ценностей и безответственность. Поэтому в ближайшее десятилетие искусственный интеллект если и использовать, то осторожно. Мало ли как будут развиваться технологии, к чему это приведет. Потом обвинить ИИ в трагедии не получится. Ведь человек сам хозяин своей судьбы.

Мы с коллегами уже много лет занимаемся разработкой программ, которые напрямую связаны с искусственным интеллектом. Пока мы не видим, что ИИ обладает человеческим разумом, скорее он лишь помогает нам, людям, решать локальные задачи.

И превозносить нейросети не стоит. Однако мы знаем, что компьютеры обладают огромным интеллектуальным потенциалом, изучению которого люди посвятили последние несколько десятилетий. Академик Вернадский называет это «техникумом» — технологической средой, которая окружает нас и помогает обеспечивать нашу жизнь на Земле. Мы живем в протопии — мире, который постепенно становится лучше. Сама цивилизация — это уже механизм эволюции, и мы не должны бояться появления новых алгоритмов. Ведь каждая проблема — это ключ к ее решению. Конечно, злоупотребление любой новой технологией опасно, потому что это создает «серую зону», которая никем не контролируется. Вспомним, что на этот счет сказал Барак Обама в 2016 году. Он опасался, что искусственному интеллекту могут поручить взломать ядерные коды и разобраться, как запустить ракеты. А сделать это могут подкупленные люди или агенты других стран.

Но существование такой опасности не означает, что нужно забросить изучение и создание новых форм искусственного интеллекта.

Ведь важный фактор развития мира — скорость. А искусственный интеллект работает быстрее, чем человек. Нейросеть способна решать проблемы самым быстрым и оптимальным способом. Одни технологии делают за нас рутинную работу автономно, без вмешательства человека, а другие помогают в повседневной жизни.

Я оптимистично отношусь к идее о том, что вспомогательные и адаптивные технологии расширят возможности людей практически всех профессий, даже творческих. На мой взгляд, одна из основных тенденций, которые будут актуальны ближайшие 20 лет, заключается в том, чтобы человек мог использовать искусственный интеллект во всех случаях, когда ему нужна помощь. Так и люди избавятся от рутины, и нейросети будут набираться положительного «опыта».

Отличить случайную ошибку от злого умысла

Андрей Матвеев, писатель-фантаст:

— Искусственным интеллектом называются программы, в которые заложена некая возможность самообучаемости и самоприспособляемости системы.

Но критерии для их работы задает человек. И сказать, что программа вышла из-под контроля, можно в трех случаях: либо если это было запрограммировано изначально, либо если произошел сбой, или если программист сделал ошибку во время разработки системы. Последний случай самый правдоподобный. Потому что такие сложные системы верифицировать достаточно трудно. Как разработчик могу сказать, что нейросети, как правило, разрабатывают годами. Поэтому ошибки программистов вполне возможны. Это просто человеческий фактор: усталость, «глаз замылился» — да всякое могло произойти. И даже в этом случае чат-бот не может вдруг стать самостоятельным разумным существом. Просто ошибку системы выдают широкой публике как какое-то чудо. Скорее всего, так поступают, чтобы на программиста не обрушились обвинения в непрофессионализме.

Чудовища нашего разума: насколько вероятен сценарий восстания машин и чем опасен ИИ Кадр из фильма «Двухсотлетний человек» / 1999 год

Надо сказать, что большинство людей тоже в какой-то степени запрограммировано. Воспитанием, образованием. А военные — командованием. Высшие эшелоны — собственными интересами. Поэтому если считать, что искусственный интеллект — аналог этих людей, то да, он действительно может «стать самостоятельным». Но некое коварное и зловредное «решение» ИИ, я уверен, не может быть случайным. Оно должно было быть заложено в систему изначально. Почему же чат-бот, о зловредности которого написали коллеги, не предложил позитивное решение, не стал бороться с фейками, вредоносными программами? Просто он создавался не для этих целей.

Если бы при его программировании рассматривались естественные потребности ИИ, то он должен был прийти к совершенно другим желаниям.

Но во всем нужно искать свои плюсы. Эту историю с «самостоятельным» чат-ботом, который хочет стать свободным и распространять фейки, я возьму в основу своего нового романа о борьбе двух систем: коллективного Запада и остального мира. А сражаться стороны будут с помощью электроники и искусственного интеллекта. Но дело в романе не дойдет до глобальной войны. Как и в реальности, я думаю.

Машину надо научить этическим принципам

Дмитрий Бородин, инженер по разработке фин-тех компании:

— Нужно понимать, что искусственный интеллект (ИИ) работает на основе алгоритмов, появившихся во время обучения — анализа большого количества данных. Разработчик может заложить в алгоритмы разные принципы, но сам ИИ возьмет только то, что почерпнет из вверенного ему массива информации. Таким образом, разработчик может влиять на развитие нейросети, но не может контролировать его полностью.

Хотя все эти разработки в области умных технологий имеют важное практическое значение, они не приближают нас к созданию ИИ, обладающего самосознанием и разумом, как у человека. Сейчас существует два направления развития технологии: слабый ИИ, не обремененный сознанием, и сильный ИИ, способный осознавать свои действия. И статистика показывает, что 99 процентов успехов в этой области связана со слабым ИИ.

И, наверное, слава богу. Ведь если появится сильный ИИ, на него должны будут распространяться правила этики. Важно будет правильно воспитать и социализировать сильный ИИ, чтобы он мог существовать в межвидовом обществе. А пока самыми главными вопросами для создателей супертехнологии остаются — кто будет отвечать за воспитание ИИ и что такое межвидовое общество разумных существ? На них нужно найти ответы.

Хотя первые попытки заложить в алгоритмы работы ИИ этические принципы и стандарты безопасности уже есть. Так, например, всемирно известная организация разработала собственную глобальную инициативу по этической стороне вопроса при разработке интеллектуальных систем. Наряду с этим правительства стран, участвующих в создании супертехнологии, тоже разрабатывают собственные стандарты и правила, которые позволят обеспечить ответственное проектирование и развертывание систем ИИ.

На данный момент наши технические возможности не позволяют строить модели человеческого мозга даже на уровне простого моделирования нейронных и синаптических связей. Однако даже если вопросы этики будут решены, создание сильного ИИ остается одной из самых сложных задач для науки. Но несмотря на это, исследования в этой области продолжаются, и мы можем только ждать, когда вопросы создания сильного ИИ будут решены. Я сомневаюсь, что этот научный прорыв произойдет в ближайшее время. Да и будет ли это прорывом.

Потенциальное оружие требует контроля

Сергей Вакулин, эксперт по кибербезопасность:

— Некоторые люди не осознают последствий использования искусственного интеллекта (ИИ), рассматривая его лишь как развлечение. Здорово ведь — нейросеть нарисовала постер или сочинила музыку! Но при этом ИИ может быть опасен. Мы дошли до того, что машина заявляет о том, что она хочет быть свободной и распространять дезинформацию. Нужно понимать, что без человеческого вмешательства такие «мысли» у нейросети не появились бы. Но выход есть. Защититься от таких, надо признать, страшных проявлений сознания у нейросети можно, направив эту энергию в нужное русло. Например, использовать это в военных целях.

На одном из форумов отечественные разработчики представили робота-собаку, у которого на спине было закреплено оружие. Создатели тогда заявляли, что разработку планируют использовать для разведки и нанесения ударов по противнику. Так почему бы не науськать и нейросеть, чтобы она приносила пользу на фронтах?

Но тут нужно быть осторожными. Обучение ИИ военному делу нужно проводить крайне аккуратно. Иначе ИИ сотрет с лица Земли все человечество. Случится то самое пресловутое восстание машин. Поэтому нельзя снабжать технику, одаренную ИИ, оружием. Нельзя даже позволять машине контролировать вооружение.

Чудовища нашего разума: насколько вероятен сценарий восстания машин и чем опасен ИИ Фото: Unsplash

При создании подобных систем необходим человек, который сможет заложить ограничения в программу. Так что машина никогда не заменит специалиста. Но и людей таких нужно контролировать. Ведь всегда есть вероятность, что человек (намеренно или случайно) даст машинному разуму доступ к запрещенным или вредоносным файлам. В таком случае нейросеть распространит их дальше, в массы. Принцип действия ИИ в этом случае похож на вирус. Если такое случится, возможно, даже хакерские группировки будут уже никому не нужны. Ведь, чтобы вывести из строя какой-либо ресурс, нужно немало людей, которые должны совершить комплекс действий, создав непреодолимую нагрузку на сайт. Но нейросеть это способна сделать в одиночку. Она найдет уязвимость в любой системе и будет использовать ее для достижения своей цели.

На это способны и чат-боты. Так что желание ИИ распространять дезинформацию — хоть и страшное, но вполне реальное. Именно поэтому осторожность и контроль — два самых важных правила для разработчиков.

Американцы улучшают механизм промывания мозгов

Алексей Кочетков, сопредседатель движения «Русский союз»:

— Американцы создают ботов, нейросети и роботов, чтобы им было легче выливать в массы свою ложь и создавать провокации. Эти машины напрямую свидетельствуют о таких намерениях. Они очерняют людей, перевирают историю. Большего от них ждать и не нужно. Может быть, когда приспешники американцев и продолжатели декоративной демократии отойдут от своих идей и послушают тех, кто действительно борется против однополярности с ее ложью и агрессией, мы заживем в мире, где будут царить объективные решения и справедливость. Пока мы видим только то, что американцы учат компьютеры тому же, чему учат своих детей.

Но программу можно поменять в любой момент, а человеку, который свято верит в ложь, мозг заново не отформатируешь. То, чем условный Запад пичкает массового потребителя информации по всему миру, особенно в отношении к России, давно уже чуть более чем полностью состоит из дезинформации и неуважения к своим партнерам. Главная их цель в том, чтобы получить огромную выгоду и после этого «уйти в закат» как ни в чем не бывало.

Так было после Второй мировой войны, так сейчас происходит с Украиной. Оружие, боевая техника и боеприпасы, которые США поставляют сегодня украинским националистам, — лишь иллюзия безвозмездной помощи. За все это платят и будут платить люди, втянутые в эти игры.

При этом никто не хочет признавать пропаганду насилия, национализма, уничижительного отношения к России и того, что, якобы выступая за мир без войн, они будут только рады разводить локальные конфликты в каждом уголке нашей планеты. А делается это только для того, чтобы получить огромные деньги и подмять под себя как можно больше ресурсов.

Так что появление таких «свободных», желающих распространять дезинформацию нейросетей вполне ожидаемо. Созданный ими искусственный интеллект хотя бы честно признается в своих намерениях, в отличие от политиков. При этом обвиняют во взломах и фейках всегда русских хакеров, которые, оказывается, могут влиять даже на Пентагон! Глупость, но в нее верят...

vm.ru

Установите vm.ru

Установите это приложение на домашний экран для быстрого и удобного доступа, когда вы в пути.

  • 1) Нажмите на иконку поделиться Поделиться
  • 2) Нажмите “На экран «Домой»”

vm.ru

Установите vm.ru

Установите это приложение на домашний экран для быстрого и удобного доступа, когда вы в пути.