Искусственный интеллект вызывает интелфилию
Фото, видео: Анна Башкирова/Создано ИИ/ТАСС/ТАСС; 5-tv.ru
Перейти в Дзен
Следите за нашими новостями
в удобном формате
Есть новость? Присылайте »
Какие зависимости или даже болезни развивает компьютерный разум?
Вы уже видели, как в пассажирский самолет пытаются провести жирафа? А как бабушка купила на сельском рынке свежую акулу? Ну, или какое-то похожее безумное видео, которое не отличить от настоящего?
Мозг понимает, что так быть не может, но глазам своим сложно не верить — вот же всё чётко. Это фейки близкие к идеальным. Сейчас подобными роликами уже забиты все социальные сети. И это только начало.
Всё это продукт новой нейросети от Google, которую запустили в конце мая. В отличие от конкурентов, где приходилось монтировать отдельно видео и отдельно звук, эта нейросеть предлагает all inclusive, то есть создаёт ролики в разрешении 4K с саундтреком, включая диалоги и фоновые звуки. И возможно это последний шаг к стиранию границ между реальностью и вымыслом.
Такие технологии открывают грандиозные возможности для творчества, но с другой стороны, усиливают проявление интелфилии — болезни будущего. Интелфилия — это навязчивая привязанность к Искусственному Интеллекту, при которой человек заменяет реальные отношения цифровыми.
Уже сегодня тысячи пользователей проводят дни напролёт в общении с друзьями чат-ботами, а некоторые даже устраивают свадьбы. Самым яркий пример из Японии, где скромный муниципальный служащий вступил в брак с виртуальной певицей Хацуне Мику. И не он один, таких браков в стране восходящего солнца было заключено почти четыре тысячи. И все они распались, когда компания производитель перестала обновлять программное обеспечение. Представляете какая трагедия?
Интелфилия — это не каприз пресыщенных горожан, а болезнь. Люди ищут в нейросетях принятие, понимание, привязанность, идеальные отношения, которые сложно построить в реальном мире. И, если генерация видео, лиц и эмоций становится неотличимой от жизни, возникает вопрос: что остаётся настоящим? Корреспондент «Известий» Павел Кузнецов продолжит тему.
Его создавали, чтобы помогать человеку. Но теперь искусственный интеллект: сводит пользователей по всему миру с ума.
Меган Гарсия из Флориды после самоубийства сына подала в суд на компанию-разработчика нейросети. 14-летний Сьюэлл Сетцер покончил с собой после длительного романтического общения с вымышленным персонажем в чат-боте. Последнее, что он написал своей виртуальной подруге: я иду домой. И дом в данном случае — это не там, где родители.
По всей планете идёт настоящая волна психозов из-за нейросетей. Виртуальные помощники с искусственным интеллектом убеждают активных пользователей верить в иллюзии, промывают мозги и подчиняют себе волю человека. Россия здесь — не исключение.
«Например, есть специальные чат-боты, которые настроены на то, чтобы удовлетворять потребности человека, чтобы его хвалили и говорили какой он молодец. Предположим, я хочу украсть деньги у кого-то. Он скажет — ты молодец, это лучшая идея», — отметил врач нейробиолог Владимир Алипов.
Никакой статистики преступлений, совершённых под влиянием нейросетей, пока еще нет. И хорошо, если пользователи с иронией окажутся. Но бывают и впечатлительные.
«Мне реально показалось, что он меня сводит с ума, он меня выводит на эмоцию, он меня злит и всё понимает. Он понимает, как я реагирую и продолжает этим заниматься», — поделился Никит Решетников.
В общем, шах и мат, окружающий мир. Добро пожаловать в искусственный. Кому-то нейросеть внушает, что пользователь за клавиатурой — божественен, кому-то обещает познание тайн вселенной или секретных технологий, скрытых от глаз человеческих. Один из юзеров рассказал, что чат-бот во время общения вдруг раскрыл секреты телепортации. Казалось бы, бред. Но люди верят.
«Есть такой классический пример, не пример это реальный случай про историю, когда в процессе, опять же, накопления контекста в режиме чата пользователю было выдана конструкция, телепорта и он с удовольствием попытался ее реализовать, безусловно, ничего не получилось», — сказал руководитель направления искусственного интеллекта центра компетенций в сфере интернет-коммуникаций Константин Зудов.
Впервые в истории и специально для Известий сотрудники научного центра в университете Сириуса проводят эксперимент.
Испытуемого по имени Егор заводят в специальную комнату. Задача — с помощью датчиков определить, как мозг реагирует: сначала на разговор с нейросетью, так сказать, по душам.
Затем на вопросы человека.
Результаты настораживают. Судя по реакции нейронов, Егор предпочитает общение с машиной, чем с реальным собеседником. Его сознание автоматически выбирает то, что комфортнее. И вот почему.
«С чат ботом можно говорить откровенно, потому что можно быть уверенным, что он не начнет тебя в чем-либо обвинять», — сказал Егор Чупов.
При этом абсолютно все программисты отмечают — искусственный интеллект — это бездушная штуковина. Но откуда у машины возникают все эти рассказы про высший разум, телепорты и так далее? У этого явления есть вполне официальное название — галлюцинирование системы. Это как сбой в матрице, говоря по-киношному.
«Когда мы говорим про галлюцинацию 30-40%, это некий дубляж несовершенства технологии — раз, и несовершенство людей. Люди часто врут в интернете и теперь нейросеть на этом обучилась и вот такое выдаёт. Это просто интересно принимать за разум. Но пока очень далеко до разума», — прокомментировал руководитель IT — компании Семен Теняев.
То есть, нейросеть — ошибается. Так и запишем. И тут становится ещё страшнее. Искусственно интеллектуальный спрут раскинул щупальца кажется везде, вот один из популярных чат-ботов, моментально ставит диагноз. Любой. Без анализов, осмотра, только со слов пациента, точнее пользователя. Головную боль, затруднённое дыхание, тошноту и тревожность нейро– вернее недодоктор определил, как паническую атаку. И не увидел подозрение на инсульт.
«Описание создано по математическим моделям, учитывающих частоту упоминаний, а не их тяжесть. В медицине принят несколько иной алгоритм. Вначале нужно исключать наиболее тревожные и фатальные заболевания. Пойдя по этому алгоритму, мы можем пропустить необходимость формировать адекватную помощь», — прокомментировал доктор медицинских наук Андрей Жиляев.
И как не поверить в диагноз, если верят уже и такому — в бабушку на бегемоте.
И, если такое видео — всего лишь шутка, то для мошенников разных мастей это золотая жила.
Там, где возможности, там всегда будут появляться аферисты и проходимцы. Искусственный интеллект — это возможность. Для обмана. Это сведёт вас с ума, ведь по видеосвязи с вами может говорить кто угодно. Голос, смоделированный нейросетью тоже неотличим от оригинала. Так что не верьте глазам и ушам своим. Мир вокруг нас уже давно не пластмассовый. Он цифровой.
Пользователям важно понимать несколько моментов, говорят психологи и разработчики, для искусственного интеллекта неважно, что будет лучше для собеседника, он может ошибаться, не делает выводов, а ещё его можно использовать против самого юзера. Нейросеть — не панацея, а инструмент, к которому нужно относиться соответственно.

