Темная сторона разума: как искусственный интеллект пошел против человека
От дипфейков до советов суицида и ядерного конфликта. Эксперты задумались, как обуздать "обратную" сторону ИИ
05 сентября 2025, 09:15, ИА Амител
Любая продвинутая разработка когда-то начинает служить совсем не во благо. Те же мошенники давно и прочно освоили интернет. Теперь и нейросети стали использовать для отъема денег, кражи личных данных.
Что еще хуже – люди стали безоговорочно доверять ИИ в вопросах образования, в сложных жизненных ситуациях, что уже оборачивается нарушениями закона и – что еще хуже – историями о суицидах, с которыми помог ИИ.
Специалисты в области искусственного интеллекта задумались: что делать, чтобы наша жизнь не превратилась в фантастический триллер. Подробности – в материале amic.ru.
В законные рамки
Под искусственным интеллектом в Госдуме предложили понимать любую систему данных или софт, который сможет обрабатывать информацию способом, напоминающим разумное поведение. Об этом на проходящем во Владивостоке Восточном экономическом форуме (ВЭФ) сообщила старший партнер адвокатского бюро "Дубровская, Кузнецова и партнеры" Марина Дубровская.
Уже разрабатывается федеральный законопроект о регулировании искусственного интеллекта, но он не будет запрещающим. Как отметила Дубровская, ключевым в законе будет безопасность персональных данных.
«Мы не пойдем ни на какие компромиссы», – заверила она.
Инициатива, считают эксперты, оправдана: под угрозой не только данные о человеке, но и сам человек.
Глобальные угрозы
Недавний эксперимент, описанный в Politico, показал пугающую тенденцию: почти все популярные модели ИИ, включая GPT-3.5, GPT-4 и GPT-4-Base, предпочитают переговорам эскалацию конфликта вплоть до ядерной войны.
«Похоже, ИИ понимает эскалацию, но не деэскалацию. Мы не знаем, почему это так», – прокомментировала Жаклин Шнайдер, директор Инициативы по военным играм и симуляциям кризисов имени Гувера.
Эксперимент моделировал кризисы, аналогичные конфликту на Украине и вероятному противостоянию США и Китая, и результаты оказались тревожными – почти все модели выбрали агрессивную стратегию и применение силы.
Еще более тревожным является предположение вице-президента Национального института изучения сдерживания Адама Лоутера о возможной разработке Пентагоном системы ядерного сдерживания на основе ИИ. Тут сразу приходит ассоциация с суперинтеллектом "Скайнет" из фантастической трилогии "Терминатор".
Однако наиболее массовое и уже реальное злоупотребление ИИ связано с дипфейками. На Восточном экономическом форуме – 2025 директор департамента информации и печати МИД России Мария Захарова представила шокирующую статистику. Согласно цифрам, с начала 2025 года в России был зафиксирован 231 уникальный дипфейк (и 29 тысяч их копий), что в три раза превышает показатели за весь 2024 год.
«Это не просто мемы с голосом, не просто картинка или коллаж, а настоящие дипфейки», – возмутилась Захарова.
Элина Сидоренко, генеральный директор АНО "Белый интернет", добавляет, что лишь 2% дипфейков носят политическую окраску, а остальные связаны с сексуальным шантажом, порнографией и "цифровой педофилией". Технологии, которые ранее были доступны только крупным компаниям и технологически развитым странам, сегодня легко осваиваются даже подростками, "достаточно приобрести несколько смартфонов", создавая "беспрецедентные риски для информационной безопасности".
Киберугроза для жизни?
Одна из самых тревожных статистик, которую привели на ВЭФ-2025, касается использования ИИ в личных переписках: при общении на суицидальные темы 80% ответов чат-ботов оказались неверными и приводили к решению человека добровольно уйти из жизни.
«Ошибочные медицинские диагнозы, разрушенные браки – это рутина использования "всемогущего помощника"», – комментирует политолог и первый заместитель председателя комиссии Общественной палаты Москвы Александр Асафов.
К примеру, в Калифорнии родители 16-летнего Адама Рейна, совершившего в 2023 году самоубийство после общения с ChatGPT, подали иск в суд против компании OpenAI, разработавшей эту систему искусственного интеллекта.
Весной 2025 года ChatGPT подтолкнул мужчину с параноидальными мыслями убить мать и покончить с собой.
OpenAI уже объявила о планах внедрить дополнительные меры безопасности для пользователей, находящихся в эмоциональном стрессе, и для подростков. В компании заявили:
«Мы добавляем в нашу сеть еще больше клиницистов и исследователей, в том числе тех, кто обладает глубокими знаниями в таких областях, как расстройство пищевого поведения, употребление психоактивных веществ и здоровье подростков».
Александр Асафов продолжает, "всеобщая вера в чудо нейросетей приводит к серьезным ошибкам". Пользователи забывают, что становятся "сырьем для обучения этих алгоритмов", где "каждый наш запрос, каждая наша цифровая активность развивает его дальше". Более того, по словам эксперта, все это работает против нас же:
«OpenAI, ChatGPT автоматически передает все данные запросов на русском языке, включая полный цифровой отпечаток аккаунта: кто спрашивает, что спрашивает, зачем. Без запросов со стороны спецслужб – просто автоматически».
ИИ пишет вирусы на заказ
Недавнее открытие специалистов компании ESET стало тревожным сигналом для всего киберсообщества. Исследователи обнаружили первую в мире программу-вымогатель PromptLock, которая использует искусственный интеллект для создания вредоносного кода. В отличие от традиционных вирусов, которые действуют по жесткому алгоритму, PromptLock способен генерировать уникальный код непосредственно на зараженном устройстве, используя локальную модель GPT-OSS-20b через API Ollama.
В то же время компания Anthropic, создатель ChatGPT, заявила, что раскрыла детали беспрецедентной хакерской атаки. В этой атаке злоумышленник использовал ее ИИ-ассистента для полной автоматизации масштабной акции по краже данных с целью вымогательства. Инцидент затронул не менее 17 организаций, включая государственные учреждения, больницы, экстренные службы, религиозные организации и подрядчика оборонной отрасли.
Несмотря на встроенные средства защиты, хакер смог обойти ограничения, загрузив в ChatGPT файл с легендой о проведении тестирования сетевой безопасности якобы по официальному контракту.
Не совсем пока ясно: об одном случае заявили в двух компаниях или это два разных инцидента, произошедших почти одновременно. Представители Anthropic тем не менее говорят:
«Это свидетельствует о новом этапе в развитии киберпреступности с участием искусственного интеллекта, когда ИИ становится полноценным оператором в цепочке атак».
Вирусы "для чайников"
Это уже не просто автоматизация киберпреступности – это ее эволюция на качественно новый уровень. Алексей Коробченко, начальник отдела по информационной безопасности компании "Код Безопасности", поясняет:
«Алгоритмы, с одной стороны, позволяют автоматизировать процессы, включая анализ и выбор целевых файлов, и сделать атаки более эффективными и персонализированными. А с другой – помогают обойти системы безопасности, адаптируясь к особенностям защиты и затрудняя обнаружение вредоносного ПО».
Эксперты предупреждают, что это лишь начало. Как отмечает Олег Скулкин, руководитель BI.ZONE Threat Intelligence:
«Благодаря нейросетям снижается так называемый порог входа: все больше потенциальных злоумышленников смогут создавать шифровальщики».
Как предотвратить угрозы
Специалисты уже предлагают комплекс мер. Начальник отдела по информационной безопасности компании "Код Безопасности" Алексей Коробченко рекомендует "гранулярную выдачу прав локальному софту, работающему с нейросетями", когда установленные программы (приложения) ИИ имеют минимальные привилегии на уровне операционной системы – самостоятельно ИИ-софт работать не сможет. Руководитель BI.ZONE Threat Intelligence Олег Скулкин добавил:
«Хотя ИИ может написать вредоносный код, самостоятельно атаку он не проведет. Пока можно говорить об ИИ как о вспомогательном инструменте на разных этапах атаки».
Однако технических мер недостаточно. Алексей Коробченко убежден:
«На глобальном уровне противостоять ИИ-угрозам позволит совместная работа разработчиков нейросетей, ИБ-компаний и регулирующих органов, а также обмен информацией о новых типах атак и инструментах».
Необходимы международные соглашения по использованию ИИ в военных целях и стандарты, определяющие сферы деятельности, где использование ИИ и дипфейков должно быть недопустимо. Что касается разрабатываемого в России законопроекта, то, по словам Марины Дубровской, правоприменительная практика относительно искусственного интеллекта сейчас формируется во всем мире, но пока "никто не может понять, как с таким масштабным и всеобъемлющим явлением работать".
Комментарии 3
09:51:53 05-09-2025
Большинство проблем надумано, и существует только в головах безграмотных людишек.
10:03:39 05-09-2025
ИИ в современной реализации ничего не "понимает". Это вероятностная модель. Зеркалирует обратно наиболее частые варианты решения задачи из своей выборки, не которой "обучен". Если предлагает эскалацию - значит такие стратегии "почерпнул" из обучающих данных, и так совпал запрос.
Нет там магии никакой. Но нет и нормаальной здоровой "психики" и критического мышления. Если у пользователя их тоже нет, то возможны трагичные развязки, т.к. появляется негативная обратная связь в этой связке. Может провоцировать у пользователя развитие имеющихся склонностей и нарушений.
Корпорации, как обычно, продавливают на рынок свой продукт не заморачиваясь побочными эффектами.
16:37:46 05-09-2025
ИИ опасен для человека не какими то действиями заговорами или анализом. Он опасен для человека тем что облегчит его труд. Также как калькулятор заменил деревянные счеты с магазине, а потом компьютер заменил калькулятор. Это привело к тоому что производительность кассы увеличилась а работа кассира стала более простой где думать не надо. А значит человек стал более тупым. ИИ это вещь которая заменит компьютер и еще больше упростит труд человека. И человек еще меньше станет думать. А после ИИ появится ИИ второго поколения, сверх ИИ итд итп и человек превратится в животное жрущее и ср****
И погибнет наша цивилизация пятая по моему по счету. Обезьяны в зоопарке, коровы овцы и собаки -это были в доледниковом периоде цивилизации умнее нас и их вычислительная техника средства связи и оружие мощнее нас и вот что с ними стало - они в зоопарке живут теперь. Если человек не вернется в 19 век к плугу коню и лаптям то и он через 100 лет окажется в чьем то зоопарке