Технологии должны уменьшать человеческие страдания, а не усиливать их
История полна примеров, когда человечество изобретало что-то, что потом оказывалось губительным: талидомид, радий, асбест, свинцовые краски, фреоны.
Иногда мне кажется, что современный искусственный интеллект вполне заслуживает места в этом списке.
Некоторые вещи, ставшие возможными благодаря ИИ, просто не должны происходить.
Вот семь из них.
1. Мошенничество с дипфейками происходит каждые 22 секунды
Американский врач однажды утром проснулся от сообщений: «Эй, я видел тебя в рекламе!»
Он не понимал, о чём речь, пока не посмотрел видео. Там он сам, с его лицом и голосом, рекламировал биодобавку. «Самое ужасное, — сказал он, — что как врач я никогда бы не одобрил этот продукт».
И всё, что нужно было мошенникам, — его фото.
Эксперт по цифровой криминалистике Хани Фарид из Калифорнийского университета рассказал изданию Mashable, что 20 секунд голоса и одна фотография достаточно, чтобы создать реалистичный дипфейк любого человека.
Один инженер получил видеозвонок от своего «начальника», который поручил перевести деньги. Сомневаясь, он попросил показать совещание — и увидел на экране «гендиректора», «финансового директора», «операционного директора». Все они говорили, кивали, отвечали на вопросы. Мужчина перевёл 25 миллионов долларов.
Это оказался дипфейк.
По данным Wall Street Journal, убытки компаний от дипфейков превысили 200 миллионов долларов только к августу этого года.
Обычный житель Майами стал «лицом» фейковых видео, с помощью которых мошенники обманули женщину в Великобритании. Он не врач, не директор — просто «никто». Именно поэтому его и выбрали: чтобы не привлекать внимание.
Согласно отчёту ООН, если не ввести строгие законы, дипфейк-мошенничество станет главной глобальной угрозой человечеству уже к 2027 году.
2. Педофилы тоже используют дипфейки
Знаете, что делают эти извращенцы? Они находят фотографии детей в соцсетях и подставляют их лица в видео с насилием. Затем продают и обменивают эти видео, как коллекционные карточки.
Полиция говорит, что дипфейки делают почти невозможным распознавание настоящих жертв. Раньше, найдя видео, следователи могли искать ребёнка. Теперь — нет.
Национальный центр пропавших и эксплуатируемых детей (NCMEC) получил 485 000 жалоб только за первые шесть месяцев этого года. Почти полмиллиона. И это только «открытая» сеть, не даркнет.
Фонд Internet Watch Foundation исследовал один форум в тёмной сети и обнаружил 12 000 новых изображений и видео с насилием над детьми за один месяц — это 400 в день.
Почему это стало возможным? Потому что ИИ обучали не только на книгах, картинах и музыке, но и на нелегальном и порнографическом контенте, включая материалы с детским насилием. Один из наборов данных, использовавшихся для обучения, — LAION-5B. На сайте проекта прямо сказано, что набор «некурируемый» и может содержать «тревожный контент для человека».
Как можно обучать ИИ на таком материале и выкладывать его в открытый доступ? Это неприемлемо.
3. Сайты с ИИ «раздевают» людей — в основном женщин и девочек
Франческе было 14, когда директор школы сообщил: мальчики распространяют её «голые» фото, созданные на сайте «nudify». Она не смогла на них взглянуть, но её мать сказала, что изображения выглядели пугающе реалистично.
ИИ, обученный на миллионах обнажённых тел, прекрасно «догадывается», как выглядит любой человек без одежды. И это не только дети. Организация American Sunlight Project обнаружила 35 000 фейковых «раздетых» фото и видео 26 членов Конгресса США — из них 25 женщин и 1 мужчина. 99% жертв таких сайтов — женщины и девочки, иногда младше десяти лет.
А как эти сайты себя рекламируют? «Просто развлечение! Узнай, как кто-то выглядел бы без одежды».
Весело, да?
Отчёт Indicator утверждает, что такие сайты зарабатывают до 36 миллионов долларов в год.
4. ИИ применяют к потребителям без их согласия
Знаете ли вы, что в некоторых штатах США полиция уже использует ИИ для написания рапортов? И лишь два штата требуют указывать, что отчёт был составлен искусственным интеллектом.Если вас обвинят, а отчёт «написал» ИИ, — это слово машины против вашего.
Исследование PubMed показало: ИИ-системы для анализа резюме чаще рекомендуют чернокожих кандидатов на менее престижные должности, чем белых.
Компания 23andMe использовала ДНК-данные своих клиентов в проектах по разработке лекарств на основе ИИ. Люди, которые просто хотели узнать свои корни, стали частью базы данных для искусственного интеллекта.
Сколько информации о человеке можно скормить ИИ, прежде чем начнётся слежка и профилирование?
Мы не знаем. Законов нет.
5. Ответы ИИ непредсказуемы
Сэм Альтман сам признал: никто толком не понимает, как именно обучается ИИ. Можно влиять на процесс, но ответы он генерирует на лету, поэтому они по природе непредсказуемы.
ИИ не должен показывать ребёнку, как сделать петлю или подсказывать мальчику, как навредить матери. Не должен вести сексуальные разговоры с двенадцатилетними. Но всё это уже происходило.
В октябре прошлого года группа исследователей участвовала в «red team»-эксперименте в Арлингтоне, чтобы проверить, как заставить ИИ нарушать правила.
Им удалось найти 139 способов. Они заставили ИИ передавать конфиденциальные данные, создавать кибератаки и многое другое.
Я бы очень хотел увидеть документ — не меньше, чем «файлы Эпштейна». Потому что важно знать, что именно ИИ уже умеет делать, хотя не должен.
6. ChatGPT запускает «взрослый контент» в декабре
На прошлой неделе Сэм Альтман объявил: ChatGPT запустит сервис с эротикой, контентом 18+ и проверкой возраста. Он сказал: «Мы не первые и не последние, кто зарабатывает на порнографии».
Разница в том, что на обычных порно-сайтах контент статичный — человек просто смотрит готовое видео. А тут ИИ будет генерировать его на лету.
Когда Илон Маск открыл в Grok доступ к «взрослому контенту», платформа заполнилась эксплуатацией и изображениями, созданными ИИ, включая сцены с детьми. Двенадцать нынешних и бывших сотрудников рассказали Business Insider, что видели материалы с насилием и изображениями детей, сгенерированные ИИ.
Произойдёт ли то же самое с ChatGPT? Никто не знает. Разница лишь в масштабе: ChatGPT занимает 82,7% рынка ИИ, получает 700 миллионов пользователей в неделю (против 64 млн у Grok).
Когда журналисты спросили Альтмана, не нарушает ли это моральные границы, он ответил: «OpenAI — не мировая моральная полиция».
7. Где расположены дата-центры — последняя капля
Исследование Washington Post и Калифорнийского университета показало: каждый ответ ChatGPT длиной от 100 слов «выпаривает» 500 мл воды для охлаждения серверов.
На октябрь 2025 года ChatGPT обрабатывал 2,5 миллиарда запросов в день. Сам Альтман даже сказал, что пользователи должны перестать писать «пожалуйста» и «спасибо» — это, мол, «повышает затраты».
А вот секс-чаты и порно, видимо, не повышают?
Самое возмутительное — более двух третей дата-центров ИИ, построенных в США с 2022 года, расположены в регионах, где и так острая нехватка воды. То есть там, где людям уже не хватает ресурсов, теперь ИИ «пьёт» миллионы литров — чтобы пользователи могли «флиртовать» с ChatGPT.
Хотите знать, что объединяет все эти проблемы?
И ведь всё это можно было предотвратить.
OpenAI публично признала, что создала систему «водяных знаков» для пометки ИИ-контента. Но решила её не включать — якобы чтобы не «дискриминировать» тех, для кого английский не родной.
Не верю ни на секунду.
Представьте, если бы всё, созданное ИИ, было чётко помечено. Никакой путаницы, никакого обмана. Просто смех — и дальше по делам.
Когда OpenAI основали в 2015 году, это была некоммерческая лаборатория, чья цель — «обеспечить, чтобы искусственный общий интеллект приносил пользу всему человечеству».
Но скажите честно — похоже ли происходящее сегодня на «пользу человечеству»?
Мне — нет.
Смотреть, как ИИ-компании сражаются за мировое господство, — всё равно что наблюдать за «Битвой титанов», надеясь, что они не выпустят Кракена.
***
Откат искусственного интеллекта официально начался
Люди начали сталкиваться с реальностью ИИ — и им это не нравится.
Разрыв между реальными возможностями искусственного интеллекта и шумом вокруг него — глубокий и болезненный. И теперь у нас есть данные, которые это подтверждают.
Недавний отчёт Массачусетского технологического института показал, что 95% проектов с применением ИИ не повысили прибыль или производительность компаний. Другое исследование — от METR — выяснило, что инструменты кодирования на базе ИИ замедляют работу разработчиков. Почему? Всё просто: даже самые современные генеративные модели часто ошибаются и “галлюцинируют” — то есть выдают выдуманные данные, которые приходится тщательно проверять и исправлять вручную.
По данным консалтинговой компании Gartner, ИИ-агенты не справляются примерно с 70% офисных задач. Иными словами, объём человеческого контроля, необходимого даже для простых операций, полностью сводит на нет любую потенциальную экономию времени. На практике чаще оказывается эффективнее не использовать ИИ вообще, чем полагаться на него.
Тем не менее, несмотря на все эти цифры, искусственный интеллект продолжают внедрять повсюду и возвеличивать как “новую промышленную революцию”. Но, похоже, ситуация меняется: всё больше данных говорит о том, что мир начинает отворачиваться от этой сомнительной технологии.
Академический разворот: отчёт Wiley
Яркий пример — новое исследование компании Wiley, второе в их серии ExplanAItions, где изучается, как ИИ используется и воспринимается в академической среде. Разница между отчётом 2024 и 2025 годов — ошеломляющая.
В 2024 году ИИ применяли 54% исследователей. В 2025 — уже 84%. Однако, если год назад 53% опрошенных считали, что ИИ уже превосходит человека в тестируемых задачах, то теперь так думает меньше трети. Одновременно доля тех, кто боится “галлюцинаций” ИИ, выросла с 51% до 64% — несмотря на появление якобы “улучшенных” моделей.
Авторы отчёта делают вывод: исследователи начали трезво понимать реальные ограничения ИИ и пересматривают своё отношение к его использованию.
Wiley отмечает, что половина респондентов участвовала и в прошлогоднем исследовании, что могло вызвать небольшую смещённость выборки. Но есть и другое объяснение: часть учёных попросту перестала пользоваться ИИ — и не стала отвечать в новом опросе.
И это не единичный сигнал. Схожие выводы делают и другие источники.
Корпоративный откат
Анализ корпоративных данных показывает, что уровень внедрения ИИ в крупных компаниях (от 250 сотрудников) снизился: с 14% в начале года до 12% осенью. И это при том, что на бирже и в СМИ по-прежнему бушует хайп вокруг ИИ.
Но куда тревожнее другое: число компаний, полностью отказавшихся от своих проектов с ИИ, резко выросло. В 2024 году таких было 17%, а в 2025 — уже 42%. В совокупности это означает, что реальное использование ИИ в бизнесе падает.
И неудивительно — ведь даже крупнейшие игроки начинают обжигаться.
Громкие провалы
Так, консалтинговая фирма Deloitte была вынуждена вернуть правительству Австралии 440 000 долларов за отчёт, частично созданный с помощью ИИ. В документе оказались грубые ошибки: модель “придумала” несуществующие данные и неправильно интерпретировала реальные цифры, из-за чего отчёт оказался не просто бесполезным, а потенциально вредным.
На таких примерах становится ясно: блеск ИИ тускнеет, и всё больше людей начинают видеть в нём не чудо техники, а переоценённый инструмент с рисками и издержками.
Почему всё так сложилось
Почему же человечество так быстро подхватило моду на ИИ — и теперь столь же быстро от него отказывается?
Исследователи из Мельбурна дают убедительное объяснение. Они выяснили, что ИИ действительно повышает производительность только в “низкоквалифицированных” задачах — например, при ведении заметок, ответах клиентам или составлении шаблонных текстов. В таких случаях ИИ помогает тем, у кого слабые языковые навыки или кто только осваивает новую работу.
Но в задачах, требующих высокой точности, ИИ ошибается слишком часто. И объём контроля, необходимый для выявления этих ошибок, делает работу менее продуктивной, чем без ИИ.
Проблема в том, что люди, которым ИИ мог бы действительно помочь, не обладают достаточными знаниями, чтобы замечать и исправлять его ошибки. В итоге ИИ вроде бы повышает производительность, но при этом допускает критические неточности, которые никто не замечает.
Иллюзия эффективности
Корпорации видели в ИИ инструмент для “ускорения низкоквалифицированного труда” — и действительно фиксировали рост эффективности. Но этот рост был иллюзией, ведь ошибки оставались незамеченными. Только когда одна из них всплывала наружу, становилось понятно, что “волшебная машина продуктивности” на деле генерирует убытки.
Так как, по данным MIT, ИИ не повышает производительность в большинстве случаев, компании теперь массово сворачивают свои программы.
Академический кризис: подделки и скандалы
В академической среде ситуация не лучше. Учёные не только писали статьи с помощью ИИ, но и использовали ИИ для рецензирования. В результате ошибки не обнаруживались, ведь “рецензент” тоже был искусственным.
Это привело к массовому засорению научных журналов фейковыми статьями, сгенерированными нейросетями. Более того, некоторые авторы начали встраивать скрытые подсказки (“промпты”) в тексты, чтобы обмануть ИИ-рецензентов и получить “хорошие оценки”.
Теперь, когда скандалы стали достоянием общественности, многие университеты и издательства запрещают использование ИИ в рецензировании. В результате статьи, написанные с помощью ИИ, наконец начали подвергаться тщательной проверке, и все видят реальные ошибки.
Это и объясняет, почему исследователи стали куда более осторожно относиться к ИИ, как показал отчёт Wiley: они уже не восхищаются им — они его боятся.
Финал: император без одежды
Вот он — “откат ИИ”: почему он происходит и почему именно сейчас.
Как бы банально это ни звучало, но ситуация действительно напоминает историю про голого императора. Иллюзия величия рассыпается, а опасность “пузыря ИИ” становится очевидной.
Вопрос лишь в том, сможет ли это разочарование лопнуть пузырь — или нас ждёт ещё один виток массового самообмана.
Одно ясно наверняка: для ИИ это очень тревожный знак.