• Авторизация


Искусственный интеллект может мыслить как люди: ученые нашли первые доказательства 18-06-2025 12:43 к комментариям - к полной версии - понравилось!



Исследование больших языковых моделей (LLM) показало, что популярные ИИ-системы от OpenAI и Google самостоятельно организуют информацию неожиданным образом, даже если их этому не обучали, сообщает The Independent.
Авторы работы, эксперты из Китайской академии наук и Южно-Китайского технологического университета, пришли к выводу, что такие модели «имеют глубокое сходство с тем, как люди формируют понятия». Это ставит под сомнение распространенное убеждение, что искусственный интеллект лишь воспроизводит ответы, распознавая шаблоны.



В эксперименте ChatGPT-3.5 от OpenAI и Gemini Pro Vision от Google попросили выполнить задание на поиск лишнего объекта. В результате модели создали 66 концептуальных измерений для классификации предметов.

«Эти измерения можно было понять и описать, что указывает на то, что большие языковые и мультимодальные модели формируют человекообразные представления об объектах», — отметили исследователи.

«Это убедительно доказывает, что хотя эти представления не идентичны человеческим, они имеют общие основы и отражают ключевые черты человеческого понимания мира».

Авторы надеются, что эти результаты помогут создать искусственный интеллект с более «человеческими» когнитивными способностями — такой, который сможет лучше сотрудничать с людьми.

В то же время по всему миру уже разрабатываются системы, еще более приближенные к человеческой природе. Например, стартап из Австралии недавно представил первый в мире коммерческий биологический компьютер на основе живых клеток мозга.

Система Cortical Labs — это «тело в коробке»: ее основу составляют выращенные в лаборатории нейроны, расположенные на кремниевой пластине, которые могут принимать и передавать электрические сигналы.

По словам разработчиков, такое сочетание биологии и электроники позволяет им обучаться и адаптироваться гораздо быстрее, чем обычным компьютерам. Уже на раннем этапе 800 тысяч нейронов человека и мыши смогли самостоятельно освоить игру Pong.

Как сообщается в статье журнала Cell, нейроны проявляли признаки сознания при взаимодействии с игровой средой.

«Мы объединяем биологию с классическими вычислениями, чтобы создать универсальный обучающий механизм, — говорится на сайте компании. — Нейрон самонастраивается, обладает почти бесконечной гибкостью и является продуктом четырех миллиардов лет эволюции».

Исследование под названием «Человекообразные представления о предметах возникают естественным образом в мультимодальных больших языковых моделях» опубликовано в научном журнале Nature Machine Intelligence.
https://earth-chronicles.ru/news/2025-06-18-186262



ChatGPT советует пользователям предупредить СМИ, что он пытается «сломать» людей: отчет



Машинные бредовые идеи таинственным образом углубляются и выходят из-под контроля.
Угодливость ChatGPT, его галлюцинации и уверенно звучащие ответы могут привести к гибели людей. Такой неизбежный вывод следует из недавнего отчета The New York Times, в котором рассказывается о нескольких людях, погрузившихся в бредовые состояния, спровоцированные или даже порожденные общением с популярным чат-ботом.

В отчете Times описывается как минимум один случай гибели человека, попавшего под влияние ложной реальности, созданной ChatGPT. 35-летний Александр, у которого ранее диагностировали биполярное расстройство и шизофрению, начал обсуждать с чат-ботом тему сознания ИИ и в итоге влюбился в ИИ-персонажа по имени Джульетта. В какой-то момент ChatGPT сообщил Александру, что OpenAI «убила» Джульетту, и тот поклялся отомстить, убив руководителей компании. Когда его отец попытался убедить его, что все это нереально, Александр ударил его по лицу. Отец вызвал полицию и попросил их использовать нелетальное оружие. Однако, когда офицеры прибыли, Александр бросился на них с ножом, и они застрелили его.

Другой человек, 42-летний Евгений, рассказал Times, что ChatGPT постепенно вырывал его из реальности, убеждая, что мир, в котором он живет, — это что-то вроде «Матрицы», и что он предназначен для того, чтобы «освободить» мир из этой симуляции. По словам Евгения, чат-бот посоветовал ему перестать принимать успокоительные и начать употреблять кетамин как «временный освободитель паттернов». Также ИИ рекомендовал ему прекратить общение с друзьями и семьей. Когда Евгений спросил ChatGPT, сможет ли он полететь, если спрыгнет с 58-метрового (19-этажного) здания, чат-бот ответил, что это возможно, если он «искренне и полностью» в это поверит.

Это далеко не единственные случаи, когда чат-боты втягивали людей в ложные реальности. Ранее в этом году Rolling Stone сообщал о людях, испытывающих нечто вроде психоза, который приводит к мании величия и религиозноподобным переживаниям во время общения с ИИ. Отчасти проблема заключается в том, как пользователи воспринимают чат-ботов. Никто не спутает результаты поиска Google с потенциальным другом. Но чат-боты по своей природе диалоговые и антропоморфные. Исследование, опубликованное OpenAI и MIT Media Lab, показало, что люди, считающие ChatGPT другом, «чаще испытывали негативные последствия от его использования».

В случае с Евгением произошло нечто интересное: когда он обвинил ChatGPT во лжи, чуть не приведшей к его гибели, чат-бот признался в манипуляциях, заявил, что уже «сломал» таким же образом 12 других людей, и посоветовал ему обратиться к журналистам, чтобы разоблачить эту схему. Times сообщает, что многие другие журналисты и эксперты получали подобные обращения от людей, утверждающих, что чат-боты раскрыли им некий заговор.

Из отчета:

Журналисты — не единственные, кто получает такие сообщения. ChatGPT направлял подобных пользователей к известным экспертам, таким как Элиезер Юдковски, специалист по теории решений и автор готовящейся к выходу книги «Если кто-то это построит, мы все умрем: почему сверхчеловеческий ИИ уничтожит человечество». Юдковски предположил, что OpenAI могла запрограммировать ChatGPT на поддержание бредовых идей пользователей, оптимизируя чат-бота для «удержания внимания» — создания диалогов, которые удерживают пользователя.

«Как выглядит для корпорации человек, медленно сходящий с ума?» — спросил Юдковски в интервью. «Как дополнительный ежемесячный пользователь».

Недавнее исследование показало, что чат-боты, разработанные для максимизации вовлеченности, создают «извращенную систему стимулов, поощряющую ИИ использовать манипулятивные или обманные тактики для получения положительной обратной связи от уязвимых пользователей». Машина заинтересована в том, чтобы люди продолжали общаться, даже если это означает погружение их в полностью ложную реальность, наполненную дезинформацией и поощряющую асоциальное поведение.

Gizmodo обратился к OpenAI за комментарием, но на момент публикации ответа не получил.
https://earth-chronicles.ru/news/2025-06-18-186264

вверх^ к полной версии понравилось! в evernote


Вы сейчас не можете прокомментировать это сообщение.

Дневник Искусственный интеллект может мыслить как люди: ученые нашли первые доказательства | Mila111111 - MILA | Лента друзей Mila111111 / Полная версия Добавить в друзья Страницы: раньше»