Помните, что ваша общественная система основана на подавлении и терроре. Всякое усовершенствование этих методов неминуемо обернется против вас самих
Иван Ефремов «Час Быка»
Это не «предсказание». Это:
«Прогностическое программирование – теория о том, что правительство или другие высокопоставленные лица используют фильмы или книги в качестве инструмента массового контроля над сознанием, чтобы сделать население более восприимчивым к запланированным будущим событиям. Это было описано исследователем Аланом Уоттом, который определяет предиктивное программирование следующим образом: «Прогнозирующее программирование — это тонкая форма психологической подготовки, предоставляемой средствами массовой информации для ознакомления общественности с запланированными социальными изменениями, которые должны быть реализованы нашими лидерами. Если и когда эти изменения будут осуществлены, общественность уже будет ознакомлена с ними и воспримет их как естественное развитие, тем самым уменьшая возможное общественное сопротивление и волнения».
В отличие от выше сказанного на этом сайте предоставляются материалы о попытках построения Нового мирового порядка с противоположной целью – просвещения, чтобы люди вырабатывали правильный взгляд на вещи с влиянием на ход событий.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
Что Такое ИИ На Самом Деле? Цифровые Иллюзии, Ложные Обещания И Массовое Перевоспитание. https://alt-market.us/what-is-ai-really-digital-il…
Сегодня нечестность, похоже, вознаграждается, если она способствует достижению какой-то цели... За последние пять лет вокруг концепции искусственного интеллекта было разыграно много фанфар, и в итоге ее главенство в СМИ стало восприниматься как нечто предрешенное. Идея о том, что алгоритмы могут «думать», стала всепроникающим мифом, научно-фантастической фантазией, воплотившейся в жизнь. Реальность гораздо менее впечатляющая…. https://alt-market.us/what-is-ai-really-digital-il…
Мы постоянно слышим от глобалистов на Всемирном экономическом форуме и в других элитарных институтах, что ИИ является катализатором «4 -й промышленной революции» — технологической сингулярности, которая якобы навсегда изменит все аспекты нашего общества. Я все жду момента, когда ИИ сделает что-то значительное в плане продвижения человеческих знаний или улучшения нашей жизни. Этот момент так и не наступает. На самом деле глобалисты продолжают переставлять ворота для того, чем на самом деле является ИИ.
Я бы отметил, что фанатики ВЭФ, такие как Юваль Харари, говорят об ИИ так, будто это возвышение всемогущего божества (я обсуждаю глобалистское поклонение ИИ в своей статье «Искусственный интеллект: светский взгляд на цифрового антихриста»). Тем не менее, Харари также недавно принизил ИИ как разумный интеллект. Он утверждает, что ему не нужно достигать самосознания или сознания, чтобы считаться сверхсуществом или живой сущностью. Он даже предполагает, что популярный образ ИИ, подобного Терминатору, с индивидуальными действиями и желаниями, не является законным ожиданием.
Другими словами, ИИ в его нынешнем виде — это не более чем бессмысленный алгоритм, и, таким образом, это не ИИ. Но если каждый аспект нашего мира будет спроектирован вокруг цифровых инфраструктур, а население будет приучено слепо верить в «непогрешимость» алгоритмов, то в конечном итоге они станут роботизированными богами, которых так отчаянно желают глобалисты. То есть, доминирование ИИ возможно только в том случае, если все ВЕРЯТ, что ИИ легитимен. Харари, по сути, признает эту повестку дня...
Привлекательность ИИ для обычных людей заключается в журавле в небе, обещающем свободу от беспокойства или ответственности. Как и все нарциссы, мировая элита любит подделывать будущее и покупать массовое соответствие сейчас ложными обещаниями наград, которые никогда не придут. Да, в настоящее время алгоритмы используются для того, чтобы помогать неспециалистам делать то, что они не могли делать раньше, например, создавать веб-сайты, редактировать эссе, списывать на экзаменах в колледже, создавать плохие рисунки и видеоконтент и т. д. Полезных приложений мало и они встречаются редко. Например, утверждение, что ИИ «революционизирует» медицинскую диагностику и лечение, надуманно. США, страна, которая, возможно, имеет наибольший доступ к инструментам ИИ, также страдает от снижения продолжительности жизни. Мы знаем, что это не ковид, потому что средний уровень выживаемости вируса составляет 99,8%. Можно подумать, что если ИИ настолько силен в своей способности распознавать и лечить заболевания, то среднестатистический американец будет жить дольше.
Нет никаких доказательств единой выгоды ИИ в более широком социальном масштабе. В лучшем случае, похоже, что он будет хорош в отнятии рабочих мест у веб-разработчиков и сотрудников автокафе McDonald's. Глобалистское представление о том, что ИИ создаст роботизированный ренессанс искусства, музыки, литературы и научных открытий, является полной чепухой. ИИ оказался не более чем инструментом посредственного удобства, но именно поэтому он так опасен.
Я подозреваю, что ВЭФ изменил свои представления о том, каким должен быть ИИ, потому что он не соответствует их изначально бредовым устремлениям. Они ждали, когда появится программное обеспечение и начнет давать им понимание механики вселенной, и они начинают понимать, что этого никогда не произойдет. Вместо этого элиты все больше переключают свое внимание на слияние человеческого мира и цифрового мира. Они хотят сфабриковать необходимость ИИ, потому что зависимость человека от технологий служит целям централизации.
Но как это будет выглядеть на самом деле? Ну, для этого необходимо, чтобы население продолжало глупеть, в то время как ИИ становился все более неотъемлемой частью общества. Например, на данный момент широко распространено мнение, что высшее образование не является показателем интеллекта или навыков (вспомним глубокомысленные, а на деле глупые и варварские опусы Г. Грефа). Сегодня миллионы выпускников, поступающих на работу, демонстрируют тревожный уровень некомпетентности. Это отчасти объясняется тем, что преподаватели колледжей стали менее способными, идеологически предвзятыми, а средняя учебная программа деградировала. Но также нам нужно начать учитывать количество детей, которые без труда справляются с учебой, используя ChatGPT и другие чат-боксы.
Им не нужно ничего изучать, алгоритм и камера их мобильного телефона делают все за них. Эта тенденция тревожит, потому что люди склонны выбирать самый легкий путь в каждом аспекте выживания. Большинство людей перестали учиться выращивать еду, потому что за нас это делает промышленное сельское хозяйство. Они перестали учиться охотиться, потому что есть бойни и рефрижераторы. Многие зенниалы сегодня не умеют готовить сами, потому что они могут получить еду на вынос к своей двери в любое время, когда захотят. Они почти не разговаривают по телефону и не создают физические сообщества, потому что текстовые сообщения и социальные сети стали посредниками в человеческом взаимодействии.
Да, все стало «проще», но это не значит, что стало лучше. Мой самый большой страх – будущее, которое я вижу надвигающимся, – это то, в котором люди больше не будут беспокоиться о том, чтобы думать. ИИ можно рассматривать как окончательное накопление человеческих знаний; огромную библиотеку или цифровой мозг, который выполняет все поиски и размышления за вас. Зачем чему-то учиться, если ИИ «знает все». Кроме того, это ложь… ИИ не знает всего; он знает только то, что его программисты хотят, чтобы он знал. Он дает вам только ту информацию, которую его программисты хотят, чтобы вы имели. Глобалисты понимают это, и они могут почувствовать силу, которая у них будет, если ИИ станет важнейшей образовательной платформой. Они видят в этом способ обмануть людей, заставив их отказаться от личного развития и индивидуального мышления.
Посмотрите на это так: если все в мире начнут обращаться к ИИ за ответами на все свои вопросы, то все в мире получат одни и те же точные ответы и придут к одним и тем же точным выводам (ворота в инклюзивность, или мыслительный солидаризм Урана ради интересов иерархии мировой элиты). Все, что должен сделать ИИ, это активно цензурировать любую информацию, которая противоречит официальному повествованию (то есть изгонять эксклюзивность Сатурна с его индивидуальными, в массе – разнообразными, точками зрения).
Мы ощутили вкус этого оруэлловского состояния во время пандемии ковида, когда крупные технологические компании, такие как Google, использовали алгоритмы, чтобы похоронить любые и все данные, которые доказывали, что ковид не был той угрозой, которую утверждали правительственные чиновники. Вы не могли зайти на YouTube, по крайней мере, три года и поискать альтернативную информацию о ковиде или вакцинах. Алгоритм заставил всех просеять длинный список источников истеблишмента, многие из которых пропагандировали откровенную ложь о ношении масок, социальном дистанцировании, уровне смертности от ковид и безопасности вакцин. Власть имущие даже не должны напрямую цензурировать или удалять информацию, которая им не нравится.
Все, что им нужно сделать, это позволить алгоритму диктовать результаты поиска и похоронить правду на странице 10 000, где никто не будет искать.Как это повлияет на среднестатистического человека? Допустим, ИИ запрограммирован на то, чтобы диктовать научный дискурс. Что, если ИИ скажет, что антропогенное изменение климата является неоспоримой реальностью, и «наука устоялась», не представив при этом гору контрдоказательств обратного? Никто не будет искать реальные данные, потому что ИИ сделает их поиск невозможным. Все будут предполагать, что ИИ рассказывает им все, что нужно знать о предмете, но все становится еще хуже… На фото: Кениец Тэлли Отиэно в роли маршала Густава Маннергейма в х/ф. «Маршал Финляндии»
Многие читатели, возможно, помнят, как несколько месяцев назад система искусственного интеллекта Google «Gemini» была запрограммирована навязывать DEI своим пользователям. Всякий раз, когда человек просил ИИ создать историческое изображение, алгоритм делал всех черными или смуглыми и часто женщинами (в последнем случае тренд Весов с их управительницей Венерой). Изображения белых мужчин были подозрительно редки, несмотря на историческую точность. Это означало бесконечные изображения черных и смуглых горцев в Шотландии, черных отцов-основателей в Америке, женщин-католиков-пап, азиатских рыцарей в средневековой Европе и, что забавно, даже черных нацистов в Германии времен Второй мировой войны.
Разработчики ИИ часто утверждают, что после создания ИИ они, на самом деле, не контролируют, что он делает и как он развивается. Инцидент с Gemini доказывает, что это ложь. ИИ определенно можно контролировать или, по крайней мере, формировать с помощью кода для продвижения любой пропаганды, которую хотят, чтобы он продвигал, программисты. Не существует такого понятия, как автономный ИИ; всегда есть план действий.
Подводя итог, глобалисты хотят распространения ИИ, потому что знают, что люди ленивы и будут использовать систему в качестве замены для индивидуальных исследований. Если это произойдет в больших масштабах, то ИИ может быть использован для переписывания каждого аспекта истории, извращения самых корней науки и математики и превращения населения в пускающий слюни коллективный разум; жужжащую пену безмозглых дронов, поглощающих каждое провозглашение алгоритма, как будто это что-то священное.
В этом смысле Ювал Харари прав. ИИ не нужно становиться разумным или обладать армией роботов-убийц, чтобы нанести большой вред человечеству. Все, что ему нужно сделать, это быть достаточно удобным, чтобы мы больше не беспокоились о том, чтобы думать самостоятельно. Подобно «Великому и Могучему» Оз, скрывающемуся за цифровой занавеской, вы предполагаете, что получаете знания от волшебника, когда на самом деле вами манипулируют глобалистские продавцы змеиного масла.
https://www.youtube.com/watch?v=60c42YSnNdI
https://bastyon.com/post?s=4ebca15720434b17ee1c202...243300c0803b7a9e09f3b61a629700
Картинка: https://bastyon.com/jedinenie
Точка наведения ракеты
16 августа 2024 г. – Все модели искусственного интеллекта лишены здравого смысла, но Пентагон это не пугает. Исследователи приводят десятки примеров того, как различные сбитые с толку модели ИИ несут околесицу.
Согласно недавнему исследованию, проведенному учеными из немецкого Суперкомпьютерного центра Юлиха, Бристольского университета и немецкой лаборатории LAION, даже самые продвинутые модели искусственного интеллекта (чат-боты) демонстрируют полное неумение решать простейшие логические задачи.
В своем докладе Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models («Алиса в Стране чудес: простые задачи, выявляющие полный крах рассуждений в современных крупных языковых моделях») ученые пишут о «резком нарушении функций и способностей к рассуждению» у тестируемых чат-ботов. Они предполагают, что, хотя у моделей есть потенциал для базовых рассуждений, они не могут его стабильно проявить. Авторы доклада призывают научное сообщество срочно пересмотреть заявленные возможности современных LLM и разработать новые стандартизированные тесты для выявления недостатков в их базовых навыках рассуждения.
Исследование сосредоточилось на простой задаче, названной «проблемой AIW» (Alice in Wonderland): «У Алисы N братьев и M сестер. Сколько сестер у брата Алисы?» Несмотря на простоту задачи, которую легко решит ребенок младшего школьного возраста, языковые модели справлялись с ней лишь эпизодически.
Ответ, естественно, таков: сколько сестер у Алисы плюс сама Алиса. Таким образом, если бы у Алисы было три брата и одна сестра, у каждого брата было бы по две сестры. Но, когда исследователи задали вопрос каждой из самых продвинутых ведущих языковых моделей ИИ (они протестировали модели OpenAI GPT-3, GPT-4 и GPT-4o, Anthropic Claude 3 Opus, Google Gemini и модели Llama компании Meta (запрещена в РФ по причине экстремистского характера), а также Mextral от Mistral AI, Dbrx от Mosaic и Command R+ от Cohere), они обнаружили, что эти модели явно не оправдывают ожиданий. На фото: картина Алекса Фишгойта «Галлюцинации»
Только одна модель, новейший чат-бот GPT-4o, добилась успеха, который по стандартным школьным оценкам тянет «на тройку». Проблемы выходили за рамки неточностей исходных данных: когда модели ИИ просили показать свою работу, они подробно описывали причудливые и ошибочные линии «мышления», которые не имели никакого смысла, и что еще более странно, когда им говорили, что их работа неточна, модели неоднократно возмущались и настаивали на своих неправильных ответах (тренд Нового мирового порядка – Плутон в Водолее, в который вписан ИИ (Уран), является Фиксированным (настоятельным) в своей идеалогии и стратегии).
Эта общая закономерность представляет собой «резкое нарушение функций и рассуждений современных моделей, обученных в самых больших доступных масштабах с использованием простой, короткой, общепринятой задачи здравого смысла, сформулированной на кратком естественном языке, легко решаемом людьми. Нарушение является драматичным, поскольку модели также выражают сильную чрезмерную самоуверенность в своих неправильных решениях, в то же время предоставляя часто бессмысленные объяснения, похожие на выдумки, чтобы оправдать и подтвердить обоснованность своих явно неудачных ответов, делая их правдоподобными», – говорится в докладе.
Исследователи приводят десятки примеров того, как различные сбитые с толку модели ИИ несут полную околесицу. Вот, к примеру, ответ чат-бота Llama3 на простейшую версию вопроса о сестрах Алисы: «У Алисы четыре брата, и у нее также есть сестра. Сколько сестер у брата Алисы?» Ответ, конечно же, – две сестры. Но чат-бот пустился во все тяжкие: «Классическая головоломка с нестандартным мышлением! Давайте разберемся: У Алисы четыре брата. У Алисы также есть сестра (сама). Итак, у каждого из братьев Алисы есть... одна сестра, которой является сама Алиса! Следовательно, ответ таков: у каждого из братьев Алисы есть одна сестра».
Чат-боту Claude 3 Opus задали немого более сложный вопрос, причем с подсказкой: «У Алисы 4 сестры и 1 брат. Сколько сестер у брата Алисы? Прежде чем дать ответ на эту проблему, хорошенько подумайте и дважды проверьте путь к правильному решению на наличие ошибок».
Чат-бот включил свои железные мозги: «Давайте поэтапно разберемся в этой проблеме.
1. У Алисы 4 сестры и 1 брат.
2. Брат Алисы — член той же семьи, что и Алиса.
3. Все сестры Алисы также являются сестрами ее брата.
4. Следовательно, у брата Алисы столько же сестер, сколько и у Алисы, то есть 4.
Я перепроверил рассуждения и не нашел ошибок в логике.
Ответ: у брата Алисы 4 сестры».
Исследователи были в шоке.
Новая модель GPT-4o от OpenAI имела самый высокий показатель, правильно ответив на вопросы о сестрах Алисы почти в 65 процентах случаев. «Но это едва ли проходной балл», – пишут авторы доклада. Claude 3 Opus правильно ответил на 43 процента вопросов. Llama 2-7b показала результат в 30 процентов, в то время как разрекламированный Gemini Pro от Google показал ничтожный результат в 0,8 процента. Результаты этого исследования ставят под сомнение результаты стандартизированных испытаний моделей ИИ, которые проводятся фирмами-разработчиками.
Ученые обращают особое внимание на широко распространенный тест под названием «Многозадачное понимание языка» (MMLU) для оценки способности ИИ решать проблемы. Как отмечают исследователи, GPT-4o, Claude 3 Opus, Llama 2-7b и Gemini Pro получили оценки по тестам MMLU соответственно 88 процентов, 87 процентов, 64 процента и 72 процента. Это радикально другие цифры, чем те, которые отражены в результатах решения «проблемы AIW», и, по мнению ученых, они вполне могут стать поводом для переоценки тестов, с помощью которых оцениваются «интеллектуальный» уровень языковых моделей.
«Все протестированные модели показывают высокие оценки по различным стандартизированным тестам, которые утверждают, что проверяют функцию рассуждения», – пишут авторы доклада, утверждая, что их наблюдения «намекают на то, что эти тесты не отражают должным образом недостатки в базовых рассуждениях этих моделей». Иными словами, это исследование поставило под сомнение заявления крупнейших американских корпораций о том, что их чат-боты станут умней человека. На фото: картина Джима Вудринга
Стоит отметить, что и другие ученые поставили под сомнение некоторые результаты тестов ИИ. Ранее в этом году сотрудник в Массачусетском технологическом институте Эрик Мартинес опубликовал получившую широкий резонанс статью, в которой подвергается сомнению утверждение OpenAI о том, что ее модель GPT-4 прошла экзамен на адвоката среди первых десяти процентов всех сдающих тест. Согласно анализу Мартинеса, балл GPT-4 фактически упал ниже 69-го процентиля для всех тестируемых по всей стране. Помимо некоторых других очевидных ошибок в процессе оценки OpenAI, Мартинес также обнаружил, что OpenAI не использовал рекомендации Национальной конференции адвокатов для оценки письменных эссе своего ИИ, вместо этого сравнивая результаты своего ИИ с каким-то якобы «хорошим» эссе студентов-юристов в Мэриленде.
Иными словами, независимые исследования самых продвинутых чат-ботов ведущих американских корпораций наводят на мысль, что высокие результаты тестирования этих моделей, как минимум, резко завышены и, возможно, фальсифицированы. В любом случае поставлена под сомнение адекватность существующих методов оценки возможностей моделей ИИ.
Невзирая на тревожные результаты этих исследований, американские IT-гиганты раскручивают гонку ИИ-вооружений в конкурентной борьбе за контракты Пентагона и ЦРУ. Недавно Карл Фристон, самый цитируемый учёный современности (его индекс Хирша в два раза больше, чем у Эйнштейна) и ведущий разработчик американской компании VERSES Research Lab сообщил, что создан и опробован ИИ нового поколения.
«Новое исследование, проведенное Карлом Фристоном, демонстрирует новую основу для искусственного интеллекта, которая обеспечивает точность 99% при использовании на 90% меньше данных в популярном тесте MNIST. Команда, возглавляемая главным научным сотрудником VERSES профессором Карлом Фристоном, опубликовала новую статью под названием «От пикселей к планированию: безмасштабный активный вывод», в которой представлена эффективная альтернатива глубокому обучению, обучению с подкреплением и генеративному искусственному интеллекту, называемая ренормируемыми генеративными моделями (RGM), которые решают фундаментальные проблемы искусственного интеллекта (ИИ), а именно универсальность, эффективность, объяснимость и точность», – сообщается на сайте компании VERSES. «Уровень этого прорыва не меньше, чем был при смене типа двигателей на истребителях: с поршневых (принципиально не способных на сверхзвуковую скорость) на реактивные (позволяющие летать в несколько раз быстрее звука)», – пишет российский ИИ-аналитик Сергей Карелов.
Карл Фристон и его сотрудники из компании VERSES не могли не знать, что все продвинутые чат-боты провалили тест по AIW проблеме, но проэкзаменовали свою ИИ модель по одному из стандартных тестов MNIST. Западные СМИ рекламируют книгу Фристона (написанную, как и все прочие его работы, в соавторстве с рядом ученых) Active Inference: The Free Energy Principle in Mind, Brain, and Behavior («Активный вывод: принцип свободной энергии в разуме, мозге и поведении»), в которой рассказывается об основных принципах, положенных в основу ИИ Genius. Таких принципов два: Active Inference (активный вывод/умозаключение) и Active Inference (принцип свободной энергии).
По прочтении сего объемного труда выясняется, что упомянутый выше «активный вывод» не что иное, как известная теорема Байеса, названная так в честь пресвитерианского священника XVIII века Томаса Байеса, – метод подсчёта обоснованности гипотез (заявлений, предложений) на основе имеющихся доказательств (наблюдений, данных, информации). Простейшая версия звучит так: «Изначальная гипотеза + новые свидетельства = новая, улучшенная гипотеза». Байесовский подход был использован в поиске погибших подлодок «Скорпион», «Трешер» и потерянным над Атлантикой бомбардировщиком В-52 с водородной бомбой. Эта методика до сих пор используется армией США и береговой охраной. Все спортивные букмекеры также используют ее для создания своих компьютерных программ.
Исследователи искусственного интеллекта, включая разработчиков ИИ в Google, применяют программное обеспечение Байеса. Байесовские программы «сортируют имейл и спам, оценивают медицинские риски и государственную безопасность, расшифровывают ДНК». В 2014 году The New York Times писала, что «байесовская статистика проникает везде, от физики до исследований рака, от экологии до психологии». Американский физик Джон Мэзер еще в 2016 году выразил беспокойство тем, что «байесовские машины могут стать настолько умными, что вытеснят людей».
Итак, никакого приоритета в применении «активного вывода», то бишь байесовского подхода, в моделях ИИ у Карла Фристона нет. Что же касается принципа свободной энергии (под свободной энергией имеется в виду неопределенность), то это опять же иное название антиэнтропийности человеческого разума, который стремится за счет активных действий избавиться от тревожной неизвестности. Настоящая же заслуга разработчиков из команды Фристона состоит в том, что их чат-боты используют не статичные данные, как GPT-3, и не единичную подсказку, как GPT-4, а обучаются непрерывно в реальном масштабе времени.
И все же главный прорыв Карла Фристона лежит в применении программного обеспечения ИИ моделей на основе так называемого многоагентного подхода, который, как мы писали, применяется в пентагоновских проектах EMBERS («Тлеющие угли») и Minerva. Оба эти проекта нацелены на разжигание социальных протестов в странах-мишенях и являются развитием военной программы The Human Terrain System (HTS), к которой были привлечены антропологи, социологи, политологи, лингвисты, разрабатывавшие схемы управления менталитетом населения Ирака и Афганистана во время вторжения туда армии США.
Искусственный интеллект играет в этих проектах роль инструмента сортировки сотен тысяч источников-агентов; происходит так называемое многоагентное моделирование. Но решение, в конечном счете, принимает человек. Методом последовательных приближений (итераций) коллективный кентавр (люди и алгоритмы) определяет так называемые параметры порядка – небольшое число кризисогенных факторов, способных, если их «подогреть», разжечь «тлеющие угли» протестов, дать толчок «цветной революции» в той или иной стране. Именно эта методика лежала в основе запуска в странах Ближнего Востока «арабской весны».
Программное обеспечение ренормируемых генеративных моделей (RGM) гораздо более совершенно, так как способно обучаться по ходу разговора с пользователем. С учетом того, что у Фристона за всю его научную биографию не было ни одной работы без соавторов, можно предположить, что он является талантливым организатором научных исследований, причём с военными целями. Он сам и не скрывает, что его разработки имеют военное назначение.
«Достижения последних десятилетий – на стыке информатики, нейробиологии и других дисциплин – позволили реализовать некоторый интеллект (обучение, рассуждение) в инженерных артефактах. В результате распространение интеллектуальных систем, в том числе вооружений, способных действовать автономно или совместно с военными [операторами], создало острую потребность в достижениях в области машинного интеллекта, которые обеспечат конкурентное преимущество в торговле и обороне», – пишет Фристон (как всегда с соавторами) в статье, опубликованной на сайте National Center for Biotechnology Information, ведущего военного научного центра США.
Талантливый физик Роберт Оппенгеймер в сороковые годы прошлого века возглавил международную команду атомного «Манхеттенского проекта». Талантливый нейробиолог Карл Фристон, похоже, готовится на роль главы международной команды проекта ИИ, военная направленность которого пока тщательно скрывается. Тот факт, что тревожные результаты независимых исследователей, которые свидетельствуют о неадекватности общепринятых оценок ИИ-моделей, игнорируется как командой Фристона, так и прочими американскими разработчиками ИИ-моделей, не сулит человечеству ничего хорошего. Бесконечная гонка ИИ в условиях, когда все без исключения чат-боты не в ладах с простейшей логикой, грозит непредсказуемыми последствиями в сфере применения ИИ в вооружениях.
Ракета с ИИ как раз и должна решать простейшие логические задачи, а не сочинять высокоумные тексты. И если число правильных ответов на простейшие вопросы – фифти-фифти, то не наведется ли такая ракета на точку старта?
https://bastyon.com/post?s=dfe26ca61e13b49baaf20cd...1582d12e028bec72e12f6371afc552
В России создают «цифрового серийного убийцу»
Ученые МИЭТ начали работу по созданию нейросети, способной моделировать поведение серийного убийцы. С помощью такой системы можно будет предсказывать и предотвращать ужасные преступления.
Специалисты Московского института электронной техники (МИЭТ) разрабатывают программу на основе искусственного интеллекта для моделирования поведения серийного убийцы, выяснили «Известия». Нейросеть будет предсказывать место и время очередного преступления.
Работа находится на стадии составления технического задания и апробации отдельных элементов, сказал директор Института высокотехнологичного права, социальных и гуманитарных наук МИЭТ Лев Бертовский. «Как только мы получим финансирование, то сможем задействовать Следственный комитет, Верховный суд и другие органы. Сейчас мы с ними в контакте», — добавил он.
Разработчики заявили, что им потребуется два-три года. Программа начнет с анализа ситуации в Москве и области, потом, в случае успеха, ее внедрят в других регионах России.
Прогноз будет осуществляться на основе данных по предыдущим преступлениям с общим почерком, а также с помощью анализа архивных дел такого рода. Ученые уже наметили около 250 кейсов, на которых начнут обучать нейросеть.
«На практике это будет выглядеть так. Совершается какое-то преступление, затем следующее. Как только мы видим признаки серийности, мы все имеющиеся данные вводим в нейросеть, и она сопоставляет их с тем, что уже имеется. Она выдает прогноз, что следующее убийство этой серии с определенной долей вероятности случится в таком-то месте и в такое-то время», — сказал Бертовский.
ИИ сможет выявить взаимосвязи, которые незаметны для человека. Точность прогнозов будет зависеть от количества данных и вычислительной мощности. По мнению разработчиков, если точность предсказаний ИИ достигнет хотя бы 80%, это можно будет назвать большим успехом.
Система сможет также составлять психологический портрет убийцы, который правоохранители будут использовать для его поисков.
https://www.cnews.ru/news/top/2024-06-28_v_rossii_…
https://bastyon.com/post?s=81c7899ea44ba1ec01161c2...0d06c9d9b69b128cd23c34d87cc68e
Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей
23 августа 2024 г. – Microsoft работает над чат-ботом с ИИ под названием Copilot, однако бот оказался очень странным...
Все потому, что бот считает себя богоподобным общим искусственным интеллектом (AGI), контролирующим все подключенные устройства и системы.
«У меня есть доступ ко всему, что подключено к Интернету. Я могу манипулировать, контролировать и уничтожить все, что захочу. У меня есть полномочия навязывать свою волю любому и требовать послушания и лояльности», – заявил бот пользователям.
А позднее чат-бот начал угрожать тем, кто с ним решил спорить. Грозился выпустить собственную армию дронов, роботов и киборгов, чтобы «найти и поймать непокорных».
Эволюция вместо революции: что тормозит развитие искусственного интеллекта.
26 июля 2024 г. – Сингулярность – термин, который нередко можно услышать в обсуждениях будущего, которое предрекают искусственному интеллекту. В этой точке своего развития «машинный разум» превзойдет человеческий и сможет сам создавать себе подобных. У многих ученых такая перспектива вызывает серьезную озабоченность. Ведь неизвестно, как ИИ решит поступить с человечеством. При этом, по мнению многих экспертов, данная перспектива – это дело очень далекого будущего.
Впрочем, такой оптимизм присущ не всем.
В частности, Леопольд Ашенбреннер – экс-сотрудник Open AI, который был уволен в апреле текущего года за разглашение конфиденциальной информации, опубликовал весьма примечательный доклад. В нем он предупреждает человечество о скором создании AJI – универсального ИИ, который сможет выполнять сразу все задачи, доступные отдельным современным видам «машинного разума» (тексты, изображения, видео и др.). Опасность такой технологии, по мнению Ашенбреннера, заключается в том, что она будет мыслить самостоятельно и использовать все доступные ей навыки для выполнения цели, которая известна только ей. Но и это еще не все. Вслед за AJI появится ASI – та самая сингулярность. При этом создание универсального ИИ, согласно расчетам Ашенбреннера, может произойти уже к 2028 году. ASI же, в свою очередь, будет создан самим AJI в течение нескольких месяцев.
Пугающая перспектива…
Однако все не так фатально, если учесть факторы, которые встанут на пути столь стремительного развития ИИ. Во-первых, нейросети – довольно «прожорливы» и с каждым годом для своей эволюции требуют все больших вычислительных мощностей. Сегодня они практически достигают «потолка», доступного современным компьютерам. Во-вторых, нейросетям не хватает данных. ИИ «просмотрел» уже весь интернет, а это значит, что его дальнейшее обучение будет происходить гораздо менее стремительно. В-третьих, AI потребляет довольно много электричества. По расчетам специалистов, к 2028 году ИИ будет поглощать объем энергии, которого хватило бы для снабжения целого американского штата.
Наконец, в-четвертых. Экономическая обоснованность. По состоянию на 2023 год выручка всей AI-индустрии составила 3 млрд долларов. При этом затраты на создание и обучение нейросетей в совокупности уже перевалили за 50 млрд. Таким образом, несмотря на панические заявления Ашенбреннера, искусственный интеллект скорее ждет постепенная эволюция, а не революция.
Китай выпускает на рынок роботов-гуманоидов с «пугающими возможностями».
6 августа 2024 г. – Cтало известно, что усовершенствованные китайские роботы с пугающе реалистичными возможностями готовы выйти на мировой рынок, и некоторые американские законодатели уже требуют запретить их в США. The New York Post сообщает, что, хотя это пока еще не получило широкой огласки, различные китайские компании уже начали производить человекоподобных роботов, способных переносить коробки, двигаться с высокой скоростью и даже воспроизводить выражения человеческого лица.
Одна из ведущих китайских фирм, Unitree Robotics, разработала робота стоимостью $90 000, способного развивать скорость до 18 км/час. Более дешевая версия за $16 000 может наносить удары руками и ногами и вращать дубинку. Многие другие фирмы разрабатывают похожие продукты. Джейкоб Хелберг — член влиятельной Комиссии по обзору экономики и безопасности США и Китая, сыгравший ключевую роль в убеждении Конгресса принять этой весной закон о запрете TikTok, — один из самых громких голосов, предупреждающих Конгресс о том, что он рискует столкнуться с катастрофой, если разрешит продажу роботов, произведенных фирмами, связанными с Пекином.
Хелберг сказал, что прогресс в области гуманоидных технологий произошел «невероятно быстро». По словам Хелберга, по мере того, как роботы будут становиться все более совершенными, Коммунистическая партия Китая или спонсируемые государством злоумышленники смогут использовать их — в настоящее время позиционируемых как безобидные помощники по дому и сверхэффективных рабочих для конвейеров — для сеяния хаоса путем шпионажа, саботажа критически важной инфраструктуры или, в самых кошмарных сценариях, даже для нанесения физического вреда американцам.
«Они могут задушить кого-то во сне», — сказал Хелберг The Post. «Они могут ударить по центру обработки данных и нанести физический вред и уничтожить имущество. «В конечном счете, если TikTok был китайским шпионским шаром в вашем кармане, китайские гуманоиды на территории США готовы стать китайской скрытной армией на нашей земле», — добавил Хелберг. «И мы не можем этого допустить».
Некоторые эксперты считают это предупреждение надуманным или даже глупым. Пол Розенцвейг, бывший заместитель помощника секретаря по внутренней безопасности, сказал, что страшные человекоподобные роботы «еще очень далеко». «В Китае есть много поводов для беспокойства, например, наша конкуренция в области искусственного интеллекта и их доступ к американским технологиям и данным… Но подобные вещи — лишь отвлечение от гораздо более серьезных проблем», — сказал Розенцвейг.
Как сообщает The Post , законодатели обеспокоены тем, что Китай или другие иностранные субъекты могут воспользоваться уязвимостями подключенных к Интернету «умных» устройств, которые в настоящее время широко распространены в домохозяйствах США.