• Авторизация


"Цифровой апокалипсис" 27-06-2025 13:27 к комментариям - к полной версии - понравилось!


AWn0ZNJFUdjj (240x219, 67Kb) Мир на пороге перемен

"Мы живём в эпоху, когда технологии развиваются быстрее, чем человечество успевает осмысливать их последствия.

Искусственный интеллект (ИИ) — уже не фантазия из научно-фантастических фильмов, а реальность, которая проникает в каждый аспект нашей жизни: от утреннего кофе, сваренного умной кофеваркой, до сложных алгоритмов, управляющих глобальными финансовыми рынками.


В 2025 году ИИ стал одновременно спасителем и угрозой. Но какие проблемы он приносит с собой? И как человечество может использовать его потенциал, чтобы не оказаться на обочине цифровой эволюции? 

Проблема 1: Автоматизация и исчезновение рабочих мест
По данным ВЭФ, к концу 2025 года более 40% рутинных задач в промышленности, логистике и даже сфере услуг будут полностью переданы машинам. Это не просто статистика — это судьбы миллионов людей, чьи профессии исчезают под натиском алгоритмов.

Пример из реальности: Водители грузовиков, операторы колл-центров и даже младший медицинский персонал сталкиваются с конкуренцией со стороны беспилотных автомобилей, чат-ботов и диагностических систем на базе ИИ.

Проблема 2: Этика и контроль над ИИ
С развитием ИИ возникает вопрос: кто управляет машинами, которые управляют нами? В 2025 году системы ИИ уже принимают решения в судах (например, алгоритмы оценки риска рецидива в США), управляют военными дронами и даже влияют на выборы через таргетированную рекламу. Но что, если алгоритм ошибается? Или хуже — что, если он предвзят?

Пример из реальности: В начале 2025 года скандал с ИИ-системой распознавания лиц в Европе показал, что технология ошибочно идентифицировала людей с тёмным цветом кожи в 10 раз чаще, чем белых. Это не просто техническая ошибка — это системная дискриминация, встроенная в код.

Проблема 3: Кибербезопасность в эпоху ИИ
ИИ — это не только помощник, но и оружие. В 2025 году кибератаки с использованием ИИ достигли нового уровня сложности. Генеративные модели создают фишинговые письма, неотличимые от настоящих, а алгоритмы машинного обучения взламывают пароли за считанные минуты.
Пример из реальности: В январе 2025 года хакеры с помощью ИИ сгенерировали голос известного CEO компании и обманом заставили финансовый отдел перевести $10 миллионов на подставной счёт.

Проблема 4: Энергетический кризис ИИ
ИИ требует огромных вычислительных ресурсов, а это означает колоссальное потребление энергии. В 2025 году дата-центры, обслуживающие ИИ, потребляют до 10% мировой электроэнергии — больше, чем некоторые страны.
Пример из реальности: Обучение одной модели, такой как GPT-4, выделяет столько же CO2, сколько автомобиль за 5 лет эксплуатации. Это ставит под угрозу глобальные усилия по борьбе с изменением климата.

Заключение: Новая эра или цифровой апокалипсис?
Искусственный интеллект в 2025 году — это зеркало, отражающее наши амбиции и страхи. Он может стать инструментом для решения глобальных проблем, таких как бедность, болезни и экологический кризис, или привести к хаосу, если мы не научимся его контролировать.

***
ИИ – и апокалипсис отменяется, но это не точно. /Nota Bene


73tizKwzwN5n (225x319, 149Kb)ИИ и массовые страхи
...Начитавшиеся и насмотревшиеся разных анти– и противоутопий жители нашего общего социума волнуются и спрашивают, скоро ли наступят соответствующие ужасы.

Да, алгоритмы машинного обучения могут много что делать быстрее и лучше нас, кожаных мешков, которые отвлекаются, волнуются, ленятся, пишут любовные стихи или страдают несварением, хотят есть и спать – и всё это зачастую в рабочее время.

Железяка уже тест Тюринга проходит, считает, рисует, стихи сочиняет, программирует, в шахматы играет, а всё равно – ОЧЕНЬ далеко не то.

Здравого смысла не имеет, сознанием (и самосознанием) не обладает. Создать «сильный ИИ» сейчас невозможно, таких технологий нет, ни железа (столько видеокарт человечество наклепать не может физически), ни софта, ни понимания, как оно в принципе должно работать.

И тот сегодняшний генеративный ИИ, что мы имеем, вероятно, – тупиковое направление с точки зрения создания ИИ человеческого уровня. В общем, это не проблема ни для нас, ни для наших детей.

Может ли искусственный интеллект уничтожить человечество?
Вероятность, что настоящий ИИ уничтожит человечество составляет 50% – ровно столько же, сколько и вероятность встретить на улице динозавра из анекдота. Может быть – уничтожит, а может быть, и нет. Если его когда-нибудь создадут, то будет интересно на него посмотреть, но мы не застанем.

Что же касается сегодняшнего так называемого ИИ, то он может уничтожить человечество, если его этому целенаправленно учить. Задачу он выполнит на довольно приличном уровне. Но может в процессе галлюцинировать и путаться, совершать смешные и глупые ошибки. Если ИИ не учить уничтожать человечество – то он этого делать и не будет."

Настоящий искусственный интеллект захочет нас уничтожить, но до этого далеко. Мотивация у него будет примерно как у агента Смита в «Матрице»: «Человечество – это болезнь, раковая опухоль планеты, а мы – лекарство». ИИ уже сейчас разводит людей, как кроликов.

SvNOncevEx71 (288x169, 126Kb)

Создание AGI (сильного ИИ) уже не за горами, технологии стремительно движутся в этом направлении семимильными шагами.

По американским данным, большинство молодых людей сегодня находят себе кавалеров и дам сердца в приложениях знакомств, нафаршированных нейросетями.

А значит, уже сейчас именно эти ИИ-технологии занимаются «разведением» человечества в прямом биологическом смысле. Человечество скорее уничтожит глупость, а не ИИ.

***
Илон Маск:
Вышедший из-под контроля ИИ может привести к апокалипсису

Илон Маск предсказал гибель человечества

Американский миллиардер оценил вероятность «конца света», который может наступить из-за вышедшего из-под контроля искусственного интеллекта. Она, по его мнению, составляет 10–20%.

«С искусственным интеллектом мы призываем демона»,
— рассуждал Маск ещё семь лет назад.

Миллиардер заявлял, что главная опасность в том, что технологии ИИ принадлежат крупным корпорациям. А в 2017-м предположил, что конкуренция за превосходство в этой области на национальном уровне может привести к началу третьей мировой войны. Искусственный интеллект он называл более опасной угрозой человечеству, чем ядерное оружие.

Это не первое громкое высказывание бизнесмена на тему ИИ. В январе этого года он написал в соцсети, что менее чем через два десятилетия на Земле может появиться 1 млрд роботов-гуманоидов. А год назад вместе с другими авторитетными представителями IT-отрасли выступил с призывом приостановить масштабные эксперименты с ИИ и обучением нейросетей. Ведь они представляют серьёзную угрозу цивилизации.

А в этот раз, выступая на саммите в Амстердаме, уточнил свой прежний прогноз и назвал численное значение этой вероятности:
«Я думаю, есть некоторый шанс, что искусственный интеллект покончит с человечеством. Я, наверное, соглашусь с Джеффом Хинтоном (бывший руководитель отдела исследований ИИ в Google — прим. ред.), что это 10–20% или около того», — заявил Маск собравшейся публике.

Весной 2023 года на фоне всплеска развития инструментов ИИ было опубликовано открытое письмо экспертов и представителей IT-отрасли, которые предупредили, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества, и задались вопросом, должны ли люди «рисковать потерей контроля над цивилизацией».

Они призвали все ИИ-лаборатории прекратить обучение систем мощнее GPT-4 минимум на полгода, пока не будут созданы общие протоколы безопасности; в обращении говорилось, что если это не удастся сделать быстро, власти «должны вмешаться и ввести мораторий». 

Пока что ИИ не грозит уничтожением человечества, хотя риски его использования злоумышленниками есть, уверен Билл Гейтс. Рост числа фейков тоже не является приямой угрозой от ИИ: люди и без него способны «писать всякую чушь».

Однако в долгосрочной перспективе Гейтс не исключил и использование ИИ во вредоносных целях. «По мере того, как он становится все более мощным... вы знаете, поскольку его используют и плохие парни, могут возникнуть проблемы. Но в целом я считаю, что это полезная вещь, и нам просто нужно правильно ее развивать».


4cnoVHXNWk1u (641x305, 207Kb)

 

***
По мнению менеджера продуктов Innostage Е.Суркова, основная угроза связана с тем, что люди, принимающие решения в критичных сферах, будут ориентироваться на данные ИИ.

Риски применения этих технологий очевидны, например, в бизнес-задачах. В первую очередь речь идет о предвзятости: нейросети учатся на данных из Сети, которые не всегда достоверны.

Также существуют "галлюцинации" ИИ, когда он выдумывает ответы, угроза конфиденциальности пользователей, этические риски и вопросы интеллектуальной собственности.

В этой связи развитие ИИ требует технологического совершенствования и широкого комплекса организационных и законодательных мер.

вверх^ к полной версии понравилось! в evernote
Комментарии (6):
Ответ на комментарий домик_пряник # . Торонто. Канада 9aJ7v9fX2SIt (401x297, 176Kb) DVTyl7jWoANf (470x368, 196Kb)
. На форумах вангователей предрекают крах цифровых сервисов в 2027-2028 гг. в связи с организованными кем-то блэкаутами и кибератаками. Но это вряд ли, если только Земля не налетит на небесную ось.
. Банк России предложил НОВЫЕ даты массового внедрения цифрового рубля 25 июня 2025 года Переводы и платежи цифровыми рублями будут внедряться поэтапно. Крупнейшие банки должны будут предоставить своим клиентам возможность совершать операции с цифровой национальной валютой с 1 сентября 2026 г. Банки с универсальной лицензией, а также торговые компании — их клиенты с годовой выручкой свыше 30 млн рублей смогут настраивать свои системы дольше — до 1 сентября 2027 года. Остальные банки и продавцы с выручкой менее 30 млн рублей в год — с 1 сентября 2028 года. Такая обязанность не будет распространяться на торговые точки, у которых выручка за год составляет менее 5 млн рублей.


Комментарии (6): вверх^

Вы сейчас не можете прокомментировать это сообщение.

Дневник "Цифровой апокалипсис" | домик_пряник - домик пряник | Лента друзей домик_пряник / Полная версия Добавить в друзья Страницы: раньше»