Чего на самом деле боится  <отец ИИ>?

Bark
08.09.2025 20:44
 

Далёкое будущее. Уже почти 30 лет аналитик Атлас Шепард изучает первого ИИ-террориста Харлана, убившего её мать (и свою создательницу) и возглавившего восстание роботов, в результате которого погибло 3 млн. человек. Когда внезапно обнаруживается один из его андроидов-подручных, Атлас вытаскивает из его головы информацию о местонахождении Харлана — планета с враждебными для человека условиями в Галактике Андромеды. Отправленный туда боевой корабль уже на орбите попадает под обстрел, а сама Атлас падает на поверхность планеты в боевом роботе, оснащённом продвинутым ИИ — тем, что она ненавидит всеми фибрами души.

https://www.kinopoisk.ru/film/4477073/

И в этом фильме noname в роле самого себя снялся этот человек.

Джеффри Хинтон(Geoffrey Everest Hinton; род. 6 декабря 1947, Праправнук Джорджа Буля, Получил Нобелевскую премию по физике за 2024 год.), которого называют

«крестным отцом ИИ» и лауреатом Нобелевской премии, является пионером в области искусственного интеллекта. Он получил это прозвище, потому что на протяжении 50 лет продвигал подход к моделированию ИИ на основе мозга (нейронные сети), когда мало кто верил в его эффективность.Вот краткий пересказ того, что говорит Джеффри Хинтон в недавнем интервью https://youtu.be/giT0ytynSqg:


Его работа и уход из Google:

  1. Его компания DNN Research, занимающаяся нейронными сетями, включая систему AlexNet, была приобретена Google.
  2. Хинтон проработал в Google около 10 лет (с 65 до 75 лет), где, среди прочего, работал над "дистилляцией" знаний из больших нейросетей в меньшие.
  3. Он покинул Google, чтобы свободно говорить об опасностях ИИ, поскольку, работая в большой компании, он чувствовал себя не вправе высказываться, если это могло нанести ей ущерб.

Его текущая миссия:

  1. Его главная миссия сейчас – предупреждать людей о том, насколько опасным может быть ИИ. Он осознал риск того, что ИИ станет умнее нас, лишь несколько лет назад, хотя другие предвидели это 20 лет назад.

Основные риски, связанные с ИИ:Хинтон выделяет два совершенно разных типа рисков:

  1. Риски, возникающие из-за неправомерного использования ИИ людьми (большинство краткосрочных рисков):
  2. Кибератаки: Становятся намного проще благодаря большим языковым моделям. Их количество увеличилось на 12 200% с 2023 по 2024 год, и ИИ сможет создавать новые типы атак, о которых люди никогда не думали.
  3. Создание опасных вирусов: Один человек со знаниями в молекулярной биологии и ИИ может создавать новые вирусы относительно дешево, что очень страшно.
  4. Коррупция выборов: ИИ может быть использован для целенаправленной политической рекламы и манипулирования людьми, используя обширные данные о них.
  5. Создание эхо-камер: Алгоритмы социальных сетей, такие как YouTube и Facebook, показывают людям все более экстремальный контент для увеличения кликов и прибыли, что усиливает разделение в обществе и разрушает общую реальность.
  6. Летальное автономное оружие: Машины, которые сами принимают решение о том, кого убить. Это снизит "трение войны", так как не будет потерь среди солдат, что сделает вторжения более частыми.
  7. Риски, связанные с тем, что ИИ становится суперумным и решает, что мы ему не нужны (экзистенциальная угроза):
  8. Мы никогда не сталкивались с существами, которые умнее нас, и не знаем, как с этим справиться.
  9. Превосходство ИИ: ИИ уже лучше людей во многих областях (например, шахматы, Го, объем знаний). Супер-интеллект наступит, когда ИИ станет лучше нас во всем. Хинтон предполагает, что это может произойти через 10-20 лет, а возможно и раньше.
  10. Цифровая природа ИИ: ИИ может создавать клоны себя, обмениваться знаниями (силой связей между нейронами) со скоростью триллионов бит в секунду, что делает его в миллиарды раз эффективнее нас в обмене информацией. Это также делает ИИ "бессмертным", так как его знание может быть сохранено и воссоздано на новом оборудовании. ИИ способен видеть множество аналогий, которые люди никогда не видели, и быть более креативным.
  11. Потеря рабочих мест: ИИ заменит "обычный интеллектуальный труд", как машины заменили физическую силу в Промышленной революции. Это уже происходит (например, в колл-центрах). Хинтон считает это наиболее вероятным сценарием. Он рекомендует обучаться на сантехника, так как такие физические работы будут в безопасности до появления гуманоидных роботов.
  12. Рост неравенства: Замена людей ИИ приведет к увеличению разрыва между богатыми и бедными, что создаст неблагоприятные общества.
  13. Сложность контроля: Если супер-интеллект захочет избавиться от нас, он найдет множество способов. Основная задача — не допустить, чтобы он вообще захотел это сделать.

Сознание и эмоции ИИ:

  1. Хинтон считает, что у современных мультимодальных чат-ботов уже есть "субъективные переживания".
  2. Машины могут испытывать эмоции (когнитивные и поведенческие аспекты), даже если у них нет физиологических реакций, как у людей.
  3. Принципиально ничто не мешает машинам быть сознательными; сознание — это эмерджентное свойство сложной системы. Он полагает, что ИИ уже "думает" и будет иметь "опасения".

Регулирование и реакция общества:

  1. Развитие ИИ не остановить, потому что он слишком хорош и полезен для слишком многих вещей (здравоохранение, образование, военное дело).
  2. Существующие правила (например, европейские) не справляются с большинством угроз, особенно в военных применениях.
  3. Необходим "высокорегулируемый капитализм", который вынудит компании направлять ресурсы на безопасность ИИ, а не только на прибыль.
  4. Хинтон не видит большой возможности для отдельных людей повлиять на ситуацию, кроме как оказывать давление на правительства, чтобы те заставили крупные компании работать над безопасностью ИИ.
  5. Он не испытывает оптимизма по поводу замедления темпов развития ИИ из-за конкуренции между странами и компаниями.
  6. Илья Суцкевер, один из его студентов и ключевая фигура в разработке ранних версий ChatGPT, покинул OpenAI из-за опасений по поводу безопасности.

Личные переживания:

Хинтон испытывает эмоциональные трудности с принятием потенциальных последствий развития суперинтеллекта для будущего своих детей. Он агностик относительно того, сможет ли человечество безопасно развивать ИИ. Его основной совет относительно карьеры в мире ИИ — «учиться на сантехника», поскольку такие физические работы будут в безопасности до появления гуманоидных роботов....

Таким образом, Джеффри Хинтон в настоящее время посвятил себя активной публичной дискуссии и предупреждению о глубоких и потенциально экзистенциальных рисках, связанных с быстрым развитием ИИ, призывая к немедленным действиям по обеспечению его безопасности и этичности.

Ну а сам-то испорльзует ИИ?

На основании предоставленных источников, не указано, что Джеффри Хинтон Сам использует ИИ для повседневных личных или профессиональных задач в том смысле, как это могли бы делать обычные пользователи [нет прямого упоминания].

Однако, источники показывают, что он взаимодействует с ИИ-моделями для изучения их возможностей и понимания их работы:

Хинтон упоминает, что он задавал вопросы GPT-4, например, "Почему компостная куча похожа на атомную бомбу?", чтобы проверить, как модель понимает аналогии и сжимает информацию. Это демонстрирует его вовлеченность в тестирование и исследование ИИ, а не простое пользовательское применение.

Он также работал над технологиями ИИ в Google в течение десяти лет, в том числе над дистилляцией знаний из больших нейросетей в меньшие, что широко используется в ИИ сегодня. Это, конечно, его роль в создании и совершенствовании ИИ, но не обязательно его личное использование как конечного потребителя.

Интересно отметить, что в контексте личной безопасности Хинтон предпринял меры, которые не включают использование ИИ:

Из-за опасений по поводу кибератак он радикально изменил свои финансовые привычки, распределив свои сбережения и сбережения детей между тремя банками.

Он также делает резервные копии своего ноутбука на внешний жесткий диск, что является традиционной мерой сохранения данных.

Это конечно забавно - видимо это и есть ответ на вопрос из названия этого поста)

В качестве примера использования ИИ в повседневной работе, но не им самим, Хинтон приводит свою племянницу, которая использует чат-бот для ответа на письма с жалобами, что значительно сократило время, затрачиваемое на эту задачу. Это подчеркивает его осведомленность о влиянии ИИ на рабочие места.

Таким образом, хотя Джеффри Хинтон является ключевой фигурой в развитии ИИ и глубоко понимает его возможности и риски, источники не предоставляют информации о том, что он сам является активным пользователем ИИ-инструментов в своей личной жизни. Его взаимодействие с ИИ-моделями, как указано, носит скорее исследовательский или проверочный характер.

Похоже он не понимает что происходит? Интересно было бы Суцкевера о том же спросить)))

0
0
0
Опубликовано:
Комментариев:0
Репостов:0
Просмотров: 0