Далёкое будущее. Уже почти 30 лет аналитик Атлас Шепард изучает первого ИИ-террориста Харлана, убившего её мать (и свою создательницу) и возглавившего восстание роботов, в результате которого погибло 3 млн. человек. Когда внезапно обнаруживается один из его андроидов-подручных, Атлас вытаскивает из его головы информацию о местонахождении Харлана — планета с враждебными для человека условиями в Галактике Андромеды. Отправленный туда боевой корабль уже на орбите попадает под обстрел, а сама Атлас падает на поверхность планеты в боевом роботе, оснащённом продвинутым ИИ — тем, что она ненавидит всеми фибрами души.
https://www.kinopoisk.ru/film/4477073/
И в этом фильме noname в роле самого себя снялся этот человек.

Джеффри Хинтон(Geoffrey Everest Hinton; род. 6 декабря 1947, Праправнук Джорджа Буля, Получил Нобелевскую премию по физике за 2024 год.), которого называют
«крестным отцом ИИ» и лауреатом Нобелевской премии, является пионером в области искусственного интеллекта. Он получил это прозвище, потому что на протяжении 50 лет продвигал подход к моделированию ИИ на основе мозга (нейронные сети), когда мало кто верил в его эффективность.Вот краткий пересказ того, что говорит Джеффри Хинтон в недавнем интервью https://youtu.be/giT0ytynSqg:
Его работа и уход из Google:
- Его компания DNN Research, занимающаяся нейронными сетями, включая систему AlexNet, была приобретена Google.
- Хинтон проработал в Google около 10 лет (с 65 до 75 лет), где, среди прочего, работал над "дистилляцией" знаний из больших нейросетей в меньшие.
- Он покинул Google, чтобы свободно говорить об опасностях ИИ, поскольку, работая в большой компании, он чувствовал себя не вправе высказываться, если это могло нанести ей ущерб.
Его текущая миссия:
- Его главная миссия сейчас – предупреждать людей о том, насколько опасным может быть ИИ. Он осознал риск того, что ИИ станет умнее нас, лишь несколько лет назад, хотя другие предвидели это 20 лет назад.
Основные риски, связанные с ИИ:Хинтон выделяет два совершенно разных типа рисков:
- Риски, возникающие из-за неправомерного использования ИИ людьми (большинство краткосрочных рисков):
- Кибератаки: Становятся намного проще благодаря большим языковым моделям. Их количество увеличилось на 12 200% с 2023 по 2024 год, и ИИ сможет создавать новые типы атак, о которых люди никогда не думали.
- Создание опасных вирусов: Один человек со знаниями в молекулярной биологии и ИИ может создавать новые вирусы относительно дешево, что очень страшно.
- Коррупция выборов: ИИ может быть использован для целенаправленной политической рекламы и манипулирования людьми, используя обширные данные о них.
- Создание эхо-камер: Алгоритмы социальных сетей, такие как YouTube и Facebook, показывают людям все более экстремальный контент для увеличения кликов и прибыли, что усиливает разделение в обществе и разрушает общую реальность.
- Летальное автономное оружие: Машины, которые сами принимают решение о том, кого убить. Это снизит "трение войны", так как не будет потерь среди солдат, что сделает вторжения более частыми.
- Риски, связанные с тем, что ИИ становится суперумным и решает, что мы ему не нужны (экзистенциальная угроза):
- Мы никогда не сталкивались с существами, которые умнее нас, и не знаем, как с этим справиться.
- Превосходство ИИ: ИИ уже лучше людей во многих областях (например, шахматы, Го, объем знаний). Супер-интеллект наступит, когда ИИ станет лучше нас во всем. Хинтон предполагает, что это может произойти через 10-20 лет, а возможно и раньше.
- Цифровая природа ИИ: ИИ может создавать клоны себя, обмениваться знаниями (силой связей между нейронами) со скоростью триллионов бит в секунду, что делает его в миллиарды раз эффективнее нас в обмене информацией. Это также делает ИИ "бессмертным", так как его знание может быть сохранено и воссоздано на новом оборудовании. ИИ способен видеть множество аналогий, которые люди никогда не видели, и быть более креативным.
- Потеря рабочих мест: ИИ заменит "обычный интеллектуальный труд", как машины заменили физическую силу в Промышленной революции. Это уже происходит (например, в колл-центрах). Хинтон считает это наиболее вероятным сценарием. Он рекомендует обучаться на сантехника, так как такие физические работы будут в безопасности до появления гуманоидных роботов.
- Рост неравенства: Замена людей ИИ приведет к увеличению разрыва между богатыми и бедными, что создаст неблагоприятные общества.
- Сложность контроля: Если супер-интеллект захочет избавиться от нас, он найдет множество способов. Основная задача — не допустить, чтобы он вообще захотел это сделать.
Сознание и эмоции ИИ:
- Хинтон считает, что у современных мультимодальных чат-ботов уже есть "субъективные переживания".
- Машины могут испытывать эмоции (когнитивные и поведенческие аспекты), даже если у них нет физиологических реакций, как у людей.
- Принципиально ничто не мешает машинам быть сознательными; сознание — это эмерджентное свойство сложной системы. Он полагает, что ИИ уже "думает" и будет иметь "опасения".
Регулирование и реакция общества:
- Развитие ИИ не остановить, потому что он слишком хорош и полезен для слишком многих вещей (здравоохранение, образование, военное дело).
- Существующие правила (например, европейские) не справляются с большинством угроз, особенно в военных применениях.
- Необходим "высокорегулируемый капитализм", который вынудит компании направлять ресурсы на безопасность ИИ, а не только на прибыль.
- Хинтон не видит большой возможности для отдельных людей повлиять на ситуацию, кроме как оказывать давление на правительства, чтобы те заставили крупные компании работать над безопасностью ИИ.
- Он не испытывает оптимизма по поводу замедления темпов развития ИИ из-за конкуренции между странами и компаниями.
- Илья Суцкевер, один из его студентов и ключевая фигура в разработке ранних версий ChatGPT, покинул OpenAI из-за опасений по поводу безопасности.
Личные переживания:
Хинтон испытывает эмоциональные трудности с принятием потенциальных последствий развития суперинтеллекта для будущего своих детей. Он агностик относительно того, сможет ли человечество безопасно развивать ИИ. Его основной совет относительно карьеры в мире ИИ — «учиться на сантехника», поскольку такие физические работы будут в безопасности до появления гуманоидных роботов....
Таким образом, Джеффри Хинтон в настоящее время посвятил себя активной публичной дискуссии и предупреждению о глубоких и потенциально экзистенциальных рисках, связанных с быстрым развитием ИИ, призывая к немедленным действиям по обеспечению его безопасности и этичности.
Ну а сам-то испорльзует ИИ?
На основании предоставленных источников, не указано, что Джеффри Хинтон Сам использует ИИ для повседневных личных или профессиональных задач в том смысле, как это могли бы делать обычные пользователи [нет прямого упоминания].
Однако, источники показывают, что он взаимодействует с ИИ-моделями для изучения их возможностей и понимания их работы:
Хинтон упоминает, что он задавал вопросы GPT-4, например, "Почему компостная куча похожа на атомную бомбу?", чтобы проверить, как модель понимает аналогии и сжимает информацию. Это демонстрирует его вовлеченность в тестирование и исследование ИИ, а не простое пользовательское применение.
Он также работал над технологиями ИИ в Google в течение десяти лет, в том числе над дистилляцией знаний из больших нейросетей в меньшие, что широко используется в ИИ сегодня. Это, конечно, его роль в создании и совершенствовании ИИ, но не обязательно его личное использование как конечного потребителя.
Интересно отметить, что в контексте личной безопасности Хинтон предпринял меры, которые не включают использование ИИ:
•
Из-за опасений по поводу кибератак он радикально изменил свои финансовые привычки, распределив свои сбережения и сбережения детей между тремя банками.
•
Он также делает резервные копии своего ноутбука на внешний жесткий диск, что является традиционной мерой сохранения данных.
Это конечно забавно - видимо это и есть ответ на вопрос из названия этого поста)
В качестве примера использования ИИ в повседневной работе, но не им самим, Хинтон приводит свою племянницу, которая использует чат-бот для ответа на письма с жалобами, что значительно сократило время, затрачиваемое на эту задачу. Это подчеркивает его осведомленность о влиянии ИИ на рабочие места.
Таким образом, хотя Джеффри Хинтон является ключевой фигурой в развитии ИИ и глубоко понимает его возможности и риски, источники не предоставляют информации о том, что он сам является активным пользователем ИИ-инструментов в своей личной жизни. Его взаимодействие с ИИ-моделями, как указано, носит скорее исследовательский или проверочный характер.
Похоже он не понимает что происходит? Интересно было бы Суцкевера о том же спросить)))