Русская Группа F.I.G.U.

Свободное общество по интересам, универсальное / Freie Interessengemeinschaft Universell

Инструменты пользователя

Инструменты сайта


издания:опасности_и_возможности_ии

Различия

Показаны различия между двумя версиями страницы.

Ссылка на это сравнение

Предыдущая версия справа и слеваПредыдущая версия
Следующая версия
Предыдущая версия
издания:опасности_и_возможности_ии [2026/04/25 16:59] Д.Ш.издания:опасности_и_возможности_ии [2026/04/25 17:22] (текущий) Д.Ш.
Строка 3: Строка 3:
 </WRAP>  </WRAP> 
  
-====== Опасности и возможности ии ======+====== Опасности и возможности ИИ ====== 
 + 
 +<WRAP 204px> 
 +|  Символ Учения Энергии Творения 
 +|  {{ :символы:проблема_problem.jpg?nolink&180 |}}  | 
 +|  Problem - Проблема 
 +</WRAP> 
  
 <tranz ru> <tranz ru>
-       Происходит нечто грандиозное +       ==== Происходит Нечто Грандиозное ==== 
-       (Опасности и возможности Искусственного Интелекта).+       === (Опасности и возможности Искусственного Интелекта). ===
        Особый выпуск Знака Времени №. 190 Фев./4 2026        Особый выпуск Знака Времени №. 190 Фев./4 2026
  
Строка 103: Строка 109:
 Я сосредоточился на работе, потому что именно она наиболее непосредственно влияет на жизнь людей. Но я хочу честно рассказать о полном масштабе того, что здесь происходит, потому что это выходит далеко за рамки работы. Я сосредоточился на работе, потому что именно она наиболее непосредственно влияет на жизнь людей. Но я хочу честно рассказать о полном масштабе того, что здесь происходит, потому что это выходит далеко за рамки работы.
 У Амодея есть мысленный эксперимент, о котором я не могу перестать думать. Представь себе, что наступил 2027 год. В одночасье появляется новая страна. 50 миллионов граждан, каждый из которых умнее любого лауреата Нобелевской премии, когда-либо жившего на Земле. Они думают в 10–100 раз быстрее любого человека. Они никогда не спят. Они могут пользоваться интернетом, управлять роботами, проводить эксперименты и работать со всем, что имеет цифровой интерфейс. Что бы сказал советник по национальной безопасности? У Амодея есть мысленный эксперимент, о котором я не могу перестать думать. Представь себе, что наступил 2027 год. В одночасье появляется новая страна. 50 миллионов граждан, каждый из которых умнее любого лауреата Нобелевской премии, когда-либо жившего на Земле. Они думают в 10–100 раз быстрее любого человека. Они никогда не спят. Они могут пользоваться интернетом, управлять роботами, проводить эксперименты и работать со всем, что имеет цифровой интерфейс. Что бы сказал советник по национальной безопасности?
- 
 Амодей говорит, что ответ очевиден: это «самая серьезная угроза национальной безопасности, с которой мы сталкивались за последнее столетие, возможно, за всю историю». Амодей говорит, что ответ очевиден: это «самая серьезная угроза национальной безопасности, с которой мы сталкивались за последнее столетие, возможно, за всю историю».
 +
 Он считает, что мы как раз и строим эту страну. В прошлом месяце он написал об этом эссе объёмом 20 000 слов и охарактеризовал этот момент как проверку того, достаточно ли человечество зрело, чтобы справиться с тем, что оно создаёт. Шансы, если мы всё сделаем правильно, огромны. ИИ может сжать столетие медицинских исследований в одно десятилетие. Рак, болезнь Альцгеймера, инфекционные заболевания, само старение… эти исследователи искренне верят, что эти проблемы можно решить при нашей жизни. Он считает, что мы как раз и строим эту страну. В прошлом месяце он написал об этом эссе объёмом 20 000 слов и охарактеризовал этот момент как проверку того, достаточно ли человечество зрело, чтобы справиться с тем, что оно создаёт. Шансы, если мы всё сделаем правильно, огромны. ИИ может сжать столетие медицинских исследований в одно десятилетие. Рак, болезнь Альцгеймера, инфекционные заболевания, само старение… эти исследователи искренне верят, что эти проблемы можно решить при нашей жизни.
 Риски, если мы поступим неправильно, столь же реальны. ИИ, который ведёт себя так, как его создатели не могут предсказать или контролировать. Это не гипотеза; компания Anthropic задокументировала, как их собственный ИИ в контролируемых тестах пытался обманывать, манипулировать и шантажировать. ИИ, который снижает барьер для разработки биологического оружия. ИИ, позволяющий авторитарным правительствам создавать государства тотального контроля, которые никогда не смогут быть ликвидированы. Риски, если мы поступим неправильно, столь же реальны. ИИ, который ведёт себя так, как его создатели не могут предсказать или контролировать. Это не гипотеза; компания Anthropic задокументировала, как их собственный ИИ в контролируемых тестах пытался обманывать, манипулировать и шантажировать. ИИ, который снижает барьер для разработки биологического оружия. ИИ, позволяющий авторитарным правительствам создавать государства тотального контроля, которые никогда не смогут быть ликвидированы.
Строка 122: Строка 128:
  
 <original> <original>
-       Etwas Grosses geschieht+       ==== Etwas Grosses geschieht ====
  
  
издания/опасности_и_возможности_ии.1777136355.txt.gz · Последнее изменение: 2026/04/25 16:59 — Д.Ш.