- Стивен Хокинг предупреждал об угрозе ИИ в 2014 году
- ИИ может превзойти человека из-за медленной биологической эволюции
- Автономные вооружения могут привести к гонке вооружений и конфликтам
- Автоматизация может вызвать массовую потерю рабочих мест и неравенство
- При правильном контроле ИИ может помочь в борьбе с бедностью, болезнями и экологией
Как передает Vesti.az, в своей последней книге Краткие ответы на большие вопросы ученый призывал научное сообщество и правительства серьезно регулировать развитие технологий до того, как они выйдут из-под контроля человека.
Хокинг отмечал, что по достижении определенного уровня машины смогут самостоятельно совершенствоваться с постоянно возрастающей скоростью. По его мнению, человек не сможет конкурировать с такими алгоритмами, поскольку ограничен медленной биологической эволюцией, тогда как искусственный интеллект способен стремительно превзойти человеческие возможности и занять доминирующее положение в глобальных системах.
Особое внимание ученый уделял и военным рискам. Он предупреждал, что развитие автономных вооружений может привести к новой глобальной гонке вооружений и, как следствие, к катастрофическим конфликтам.
Хокинг также указывал на возможные экономические последствия. По его оценке, автоматизация производства и развитие интеллектуальных систем обработки данных способны привести к массовой утрате рабочих мест среди среднего класса и усилению глобального неравенства.
Главной же угрозой ученый считал вероятность того, что искусственный интеллект будет преследовать цели, несовместимые с интересами человечества. В таком случае, обладая высокой эффективностью, он может поставить под угрозу само существование людей.
В то же время Хокинг признавал и огромный потенциал этой технологии. При правильном контроле искусственный интеллект способен помочь в борьбе с глобальной бедностью, лечении сложных заболеваний и восстановлении окружающей среды.
Кроме того, ученый допускал, что в течение ближайших 100 лет человечество сможет начать поиск новых планет для колонизации. Он подчеркивал необходимость ускорения этого процесса, полагая, что в течение примерно тысячи лет Земля может столкнуться с ядерным конфликтом или экологической катастрофой.
Источник: vesti.az
Комментарии
Загрузка…
Оставить комментарий