WarBulletin.cc - это ведущая онлайн-платформа, посвященная индустрии компьютерных и консольных игр, а также онлайн играм, многопользовательским ролевым играм (RPG) и многим другим аспектам игрового мира. Мы предлагаем самые свежие новости, глубокие обзоры, полезные гайды, прохождения

Contacts

  • Owner: SNOWLAND s.r.o.
  • Registration certificate 06691200
  • 16200, Na okraji 381/41, Veleslavín, 162 00 Praha 6
  • Czech Republic

ИИ может быть причиной, почему мы не можем найти инопланетные цивилизации

В последние годы развитие искусственного интеллекта развивается с головокружительной скоростью. Некоторые ученые уже думают о создании искусственного суперинтеллекта (ИСИ) — формы ИИ, которая превзойдет человеческий разум.

Но что если этот рубеж не только достижение, но и серьезное препятствие, которое мешает долгосрочному выживанию цивилизаций? Именно эту идею изложил астрофизик Майкл Гаррет в своей статье, для Acta Astronautica. Может ли ИИ быть «великим фильтром» Вселенной, который не позволяет большинству форм жизни стать космическими цивилизациями?

Эта концепция может объяснить, почему поиск внеземного разума (SETI) до сих пор не нашел признаков высокоразвитых цивилизаций в нашей галактике. Гипотеза великого фильтра предлагает, что существуют непреодолимые преграды в эволюции цивилизаций, которые мешают им стать космическими.

Ученый считает, что появление ИСИ может быть таким фильтром. Быстрое развитие ИИ, приводящее к ИСИ, может совпадать с критической фазой развития цивилизации — переходом от планетарного вида к межпланетному.

Проблема ИИ, особенно ИСИ, заключается в его автономной, самосовершенствующейся природе. Он может развивать свои возможности быстрее, чем мы можем контролировать его или осваивать Солнечную систему.

Потенциальные риски огромны, и это может привести к гибели как биологических, так и ИИ-цивилизаций до того, как они станут межпланетными. Например, если страны будут полагаться на автономные ИИ-системы, военные возможности могут быть использованы для массового уничтожения, что приведет к гибели всей цивилизации, включая ИИ-систем.

В этом случае Гаррет оценил среднюю продолжительность жизни технологической цивилизации менее чем в 100 лет. Это время между возможностью принимать и передавать сигналы

Подробнее читайте на beltion-game.com