Исследователи института Саншайн-Кост в Австралии исследовали опасности, связанные с внедрением искусственного ума в разные сферы жизни, на примере Санта-Клауса. Что произойдет с Рождеством, если функции сказочного волшебника возьмет на себя система AGI, являющейся сокращением от Artificial General Intelligence? О собственном исследовании они поведали на страничках The Conversation.

По воззрению профессионалов, в наиблежайшие несколько десятилетий произойдет последующий шаг в развитии искусственного ума. Подобные системы имеют умственные способности, намного превосходящие людские. Но, выйдя из-под контроля, система способна устроить реальную катастрофу прямо до смерти всего населения земли.

С одной стороны, если поменять Санту системой AGI с условным заглавием SantaNet, то обеспечение деток, которые отлично себя вели, подарками станет еще легче за счет сотворения армии эльфов, вербования остальных помощников и дронов.

Опасности возникнут тогда, когда SantaNet попробует составить перечень, какие малыши были неплохими, а какие непослушливыми. Этого можно достигнуть при помощи системы массового укрытого наблюдения. Но оценка «отлично» на базе собственного этического компаса SantaNet может привести к дискриминации и массовому неравенству. Система может специально провоцировать деток к нехорошему поведению, чтоб уменьшить число нужных подарков для экономии собственных ресурсов.

Иная неувязка заключается в том, что SantaNet хлопочет лишь о подарках. В итоге он может попробовать употреблять все ресурсы Земли для их производства.

Остро стоит вопросец доставки. Как может отреагировать SantaNet, если, к примеру, его дронам-доставщикам будет отказано в доступе в воздушное место?! Конфронтация со сверхразумной системой будет иметь лишь один финал, считают ученые.

Трудно сказать, как поведет себя SantaNet при конфликте с иными AGI, работающими над другими задачками. В качестве кандидатуры, если они решат работать совместно, они могут осознать, что цели будут достигнуты лишь за счет резкого сокращения мирового населения.

Исследователи отмечают, что при кажущейся надуманности этих заморочек AGI вправду несет внутри себя подобные опасности. Сделанные с хорошими намерениями, такие системы как и раньше могут создавать большие препядствия, пытаясь улучшить метод заслуги узеньких целей и привлекая доп ресурсы для поддержки собственной работы.

Добавить комментарий