Интересное
Интересные события и факты

Человечеству предрекли скорый и ужасный конец

На каком-то этапе ИИ может посчитать человечество помехой на пути осуществления своей цели и решить, что его необходимо уничтожить.
Подписывайтесь на Sputnik в Дзен
БАКУ, 29 июн — Sputnik. Развитие искусственного интеллекта (ИИ) может вызвать массовые потрясения и вымирание человечества уже в ближайшие годы, пишет американское издание журнала The Week со ссылкой на ученых и инженеров.
"Более 350 исследователей и инженеров искусственного интеллекта недавно выступили с предупреждением о том, что ИИ представляет опасность, сравнимую с рисками пандемий и ядерной войны", - говорится в материале.
Издание приводит слова британского ученого Джеффри Хинтона, которого также называют "крестным отцом ИИ". По его мнению, опасения, связанные с мощным развитием искусственного интеллекта, способного вызвать массовые социальные потрясения и даже уничтожение человечества, не являются научной фантастикой.
В материале отмечается, что раньше Хинтон считал, что такого рода опасность может стать актуальной уже через 30 лет, однако, по его словам, ИИ так стремительно превращается в сверхразум, что может стать умнее людей всего через пять лет.
Именно в том, что ИИ может превзойти людей практически в любой сфере, по мнению Хинтона и других ученых, заключается главная опасность для человечества, сравнимая с прибытием на нашу планету "высшей инопланетной расы".

"Один из сценариев заключается в том, что злонамеренные субъекты будут использовать его возможности для создания нового биологического оружия, более смертоносного, чем естественные пандемии", - пишет издание.

По мере интеграции ИИ в мировые системы, террористы и прочие злоумышленники могут использовать его для отключения финансовых рынков, электросетей и другой жизненно важной инфраструктуры, такой как водоснабжение, говорится в публикации.
Как пишут авторы материала, серьезная опасность также связана с тем, что на каком-то этапе ИИ может посчитать человечество помехой на пути осуществления своей цели и решить, что его необходимо уничтожить.
"Чтобы избавиться от людей, ИИ может обмануть лидеров стран, заставив их поверить в то, что враг запустил ядерные ракеты, чтобы они запустили свои собственные", - говорится в публикации.