08.08.15

Провідні науковці світу розповіли про небезпеку зброї зі штучним інтелектом

Елон Маск, Стівен Хокінг, Стів Возняк та інші відомі науковці підписали відкритого листа про небезпеку автономної зброї.
Автономна зброя зі штучним інтелектом становить серйозну загрозу для людства і має бути заборонена. Про це йдеться у відкритому листі організації Future of Life Institute.

Лист підписали близько тисячі осіб, у тому числі фахівці з робототехніки, засновник приватної космічної компанії SpaceX Елон Маск, відомий астрофізик Стівен Хокінг, засновник Apple Стів Возняк, філософ і лінгвіст Ноам Хомський і багато інших представників наукового кола.
У відкритому листі йдеться, що розвиток технологій штучного інтелекту в збройової галузі, який неминуче призведе до гонки озброєнь, при цьому для виробництва такої зброї не потрібні дорогі матеріали.
Вчені зазначають, як тільки подібне озброєння стане досить дешевими, воно з'явиться на "чорному ринку" і зможе бути доступне для злочинців, терористів, диктаторів та найманців.
Автори листа також наголошують, що поширена думка про зниження числа жертв у конфліктах завдяки застосуванню автономних озброєнь не цілком вірна. Розповсюдження такої зброї зробить його "новим Калашниковим" і призведе до масштабної гонки озброєнь.
"В цілому, ми вважаємо, що штучний інтелект може принести користь людству різними шляхами, і це має статися. Однак початок гонки озброєнь в області військового застосування штучного інтелекту — це небезпечна ідея, для запобігання цього необхідно заборонити автономне наступальне озброєння без розумного контролю з боку людини", - йдеться в листі.

Автономне озброєння під управлінням штучного інтелекту — це зброя, здатна вести пошук цілей і вогонь без втручання людини. Наприклад, таким видом зброї може бути самокерований озброєний дрон, що самостійно шукає і атакує цілі. Зараз автономна зброя не застосовується. На думку вчених і підприємців, технологічно подібна зброя може з'явитися протягом найближчих років.

Немає коментарів:

Дописати коментар