Sztuczną inteligencję można wykorzystać w dobrych lub złych celach. Jednym z najbardziej kontrowersyjnych przykładów wykorzystania AI jest autonomiczna broń. Podczas międzynarodowej konferencji w Sztokholmie podpisane zostało zobowiązanie o niepodejmowaniu i zaprzestaniu prac nad rozwojem tych technologii.
Definicja „autonomicznej broni” obejmuje wszystkie rodzaje narzędzi wojennych, które mogą samodzielnie zidentyfikować, namierzyć i zabić ludzkie cele. Oficjalnie broń tego typu jeszcze nie istnieje, ale nie można wykluczyć, że wiele krajów prowadzi nad nią badania. Specjaliści w zakresie sztucznej inteligencji już od dłuższego czasu zwracali uwagę na konieczność wprowadzenia prawnych uregulowań dotyczących tej gałęzi wykorzystania AI. Pierwszym krokiem do ich opracowania jest właśnie podpisane porozumienie pomiędzy gigantami technologicznymi i ośrodkami badawczymi, które zobowiązuje sygnatariuszy do nieangażowania się w projekty zakładające stworzenie autonomicznej broni. Wśród osób, które poparły inicjatywę, znalazł się m. in. Elon Musk, twórcy projektu Google DeepMind oraz założyciel Skype Jaan Tallinn.
W dokumencie podkreślona jest konieczność wprowadzenia jasnych i przejrzystych kryteriów oceny, czy dana broń może być uznana za autonomiczną – niektóre systemy sztucznej inteligencji mogą pełnić jedynie pomocniczą rolę w procesie namierzania lub identyfikacji celów – oraz decydująca rola współpracy z rządami, agencjami militarnymi i innymi jednostkami. Czas pokaże, czy inne podmioty zdecydują się na dołączenie do inicjatywy i zaprzestaną badań nad autonomiczną bronią.