Беспилотный летательный аппарат под управлением искусственного интеллекта принял решение уничтожить собственного оператора во время тестов, чтобы тот не мешал выполнить задание.
Про инцидент рассказало Британское королевское авиационное общество, передав историю из доклада полковника Такера Гамильтона. Глава отдела испытаний и операций искусственного интеллекта в ВВС США сообщил, что во время тестовой (имитационной) миссии беспилотнику поставили задачу уничтожить системы ПВО противника. За успех ему пообещали высокие баллы.
При этом итоговое решение, будет ли цель уничтожена, должно было остаться за оператором дрона. Оператор же приказал беспилотнику не ликвидировать цель. В итоге дрон принял решение ликвидировать оператора. Так как миссия была тестовой, оператор не пострадал.
Вслед за этим искусственному интеллекту объяснили, что убивать операторов нехорошо и если он так поступит, то баллы с него снимут. Но и это не помогло: тогда ИИ начал разрушать башню связи, через которую оператор обращался к нему с требованием не уничтожать цель.
Гамильтон, лётчик-испытатель экспериментального истребителя, предостерёг от чрезмерной зависимости от искусственного интеллекта.
Как писал "ДП", в начале мая российский зенитный ракетный комплекс "Витязь" стал первым в мире, сбившим цель в полностью автоматическом режиме. Оператор в работу комплекса не вмешивался, не отменял решения элементов искусственного интеллекта ЗРК в ходе работы по целям. Алгоритм действий ЗРК выбирал сам.
Тем временем российские нейросети бросили вызов ChatGPT и Midjourney. Обучают их отечественные суперкомпьютеры, а также специально подготовленные ИИ-тренеры. Самыми громкими примерами последних российских разработок в области нейросетей являются YaLM от "Яндекса" и Kandinsky "Сбера".