Засновник американської оборонної компанії Anduril Палмер Лакі прокоментував дискусію у військовому середовищі щодо того, чи варто наділяти системи зі штучним інтелектом ширшими повноваженнями на полі бою, пише УРА-Інформ. Його слова активно поширюють у контексті розмов про автономні та напівавтономні види озброєнь.
Лакі пояснив свою позицію через порівняння з «неінтелектуальними» боєприпасами, які не розпізнають цілі та обстановку. У перекладі українською його цитата звучить так:
«Набагато страшніше уявити систему озброєння, яка взагалі не має жодного рівня інтелекту. У міни немає морального компаса — вона не відрізняє шкільний автобус із дітьми від російської бронетехніки».
На тлі цієї заяви з’явилися нові повідомлення про суперечки навколо правил і запобіжників для військового використання ШІ у США. Зокрема, 26 лютого 2026 року медіа повідомили, що компанія Anthropic не погодилася на умови, які, за повідомленнями, могли послабити обмеження та перевірки для застосування її систем у чутливих сценаріях.
Окремо повідомлялося, що співробітники Google та OpenAI закликали свої компанії посилити політики та підходи щодо військових застосувань ШІ.
