Компанія Google переглянула свою позицію в галузі безпеки штучного інтелекту (ШІ), прибравши обіцянку не застосовувати ШІ для військових і розвідувальних цілей. Колишні правила, введені в 2018 році, були оновлені й опубліковані в офіційному блозі компанії, повідомляє The Washington Post.

Раніше компанія заявляла, що не займатиметься чотирма категоріями застосування ШІ: зброєю, стеженням, технологіями, "здатними завдати шкоди", і проєктами, що порушують міжнародне право і права людини. Ці обмеження робили Google винятком серед лідерів ринку ШІ. Наприклад, Microsoft і Amazon давно співпрацюють із Пентагоном. Їхній приклад наслідували OpenAI і Anthropic, які співпрацюють з оборонними підрядниками США, такими як Anduril і Palantir.
За словами експертів, рішення Google відображає зростаюче значення ШІ для національної оборони США. Професор політології Майкл Горовіц (Michael Horowitz) з Пенсільванського університету зазначив, що це логічний крок, оскільки технології ШІ стають дедалі важливішими для американської армії. "Заява Google є ще одним доказом того, що відносини між технологічним сектором США і Міністерством оборони продовжують ставати дедалі тіснішими, включно з провідними компаніями в галузі ШІ", - сказав Горовіц.
Однак критики, такі як Ліллі Ірані (Lilly Irani), колишній співробітник Google і професор Каліфорнійського університету в Сан-Дієго, вважають, що "обіцянки компанії дотримуватися міжнародних законів і прав людини часто виявляються порожніми словами".
Нагадаємо, Google вперше запровадила етичні принципи після протестів співробітників проти контракту з Пентагоном, відомого як Project Maven. Цей проект передбачав використання алгоритмів комп'ютерного зору для аналізу даних з дронів. Тоді тисячі працівників підписали петицію, вимагаючи припинити участь компанії у військових проєктах, що Google і зробила, відмовившись не тільки від контракту, а й пообіцявши не брати участь у розробці зброї. Однак нова зміна політики свідчить про те, що пріоритети компанії змінилися.