У Google відмовилися від розробки штучного інтелекту в військових цілях

Google ніколи не буде займатися розробкою ІІ для тих цілей, які можуть принести шкоду суспільству. Google ніколи не буде займатися розробкою ІІ для тих цілей, які можуть принести шкоду суспільству

Сундар Пічаї / REUTERS

Про це повідомив генеральний директор компанії Сундар Пічаї, передає РБК .

У корпоративному блозі Google він опублікував сім основних принципів, відповідно до яких будуть тривати роботи в цьому напрямку.

Опубліковані главою Google принципи були розроблені після протестів співробітників компанії проти роботи на Пентагон. Компанія планувала брати участь в проекті по створення штучного інтелекту для військових безпілотників .

Сундар Пічаї нагадав, що вже зараз технології штучного інтелекту і машинного навчання мають велике суспільне значення. Системи з ІІ використовуються для прогнозування ризику виникнення пожеж, боротьби з раком, сільськогосподарських робіт і багатьох інших цілей.

Читайте також Кілька співробітників Google звільнилися, протестуючи проти співпраці з Пентагоном - ЗМІ

"Ми визнаємо, що така потужна технологія викликає настільки ж важливі питання про її майбутнє використання. Те, як і з якими цілями ІІ розробляється і використовується, зробить значний вплив на наше суспільство в майбутньому. Будучи лідером в області розробки штучного інтелекту, ми відчуваємо велику відповідальність. Тому сьогодні ми оголошуємо сім принципів, яких будемо дотримуватися в нашій роботі в майбутньому ", - написав він.

У нових принципах роботи компанії говориться, що дослідження в сфері штучного інтелекту будуть проводитися Google з усією відповідальністю. Фахівці компанії не будуть займатися створенням ІІ для "потенційно небезпечних" проектів. Всі розробки повинні приносити користь суспільству і забезпечувати безпеку людей, пообіцяв Сундар Пічаї. Особливо він підкреслив, що штучний інтелект повинен залишатися під контролем людей.

"Наші технології ІІ будуть перебувати під відповідним людським керівництвом і контролем", - заявив глава Google.

Крім того, в числі базових принципів розробки ІІ будуть конфіденційність даних і безпеку застосування.

Окремо Сундар Пічаї виділив чотири "заборонених напрямки" роботи компанії в сфері ІІ.

За його словами, Google ніколи не буде займатися розробкою ІІ для тих цілей, які можуть принести шкоду суспільству, з метою порушення прав людини і міжнародних правових норм. Особливо він підкреслив, що штучний інтелект Google не буде застосовуватися для створення зброї і в інтересах військових.

Читайте також Google навчив робота говорити "по-людськи"

Як повідомляв УНІАН, раніше понад три тисячі співробітників Google підписали петицію , В якій зажадали, щоб компанія розірвала контракт з Пентагоном і розробила політику, яка забороняє працювати з військовими. Однак робота над Maven була припинена. Крім того, Google вважається одним з головних претендентів на ще один великий контракт Пентагону.

Керівництво Google у відповідь на претензії заявило, що надає Пентагону програмне забезпечення з відкритим кодом, тобто вони могли б використовувати його без допомоги компанії. Воно також підкреслило, що штучний інтелект не буде використовуватися для нападів.

Нагадаємо, фахівці з штучного інтелекту та ядерної безпеки, опитані дослідниками американського стратегічного дослідницького центру RAND Corporation прийшли до висновку, що штучний інтелект до 2040 року може стати загрозою ядерної стабільності і нівелювати стратегію ядерного стримування.

Якщо ви знайшли помилку, видiлiть її мишкою та натисніть Ctrl + Enter