У Google відмовилися від розробки штучного інтелекту в військових цілях
Google ніколи не буде займатися розробкою ІІ для тих цілей, які можуть принести шкоду суспільству.
Сундар Пічаї / REUTERS
Про це повідомив генеральний директор компанії Сундар Пічаї, передає РБК .
У корпоративному блозі Google він опублікував сім основних принципів, відповідно до яких будуть тривати роботи в цьому напрямку.
Опубліковані главою Google принципи були розроблені після протестів співробітників компанії проти роботи на Пентагон. Компанія планувала брати участь в проекті по створення штучного інтелекту для військових безпілотників .
Сундар Пічаї нагадав, що вже зараз технології штучного інтелекту і машинного навчання мають велике суспільне значення. Системи з ІІ використовуються для прогнозування ризику виникнення пожеж, боротьби з раком, сільськогосподарських робіт і багатьох інших цілей.
Читайте також Кілька співробітників Google звільнилися, протестуючи проти співпраці з Пентагоном - ЗМІ
"Ми визнаємо, що така потужна технологія викликає настільки ж важливі питання про її майбутнє використання. Те, як і з якими цілями ІІ розробляється і використовується, зробить значний вплив на наше суспільство в майбутньому. Будучи лідером в області розробки штучного інтелекту, ми відчуваємо велику відповідальність. Тому сьогодні ми оголошуємо сім принципів, яких будемо дотримуватися в нашій роботі в майбутньому ", - написав він.
У нових принципах роботи компанії говориться, що дослідження в сфері штучного інтелекту будуть проводитися Google з усією відповідальністю. Фахівці компанії не будуть займатися створенням ІІ для "потенційно небезпечних" проектів. Всі розробки повинні приносити користь суспільству і забезпечувати безпеку людей, пообіцяв Сундар Пічаї. Особливо він підкреслив, що штучний інтелект повинен залишатися під контролем людей.
"Наші технології ІІ будуть перебувати під відповідним людським керівництвом і контролем", - заявив глава Google.
Крім того, в числі базових принципів розробки ІІ будуть конфіденційність даних і безпеку застосування.
Окремо Сундар Пічаї виділив чотири "заборонених напрямки" роботи компанії в сфері ІІ.
За його словами, Google ніколи не буде займатися розробкою ІІ для тих цілей, які можуть принести шкоду суспільству, з метою порушення прав людини і міжнародних правових норм. Особливо він підкреслив, що штучний інтелект Google не буде застосовуватися для створення зброї і в інтересах військових.
Читайте також Google навчив робота говорити "по-людськи"
Як повідомляв УНІАН, раніше понад три тисячі співробітників Google підписали петицію , В якій зажадали, щоб компанія розірвала контракт з Пентагоном і розробила політику, яка забороняє працювати з військовими. Однак робота над Maven була припинена. Крім того, Google вважається одним з головних претендентів на ще один великий контракт Пентагону.
Керівництво Google у відповідь на претензії заявило, що надає Пентагону програмне забезпечення з відкритим кодом, тобто вони могли б використовувати його без допомоги компанії. Воно також підкреслило, що штучний інтелект не буде використовуватися для нападів.
Нагадаємо, фахівці з штучного інтелекту та ядерної безпеки, опитані дослідниками американського стратегічного дослідницького центру RAND Corporation прийшли до висновку, що штучний інтелект до 2040 року може стати загрозою ядерної стабільності і нівелювати стратегію ядерного стримування.
Якщо ви знайшли помилку, видiлiть її мишкою та натисніть Ctrl + Enter