Американська технологічна корпорація Google створила внутрішні стандарти, що стосуються розроблення програмного забезпечення на основі штучного інтелекту (АІ), повідомляє Reuters.
IT-гігант наголосив, що унеможливить використання його АІ-розробки в наступальних військових операціях і стеженні, що порушує права людини.
Майбутнє за машинами: тренди у сфері штучного інтелекту 2018 року
За допомогою нових принципів роботи у сфері АІ Google розраховує впоратися з масштабними протестами співробітників, які виступили проти розробки бойових дронів для Пентагону.
Водночас американська корпорація не має наміру відмовлятися від держзамовлень, спрямувавши свої зусилля в галузі АІ на кібербезпеку, рекрутинг військових і пошуково-рятувальні операції.
«Хоч ми й не розробляємо АІ для використання в бойовій техніці, ми продовжимо працювати з урядами і військовими в багатьох інших сферах», – заявив гендиректор Google Сундар Пічаї.
Розробленням внутрішніх стандартів для АІ займалися дев’ять співробітників IT-гіганта.
Пічаї додав, що Google залишає за собою право блокувати АІ-програми, що порушують корпоративні принципи компанії.
Як ми писали раніше, американські дослідники навчили АІ думати по-собачому.