Ну помилилися: Марк Цукерберг про проблеми конфіденційності Facebook

67
boursier.com
Генеральний директор всесвітньо популярної соціальної мережі розповідає, як вона буде жити після скандалу

Вперше Цукерберг дав роз’яснення після скандалу за участі Cambridge Analytica. Як писав раніше K.Fund Media, ця аналітична компанія нібито отримала приховані дані 50 млн користувачів Facebook.

В результаті скандалу акції Facebook на біржі обвалилися на 6,8%, а потім ще на 2,6%

Капіталізація компанії зменшилася більш ніж на $60 млрд, а сам Цукерберг збіднів на $6 млрд.

Голова Facebook розповів про те, як соцмережа буде жити після скандалу. K.Fund Media публікує основні тези з інтерв’ю.

Велика помилка

У 2015 році ми почули, що, ймовірно, дослідник Кембриджського університету Александр Коган (створив додаток для тестів особистості, його завантажили близько 300 тис. осіб і завдяки специфіці роботи Facebook в той час отримав доступ до даних десятків мільйонів людей – K.Fund Media) поділився даними Cambridge Analytica про користувачів мережі з іншими компаніями. Ми заборонили додаток і зажадали юридичної сертифікації від Когана і тих, з ким він поділився даними.

Wikimedia-Commons

В Cambridge Analytica нам повідомили, що отримали якісь похідні дані про користувачів Facebook. Компанія запевнила, що не використала їх.

Я вважаю, що зупинитися на цьому – велика помилка. Зараз нам потрібно не просто покладатися на сертифікати від розробників, а особисто провести повне дослідження кожної програми, яка працювала до введення обмежувальної політики Facebook. Це те, що ми повинні були зробити для Cambridge Analytica, і тепер зробимо для кожного розробника, який знаходиться на платформі.

Приватність або спілкування?

Наш багаторічний досвід показує, що люди цінують доступ до особистої інформації менше, ніж можливість легко передавати соціальний досвід та дані.

Як Facebook знаходить кожного, з ким ми бодай колись були знайомі

Коли стикаєшся з такими проблемами, як фейкові новини або риторика ненависті, доводиться знаходити компроміс між свободою слова та безпекою.

Чесна реклама та штучний інтелект

Ми працюємо над тим, щоб зробити інтернет більш прозорим і зробити послуги в мережі більш стандартизованими.

Існують деякі дійсно важливі питання. Наприклад, в якому ступені компанії повинні нести відповідальність за використання інструментів AI (штучного інтелекту) для розумного контенту?

Коли ми почали працювати в 2004 році, то по-іншому управляли контентом в сервісі. Тоді ніхто не говорив: «Ей, ти повинен вміти заздалегідь знати, коли хтось друкує щось погане».

Доводиться знаходити компроміс між свободою слова та безпекою.
Доводиться знаходити компроміс між свободою слова та безпекою. erpinnews

Тепер AI дозволяє заздалегідь визначити багато проблемного контенту, але не весь. Деякі прояви ненависті і знущання в мережі все одно будуть існувати довгі роки.

Немає способу повернутися в 2004 рік і запобігти появі проблем.

Мені шкода, що ми припустилися помилки, але зовсім уникнути їх не можна.

 

Джерело: The Wired
Поділитися: