Ошибочка вышла: Марк Цукерберг о проблемах конфиденциальности Facebook

82
boursier.com
Генеральный директор всемирно популярной социальной сети рассказывает, как она будет жить после скандала

Впервые Цукерберг дал пояснения после скандала с участием Cambridge Analytica. Как писал ранее K.Fund Media, эта аналитическая компания якобы получила скрытые данные 50 млн пользователей Facebook.

В результате скандала акции Facebook на бирже обрушились на 6,8%, а потом еще на 2,6%

Капитализация компании уменьшилась более чем на $60 млрд, а сам Цукерберг обеднел на $6 млрд.

Глава Facebook рассказал о том, как соцсеть будет жить после скандала. K.Fund Media публикует основные тезисы из интервью.

Большая ошибка

В 2015 году мы услышали, что, вероятно, исследователь Кембриджского университета Александр Коган (создал приложение для тестов личности, его загрузили около 300 тыс. людей и из-за специфики работы Facebook в то время получил доступ к данным десятков миллионов людей – K.Fund Media) поделился данными Cambridge Analytica о пользователях сети c другими компаниями. Мы запретили приложение и потребовали юридическую сертификацию от Когана и тех, с кем он поделился данными.

Wikimedia-Commons

В Cambridge Analytica нам сообщили, что получили какие-то производные данные о пользователях Facebook. Компания заверила, что не использовала их.

Я считаю, что остановиться на этом – большая ошибка. Cейчас нам нужно не просто полагаться на сертификаты от разработчиков, а лично провести полное исследование каждого приложения, которое работало до введения ограничительной политики Facebook. Это то, что мы должны были сделать для Cambridge Analytica, и теперь сделаем для каждого разработчика, который находится на платформе.

Приватность или общение?

Наш многолетний опыт показывает, что люди ценят доступ к личной информации меньше, чем возможность легко передавать социальный опыт и данные.

Как Facebook находит каждого, с кем мы когда-то были знакомы

Когда сталкиваешься с такими проблемами, как фейковые новости или риторика ненависти, приходится находить компромисс между свободой слова и безопасностью.

Честная реклама и искусственный интеллект

Мы работаем над тем, чтобы сделать интернет более прозрачным и сделать услуги в сети более стандартизированными.

Существуют некоторые действительно важные вопросы. К примеру, в какой степени компании должны нести ответственность за использование инструментов AI (искусственного интеллекта) для умного контента?

Когда мы начали работать в 2004 году, то по-другому управляли контентом в сервисе. Тогда никто не говорил: «Эй, ты должен уметь заранее знать, когда кто-то печатает что-то плохое».

Приходится находить компромисс между свободой слова и безопасностью
Приходится находить компромисс между свободой слова и безопасностью. erpinnews

Теперь AI  позволяет заранее определить много проблемного контента, но не весь. Некоторые проявления ненависти и издевательства в сети все равно будут существовать долгие годы.

Нет способа вернуться в 2004 год и предотвратить появление проблем.

Мне жаль, что мы допустили ошибку, но совсем их избежать нельзя.

 

Источник: The Wired
Поделиться: