Впервые Цукерберг дал пояснения после скандала с участием Cambridge Analytica. Как писал ранее K.Fund Media, эта аналитическая компания якобы получила скрытые данные 50 млн пользователей Facebook.
В результате скандала акции Facebook на бирже обрушились на 6,8%, а потом еще на 2,6%
Капитализация компании уменьшилась более чем на $60 млрд, а сам Цукерберг обеднел на $6 млрд.
Глава Facebook рассказал о том, как соцсеть будет жить после скандала. K.Fund Media публикует основные тезисы из интервью.
Большая ошибка
В 2015 году мы услышали, что, вероятно, исследователь Кембриджского университета Александр Коган (создал приложение для тестов личности, его загрузили около 300 тыс. людей и из-за специфики работы Facebook в то время получил доступ к данным десятков миллионов людей – K.Fund Media) поделился данными Cambridge Analytica о пользователях сети c другими компаниями. Мы запретили приложение и потребовали юридическую сертификацию от Когана и тех, с кем он поделился данными.
В Cambridge Analytica нам сообщили, что получили какие-то производные данные о пользователях Facebook. Компания заверила, что не использовала их.
Я считаю, что остановиться на этом – большая ошибка. Cейчас нам нужно не просто полагаться на сертификаты от разработчиков, а лично провести полное исследование каждого приложения, которое работало до введения ограничительной политики Facebook. Это то, что мы должны были сделать для Cambridge Analytica, и теперь сделаем для каждого разработчика, который находится на платформе.
Приватность или общение?
Наш многолетний опыт показывает, что люди ценят доступ к личной информации меньше, чем возможность легко передавать социальный опыт и данные.
Как Facebook находит каждого, с кем мы когда-то были знакомы
Когда сталкиваешься с такими проблемами, как фейковые новости или риторика ненависти, приходится находить компромисс между свободой слова и безопасностью.
Честная реклама и искусственный интеллект
Мы работаем над тем, чтобы сделать интернет более прозрачным и сделать услуги в сети более стандартизированными.
Существуют некоторые действительно важные вопросы. К примеру, в какой степени компании должны нести ответственность за использование инструментов AI (искусственного интеллекта) для умного контента?
Когда мы начали работать в 2004 году, то по-другому управляли контентом в сервисе. Тогда никто не говорил: «Эй, ты должен уметь заранее знать, когда кто-то печатает что-то плохое».
Теперь AI позволяет заранее определить много проблемного контента, но не весь. Некоторые проявления ненависти и издевательства в сети все равно будут существовать долгие годы.
Нет способа вернуться в 2004 год и предотвратить появление проблем.
Мне жаль, что мы допустили ошибку, но совсем их избежать нельзя.