Y al tratar los sistemas de filtrado de contenidos implementados “Hay muchos idiomas para los que el sistema de seguridad es mínimo», porque «los sistemas de supervisión que no están en inglés no funcionan bien». «No creo que el problema de Facebook sean malas personas (…) sino amplificar los contenidos más divisivos o más extremos. Facebook es menos transparente que otras grandes plataformas», citando a Google y Twitter, y se mostró convencida que las leyes que se están negociando en Bruselas para controlar más a estas empresas «pueden inspirar a otros países».
La compañía respondió a estas alegaciones argumentando que “Es profundamente ilógico el argumento de que para obtener beneficio promovemos de forma deliberada el contenido que enfada a la gente” dijo Monika Bickert, vicepresidenta de la Política de Contenido de Meta, en el blog de la compañía.
Según Bickert, los discursos de odio representan solo el 0.05 % del contenido que ven los usuarios y aseguró que la compañía elimina el 97 % de esa información «antes de que alguien lo denuncie». La empresa, dijo, destinó este año 5.000 millones de dólares a combatir los discursos de odio, con una plantilla de 40.000 personas destinados a este objetivo.