📰 Cuatro conclusiones de las quejas de Frances Haugen

📰 Cuatro conclusiones de las quejas de Frances Haugen

Haugen, la exgerente de producto de Facebook (FB) de 37 años que trabajaba en temas de integridad cívica en la empresa, reveló su identidad durante un segmento de “60 minutos” que se transmitió el domingo por la noche. Según los informes, ha presentado al menos ocho denuncias de denunciantes ante la Comisión de Bolsa y Valores, alegando que la empresa oculta la investigación sobre sus deficiencias a los inversores y al público. También compartió los documentos con los reguladores y el Wall Street Journal, que publicó una investigación de varias partes que muestra que Facebook estaba al tanto de los problemas con sus aplicaciones.
“60 Minutes” publicó ocho de las quejas de Haugen el lunes. Aquí hay cuatro conclusiones de las quejas:
Los documentos internos citados en las quejas muestran que Facebook sabe que tanto el discurso de odio como la información errónea en sus plataformas están teniendo un impacto social y que sus “mecanismos básicos de productos, como las recomendaciones de viralidad y la optimización para la participación, son una parte importante de por qué este tipo de discurso florecer.”
En un estudio sobre los riesgos de desinformación y polarización encontrados a través de las recomendaciones, el algoritmo de Facebook tardó solo unos días en recomendar páginas de conspiración a una cuenta que sigue páginas oficiales y verificadas de figuras conservadoras como Fox News y Donald Trump. La misma cuenta tardó menos de una semana en obtener una recomendación de QAnon. Y según los documentos titulados “Solían publicar selfies ahora están tratando de revertir las elecciones” y “¿Recompensa Facebook la indignación?” Citados en las quejas, los algoritmos de Facebook no solo recompensan las publicaciones sobre temas como conspiraciones de fraude electoral con me gusta y acciones. , pero también “‘cuantos más comentarios negativos genere una parte del contenido, mayor será la probabilidad de que el enlace obtenga más tráfico'”.
Un documento titulado “¿Qué son los daños colaterales?” incluso llega a señalar que “el resultado neto es que Facebook, en su conjunto, promoverá activamente (si no necesariamente conscientemente) este tipo de actividades. La mecánica de nuestra plataforma no es neutral”.

Facebook ha tomado medidas limitadas para abordar la desinformación existente

Según un documento interno sobre narrativas problemáticas no violatorias al que se hace referencia en al menos dos de las quejas, Facebook elimina tan solo del 3% al 5% del discurso de odio y menos del 1% del contenido que se considera violento o que incita a la violencia. Esto se debe a que el volumen es demasiado para los revisores humanos y es un desafío para sus algoritmos clasificar con precisión el contenido cuando se debe considerar el contexto.

Los documentos internos sobre el papel de Facebook en las elecciones de 2020 y la insurrección del 6 de enero también sugieren que quienes difunden información errónea rara vez son detenidos por los mecanismos de intervención de la compañía. Un documento señala que, “Hacer cumplir las páginas moderadas por administradores de páginas que publican más de 2 piezas de información errónea en los últimos 67 días afectaría a 277,000 páginas. De estas páginas, 11,000 de ellas son páginas de infractores reincidentes actuales”.

A pesar de las afirmaciones de Facebook de que “eliminan contenido de Facebook sin importar quién lo publique, cuando viola nuestros estándares”, según Haugen, “en la práctica, el sistema ‘XCheck’ o ‘Cross-Check’ efectivamente ‘pone en listas blancas’ de alto perfil y / o usuarios privilegiados “. Un documento interno sobre prevención de errores citado en una queja sostiene que “‘a lo largo de los años, muchas páginas, perfiles y entidades de XChecked han sido eximidos de la aplicación'”.
Los documentos internos sobre “cuantificación de la concentración de recursos compartidos y sus VPV entre los usuarios” y un “plan de interrupción automática para todas las superficies de recomendación de grupo” indican que Facebook también revertió algunos cambios que han demostrado reducir la desinformación porque esos cambios redujeron el crecimiento de la plataforma.
Además, Haugen afirma que la compañía les dijo falsamente a los anunciantes que habían hecho todo lo posible para evitar la insurrección. Según un documento citado en la presentación titulada “Los disturbios del Capitolio rompen el cristal”, los parámetros más seguros que Facebook implementó para las elecciones de 2020, como degradar contenido como el discurso de odio que probablemente infrinja sus estándares comunitarios, en realidad se revertieron y restablecieron solo “. después de que estallara la insurrección “.
En un documento, un funcionario de Facebook afirma que “estábamos dispuestos a actuar sólo * después * de que las cosas se hubieran convertido en un estado terrible”.

Facebook ha engañado al público sobre los efectos negativos de sus plataformas en los niños y adolescentes, especialmente en las niñas.

Cuando se le preguntó durante una audiencia en el Congreso en marzo si las plataformas de Facebook “dañan a los niños”, el director ejecutivo de Facebook, Mark Zuckerberg, dijo: “No lo creo”.
Sin embargo, según la propia investigación interna de Facebook citada en una de las quejas de Haugen, “el 13,5% de las adolescentes en Instagram dicen que la plataforma hace que los pensamientos sobre ‘Suicidio y autolesiones’ sean peores” y el 17% dice que la plataforma, propiedad de Facebook, hace “. Problemas de alimentación “como la anorexia peor”. Su investigación también afirma que las plataformas de Facebook “empeoran los problemas de imagen corporal de 1 de cada 3 adolescentes”.

Facebook sabe que sus plataformas permiten la explotación humana

Aunque los estándares de la comunidad de Facebook establecen que “eliminan el contenido que facilita o coordina la explotación de humanos”, los documentos internos de la empresa citados en una de las quejas de Haugen sugieren que la empresa sabía que “el contenido de servidumbre doméstica permanecía en la plataforma” antes de una investigación de 2019 de BBC News. en un mercado negro para trabajadoras del hogar en Instagram.

“Estamos aplicando poco cumplimiento de la actividad abusiva confirmada con un nexo con la plataforma”, afirmó un documento titulado “Servidumbre y seguimiento domésticos en el Medio Oriente”. “Nuestro hallazgo de investigación demuestra que … nuestra plataforma permite las tres etapas del ciclo de vida de la explotación humana (reclutamiento, facilitación, explotación) a través de redes del mundo real … Los traficantes, reclutadores y facilitadores de estas ‘agencias’ utilizaron perfiles de FB , Perfiles IG, Pages, Messenger y WhatsApp “.

Para más noticias diarias, visite Spanishnews.us


Share post on
admin
By admin


Please add "Disqus Shortname" in Customize > Post Settings > Disqus Shortname to enable disqus

SpanishNews is reader-supported. When you buy through links on our site, we may earn an affiliate commission.


Latest Posts

📰 Para Christian Aid Ministries, la caridad en Haití se convierte en caos World

📰 Para Christian Aid Ministries, la caridad en Haití se convierte en caos

Christian Aid Ministries reportó ingresos de más de $ 130 millones en...

By admin
📰 Paula Badosa supera a Victoria Azarenka para ganar en Indian Wells Sports

📰 Paula Badosa supera a Victoria Azarenka para ganar en Indian Wells

INDIAN WELLS, Calif. - En sus fechas habituales de marzo, el BNP...

By admin
📰 Estreno de la temporada 3 de ‘Succession’: actualizaciones en vivo Entertainment

📰 Estreno de la temporada 3 de ‘Succession’: actualizaciones en vivo

Los viajes en yate son mucho mejores cuando se convierte en "Los...

By admin
📰 Secuestro masivo de misioneros estadounidenses asusta incluso a Haití cansado de los secuestros World

📰 Secuestro masivo de misioneros estadounidenses asusta incluso a Haití cansado de los secuestros

PUERTO PRÍNCIPE, Haití - Niños camino a la escuela, vendedores ambulantes vendiendo...

By admin
📰 Lo que aprendimos de la semana 6 en la NFL Sports

📰 Lo que aprendimos de la semana 6 en la NFL

Hace un mes, los Baltimore Ravens estaban en un estado de Código...

By admin
📰 Washington escucha ecos de los años 50 y se preocupa: ¿es esta una guerra fría con China? USA

📰 Washington escucha ecos de los años 50 y se preocupa: ¿es esta una guerra fría con China?

La Casa Blanca es reacia a poner una etiqueta a este enfoque...

By admin
📰 Los planes de Biden plantean preguntas sobre lo que EE. UU. Puede o no puede hacer Politics

📰 Los planes de Biden plantean preguntas sobre lo que EE. UU. Puede o no puede hacer

WASHINGTON - Mientras los legisladores debaten cuánto gastar en la extensa agenda...

By admin
📰  ¿Recibes más mensajes de texto spam?  Cómo evitar y denunciar los últimos esquemas Technology

📰 ¿Recibes más mensajes de texto spam? Cómo evitar y denunciar los últimos esquemas

Si recibe mensajes aleatorios de "AT&T" para reclamar un beneficio gratis o...

By admin