Facebook tomó medidas sobre más de 30 millones de cuentas en la India en un mes

Facebook «Accionado» Más de 30 millones de piezas de contenido en el país entre el 15 y el 15 de mayo, el gigante de las redes sociales dijo en su primer informe de cumplimiento mensual requerido por las reglas de TI. Durante el mismo período de tiempo, Instagram tomó medidas contra aproximadamente dos millones de piezas en nueve categorías. Bajo las nuevas reglas de TI, se requerirán grandes plataformas digitales (con más de 5 millones de usuarios) para publicar informes de cumplimiento mensual que detallan las quejas recibidas y las acciones tomadas.

Además, el informe debe incluir el número de enlaces de comunicación específicos o segmentos de información que el intermediario eliminado o el acceso deshabilitado para como resultado de cualquier monitoreo proactivo realizado a través de herramientas automatizadas. Mientras Facebook eliminó más de 30 millones de piezas de contenido en múltiples categorías entre el 15 de mayo y el 15 de junio, Instagram se retira aproximadamente 2 millones de piezas.

Según un portavoz de Facebook, la compañía ha invertido de manera consistente en tecnología, personas y procesos para promover su misión de mantener a los usuarios seguros y protegidos en línea, mientras que les permite expresarse libremente en su plataforma. «Identificamos y revisamos contenido contra nuestras políticas utilizando una combinación de inteligencia artificial, informes comunitarios y revisión manual de nuestros equipos.

Continuaremos agregando información y fortalecer nuestros esfuerzos hacia la transparencia a medida que este informe evoluciona», dijo el portavoz en un PTI en una declaración. Facebook declaró que su próximo informe se publicará el 15 de julio e incluirá información sobre las quejas de los usuarios y las acciones tomadas «.

Tras el período de informe, anticipamos la publicación de ediciones posteriores del informe 30-45 días después para permitir el tiempo suficiente para Recopilación y validación de datos. Continuaremos mejorando la transparencia de nuestro trabajo e incluiremos información adicional sobre nuestros esfuerzos en futuros informes «, se agregó. A principios de la semana, Facebook anunció que publicaría un informe provisional el 2 de julio que detalla la cantidad de contenido que eliminaba de manera proactiva entre el 15 de mayo.

y el 15 de junio. El 15 de julio, se publicará el informe final, detallando las quejas de los usuarios recibidas y las acciones tomadas.

Además, el informe del 15 de julio incluirá información sobre WhatsApp, que es miembro de la familia de aplicaciones de Facebook. Google y la plataforma interna Koo también se encuentran entre las plataformas principales que han hecho públicas sus informes. Facebook declaró en su informe que tomó medidas sobre más de 30 millones de piezas de contenido a través de diez categorías entre el 15 de mayo y el 15 de junio.

Esto incluye spam (25 millones de piezas), contenido violento y gráfico (2,5 millones de piezas), desnudez adulta y actividad sexual. (1.

8 millones de piezas), y el habla del odio (800,000 piezas) (311,000). Además, el contenido se eliminó en las siguientes categorías: bullying y hostigamiento (118,000), suicidio y autolesión (589,000), organizaciones peligrosas y individuos: propaganda terrorista (106,000), y organizaciones y personas peligrosas: odio organizado (106,000). (75,000). El término contenido «Accionado» se refiere al número de piezas de contenido (como puestos, fotos, videos o comentarios) que han sido sometidos a medidas disciplinarias debido a violaciones estándar.

Tomar acción puede incluir la eliminación de contenido de Facebook o Instagram o etiquetando fotos o videos que puedan estar molestando a algunas audiencias. La tasa proactiva, que indica que el porcentaje de todo el contenido o las cuentas actuó sobre ese Facebook descubierto y marcado utilizando la tecnología antes de los usuarios que los informaron, osciló entre 96.

4 y 99.

9 por ciento en la mayoría de estos casos. La eliminación proactiva del contenido relacionada con la intimidación y el acoso ocurrió a una tasa de 36.

7 por ciento, debido a la naturaleza contextual y altamente personal de este contenido. En muchos casos, las personas deben informar este comportamiento a Facebook para que identifique y elimine dicho contenido. Entre el 15 de mayo y el 15 de junio, Instagram procesó más de 2 millones de piezas de contenido en nueve categorías. Esto incluye contenido de suicidio y autolesión (699,000), contenido violento y gráfico (668,000), desnudez adulta y actividad sexual (490,000), y contenido de acoso y acoso (108,000). Además, el contenido fue derribado en las siguientes categorías: Discurso de odio (53,000), organizaciones peligrosas e individuos: propaganda terrorista (5,800), y organizaciones y individuos peligrosos: odio organizado (5,800).

(6.

200). Google declaró que en abril de este año, recibió 27,762 quejas de usuarios individuales en la India alegando violaciones de las leyes locales o derechos personales, lo que resulta en la eliminación de 59,350 piezas de contenido. Koo declaró en su informe que moderó proactivamente 54,235 piezas de contenido en junio, mientras que sus usuarios reportaron 5,502 puestos. Los intermediarios de redes sociales significativos también deben designar a un Oficial de Cumplimiento, un oficial nodal y un oficial de reclamo, todos los cuales deben tener su sede en la India. El incumplimiento de las regulaciones de TI daría lugar a estas plataformas perdiendo su estado intermediario, lo que protege.