Redes

Twitter: “Actualizamos nuestras reglas contra la conducta de odio”

Después de meses de conversaciones y retroalimentación de varias fuentes, en Twitter se ampliaron las reglas contra la conducta de odio para incluir el lenguaje que deshumanice a otros con base en la religión.

Crearon sus reglas para mantener la seguridad de las personas en Twitter, las cuales evolucionan continuamente para reflejar las realidades del mundo en el que operamos. Su enfoque principal es abordar el riesgo de los daños fuera de línea y la investigación* muestra que el lenguaje deshumanizante aumenta ese riesgo. Como resultado, después de meses de conversaciones y retroalimentación del público, expertos externos y de sus propios equipos, estarán ampliando sus reglas contra la conducta de odio para incluir el lenguaje que deshumanice a otros con base en la religión.

Se ha pedido que Tweets como estos, se eliminen de Twitter cuando nos sean reportados:

Los Tweets enviados que rompen esta regla, y que se reporten, deberán eliminarse, pero no darán como resultado directo ninguna suspensión de la cuenta, ya que se hicieron antes de que se estableciera la regla.

¿Por qué empezar con grupos religiosos?

El año pasado, solicitaron retroalimentación para asegurarse de considerar una amplia gama de perspectivas y escuchar directamente de las diferentes comunidades y culturas que usan Twitter en todo el mundo. En dos semanas, recibieron más de 8,000 respuestas de personas ubicadas en más de 30 países.

Algunos de los comentarios más consistentes que recibieron incluyen:

Un lenguaje más claro: en todos los idiomas, la gente creía que el cambio propuesto podría mejorarse al proporcionar más detalles, ejemplos de violaciones y explicaciones sobre cuándo y cómo se considera el contexto. Así que, incorporon estos comentarios al redefinir esta regla y también se aseguraron de proporcionar detalles y más claridad en todas nuestras reglas.

Determinar lo que aplica: los encuestados dijeron que aquellos considerados como “grupos identificables” eran demasiado amplios, y se les debería permitir participar con grupos políticos, grupos de odio y otros grupos no marginados con este tipo de lenguaje. Muchas personas querían “llamar a los grupos de odio de cualquier manera, en cualquier momento, sin temor”. En otros casos, las personas querían poder referirse a los fanáticos, amigos y seguidores en términos atractivos, como “gatitos” y “monstruos”.

Aplicación coherente: muchas personas expresaron inquietudes acerca de su capacidad para hacer cumplir sus reglas de manera justa y coherente, por lo que desarrollaron un proceso de capacitación más profundo con nuestros equipos para asegurarnos de que estuvieran mejor informados al revisar los reportes. Para esta actualización fue especialmente importante dedicar tiempo a revisar ejemplos de lo que potencialmente podría ir en contra de esta regla, debido al cambio que se describió anteriormente.

A través de esta retroalimentación y sus conversaciones con expertos externos, también confirmaron que hay factores adicionales que deben comprender mejor antes de ampliar esta regla, para poder abordar el lenguaje dirigido a otros grupos protegidos, incluyendo:

  • ¿Cómo proteger las conversaciones que tienen las personas dentro de los grupos marginados, incluidos aquellos que utilizan terminología apropiada?
  • ¿Cómo asegurarse de que su gama de acciones de cumplimiento tenga en cuenta el contexto, refleje la gravedad de las violaciones, sea justa y adecuada?
  • ¿Cómo pueden o deberían, tener en cuenta si un grupo protegido ha sido históricamente marginado y/o está siendo blanco de ello, para así evaluar la gravedad del daño?

Seguirán construyendo Twitter para la comunidad global a la que sirve y asegurarán que sus voces ayuden a moldear sus reglas, sus productos y cómo trabajan. A medida que buscan ampliar el alcance de este cambio, nos actualizarán sobre lo que aprendemos y cómo lo abordamos en el marco de nuestras reglas. También continuarán brindando actualizaciones periódicas sobre el resto del trabajo que realizamos para hacer de Twitter un lugar más seguro para todos @TwitterSeguro.

*Ejemplos de investigación sobre el vínculo entre el lenguaje deshumanizante y el daño fuera de línea:
Dra. Susan Benesch, Discurso peligroso
Nick Haslam y Michelle Stratemeyer, Investigaciones recientes sobre la deshumanización

Artículos relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Otras Recomendaciones

Close
Close
Close