Twitter presentó su nuevo modo seguro, una funcionalidad de seguridad en pruebas que bloquea de forma automática el contenido abusivo de la plataforma para que el usuario no lo vea, incluyendo lenguaje dañino, comentarios de odio, repetitivos o no deseados.
El modo seguro tiene como objetivo «limitar las interacciones abrumadoras y no deseadas» en la plataforma y asegurar conversaciones saludables, como ha informado Twitter en un comunicado.
Para ello, bloquea temporalmente durante siete días las cuentas que publican contenido abusivo, algo que se detecta de forma automática. Estas cuentas no pueden ver los tuits del usuario, seguirle o enviarle mensajes directos en este tiempo.
Lenguaje potencialmente dañino
Entre los contenidos bloqueados por el modo seguro de Twitter se encuentran lenguaje potencialmente dañino, insultos o comentarios de odio, así como las cuentas que envían respuestas o menciones repetitivas y no deseadas.
La nueva función evalúa la probabilidad de una interacción negativa al considerar tanto el contenido del tuit como la relación entre el autor y el que responde. Las cuentas que el usuario sigue o con las que interactúa con frecuencia no se bloquearán automáticamente.
Twitter ha explicado que los bloqueos del modo seguro se pueden ver y deshacer en cualquier momento desde el apartado de configuración de la red social.
Por el momento, el nuevo modo seguro de Twitter se está probando entre un pequeño grupo de usuarios en su versión para iOS, Android y en su web, comenzando con las cuentas que tienen habilitada la configuración del idioma en inglés.