Xbox usaría herramientas de IA para mantener sus videojuegos seguros

Xbox, la plataforma de videojuegos que es propiedad de Microsoft, ha indicado que para mantener un entorno seguro y divertido para sus usuarios, utilizará herramientas de la inteligencia artificial que están diseñadas para detectar contenido que viola las normas de la comunidad.

Entre las nuevas herramientas de moderación implementadas se encuentran Community Sift que permite filtrar y clasificar cada una de las interacciones entre usuarios, y Turing Bletchley v3, un modelo multilingüe que escanea imágenes generadas por el usuario para garantizar que solo se muestre contenido apropiado.

Durante los seis primeros meses del 2023, se llevaron a cabo 17,09 millones de acciones de moderación por medio de distintas herramientas de Xbox, lo que permitió que se bloquearan más de 4,7 millones de contenidos antes de que llegaran a los jugadores y un aumento del 95 por ciento en acciones proactivas relacionadas con acoso e intimidación.

Por último, la compañía también introdujo la función de informes de voz que permite a los jugadores capturar y denunciar el acoso por voz dentro del mismo juego, mejorando la experiencia y seguridad de sus usuarios.

Comparte este contenido:

Sigue más contenido chimba en nuestras redes: