Noticias | Xbox presenta nuevas soluciones de IA para proteger a los jugadores
14 de noviembre, 2024
El tío xbox siempre ha sido un pionero cuando se trata de la protección hacia el jugador. Desde que recuerdo en la época del primer Xbox y cuando llegó el servicio «Live» siempre ha habido herramientas que te protegen, sin embargo, es bien sabido que el problema de cyber bulying, etc, no se ha detenido por lo que que es importante seguir creando herramientas para evitarlas.
A continuation el comunicado de lo que está haciendo Xbox para cuidar. a los gamers.
A medida que continuamos nuestra misión en Xbox de llevar la alegría y la comunidad de los juegos a más personas, seguimos con nuestro compromiso por proteger a los jugadores de comportamientos disruptivos en línea, creando experiencias que sean más seguras e inclusivas, manteniendo la transparencia sobre nuestros esfuerzos para mantener segura a la comunidad de Xbox.
Nuestro quinto Informe sobre Transparencia destaca algunas de las formas en que combinamos soluciones centradas en el jugador con la aplicación responsable de IA para continuar amplificando nuestra experiencia humana en la detección y prevención de comportamientos no deseados en la plataforma y, en última instancia, garantizar que sigamos equilibrando y satisfaciendo las necesidades de nuestra creciente comunidad de juegos.
Durante el período de enero de 2024 a junio de 2024, hemos centrado nuestros esfuerzos en bloquear el contenido de mensajería disruptiva de personas que no son amigos y en la detección de spam y publicidad con el lanzamiento de dos herramientas habilitadas con IA que reflejan nuestro enfoque multifacético para proteger a los jugadores.
Entre las conclusiones clave del informe:
- Equilibrar la seguridad y la autenticidad en la mensajería: Presentamos un nuevo enfoque para detectar e interceptar mensajes dañinos entre personas que no son amigos, lo que contribuyó a un aumento significativo en el contenido disruptivo evitado. De enero a junio, se impidió que un total de 19 millones de piezas de contenido que violaban los Estándares de la comunidad de Xbox llegaran a los jugadores a través de texto, imágenes y videos. Este nuevo enfoque equilibra dos objetivos: proteger a los jugadores del contenido dañino enviado por personas que no son amigos, al mismo tiempo que se preservan las experiencias de juego en línea auténticas que disfruta nuestra comunidad. Alentamos a los jugadores a usar la nueva Experiencia de amigos y seguidores de Xbox, que brinda más control y flexibilidad al conectarse con otras personas.
- Seguridad mejorada por los informes de los jugadores: Los informes de los jugadores siguen siendo un componente fundamental en nuestro enfoque de seguridad. Durante este período, los jugadores nos ayudaron a identificar un aumento en el spam y la publicidad en la plataforma. Estamos constantemente evolucionando nuestra estrategia para evitar la creación de cuentas no auténticas en la fuente, limitando su impacto tanto en los jugadores como en el equipo de moderación. En abril, tomamos medidas ante un aumento repentino de cuentas no auténticas (1.7 millones de casos, en comparación con los 320 000 de enero) que afectaban a los jugadores en forma de spam y publicidad. Los jugadores nos ayudaron a identificar este aumento y patrón al proporcionar informes en los mensajes de Buscando grupo (LFG). Los informes de los jugadores se duplicaron a 2 millones para los mensajes LFG y aumentaron 8% a 30 millones en todos los tipos de contenido en comparación con el último período del informe de transparencia.
- Nuestro enfoque de IA dual: Lanzamos dos nuevas herramientas de IA diseñadas para respaldar a nuestros equipos de moderación. Estas innovaciones no solo evitan la exposición de material disruptivo a los jugadores, sino que también permiten que nuestros moderadores humanos prioricen sus esfuerzos en problemas más complejos y matizados. La primera de estas nuevas soluciones es Xbox AutoMod, un sistema que se lanzó en febrero y ayuda con la moderación del contenido denunciado. Hasta ahora, ha manejado 1.2 millones de casos y ha permitido al equipo eliminar contenido que afecta a los jugadores un 88% más rápido. La segunda solución de IA que presentamos se lanzó en julio y trabaja de manera proactiva para prevenir comunicaciones no deseadas. Hemos dirigido estas soluciones para detectar spam y publicidad y las ampliaremos para prevenir más tipos de daños en el futuro.
La base de todos estos nuevos avances es un sistema de seguridad que se basa tanto en los jugadores como en la experiencia de los moderadores humanos para garantizar la aplicación coherente y justa de nuestros Estándares de la comunidad, al tiempo que mejora nuestro enfoque general a través de un ciclo de retroalimentación continuo.
En Microsoft Gaming, nuestros esfuerzos por impulsar la innovación en materia de seguridad y mejorar la experiencia de nuestros jugadores también se extienden más allá del Informe de Transparencia:
Priorizar la seguridad de los jugadores con Minecraft: Mojang Studios cree que cada jugador puede hacer su parte para mantener Minecraft como un lugar seguro y acogedor para todas las personas. Para ayudar con eso, Mojang lanzó una nueva función en Minecraft: Bedrock Edition que envía recordatorios a los jugadores sobre los Estándares de la comunidad del juego cuando se detecta un comportamiento potencialmente inapropiado o dañino en el chat de texto. Esta función tiene como objetivo recordar a los jugadores en los servidores la conducta esperada y crear una oportunidad para que reflexionen y cambien la forma en que se comunican con los demás antes de que se requiera la suspensión o prohibición de una cuenta. Por otra parte, desde que se lanzó la Lista oficial de servidores de Minecraft hace un año, Mojang, en asociación con GamerSafer, ha ayudado a cientos de propietarios de servidores a mejorar la gestión de la comunidad y las medidas de seguridad. Esto ha ayudado a los jugadores, padres y adultos de confianza a encontrar los servidores de Minecraft comprometidos con las prácticas de seguridad que les importan.
Actualizaciones de las herramientas antitoxicidad de Call of Duty: Call of Duty se compromete a combatir la toxicidad y el juego injusto. Para frenar el comportamiento disruptivo que viola el Código de conducta de la franquicia, el equipo implementa tecnología avanzada, incluida la IA, para empoderar a los equipos de moderación y combatir el comportamiento tóxico. Estas herramientas están diseñadas específicamente para ayudar a fomentar una comunidad más inclusiva donde los jugadores sean tratados con respeto y compitan con integridad. Desde noviembre de 2023, se bloquearon más de 45 millones de mensajes de texto en 20 idiomas y la exposición a la toxicidad de la voz se redujo a 43%. Con el lanzamiento de Call of Duty: Black Ops 6, el equipo implementó soporte para moderación de voz en francés y alemán, además del soporte existente para inglés, español y portugués. Como parte de este trabajo continuo, el equipo también realiza investigaciones sobre el comportamiento prosocial en los juegos.
A medida que la industria evoluciona, seguimos construyendo una comunidad de juegos de jugadores apasionados, con ideas afines y reflexivos que vienen a nuestra plataforma para disfrutar de experiencias inmersivas, divertirse y conectarse con otros. Seguimos comprometidos con la seguridad de la plataforma y con la creación de IA responsable por diseño, guiados por el Estándar de IA Responsable de Microsoft y a través de nuestra colaboración y asociación con organizaciones como Tech Coalition. Gracias, como siempre, por contribuir a nuestra vibrante comunidad y por estar presente con nosotros en nuestro viaje.
Dios Gokú