Activision ha revelado el progreso en sus esfuerzos para combatir la toxicidad dentro de Call of Duty, destacando una importante reducción en los comportamientos dañinos antes del lanzamiento de Black Ops 6. Desde la introducción de la moderación de chat de voz impulsada por IA en Modern Warfare 3 y Warzone, han logrado reducir en un 67% la reincidencia de infracciones de comportamiento. Esta moderación está basada en ToxMod, una herramienta de inteligencia artificial que detecta en tiempo real lenguaje discriminatorio, discurso de odio y acoso, todo dentro de los límites del Código de Conducta de Call of Duty.
Además, Activision ha bloqueado más de 45 millones de mensajes de texto que violaban las normas desde noviembre de 2023. Con el lanzamiento de Black Ops 6, la empresa expandirá esta moderación a más idiomas, como francés y alemán. Activision también destaca su trabajo con universidades de renombre como Caltech y la Universidad de Chicago para mejorar sus estrategias en la lucha contra el comportamiento disruptivo dentro de los juegos.