Theo thông báo từ trước đó, Call of Duty: Modern Warfare 3 được ấn định ngày ra mắt vào 10/11 tới đây. Càng tới gần hạn trình làng, cộng đồng càng được dịp hào hứng sau thời gian dài chờ đợi. Đặc biệt, cũng trong ngày này, game sẽ xuất hiện cùng ứng dụng công nghệ AI kiểm soát các hành vi tiêu cực của người chơi.
Bằng việc hợp tác với công ty Modulate, Activision đã giới thiệu hệ thống kiểm duyệt ToxMod dựa trên trí tuệ nhân tạo vào game Modern Warfare 3. ToxMod được thiết kế để phát hiện và phân tích những lời nói có chứa những hành vi phân biệt đối xử, thù ghét và quấy rối trong suốt quá trình chơi của game thủ. Công cụ này không thể trực tiếp kiểm soát người chơi, thay vào đó nó sẽ quan sát và báo cáo lại hành vi đó cho phía Activision để ra quyết định hình phạt.
Modulate trước đó đã thông tin rằng mô hình của họ đã trải qua thử nghiệm kéo dài trong các tình huống khác nhau nhằm phân biệt giữa các bình luận độc hại và vô hại.
Ngoài ra, trước khi ra mắt hai ngày Modern Warfare 3, ToxMod sẽ được thử nghiệm trên các tựa game khác của Call of Duty như Warfare 2, Warzone... Giám đốc Activision - Michael Vance đã cho biết: "Đây là một bước quan trọng để tạo ra và duy trì một trải nghiệm chơi game công bằng, thú vị và chào đón cho tất cả người chơi".
Sự cải tiến này của nhà sản xuất đang nhận được sự ủng hộ rất lớn từ đông đảo người chơi, đặc biệt là khi hiện nay sự "độc hại" trong game đang trở nên ngày càng phức tạp. Mặc dù vậy, đối với những kỳ vọng đó, các game thủ cũng không thể giấu đi sự lo ngại của mình. Bởi vì họ sợ rằng việc có quá nhiều game thủ sẽ gây ra sự cố trong quá trình kiểm duyệt và còn có thể dẫn đến các lỗi khác.