خلال مشاهدة أي محتوى على شبكة الإنترنت أصبح من الطبيعي أن نرى في ذيل التعليقات مجموعة من مفتعلي المشكلات والمتحرشين يعكرون صفو المعلقين ممن يرغبون في أن يناقشوا بشكل فعّال في سياق ما يدور حوله المحتوى المنشور، سواء أكان ذلك فيديو على يوتيوب أو صورة على إنستغرام أو منشور من أي نوع على فيسبوك. ولحل هذه المشكلة نجح فريق عمل داخل غوغل في التوصل لفكرة مميزة تتمثل في واجهة برمجية تعتمد على مجموعة من الشبكات العصبية التي يتم تزويدها بقاعدة بيانات وأمثلة لكي تتعلم وتفهم كيفية تصفية التعليقات المختلفة والتي تدور خلال نقاش حول موضوع معين، ومن ثم بالتعرف على التعليقات التي تمثل شذوذا عن الخط العام، في حال كانت تحرشاً لفظياً أو إساءة أو اتجاهاَ عدوانياً يفقد النقاش موضوعيته. وبدأ بالفعل فريق من المطورين في بناء واجهة "Prespective" البرمجية التي تقوم بتصنيف التعليقات من حيث اتجاهاتها ومدى حدتها حول موضوع النقاش ومن ثم تقوم بحذف التعليقات التي تشتمل على إساءة أو تحرش كي يسير النقاش بشكل صحي مفيد وفعّال. ونشر الفريق تجربة بسيطة يمكن للمستخدمين تجربتها عبر الموقع المخصص للمشروع الجديد، تتمثل في مجموعة من التعليقات على بعض القضايا مثل خروج بريطانيا من الاتحاد الأوروبي "Brexit" والتغير المناخي والانتخابات الأمريكية، وفوق التعليقات على كل من تلك القضايا هناك شريط بتدريجات لونية من الأزرق حتى البنفسجي بحيث أنه عند تحريك المؤشر من الأزرق إلى البنفسجي يبدأ في إظهار المزيد من التعليقات "السامة Toxic" التي تتضمن كلمات مسيئة وتحرشا وشتائم. وحاول الفريق أن يجعل الأمر أكثر إفادة في إثراء النقاش فقاموا بتصميم إشعارات تلقائية آنية يتم إرسالها إلى ناشري المحتوى وكذلك مديري المنصات التي يتم نشر المحتوى عبرها كي يتمكنوا من اتخاذ إجراءات فورية مع تلك التعليقات السامة. ولم تكشف غوغل عن المدى الزمني لإمكانية تجربة هذه الواجهة البرمجية الجديدة على التعليقات في فيديوهات يوتيوب.