أصبح التمييز بين الإنتاجات الأصلية وإنتاجات الذكاء الاصطناعي التوليدية"تشات جي بي تي" من أشد المقارنات تعقيدا، بات الذكاء الاصطناعي يطرح نفسه علي أساس الحقيقة في إنشاء المقالات العلمية التحليلية،التي لطالما يصعب التفريق بينها وبين الإنتاجات البشرية خاصة لدى الأشخاص خارج إطار البحث المحدد ، الذين لا يمتلكون الخبرة اللازمة لتمييز التناقضات الدقيقة. في إطار البحث بخصوص الحلول ،طور "أحمد عابدين حامد"، الباحث في كلية «توماس جاي واتسون» للهندسة والعلوم التطبيقية بجامعة «بينغامبتون» خوارزمية التعلم الآلي «xFakeSci» ، التي تكتشف ما يصل إلى 94 في المائة من الأوراق العلمية المزيفة، مما يضاعف تقريباً معدل نجاح تقنيات استخراج البيانات التقليدية. خوارزمية التعلم الآلي «xFakeSci» جاءت بناء على المشكلة الحقيقة التي يدركها حامد في تزييف المقالات العلمية، يركز هذا الأخير في أبحاثه الأساسية على المعلوماتية الطبية الحيوية التي تتضمن التدقيق في المنشورات الطبية والتجارب السريرية والموارد عبر الإنترنيت ،.خصوصا تلك التي تم تسليط الضوء عليها في فترة جائحة كورونا ، تعاون كل من" أحمد عابدين حامد"، و"زيندونغ وو"، أستاذ في جامعة «هيفاي للتكنولوجيا» في الصين لإنشاء وتحليل مقالات مزيفة عن مرض الزهايمر والسرطان والاكتئاب، قارن الباحثان هذه المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بمقالات حقيقية من قاعدة بيانات «بابميد» التابعة للمعاهد الوطنية للصحة. ركز الباحثان في تطوير «xFakeSci» على تحليل ميزتين رئيسيتين للمقالات وهي التواتر وترابط الثنائيات التي تعد أزواج من الكلمات تظهر معاً بشكل شائع على سبيل المثال «تغير المناخ»، «التجارب السريرية»، من خلال استخدام الكلمات الرئيسية نفسها لإنشاء مقالات مزيفة واسترجاع مقالات حقيقية ضَمَنوا أساساً متسقاً للمقارنة. كشفت الدراسة الاختلاف بين المقالات المنجزة بالذكاء الاصطناعي و التي بفعل البشر هذه الأخيرة التي تتسم بوفرة الكلمات الثنائية ، وأقل ارتباطاً بشكل موحد، فيما تبين أن المقالات المزيفة تحتوي على عدد الكلمات الثنائية الفريدة بشكل أقل الشيء الذي يتعارض مع كتابات البشر، فإن النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يميل إلى الإفراط في استخدام الكلمات المهمة لإقناع القراء.