יתכן שהסדר העולמי החדש ישתמש בתוכנות אינטיליגנציה מלאכותית מוטות, שנוצרו מראש, בניסיון "לפרוק" את דעותיהם של אנשים עם דעות לא פופולריות על ידי שידול להשפיע עליהם שההיגיון שלהם אינו נכון? מחקר חדש בנושא, שנתמך על ידי קרן ג'ון טמפלטון, עשוי להעניק לתיאוריות קונספירציה טעם נוסף למשחקים המטרידים של מחשבתם, כך מסביר מאמר ב-Popular Science. המבקרים כבר הצליחו להתריע על כך שרדיקלים מהשמאל בעמק הסיליקון ומחוצה לו פעולותיהם מנוגדות לאינטרס הציבורי בכך שעיוותו את האלגוריתמים שמשמשים לאימון בינה מלאכותית על מנת שאלה יהיו מוטים אנטי-שמרניים כברירת מחדל.

השלב הבא עשוי להיות תכנות כל גישה אסורה לקטגוריית "תיאוריית קונספירציה", ולאחר מכן לאתגר את המשתמשים האנושיים בקרב היגיון שאינו מצוי בגבולות ההגינות. המחקר, שכותרתו "צמצום עמיד של אמונות קונספירציה באמצעות דיאלוגים עם AI", נועד להפריך את הדעה הרווחת שיש אנשים שלא ישנו את דעתם, גם כאשר הם נתקלים בעובדות. החוקרים ניסו להתמודד עם הבעיה של "אמונה נרחבת בתיאוריות קונספירציה בלתי מבוססות" והציעו כי תיאוריות קונספירציה יכולות, בניגוד לנרטיב המדעי, להיתקל במענה באמצעות בדיקות עובדתיות שיטתיות. בין התיאוריות שנבדקו היו גם תיאוריות קונספירציה מסורתיות יותר, כמו זו שקשורה לרצח של ג'ון פ. קנדי, לצד תביעות פוליטיות מודרניות יותר, כמו חוקיות הסגרים במהלך הקורונה או חוקיות הבחירות לנשיאות 2020. מחקר זה הביא לשיחות קצרות בין משתתפים קונספירטיביים עם AI, במטרה "לרפא" את עמדותיהם המוטעות לכאורה. החוקרים טוענים כי "הטיפול הפחית את האמונה של המשתתפים בתיאוריה הנבחרת ב-20% בממוצע," מה שמעיד כי "טיפול" בעובדות מסוימות יכול לשנות את דעותיהם, במיוחד כאשר העובדות הללו מגיעות מבוטי AI. תוך תקווה ש"הטיפול" ימשיך להתקיים לפחות חודשיים, מחקר זה מציע כי ניתן יהיה ליישם את הטכנולוגיה בזמן הקרוב על גבי פלטפורמות מקוונות. דוד רנד, פרופסור ב-MIT, שהשתתף בכתיבת המחקר, הביע אופטימיות לגבי עתיד הטכנולוגיה הזו, באומרו "זה באמת מרגש, זה נראה שעובד ועובד בצורה רחבה."