כיצד האלגוריתם משנה את התודעה הפוליטית?

הרשתות החברתיות הן הזירה שבה מעוצבת דעת הקהל הפוליטית. זו אינה זירה ניטרלית ואפילו לא לגמרי “ציבורית”. האלגוריתם של הרשתות הוא גורם קריטי בהשפעה על דעת הקהל. ד”ר שרון בסן מסבירה כיצד משנה האלגוריתם את התודעה שלנו.

ד”ר שרון בסן ועו”ד עדי בן עמי, מתוך מאמרה של ד”ר שרון בסן*

03 בספטמבר 2025

הדיון הציבורי בעידן הדיגיטלי מתנהל ברשת, אך לא רק המרחב השתנה – גם הכללים. האלגוריתמים של הרשתות החברתיות עברו מהפך משמעותי: ממנגנון טכני שמטרתו לייעל את חוויית המשתמש ולהציע לנו תכנים, הם הפכו לשחקן פוליטי וחברתי המעצב את תפיסת המציאות של הציבור, שקובע מה נראה ומתי, ושעורך, מגשר, מסנן, ולעיתים אף מצנזר. כלומר, מדובר במנגנון שמשפיע לא רק על מה שאנחנו רואים, אלא גם על איך נבין את מה שראינו, וכך מעצב את הדרך שבה אנחנו חושבים, מרגישים ומגיבים. מי קובע לאילו תכנים ניחשף? וכמה בחירה בכלל יש לנו? האם אנחנו באמת מקבלים המלצות שתואמות את מה שהיינו רוצים לראות?
 

***

כיכר העיר החדשה

על-פי רוב התיאוריות הדמוקרטיות, הדיאלוג הציבורי הוא אבן היסוד למימוש הערכים הדמוקרטיים. במרחב הציבורי נפגשים אזרחים לדיאלוג, להחלפת נקודות מבט, לבחינת רעיונות ולשכלולם, וכך תורמים לדמוקרטיה חזקה יותר. חשיפה למגוון דעות מאפשרת לאזרחים להיות מיודעים ולקבל בחירות מושכלות.

בעידן הדיגיטלי, הרשתות החברתיות מאפשרות לכלל המשתמשים להיחשף, להתבטא ולהגיב לאירועי השעה בקלות, וללא חסמים של גופי התקשורת המסורתיים, וכך תורמת לשקיפות ולמעורבות ציבורית. במובן זה, המדיה החברתית מציעה כיכר עיר חדשה שבה חופש הביטוי יכול לשגשג. אך הטכנולוגיה הזו אינה ניטרלית.

תכונות ההתאמה האישית

המודלים העסקיים של הפלטפורמות החברתיות מבוססים על “כלכלת תשומת הלב”, שבה מתחרים על תשומת הלב של המשתמשים וממנפים אותה למכירת מודעות. על פי מודל כלכלי זה, מתוכננים האלגוריתמים ליצור זרם תוכן מותאם אישית בהתבסס על הפרופיל האישי של כל משתמש. לשם כך, מאופיינים האלגוריתמים בשתי תכונות שפועלות במקביל: תכונת הסינון או ההגברה (“Amplifying algorithms”) ותכונת מנגנון ההמלצה (“Recommendation systems”).

מנגנוני ההגברה וההמלצה

מנגנון ה”הגברה” מאפשר לאלגוריתם לקבוע את התכנים שיש לתעדף בעדכוני המשתמשים או בתוצאות החיפוש שלהם ואת משך החשיפה שלהם. כדי לתמוך במודל העסקי של הרשתות החברתיות, אלגוריתמי ההגברה בוחרים תוכן על בסיס הפופולריות והאטרקטיביות שלו ומפיצים אותו בקנה מידה גדול יותר מתכנים אחרים. במקרים רבים, האלגוריתמים מתוכנתים לקדם תוכן שמעורר תגובה רגשית חזקה – כעס, פחד, שנאה – בהתבסס על קריטריוני המעורבות שלהם (כגון לייקים, תגובות ושיתופים) המייצרים מעורבות (engagement) ולכן מגבירים הכנסות פרסום.

התכונה השנייה נוגעת למנגנון ההמלצה, אשר נועד לספק למשתמשים הצעות או המלצות מותאמות אישית. מנגנון ההמלצה אוסף מידע על המשתמשים (כגון היסטוריית גלישה, היסטוריית רכישות, דירוגים, לייקים ומידע דמוגרפי) ומתאים אותו לפרופיל משתמש מסוים במטרה להגביר את מעורבותם בפלטפורמה. בהמשך, מנגנון ההמלצה ידאג להמליץ למשתמשים על תכנים המבוססים על התנהגות והעדפות של משתמשים אחרים בעלי פרופיל דומה, או על התנהגות המשתמש עצמו בעבר. הכל במטרה לוודא של משתמש ייחשף לתכנים שנמצאו רלוונטיים או משמעותיים עבורו.

על אף שהמטרה זהה – להגביר מעורבות בקרב המשתמשים ולהגדיל הכנסות מפרסום, אופן הפעולה שלהן שונה. בעוד תכונת ההגברה מתמקדת בדחיפת תוכן מסוים על פני אחר, מנגנון ההמלצה מתמקד בהתאמת תכנים רלוונטיים מתוך המאגר הכללי הקיים. גם אופן התיעדוף שלהן שונה: בעוד אלגוריתמי ההגברה פועלים על בסיס מדדי הפופולריות של התוכן (לייקים, תגובות, שיתופים ולחיצות), מנגנון ההמלצה פועל על סמך הפרופיל האישי והפעילות של המשתמשים בפלטפורמות השונות שמהווים בסיס להתאמה אישית של התכנים.

למעשה, שתי התכונות מזינות האחת את השניה ותורמות במשותף לקביעת התכנים – הרעיונות, המגמות, הדעות – אליהם יחשפו המשתמשים: תוכן מוגבר עשוי להגביר את מעורבות המשתמשים עם תוכן כדוגמתו, והמעורבות המוגברת תשפיע על סוג התוכן המותאם למשתמשים באמצעות מערכות המלצה. לדוגמה, עיסוק תכוף בפוסטים ממקורות שמרניים יוביל משתמש לקבל יותר מאותו תוכן שמרני, ובמקביל להימנע מלקבל תוכן “ליברלי” שאינו תואם את העדפותיו. לפיכך, התאמת תוכן אישית משפיעה על השיח הציבורי החיוני כל כך לדמוקרטיה.

הקצנת השיח ושחיקת הדיון הציבורי

התוצאה של התאמה אלגוריתמית אישית היא “לולאת חיזוק” ו”חדרי תהודה” (echo chambers) שבהם לחברים דעות דומות. חדרי התהודה יוצרים בעיני המשתמש אשליה של הסכמה נרחבת, שלא בהכרח משקפת את המציאות שמחוץ לאותם חדרי תהודה. תאי התהודה מייצרים ספקטרום צר של דעות ורעיונות, הבנה רדודה של סוגיות חברתיות מורכבות, ונסיגה בחשיבה הביקורתית ובחקירת נקודות מבט חלופיות. התכנים מהדהדים ומחזקים את אותן עמדות ואותם רעיונות המותאמים לדעתם של החברים, וביקורת, איזון, ודעות מנוגדות כמעט ואינן מושמעות. שיח כזה תורם ל”קיטוב” ופוגע בפלורליזם ובמגוון הדעות – החיוניים כל כך לדמוקרטיה בריאה.

בנוסף, ככל שהשיח המקטב שמקדמים האלגוריתמים נתפס כאמין ותקף הוא מקשה על יצירת בסיס עובדתי משותף. כאשר התמונה המלאה מוסתרת על ידי האלגוריתם ותאי ההדהוד – המשתמשים מסתמכים על אותו מידע מטעה שנתפס בעיניהם כאמין ומשכנע. כך קרה למשל באירועי ה-6 בינואר 2021, כאשר אלפי תומכי דונלד טראמפ גדשו את הקפיטול בארה”ב כדי לעצור את האשרור החוקתי של ניצחון הנשיא ביידן בבחירות, בעקבות מידע שנוהל והופץ בפייסבוק, למרות עשרות אלפי דיווחים לשעה על “פייק ניוז” מטעם משתמשים.

אשליה זו גורמת להקצנת השיח האלים ברשתות. בהתאם למודל העסקי של הרשתות, האלגוריתמים יתעדפו תכנים פרובוקטיביים, גם אם מזיקים (אמירות פוגעניות, דברי שנאה, אלימות, פורנוגרפיה, ומידע כוזב), במטרה לעורר תגובות רגשיות חזקות ומחלוקות כדי להגביר מעורבות משתמשים. דוברים המעוניינים להגדיל את הקהל שלהם מתאימים את התכנים שהם מפרסמים לאלה שמעודדים האלגוריתמים והאלגוריתמים מקדמים את המשתמשים התוקפניים ובעלי הדעות הקיצוניות. בד בבד בעלי דעות מתונות יותר נמנעים מחשיפת עמדותיהם מחשש מביקורת ובפועל הדעות המתונות מושתקות.

למרות הפוטנציאל האדיר של הרשתות החברתיות בהנגשת השיח הציבורי הפתוח לכל, ההתאמה האישית והמניפולציה של האלגוריתמים שוחקת את השיח הציבורי, מצמצמת את טווח המידע שאנשים נחשפים אליו במקום להרחיב אותו ומשתיקה דוברים במקום לעודד דיאלוג פורה. כך עולה הסיכון להסתה של משתמשים למעשי אלימות ופשעי שנאה מתוך להט, ולפגיעה בלכידות החברתית, כמו גם בדמוקרטיה עצמה ובשלטון החוק.

הבניית מציאות במיקרו-טירגוט: פרשת קיימברידג’ אנליטיקה

אלגוריתמים המפיצים תוכן מותאם אישית לכל משתמש נותנים לפלטפורמות כוח להשפיע ולעצב את השיח הציבורי, כי בפועל, המשתמשים נחשפים רק לתכנים התואמים את השקפותיהם ו”נלכדים” לאותם חדרי הדהוד. הביטוי המובהק ביותר של הסכנה הטמונה בתכונות ההתאמה האישית הוא המיקרו-טירגוט (microtargeting). המיקרו טירוגט מנצל את יכולת הפילוח של האלגוריתמים כדי לשלוח מסרים שונים לפרופילים שונים של משתמשים. למשל, אסטרטגיית המיקרו-טירגוט מאפשרת למפלגות פוליטיות להדגיש נושאים שונים עבור מצביעים שונים – אפילו בתוך אותו קמפיין פוליטי. כך, מצביעי אותה מפלגה עשויים להיחשף לנרטיבים או סדרי עדיפויות שונים לחלוטין, בהתאם לפרופילינג שלהם. כלומר, מיקרו-טירגוט הוא לא רק כלי שיווקי, אלא מנגנון שמייצר תאי הדהוד באופן שיטתי.

כאשר הטכנולוגיה מנוצלת בידי בעלי אינטרסים – התודעה שלנו בסכנה. בפרשת קיימברידג’ אנליטיקה חברת הייעוץ הפוליטי יצרה קמפיין שנועד לעצב את דעת הבוחרים ולהשפיע על התנהגותם במטרה להגביר את התמיכה בדונלד טראמפ בבחירות לנשיאות בארה”ב בשנת 2016. היא השתמשה במידע אישי של מיליוני משתמשי פייסבוק (ללא הסכמתם) כדי לבנות פרופילים פסיכולוגיים מדויקים. המידע שימש ליצירת כ-10,000 מסרים פוליטיים שונים שהותאמו אישית לכל פרופיל. משתמשים באזורים שתמכו בטראמפ קיבלו פרסומות עם תמונתו ופרטים על קלפיות לעומת משתמשים “מתנדנדים” שקיבלו מסרים עם תמונות של תומכים מפורסמים. בנוסף, נעשה שימוש בפרסומות ממומנות בגוגל כדי להטות תוצאות חיפוש לטובת טראמפ ולרעת קלינטון. לדוגמה, החיפוש “Trump Iraq War” הוביל לתוצאה ממומנת לפיה “הילרי הצביעה בעד המלחמה – טראמפ התנגד לה”.

אסטרטגיות המבוססות על תוכן מותאם אישית ידועות לכולנו. מדובר בכלי המאפשר לבעלי אינטרס לעצב את העמדות שלנו וליצר את המציאות שמיטיבה עימם. אלגוריתמים אלו פוגעים בבסיס המשותף לדיון ציבורי ומונעים אפשרות לאתגר דעות או לבחון מסרים מסוגים שונים באופן המוביל להקצנה פוליטית ולקיטוב, לשחיקת האמון הציבורי במוסדות השלטון, ולערעור השיח הדמוקרטי. מציאות זו מחייבת קידום של רגולציה חדשה, כזו שתתמודד ותפקח על הכוח החברתי החדש.

* ד”ר שרון בסן היא חוקרת בכירה וראשת תחום חדשנות – משפט, מדיניות ואתיקה במכון ברנדייס; עו”ד עדי בן עמי היא עורכת הבלוג של מכון ברנדייס.