מה הקשר בין בינה מלאכותית לבית הדין השרעי בישראל? על פניו, הקשר לא קיים. אבל השבוע, לאור עתירה על החלטתו של בית הדין השרעי, בג"ץ מסר פסק דין בנושא השימוש בבינה מלאכותית במשפט. במסגרת זו, שופטת בג"ץ גילה כנפי-שטייניץ הציגה אמירה משמעותית וחריפה. זוהי לא אמירה משפטית על דת ומדינה ולא על עמדתו של בג"ץ ביחס לאלו, כי אם על תפקידה של הבינה המלאכותית בעידן המידע.
פסק הדין נולד כקומדיה של טעויות. כפי שציינה כנפי-שטייניץ, "הטיעון המשפטי שהוצג בעתירה נסמך בעיקרו על פסקי דין וציטוטים מתוך פסקי דין שלא היו ולא נבראו. זאת, כתוצאה מהסתמכותה של באת כוח העותרת, כך על-פי הסבריה, על מידע שסופק לה על-ידי 'אתר שהומלץ לה ע"י קולגות', מידע שהוטעתה לחשוב כי הוא אמת מבלי שווידאה את נכונותו". או במילים אחרות: עורכת הדין שאלה את אחת מפלטפורמות הבינה המלאכותית הפופולאריות מה כדאי להכניס לעתירה מבלי לבדוק את נכונות המידע שקיבלה.
השופטת כנפי-שטייניץ לא התבלבלה, וניצלה את האירוע המביך כדי לדון בבינה המלאכותית מכל צדדיה. כך ההתייחסות מקפלת בתוכה את כל מה שצריך אדם לדעת על בינה מלאכותית היום: השימוש בה דורש מאיתנו הרבה יותר מאמץ ממה שנדמה והרבה יותר מחשבה ותשומת לב מאלו שאנחנו, כחברה, משקיעים בפועל.
השופטת כנפי-שטייניץ ציינה כי "אין זה המקרה הראשון שבו הוגשו לבתי משפט כתבי בית דין הכוללים אסמכתאות משפטיות בדויות מעשה הזיות בינה מלאכותית", אך בשאלת נוכחות הבינה המלאכותית בהיכלי המשפט הציעה כי "טמון בה פוטנציאל רב לייעול וטיוב של מגוון משימות בתחום המשפטי".
האמירה הפשוטה הזאת: "פוטנציאל ייעול רב", היא אמירה רחבה בהרבה מתחום המשפטים. דווקא בשל הנסיבות המביכות שבגינן המקרה הגיע לאולמה, הקביעה של השופטת כנפי-שטייניץ היא הצהרה ממשית על הצורך הבהול באוריינות בינה מלאכותית בחברה המודרנית.
ואכן, הוסיפה השופטת, "ככל טכנולוגיה – גם בזו קיימים חסרונות וסיכונים", כמו מזכירה לנו שטכנולוגיות מידע הן תמיד גם וגם: גם כלי יעיל וגם גורם סיכון חברתי. גם מאגר בלתי נגמר ללמידה והתפתחות וגם תירוץ לעצלות ובורות.
בשם הנוחות האצלנו סמכויות חברתיות, תרבותיות ופוליטיות מרובות לפלטפורמות מבוססות בינה מלאכותית. בשם המהירות והמיידיות הרשינו לטכנולוגיות אוטומציה לבצע עוד ועוד מטלות שדורשות חשיבה, ביקורתיות והטלת ספק. אך מתי עצרנו לוודא שאנחנו יודעים מהי התועלת ומהו ההפסד מהעברת עומס עבודת הנמלים הקדחתנית של חיינו לסוכני תוכנה?
במערכת החינוך הכריזו על "חודש הבינה המלאכותית", אך אנו מגדלים תלמידים ואזרחים שאין ביטחון שיתבגרו להיות מורים, עורכי דין, רופאים ואף מצביאים שידעו לרתום כהלכה את הטכנולוגיה החדשה. לא מספיק לדבר על כלי בינה מלאכותית וכמה נהדרת ההזדמנות לייצר תמונות AI מחמיאות לפרופיל המדיה החברתית שלנו. ההשלכות החברתיות, הן הן שצריכות להיות במרכז השיח על בינה מלאכותית היום. הן אלו החיוביות והן אלו השליליות.
פסק הדין של בג"ץ מציף את הדיון על אמת ובדיה, על מהותם של מודלים מלאכותיים שמטרתם אינה דיוק, אלא רווח כלכלי תוך מתן תשובה לכל שאלה, לא משנה כמה רחוקה התשובה מעובדות או מציאות שמחוץ לרשת. הפעם המבוכה התעוררה בתחום המשפט, אבל המורכבות חוצה תחומים.
למעשה, החוויה האנושית רוויה היום במשתתפים רבים שאינם אנושיים, אך לא למדנו מעולם שעלינו לשאול האם אנחנו יודעים לזהות אותם? להתמודד איתם? ועד שנלמד לזהות את אלו ולהעריך את אמינותם, מה יהיה עם הפלטפורמות החדשות שיצוצו עוד שנה, עוד עשור או עוד שניים?
את העתיד אי אפשר לחזות ולא נוכל לדעת היום אילו כלים ויכולות נצטרך לרכוש, אולם ניתן לומר בבטחה כי יכולת אחת לעולם לא תיעלם, והיא היכולת להעריך את מהימנות ואמינות המידע שהובא לפתחנו. הדבר היה נכון בעבר מול דיווחים עיתונאיים במדיה ותיקים, בספרי לימוד ובמערכת המשפט, והדבר נכון שבעתיים היום כאשר שיקול דעת אנושי הולך ומתחלף במנגנוני בינה מלאכותית אשר איננו יודעים מהו תהליך תכנונם והכשרתם למסירת מידע.
השורה התחתונה של כנפי-שטייניץ בפסק דין, כמו במסקנותיהם של חוקרים רבים בתחום הטכנולוגיה: בצעו עבודה קפדנית יותר בהערכה ביקורתית של המידע שקיבלתם.
ד"ר איה ידלין היא מרצה בכירה בבית הספר לתקשורת באוניברסיטת בר-אילן