׳אתי מה?׳ ארבע סוגיות אתיות שכדאי להכיר בנוגע לטכנולוגיית הבינה המלאכותית
- ykoren21
- 28 בפבר׳ 2021
- זמן קריאה 5 דקות
עודכן: 11 במאי 2021
את המושג 'בינה מלאכותית' (Artificial Intelligence) - רובנו מכירים כאחד מה-Buzzwords השגורות ביותר בעולם הטכנולוגיה והחדשנות. כולנו כבר שמענו כיצד החיים ייראו טובים יותר, קלים יותר, פשוטים יותר באמצעותה. כולנו מכירים לפחות בינה מלאכותית אחת מהסרטים, הסדרות והספרים האהובים עלינו (הי ג׳וני 5!). אך מה שרובנו פחות מודעים אליו הן הדילמות האתיות המגיעות תמיד עם הקידמה הטכנולוגית. עכשיו כדי שלא תחשבו ש׳דילמות אתיות׳ זה משהו הנוגע רק לפרופסורים.ות חמורי סבר באקדמיה, אדייק - במונח דילמות אתיות כוונתי להשפעות החברתיות, הסביבתיות, המדעיות והכלכליות של הטכנולוגיה על מציאות חיינו. אז אם אי פעם תהיתם מה ג׳וני 5 או האל 9,000 מתכננים להמשך האנושות, המשיכו לקרוא
?'Hey Google' מה זו אתיקה
לפני כחודשיים פיטרה גוגל את ראש צוות האתיקה בבינה מלאכותית שלה - דר׳ טימניט גברו. זאת, לכאורה בעקבות מאמר מדעי שטימניט וחוקרות נוספות הגישו לפרסום אודות ההשלכות האתיות של פיתוח בינה מלאכותית המבינה שפה אנושית. סביב פיטוריה של טימניט, אחת החוקרות המובילות בעולם בתחום חקר האתיקה בבינה מלאכותית, התעוררה סערה גדולה - הן על תזמון פיטוריה והן על האופן בו פיטורים אלו משקפים את היחס של חברות הטכנולוגיה הגדולות להשפעה של הטכנולוגיה שהן מפתחות על החברה האנושית. מאז אגב הודיעה גוגל על פיטוריה של מי שהקימה יחד עם טימניט את הצוות וכתבה יחד עמה את המאמר לכאורה בתגובה לכך שזו חיפשה באימיילים שלה עדויות לכך שגוגל הפגינה יחס מפלה כנגד טימניט על רקע היותה אישה שחורה.

המקרה של טימניט ושותפותיה הוא הזדמנות להתעכב על ההשפעות החברתיות, הסביבתיות, המדעיות והכלכליות של הטכנולוגיה. הרי כמה מאיתנו רגילים לחשוב על טכנולוגיה במונחים של אתיקה? לפני שנעמיק, מילה אחת - הנושא הכללי, אתיקה וטכנולוגיה, רחב הרבה מעבר להיקף של כל בלוג ופוסט אחד. לכן, אתעכב כאן על הסוגיות האתיות שתימנית והקולגות שלה העלו במחקרם על ההשלכות של פיתוח בינה מלאכותית המבינה שפה אנושית.
ארבע סוגיות אתיות עיקריות עולות ממחקרן: השפעותיה על החברה, הסביבה, הכלכלה, והמדע.
השפעות חברתיות
בניסיון לאמן מודלים של שפה יש צורך בכמויות אדירות של מידע. בחיפוש אחר כל חלקיק מידע to feed the (AI) beast - חלק ממסדי הנתונים ענקיים כל כך עד שלא ניתן לדעת לגמרי מה המידע שהם מכילים. מכיוון שכך, המידע עליהם המודלים מתאמנים עלול להכיל גזענות וסקסיזם וכך נמצא עצמנו עם מודלים הרואים בעמדות גזעניות, להט"בופוביות או מיזוגניות כמשהו נורמטיבי.
אך גם ללא מידע כזה - המודלים, בגלל כמות המידע האדירה עליה הם נסמכים, עלולים להתפתח הרחק מהנורמות החברתיות המתגבשות. זאת מכיוון, שכשהמודלים עוברים על כמויות כ"כ גדולות של מידע, שינויים תרבותיים הנרקמים כעת (למשל תנועת MeToo) יישטפו בים המידע ולא יירשמו בכלל במודל. באותה המידה גם תרבויות בעלות גישה פחותה לאינטרנט יקבלו ייצוג מופחת במודל וכך הוא ישקף בעיקר את הלך המחשבה והנורמות התרבותיות של התרבויות הגדולות והעשירות יותר. ואם כל זה לא מספיק, הרי שבשל גודל מסדי הנתונים הנדרשים - זה כמעט בלתי אפשרי לתעד את תוכנם כדי להבין כיצד המודל התפתח כפי שהתפתח וכדי לאתר את הבעיות ולתקנן.
לפי פרופ' קובי גל מהמחלקה להנדסת מערכות תוכנה ומידע באוניברסיטת בן גוריון, הבעיה היא אף יותר חמורה, שכן אלגוריתמים של בינה מלאכותית מבוססים על איתור דפוסים מתוך הנתונים, ומכלילים מתוך אותם הדפוסים כדי לספק תחזיות. לכן, התחזיות האלו משקפות את אותן ההטיות הקיימות במציאות. אם החלטות מתקבלות על סמך תחזיות אלו הרי שהמודל עוזר לנו לשחזר את אותם הדפוסים הבעייתיים הקיימים כבר כיום בחברה.
"הבעיה עם מסדי הנתונים היא לא שאינם יעילים, אלא שהנתונים הנאספים משקפים הטיות שכבר קיימות בחברה", הוא מדגיש, "לדוגמה: בחברה שלנו שחורים נכלאים יותר מלבנים, ונשים מקבלות שכר נמוך יותר מגברים. כך האלגוריתם ימליץ לשופט לאשר בקשות של אנשים לבנים לשחרור על תנאי, אבל לא של אנשים שחורים. באותו האופן מנוע חיפוש יציע לנשים משרות בשכר נמוך יותר."
פרופ' גל מוסיף שחווה באופן אישי את התופעה במסגרת מחקר שביצע: "בניסוי שביצענו בבית ספר בארץ, השתמשנו בבינה מלאכותית כדי להציג לתלמידי כיתה ח' בעיות מתמטיות המותאמות אישית לרמתם. הנתונים עליהם המערכת התאמנה לפני כן היו של תלמידים בנים ממעמד בינוני-גבוה. מכיוון שכך הרשת העריכה לא נכון את הרמה של אחת התלמידות הבנות, ונתנה לה בעיה קשה מאוד עבור רמתה. היא הייתה כל כך בלחץ שפשוט נשברה והחלה לבכות. הדוגמה הזו השפיעה עליי רבות. האלגוריתם אמנם אמור לדייק ב-85% מהמקרים אז לא מדובר בשגיאה יוצאת דופן, אבל הייתה לו השפעה שלילית על בנאדם אמיתי. בסופו של דבר לא מדובר רק בסטטיסטיקה".
השפעות סביבתיות
היות והבינה המלאכותית המדוברת לומדת ומשתפרת בצורה לא יעילה דיה, תוך שימוש בכמויות בלתי נתפסות של מידע, כמות החשמל הנצרכת לתחזוק הכוח החישובי תורמת כמויות משמעותיות ביותר של זיהום סביבתי. כמה משמעותי? ובכן, לפי החישובים המצוטטים במאמר, כתלות במודל הבינה, הכמות נעה בין כמות ה-CO2 הנפלט בטיסה הלוך וחזור בין ניו-יורק לסן פרנסיסקו, לבין – שימו לב – לכמות שפולטים חמישה רכבים אמריקאיים ממוצעים במשך כל חייהם!
ואלו ההערכות רק לאימון יחיד של המודל כאשר מודלים רבים עוברים אימונים חוזרים שוב ושוב. חיים שלמים של חמש גרטה ט'ונברג לא יספיקו להדוף הרצה אחת של מודל כזה!
השפעות כלכליות
העלות הכלכלית של הרצת המודלים השונים משתנה בהתאם לגודלם (כמות הפרמטרים שלהם). כדוגמא הן מביאות את העלות לאימון יחיד של מודל בן מעל 200 מיליון פרמטרים - 3 מיליון דולר!
בריאן קטנזארו, סגן נשיא בחברת NVIDIA, מעריך שבעוד כחמש שנים לא בלתי סביר שחברה תשקיע כמיליארד דולארים באימון מודל משלה.
המשמעות היא שמודלים כאלו זמינים בעיקר לארגונים ומדינות עשירות. סטארטאפים לא יוכלו להשתמש בבינה מלאכותית כדי להתחרות בענקיות הטכנולוגיה. לא רק זאת, אם נחבר זאת להשפעות הסביבתיות הרי שטמונה כאן מלכודת אתית נוספת – בעוד את המחיר הכלכלי הענק חברות הענק ישלמו, הרי שאת המחיר הסביבתי הגלובלי יישאו בעיקר מדינות ואוכלוסיות העניות מכדי להפעיל מודלים כאלו לטובתם והחסרות יכולת להתמודד ביעילות עם שינוי מזג האוויר.
במילים אחרות - 'עשירים יאמנו מודלי בוסר ואוכלוסיות עניות תסבולנה'.
השפעות מדעיות
הבעיה הרביעית המתוארת היא בניגוד האינטרסים המובנה בין בעלי היכולת לממן מחקרים בתחום – חברות הענק הטכנולוגיות – לבין בעלי היכולת לקדם את התחום – החוקרים עצמם.
בעוד הראשונות מעוניינות לקדם את הטכנולוגיות שניתן למסחר בקלות הרבה ביותר תוך השאת הרווח הגדול ביותר, השניים מונעים על ידי רצון לרתום את הסקרנות האנושית לטובת הכלל. כך, מושקע מיטב הכסף והאינטלקט האנושי בפיתוח מדע הבינה המלאכותית למען תועלת כלכלית גרידא על חשבון כל שימוש ותועלת חברתית אחרת.
מעניין לראות כיצד משהו שאולי נראה במבט ראשון כעניין לגאוני מחשב שאינו נוגע בנו, הוא למעשה בעל השלכות כה רחבות וחשובות לחיינו. אגב, שימו לב שעד כה לא הזכרתי את ההשלכה המוכרת ביותר לציבור הרחב – פייק ניוז. עם השתפרות המודלים גם יכולת זו משתפרת. כך לדוגמה, נער בקולג' בארה"ב השתמש בבינה מלאכותית ליצור פוסטים מזויפים לחלוטין עם עצות לניהול זמן שנקראו עשרות אלפי פעמים.

מהשלכות אתיות למוסר השכל
לכל טכנולוגיה ישנן השלכות מרחיקות לכת. כאלו ההולכות הרבה מעבר למה שאפילו מפתחיה צפו לראשונה. מודעות לאותן השלכות היא הצעד הראשון והחשוב בהתמודדות האנושות איתן ובעיצוב הטכנולוגיה והרגולציה החברתית בהתאם. אך אלו ההשלכות שאינן מדוברות שיש לחשוש מהן. מבחינה זאת יוזמות ללמד סטודנטים למדעי המחשב עקרונות של אתיקה ופילוסופיה הן בשורה משמחת (ראו לדוגמה). נקודת אור נוספת היא אתם.ן - העובדה שקראתם עד כאן, ואולי אף תחלקו מידע זה ותדברו עליו, היא מעין תעודת ביטוח מפני מדרון טכנולוגי חלקלק וסיבה לעוד קמצוץ אופטימיות עבור האנושות בעידן הבינה המלאכותית.
* תודה מיוחדת לפרופ׳ קובי גל מהמחלקה להנדסת מערכות תוכנה ומידע באוניברסיטת בן גוריון על העזרה שהגיש בכתיבת מאמר זה.
Comentários