החברה שלכם משתמשת ב-AI או מתכוונת להכנס לשילוב או פיתוח יכולות כאלו? בפוסט הבא אסביר למה חשוב לשים לב כדי שלא ליפול לכשלים אתיים ופונקציונליים נפוצים ולמה זה בעצם צריך לעניין אותנו.
בינה מלאכותית היא תחום מרתק בעיני. לא פחות מאשר הפוטנציאל הטכנולוגי, מעניין לראות איך יישומים שכוללים AI משפיעים על העולם שבו אנחנו חיים. מצד אחד מדובר בפוטנציאל עסקי אדיר והזדמנות לשפר את העולם שבו אנחנו חיים. מצד שני, לשילוב של מכונה שעושה משהו מבלי שתוכנתה לכך באופן ישיר (אלא למדה בעצמה) ונוגעת בכמויות גדולות של אנשים ואינטראקציות, יש פוטנציאל השפעה גדול במיוחד - ולא תמיד חיובי.
לא חסרות דוגמאות מפורסמות יותר או פחות של סיכונים:
מערכות זיהוי פנים שכושלות בזיהוי אוכלוסיות מסויימות - לפעמים בצורה שעלולה ממש לסכן חיים.
מערכות שמפלות אוכלוסיות בהיבטים של שוויון בבריאות, שוויון לפני החוק, שוויון הזדמנויות.
אנשים חסרי אונים מול קבלת החלטות שרירותית למראה של מערכות.
ועוד ועוד.
נוסף לאלפי סטארטאפים וחברות שמשקיעות בבינה מלאכותית, מתקיים דיון ער מאוד בעולם לגבי מה שצריך לעשות כדי לקדם את התעשייה, מה נדרש כדי להוריד חסמים וגם מה נדרש כדי להבטיח שהשימוש בטכנולוגיה ייעשה בצורה המיטבית ומבלי לפגוע באנשים.
האיחוד האירופי התייחס להיבטי הטיפול ב-data במסגרת האמנה להגנה על מידע (הידועה בשם GDPR) וכלל בה גם את "The right for Explanation" או "הזכות לקבל הסבר" על החלטות אשר מתקבלות על ידי מערכות בינה מלאכותית.
קרן האו"ם לילדים (UNICEF) מובילה את פרויקט Generation AI - זהו פרויקט שמטרתו לבדוק מהם הסיכונים הייחודיים לילדים, מה הופך אלגוריתם למסוכן במיוחד לילדים ומה הופך אלגוריתם ידידותי לילדים. הפרויקט יגדיר קווים מנחים וכלים לשימוש של מפתחים, ארגונים וממשלות.
ממשלות רבות כבר פרסמו מדיניות סדורה, או שנמצאות עכשיו בעיצומו של תהליך כזה. גם בישראל, הוקם המיזם הלאומי למערכות נבונות ותחתיו לא פחות מאשר 15 ועדות משנה. תוצרי הועדה עדיין לא פורסמו, אולם כן פורסם הדוח של ועדת המשנה לאתיקה ורגולציה, בראשות פרופ' קרין נהון. העיתונאי אורי ברקוביץ תיאר בגלובס את מטרות הדוח ותוכנו - שניהם מעניינים מאוד לקריאה.
בעיני, מעניינות במיוחד המשמעויות של הדוח עבור ארגון שמפתח כעת, או מתחיל בפיתוח או שילוב של מערכות מבוססות AI. לצורך העניין, גם שימוש ב-machine learning, שהיא סט טכנולוגיות המהוות חלק מארגז הכלים בפיתוח AI, כבר דורש תשומת לב והתייחסות מיוחדת כאילו מדובר ב-AI, כיוון שיש הרבה מהמשותף מבחינת הכשלים האפשריים.
הדוח מדבר על אתיקה ורגולציה ונשאלת השאלה, מה האינטרס והמוטיבציה של חברות מסחריות לפעול בצורה שתצמצם פגיעה בעקרונות אתיים? גם אם נניח לרגע שכל מה שמעניין חברה כזו הוא שורת הרווח התחתונה, עדיין עלינו לזכור כמה דברים.
ראשית, לא מעט מהכשלים האתיים גורמים גם לכשלים פונקציונליים. כשמערכת זיהוי פנים מפלה אוכלוסיות מסוימות, המשמעות היא שאינה מתפקדת בצורה טובה. כשמערכת מדידת סיכונים במשכנתאות אינה מספקת הסבר על החלטותיה ומתפקדת כקופסה שחורה, גם לחברה שמשתמשת בו אין יכולת אמיתית לפקח את החלטותיה וייתכן שהיא מפסידה לקוחות או חושפת את עצמה לסיכונים.
שנית, המילה "רגולציה" היא מילת מפתח. כבר היום, חברות שפועלות באירופה מחוייבות לעמוד בדרישות ה-GDPR. לא רחוק היום שבו כל המדינות בעולם יעמידו רגולציות מחמירות שיחייבו מערכות מבוססות AI להדגים עמידה בדרישות שכוללות שמירה על עקרונות אתיים. למשל, הועדה בישראל ממליצה בדוח "לראות בכל העוסקים בתחום הבינה המלאכותית כאחראים לפעול באופן חוקי ואתי. על העוסקים בתחום להישאר מעודכנים בנושא ואי-עמידה בתנאים אלו עלולה להיחשב רשלנות".
ולבסוף, חווית הלקוח היא חלק בלתי נפרד ממערכת היחסים בין חברות והלקוחות שלהם. ככל שהשוק מתפתח, לקוחות יעדיפו חברות שידגימו הקפדה על העקרונות האתיים ולא להיפך.
אלו העקרונות שמונה הדוח, ככאלו שחשוב לשמור עליהם ולשים אליהם לב במסגרת קבלת ההחלטות:
הוגנות - חתירה לשוויון, מניעת הטיות, מניעת הפליה והימנעות מהגדלת פערים.
אחריותיות (Accountability) - כולל שקיפות, הסברתיות, אחריות וניהול סיכונים.
כיבוד זכויות אדם ושמירה עליהן - כולל שמירה על שלמות הגוף, פרטיות, שמירה על אוטונומיה, זכויות אזרחיות ופוליטיות.
הגנת סייבר ואבטחת מידע.
בטיחות - בתהליך הפיתוח ובשימוש במערכת.
קיום שוק תחרותי
הדוח כולל גם כלים מעשיים שאפשר לאמץ כחלק מתהליך הפיתוח, כדי להעריך את רמת הסיכון ביחס לפתרון שהחברה מפתחת, לאתר את השלבים שבהם הסיכונים הם גדולים במיוחד להתייחס אליהם בהתאם. בעיני, ארגון צריך לשלב את האתגרים הייחודיים האלו כחלק בלתי נפרד מהמתודולוגיות שמשמשות את התחום בניהול פרויקטים כבר היום.
למשל:
ניהול סיכונים - תוכנית ניהול סיכונים חייבת לכלול מיפוי של סיכונים אתיים ורגולטוריים רלוונטיים לפרויקט. אסור להסתפק באמירה כללית וחובה להתייחס לכל אחד מהעקרונות האתיים על מנת לבחון כיצד הוא בא לידי ביטוי בתנאים הספציפיים של הפרויקט: האם לפרויקט יש פוטנציאל של פגיעה בחיי אדם? האם יש סכנה של השפעה על התודעה? האם יש סכנה להגדלת אי-שוויון? כל אחת מהשאלות האלו צריכה להישאל ולהיבדק, לכל אורך חיי הפרויקט, על מנת למנוע מימוש של הסיכונים האלו ולהתמודד איתם מוקדם מספיק.
תכנון מונחה פרסונות - כשמתכננים את חווית הלקוח ומסע הלקוח, זו הזדמנות מצוינת להכניס פרספקטיבה של אוכלוסיות מגוונות ככל הניתן, על מנת להעריך איך הפתרון המתוכנן ישפיע עליהן. השאלות האלו צריכות להשאל כבר בשלב התכנון, עם דגש על שלבי איסוף הנתונים ואימון המוצר.
אנליטיקה, מדידה ומעקב - באנליטיקה אנחנו לא פעם מסתכלים בעיקר מתחת לפנס ומחפשים התנהגויות צפויות. כדי להיות בטוחים שאנחנו לא נופלים בפח הזה, צריך לתכנן מראש סדרה של בדיקות שיאפשרו לנו לעלות על כשלים הקשורים לעקרונות האתיים. במצבים מורכבים במיוחד, על הארגון לתכנן מראש מחקר יותר מעמיק שיוצא מנקודת הנחה של כשלים אתיים, ומחפש את הנוכחות שלהם, תוך שימוש בסט כלים רחב במיוחד.
רוצים לשמוע עוד? אשמח להגיע אליכם להרצות על האתגרים הגדולים של הבינה המלאכותית.
Cover image by Jonny Lindner from Pixabay
Comentarios