למה אנחנו צריכים לחשוש מהתפתחות הבינה המלאכותית?

"אדם, מדינה ומכונה": ספר חדש מבהיר למה אנחנו צריכים לחשוש מהתפתחות הבינה המלאכותית ומציע לקובעי מדיניות דרכים להתכונן ולהתגונן – "בינה מלאכותית לא תהרוס את העולם, לפחות לא באופן מידי, אבל חשוב להכין את הקרקע להתקדמות הטכנולוגית והסכנות הפוטנציאליות ולהתחיל לחשוב על ארגז הכלים לאסדרה"

בשנים האחרונות מערכות בינה מלאכותית הולכות ונשזרות ברקמת חיי היום-יום. הן ממליצות על נתיבי נסיעה או על השיר הבא שיושמע, תומכות באבחון רפואי, ואף משתתפות באופן פעיל בהכנת שיעורי הבית. גופים ציבוריים ברחבי העולם מטמיעים מערכות אלגוריתמיות שמקבלות החלטות מנהליות הנוגעות להקצאת משאבים, לתכנון, לחיזוי פשיעה או להגנה על המרחב הציבורי. מעוזרים אישיים דיגיטליים ועד מכוניות אוטונומיות, מרובוטים המבצעים משימות פשוטות ועד מערכות מעקב, זיהוי וחיזוי – הבינה המלאכותית סביבנו.

בספר חדש בשם "אדם, מכונה ומדינה", ד"ר תהילה שוורץ אלטשולר, ראש התוכנית לדמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה ואחת המומחיות הבכירות בישראל בתחום המשפט והטכנולוגיה, יחד עם עו"ד עמיר כהנא, מתארים מהי בינה מלאכותית, כיצד התפתחה, מהם יתרונותיה ואילו חששות היא מעוררת, בעיקר כשהיא משמשת את רשויות השלטון. בנוסף, הם מציעים עקרונות מנחים ליצירת מדיניות בינה מלאכותית מכוונת זכויות וארגז כלים לאסדרתה. "אדם ומכונה" הוא הספר הוא הראשון שנכתב בעברית בנושא הסכנות וההזדמנויות של בינה מלאכותית, וכולל גם המלצות מדיניות.

"מערכות בינה מלאכותית התפתחו בעשור האחרון אבל הקפיצה הגדולה התרחשה בשנה האחרונה", אומרת שוורץ אלטשולר. "היכולת של בינה מלאכותית ללמידה לא מפוקחת מובילה לכך שדברים שחשבנו שאולי יקרו בשנת 2050, יקרו תוך שנתיים או שלוש. זה מחייב התארגנות מהירה יותר ברמת השוק וברמת הרגולציה". החששות באים לידי ביטוי בכל שרשרת הפיתוח והשימוש במערכות לומדות: החל משלב הגדרת תכליתה של המערכת, עבור בהסתמכות על מידע חלקי, שגוי, מזוהם או מוטה, וכלה באי-החלה של בקרות מאוחרות על תוצרי המערכת. יתר על כן, ככל שהבינה המלאכותית הולכת ומתפתחת, כך מערכותיה נוטות להציג יכולות חדשות שהמפתחים שלהן לא התכוונו להן או לא חזו אותן.

אפשר לחלק את החששות מפני הבינה המלאכותית לכמה רמות: בעיות מאקרו כלכליות מהירות (דוגמת ההשפעה על שוק העבודה ומשרות ספציפיות), בעיות מאקרו חברתיות ופוליטיות (דוגמת מערכות בינה מלאכותית שמקבלות החלטות בתחום המשפטי), הטיות של מערכות לומדות ובעיות שהן יוצרות ביכולת להסביר את החלטותיהן, וגם פעולות לא חוקיות או מזיקות שמערכות יבצעו במטרה להשיג את המטרה שהוגדרה להן.

אז איך ניתן להתמודד עם זה? לא בבהלה, ולא מתוך תפיסת "קץ העולם", אבל מתוך אוריינות והבנה.

בספר החדש, מגדירים שוורץ אלטשולר וכהנא עקרונות להתמודדות עם אתגרי הבינה המלאכותית, במטרה למנוע ולמזער נזקים עתידיים, ופורשים שלל המלצות שנועדו לסייע למפתחים וקובעי מדיניות להפיק מהטכנולוגיה את התועלת המרבית לחברה ולתעשייה, תוך שמירה על גבולות ועל הגנה על אנשים ועל החברה הדמוקרטית. "בינה מלאכותית לא תהרוס את העולם, לפחות לא באופן מידי", מוסיפה שוורץ אלטשולר וממשיכה, "מה שחשוב לעשות כדי להכין את הקרקע להתקדמות הטכנולוגית והסכנות הפוטנציאליות הוא להתחיל לחשוב על ארגז הכלים לאסדרה. יש לחייב כבר בעת הזאת את מקבלי ההחלטות והרגולטורים הייעודיים לעדכן את החקיקה הקיימת ולחוקק גם חקיקה משלימה שבה מדינת ישראל נמצאת בפיגור. מדובר בעיקר בחוקים כגון חוק התחרות וההגבלים העסקיים, חוק זכויות יוצרים, חוק הגנת הפרטיות, פקודת הראיות וחוק הרכש הממשלתי. עד שנבין בצורה בהירה מה צריכה להיות המסגרת לחקיקה בתחום, יש לייצר כבר כעת "אקוסיסטם קדם-אסדרתי", וסביבו לערוך תהליכי חשיבה בעניין סטנדרטים של זהירות ראויה, לקדם אחריות בפיתוח וביישום של מערכות לומדות; לבנות "ארגזי חול" ולעשות בדיקות וניסויים; ולקדם מאגר של מומחים שיוכלו לשמש את התעשייה, את הרגולטורים ואת בתי המשפט בהתמודדות עם הסוגיות החדשות והמורכבות".

תגובות

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *