DeepMind אומר שזה לא היה קשור למאמר מחקר שאומר ש-AI יכול לשים קץ לאנושות

תמונה: NurPhoto / תורם דרך Getty Images

לאחר שחוקר בעל תפקיד ב-DeepMind - חברת מודיעין המכונות שבבעלות אלפבית האם של גוגל - כתב שותף במאמר שטען שבינה מלאכותית עשויה לחסל את האנושות יום אחד, DeepMind מתרחקת מהעבודה.

המאמר פורסם לאחרונה בביקורת עמיתים מגזין AI, ונכתב בשיתוף חוקרים מאוניברסיטת אוקספורד ועל ידי מרקוס האטר, חוקר בינה מלאכותית שעובד ב-DeepMind. השורה הראשונה באתר האינטרנט של Hutter מציינת את הדברים הבאים: 'אני חוקר בכיר בגוגל DeepMind בלונדון, ופרופסור לשם כבוד בבית הספר למחקר למדעי המחשב ( RSCS ) באוניברסיטה הלאומית של אוסטרליה ( thingumajig ) בקנברה.' העיתון, אשר כרגע רשימות ההשתייכות שלו ל-DeepMind ו-ANU, עוברת כמה ניסויי מחשבה על עתידה של האנושות עם AI סופר אינטליגנטי הפועלת תוך שימוש בתוכניות דומות לתוכניות למידת מכונה של ימינו, כמו חיפוש תגמול. היא הגיעה למסקנה שתרחיש זה עלול להתפרץ למשחק סכום אפס בין בני אדם ובינה מלאכותית שיהיה 'קטלני' אם האנושות תפסיד.

לאחר פרסום לוח האם מאמר על מאמר זה עם הכותרת 'מחבר מחברי Google Deepmind Researcher Saying AI Will Eliminate Humanity', החברה החליטה להרחיק את עצמה מהעיתון ולבקש מ-Motherboard להסיר אזכור של החברה. בהצהרה ל-Motherboard, DeepMind טענה שהשיוך היה רשום ב'שגיאה' והוסרה (זה לא היה נכון למועד כתיבת שורות אלו), וכי תרומתו של Hutter הייתה אך ורק תחת דגל תפקידו באוניברסיטה.

'DeepMind לא הייתה מעורבת בעבודה זו ומחברי המאמר ביקשו תיקונים כדי לשקף זאת', אמר דובר DeepMind במייל ל-Motherboard. 'יש מגוון רחב של השקפות ותחומי עניין אקדמיים ב-DeepMind, ורבים בצוות שלנו גם מחזיקים פרופסורים באוניברסיטה וממשיכים במחקר אקדמי בנפרד לעבודתם ב-DeepMind, דרך השתייכותם לאוניברסיטה'.

הדובר אמר כי בעוד ש-DeepMind לא הייתה מעורבת בעיתון, החברה משקיעה מאמצים בשמירה מפני השימושים המזיקים של AI, וחושבת 'לעומק על הבטיחות, האתיקה וההשפעות החברתיות הרחבות יותר של AI ומחקר ופיתוח מודלים AI בטוחים. , יעיל ומתאים לערכים האנושיים.'

DeepMind סירבה להתייחס לשאלה האם היא מסכימה עם מסקנות המאמר שחיבר בשיתוף הוטר.

מייקל כהן, אחד ממחברי העיתון, ביקש גם מ-Motherboard תיקון דומה. מדיניות העריכה של לוח האם היא לא לתקן כותרת אלא אם כן היא מכילה שגיאה עובדתית.

בעוד שהחברה אומרת שהיא מחויבת לבטיחות ואתיקה של בינה מלאכותית, היא הראתה בעבר שכאשר הביקורת מגיעה קצת יותר מדי מאנשים בעלי תפקידים בחברה - בלי קשר אם יש להם גם מחויבויות חיצוניות - היא כל כך שמחה לחתוך ולרוץ.

לדוגמה, בשנת 2020, חוקרת הבינה המלאכותית הבולטת תמנית גברו - שבאותה עת הייתה לה תפקיד בגוגל - הייתה שותפה לכתיבת מאמר על שיקולים אתיים במודלים גדולים של למידת מכונה. גוגל דרשה ממנה להסיר את שמה מהפרסום ולחזור בו, ובסופו של דבר פיטר אותה . ההדחה של גברו גרמה לעובדי גוגל לפרסם בלוג המסביר את הפרטים שהובילו לפיטורין, כולל שהעיתון אושר בפועל באופן פנימי; רק לאחר שזה הגיע לציבור החליטה גוגל שלא ניתן לשייך אותה לעבודה ודרשה להימחק מהמצב. כשהיא לא הצליחה, החברה שחררה את גברו.

בתגובה לסיפור הראשון של לוח האם על העיתון, גרבו צייץ בטוויטר שכאשר היא שאלה את גוגל אם היא יכולה להוסיף את שמה לעיתון האתיקה של בינה מלאכותית, שבסופו של דבר הובילה לפיטוריה עם השתייכות שאינה גוגל, היא 'נפגשה בצחוק'.

מרגרט מיטשל, אתיקאית בינה מלאכותית נוספת שפוטרה מגוגל במקביל לגרבו צייץ בטוויטר שגוגל אמרה להם שכל עוד הם עובדים בחברה, לגוגל 'היה מילה מלאה על מה שפרסמנו'.

השתייכות מרובות באקדמיה ובמגזר הפרטי היא רגילה יחסית, ומגיעה עם מערך בעיות אתיות עמוסות משלה הקשורות להיסטוריה הארוכה של תאגידים של לכידת אקדמיה כדי לייצר מחקר חיובי. מה שגוגל הראתה הוא שהיא תנצל את הפער המטושטש הזה כדי להתנער מביקורת כשזה מתאים לחברה.