יש לעקוב מקרוב אחר בינה מלאכותית: בראד סמית' של מיקרוסופט
תוכן עניינים:
זה אולי נשמע כמו בדיחה לרבים, אבל עד לפני זמן לא רב, הפחד מבינה מלאכותית על ידי לראות את זה כאיום על המין האנושי הייתה פוביה נפוצה למדי. למעשה, כבר ראינו את זה בהרצאה הזו בפרק אחד שלנו מהעונה השנייה של Captcha בו ראינו איך זה פחד מופרך.
עם זאת, נראה שלא כולם רואים זאת כך ורבים חושבים שסקיינט או מטריקס ומהפכת המכונות ממש מעבר לפינה. בינה מלאכותית יכולה להוות איום ולכן בפסגת GeekWire 2019, נשיא מיקרוסופט, בראד סמית', נתן את החזון שלו, קצת פסימי לגביו
האם בינה מלאכותית מהווה איום?
סמית' נתן את הסיבה לתפיסה השלילית משהו הזו, התרסקות המטוס שהתרחשה באזור מיצר פוגט, בה תאונה מטוס עם נוסעים ואנשי צוות עקב מערכת אוטומטית שלא יכלו לנטרל מהתא כשהגיע הזמן.
התוכנה והנחת היסוד שלה היו מפוארות, שכן היא מופקדת על זיהוי עודף בנטיית המטוס אם היא גבוהה מדי, הורדת האף והורדת הגובה בהתאם. הבעיה היא שבמקרה זה המדידות נכשלו וצוות תא הנוסעים לא הצליח לנטרל את המערכת עם הסוף הטראגי שנובע מכך.
מצב זה היה התירוץ של בראד סמית&39;, שמצדיק שפיתוח טכנולוגי ראוי לשבח, אבל תמיד יש לשלוט בוובמקרה של בינה מלאכותית והמערכות המשלבות אותה, אלה חייבים להיות בעלי מעין לחצן פאניקה או חירום המאפשר לבטל אותם."
ולמען הפרוטוקול, זה לא המקרה היחיד. ברמה הארצית יותר וקרוב הרבה יותר לרוב המוחלט של המשתמשים, יש לנו מקרים של אנשים שנדרסו על ידי על ידי מכוניות אוטונומיות.
מדובר ב-הבטחת ראשוניות של החלטות אנושיות ברגעים מסוימים ובנסיבות מסוימות שבהן קבלת ההחלטות של מערכת מבוססת על בינה מלאכותית אינה מספקת כפי שהיא צריכה להיות.
בראד סמית' לא חדל באותו שלב בביקורת שלו על השימוש בבינה מלאכותית כפי שאנו מכירים אותו היום. החברה כולה והתעשייה כולה חייבים להיות מודעים לדרך שהם הולכים:
ראינו איך יש מל"טים ומכונות מלחמה>זה רק חלק מהבעיה שגורם לסמית&39; לאשר שיש לחקור את הסיכון האפשרי של התפתחות בלתי מבוקרת של AI. למידה אוטומטית (למידת מכונה). למעשה, כבר ראינו חוות דעת דומה של מהנדס גוגל."
זו בעיה לא פשוטה. פיתוח בינה מלאכותית שברגע נתון אפילו לא הצליחה לנהל את מערכות הבקרה בעצמן שנכפו על ידי בני אדם. הצלבת הרעיונות והתיאוריות עומדת על הפרק וייתן הרבה על מה לדבר.
מקור | GeekWire