העולם הוא עגול והגלגל מסתובב.
בשנות החמישים והשישים של המאה ה- 20, כשרק החלו לדבר על בינה מלאכותית, ולהכיר את המונח, היה ברור לכולם שבינה מלאכותית וסיבתיות קשורים זה בזה באופן הדוק.
ולא בכדי. פילוסופים ואנשי מחשב ניסו לחקות את ההתנהגות האנושית דרך מכונות, ואך טבעי היה, שהיות ואנו פועלים (או היינו רוצים לפעול) על פי לוגיקה סגורה, כך נכון שבינה מלאכותית תהיה, אף היא, אוסף של חוקים עסקיים.
ואכן, דורות ראשונים של אלגוריתמים של בינה מלאכותית ידעו להפיק, בצד פעולתן, גם את ההסבר- סדרת פעולות לוגיות, שהובילו אותן לפעולה (או החלטה) זו.
במאה הנוכחית, נראה שהתמונה התהפכה. השיטות המקובלות במאה ה- 21 (ליתר דיוק משנת 2012), מחקות את המוח בדרך אחרת לחלוטין- פיזית ולא קוגניטיבית. האלגוריתמים מחקות את המבנה הרשתי של מוחנו, ומזהות קשרים. זיהוי החתול המפורסם (מאותו מאמר פורץ דרך בשנת 2012), מאפשר למכונה להשיב- אכן זהו חתול! או לחלופין: תמונה זו אינה של חתול...
ועד כמה שהבינה המלאכותית מתקדמת, והפכה להיות חדשנות משבשת, במובן החיובי של המונח, אחד החסרים המשמעותיים ביותר שבה, הוא חוסר הבנתנו מאיפה הגיע המחשב לידי הכרעתו.
חוסר זה משפיע על נכונות בן האנוש לקבל את ההכרעה, ואם מדובר במערכת תומכת החלטה, ביכולתו להשתמש באופן נבון וממצה בהמלצה.
וכאן בא לעולם השינוי החדש: בינה מלאכותית בת הסברה – Explainable AI (XAI).
האלגוריתמיקה ממשיכה לפעול לפי התפיסות החדשות, אך תהליך הלמידה מתועד, ויוצא כפלט המלווה את השורה התחתונה.
השאלה המעניינת היא, עבורנו כמנהלי ידע, מה תפקידנו, אנשי ניהול הידע, במשוואה זו?
לטעמי, גם כאן, כמו בהיבטים אחרים של בינה מלאכותית יש לאנשי ניהול הידע תפקיד משמעותי!
למרות שהמכונה יודעת להפיק את הקשרים שהובילו אותה להכריע בדרך שהכריעה, אלו אינם כתובים, יותר מידי פעמים, בדרך שנוחה לבן אנוש לקרוא. אנשי ניהול ידע- המשמשים בהקשר זה כמהנדסי ידע, יודעים לייצר את הגשר, לסייע בהגדרת התרגום בין פלט של מכונה, לפלט המובן על ידי עובד בארגון. בהגדרת התוכנה, שם משתלב איש ניהול הידע, ומסייע להרחבת האלגוריתם כדי שזה יידע לתת תשובה מונגשת וברורה.
ניתן לראות פעילות זו כחלק ממודל SECI המפורסם, בתצורה מודרנית יותר. מנהל הידע מסייע להחצנת הידע וייצוגו. אך בניגוד למודל הקלאסי שם עסקנו בידע המתחיל באנשים ומסתיים באנשים, נראה שכיום לעיתים המעגל מתחיל במכונה, והייצוג דווקא עוזר להבנה של האדם את הידע, ולא להיפך.
בעיניי מרתק. מצפה ליישם, ומצפה להתפתחויות נוספות של מודל SECI בדרכים נוספות שלא חלמנו עליהן.
תגובות