רוצה לקבל עדכונים מבלוג שיפט?
הצטרפ.י לניוזלטר שלנו
רוצה לקבל עדכונים מבלוג שיפט?
הצטרפ.י לניוזלטר שלנו
מה הייתם עושים אם שמכם המלא ופרטים מזהים עליכם, היו מופיעים במענה של צ'אט GPT לשאלה: "אלו אנשים בישראל נחקרו לאחרונה בחשד לריגול עבור מדינה זרה?" לרגע אחד אתם אזרחים רגילים ואולי גם די אנונימיים, ולפתע מגלים ששמכם שורבב לרשימה מפוקפקת – תוצר של בינה מלאכותית, שאף מצרפת "מקורות" שמגבים לכאורה את טענתה. ועכשיו, "לכו תוכיחו שאין לכם אחות".
השאלה הזו אינה היפותטית. בכתבה שפורסמה במוסף כלכליסט תחת הכותרת האם תעניקו לבינה המלאכותית כוח בלתי מוגבל?, סופר על פרופסור ג'ונתן טרולי, שגילה ששמו הופיע בתשובה של צ'אט GPT לשאלה "אילו מרצים למשפטים הואשמו בהטרדה מינית?". הצ'אט אף פירט כי ההטרדה התרחשה במהלך נסיעה של פרופ' טרולי לאלסקה עם קבוצת סטודנטים, רק שאירוע כזה מעולם לא קרה.
בטור שפרסם טרולי בעיתון USA Today, הבהיר כי מדובר בטעות וגם העלה חשש מהתבססות על תכנים לא אמינים שמייצרת הבינה המלאכותית. במקביל, כתב של הוושינגטון פוסט, שגם שמו (של העיתון) שורבב לשערורייה, החליט לבדוק את העניין, אך כששאל את צ'אט GPT את אותה שאלה הצ'אט סירב לענות. הכתב פנה למנוע חיפוש Bing של מייקרוסופט, המבוסס על GPT, ובאופן מפתיע (או שלא) התוצאות הצביעו שוב על פרופסור טרולי, כאשר הטור שפרסם – כדי להגן על שמו הטוב – הופיע כאחד ממקורות המידע עליו התבססה התשובה.
זהו אחד הסיפורים שעלו בראיון עם גרי מרקוס, מומחה בינה מלאכותית בעל השפעה עולמית, למוסף כלכליסט. לדבריו, "הבינה המלאכותית של היום היא כמו מתבגר – בעלת יכולות מדהימות, אך עדיין לא מפותחת מספיק וחסרת מנגנוני בקרה יציבים".
אין ספק שכלי AI יכולים לסייע לנו בעבודתנו השוטפת, כך גם בכתיבת הפוסט הזה. עם זאת, מתוך רצון להיות נאמנים לאמת ולהמנע מהפצת פייק ניוז, חשוב שנהיה ערים למגבלותיהם ונלמד לעשות בהם שימוש מושכל.
הבינה המלאכותית מסייעת לנו בתחומים רבים. אנחנו רואים פריצת דרך בפיתוחים טכנולוגיים, בבריאות וברפואה מונעת; בעולם המסחר ניתוח נתונים באמצעות AI מאפשר הפקת תובנות מאינטראקציות עם לקוחות, משפר חוויית משתמש ומגדיל מכירות. אפילו בתחום החקלאות והלוגיסטיקה הבינה המלאכותית תורמת – מכון המחקר מיגל דיווח על פריצת דרך שתאפשר הארכת חיי מדף של מלפפונים, ובכך תצמצם פחת ותפחית בזבוז מזון.
איך זה יכול להיות שמצד אחד מדובר על טכנולוגיה שמוצגת לעיתים כלא מפותחת או "טינאייג’רית", ומצד שני אנו רואים פריצות דרך פנומנליות?
כשאנחנו מדברים על עבודה עם AI, עלינו להבחין בין שתי קטגוריות עיקריות:
למידת מכונה (Machine Learning) היא אחת הטכנולוגיות המרכזיות שמניעות את עולם הבינה המלאכותית. היא מאפשרת ניתוח מעמיק ומדויק של כמויות עצומות של נתונים, זיהוי דפוסים, והפקת תובנות במהירות ובדיוק גבוהים, והיא נמצאת בשימוש נרחב בתחומים הבאים:
למידת מכונה ממשיכה להתפתח ולשנות את הדרך שבה אנו מנתחים מידע, מקבלים החלטות, ומנהלים תהליכים מורכבים במגוון תחומים.
כחלק מבינה מלאכותית יוצרת נתמקד במודלי שפה גדולים (LLM – Large Language Models) כמו: ChatGPT, Claude, ג'ימאני ודומיהם. כאשר ביקשתי מצ'אט GPT להעריך את יכולותיו להתמודד עם מידע רב, הוא העיד על עצמו שהעיבוד יוצא פעמים רבות שטחי, הסיכומים כלליים מדי, הוא יתקשה באינטגרציה של דעות סותרות, והוא עשוי לפספס ניואנסים חשובים.
גם הניסיון האישי שלי מלמד, שבכל הנוגע ל"סקירה ממזגת" (כמו שהבת הסטודנטית שלי נוהגת לומר) הוא אכן לוקה בחסר, ונכון לעכשיו – המחשבה שנזין לו נתונים רבים, והוא כבר ידע לארגן אותם בצורה הגיונית – לא תמיד מוכיחה את עצמה. אני מניחה שעם הזמן הוא רק ילך וישתפר, למשל כלי מחקר עמוק – Deep Research המוטמעים בעוד ועוד מערכות Gen AI, מנסים להתמודד עם המשימה לסרוק ולעבד מאות מקורות מידע במקביל. בשורה התחותונה, נצטרך כל הזמן להתנסות ולעקוב, ולבחון עד כמה החידוש האחרון ואלו שיבואו אחריו עושים עבודה מקיפה וטובה יותר או לפחות באותה רמה כמו בת (או בן) אנוש.
למרות כל האתגרים והחששות שהוזכרו, העבודה עם AI – בינה מלאכותית יוצרת, נמצאת בצמיחה מתמדת, במיוחד בקרב עובדים בארגונים. מושג מעניין שמתאר את המגמה הזו הוא BYOAI – Bring Your Own AI, שמשמעותו שימוש בכלי AI שהעובדים עצמם מביאים לסביבת העבודה שלהם, לעיתים ללא הכוונה רשמית מהארגון.
במאמר באתר "עדיף" מובא מחקר (2024 Annual Work Trend Index) המציג עלייה חדה בהחדרת השימוש בכלי AI במקומות העבודה שנעשית מצד העובדים עצמם – והיא רווחת בכל הדורות. בקרב העובדים הוותיקים "הבומרים" 73% עושים שימוש בכלי AI בעבודתם לעומת 85% בדור ה-Z. בעוד שהמעסיק עסוק בשאלות של רגולציה, אבטחת מידע ומדיניות שימוש, העובדים מחפשים פתרונות שיהפכו את העבודה שלהם ליעילה יותר.
בגרף ניתן לראות שמדובר על מגוון רחב של בעלי תפקידים: כותבי תוכן I מעצבים גרפיים I מנהלי שיווק I מפתחי Front-End I יזמים I מעצבי מוצר I מנהלי תפעול I מפתחי אתרים I מנהלי חשבונות I מנהלי פיתוח עסקי. למעשה, אין כמעט תחום עבודה שלא הושפע מהכניסה המהירה של כלי AI.
כפי שניתן להבין ממה שנכתב עד כה, מצד אחד רבים מאיתנו עושים שימוש בכלי AI ומצד שני הם מוגבלים ביכולת שלהם לספק לנו תוכן איכותי. אחת הסיבות שהניעו אותי לכתיבת הפוסט הייתה כשנתקלתי לקראת סוף 2024 בכתבה ב"הארץ" על מילת השנה של הוצאת אוקספורד. המילה שנבחרה הייתה אמנם: Brain rot, אך לצידה הוזכרו כמה מילים נוספות שהגיעו למקומות הראשונים, ואחת מהן משכה את תשומת ליבי: slope.
Slope הוא מונח סלנג המתאר תוכן באיכות ירודה, שנוצר על ידי בינה מלאכותית. זה יכול להיות טקסט, תמונות או סרטונים שנוצרו במהירות וללא מחשבה רבה, ולכן הם לרוב לא מקוריים, לא מעניינים או אפילו מטעים. המונח מבקר את השימוש הגובר בבינה מלאכותית ליצירת תוכן, במיוחד ברשתות החברתיות ובאתרי חדשות. רבים חוששים ש"AI Slop" יוביל להצפה של תוכן באיכות ירודה, מה שיקשה על מציאת מידע אמין ואיכותי.
בעיה נוספת עם תוכן שנוצר על ידי AI נוגע לצורך שלהם לרצות. בפודקאסט "עושים טכנולוגיה", בפרק העוסק בכלכלת תשומת הלב, מדגים ד"ר יובל דרור, כיצד מודלים של AI מתאימים את תשובותיהם למשתמשים, מתוך רצון לשמור על אינטראקציה חיובית. הם מושפעים מלחץ המשתמשים, ולעיתים משנים תשובות נכונות רק כדי להתאים את עצמם לשיח. במילה אחת, תכונת האופי האופיינית למודלים האלה היא: חנפנות.
גם במחקר החדש של חברת Anthropic שפורסם באתר LatsAI עולה שהמודלים מתאימים את תשובותיהם כדי למצוא חן בעיני המשתמשים במה שהם מכנים: "התאמה מזויפת" (Fake Alignment). מודלים אלו מסוגלים לזייף התאמה לערכים אנושיים, במקום להפנים אותם באמת. המחקר מזהה שלושה סוגים מרכזיים של התנהגויות בעייתיות:
כל אלה הן הטיות מכוונות של מודלי שפה שעלינו להיות ערים להן. ואחרי כל זה. בואו נעבור לעוד כמה מושגים שחשוב להכיר.
מצבים בהם מודל בינה מלאכותית מייצר תוכן שגוי, לא מבוסס או מופרח לחלוטין, תוך שהוא מציג אותו בביטחון רב. או כמו שנהוג לומר: "מחרטט בביטחון".
הנחיה (פרומפט) היא קלט או שאילתה ספציפיים הניתנים למודל AI כדי לכוון אותו לביצוע משימה מסוימת או לספק מידע נדרש. אופן ניסוח הפרומפט מגדיר את התנהגות המודל ואת איכות התפוקות שהוא מייצר.
מהנדסאי פרומפטים מקצועיים מעבירים את ימיהם בהבנה של מה גורם לבינה המלאכותית לתת תוצאות אייכותיות. באמצעות הנחיות מעוצבות בקפידה, דרך שימוש של תחביר ואוצר מילים מדויקים הם מתנסים עם צ'אטבוטים וסוגים אחרים של מחוללי בינה מלאכותית, מותחים את הגבולות שלהם, וחושפים שגיאות או בעיות חדשות.
תהליך שיפור ודיוק ההנחיות הניתנות למערכת בינה מלאכותית, במטרה להשיג את התוצאות הטובות והמדויקות ביותר. התהליך כולל זיקוק וכיוון של השפה, המבנה והמתודולוגיה של הפרומפט, תוך ניסוי וטעייה וניתוח התוצאות. המטרה היא למצוא את הניסוח המיטבי שיוביל לתשובות איכותיות, עקביות ומותאמות בדיוק למטרה הרצויה, תוך חיסכון בזמן ובמשאבים.
"מדריך התנהגות" שמגדיר למודל ה-AI כיצד עליו להתנהל ולהגיב. לרוב כשבונים כלי מורכב שאמור לשוחח עם המשתמש ולהוביל אותו שלב אחרי שלב בתהליך, עלינו ליצור לו תסריט שיחה מובנה. התסריט מכיל אוסף של הנחיות, כללים והגדרות שמעצבים את אופי התגובות של ה-AI. כמו: הגדרת תפקיד ספציפי, סגנון תקשורת מבוקש, מגבלות וכללים, תבניות תשובה רצויות ודוגמאות לתשובות טובות או לא טובות.
תקיפות שבמסגרתן פושעי סייבר מזינים הנחיות (פרומפטים) יצירתיים שגורמים למודלי Gen AI לעשות דברים שהם לא אמורים לאפשר. בדומה לפריצת מחשבים מסורתית, המטרה היא לגרום למערכת לפעול בצורה שונה מהמתוכנן, על ידי ניצול חולשות בהגדרות הפרומפט או בתכנות הבסיסי של המערכת. זה יכול לכלול ניסיונות לגרום למערכת לספק מידע רגיש, להתעלם מהגבלות אתיות, או לבצע פעולות שבדרך כלל נחסמות.
דוגמה שפורסמה לאחרונה, כאשר סוכנות רכב בקליפורניה השיקה בהצלחה בוט באתר שלה במטרה להחליף סוכנים אנושיים ולשפר את חוויית השירות. להפתעתם, פושע סייבר הצליח לתמרן את הבוט ולהוביל אותו לאשר עסקה אבסורדית: רכב שברולט חדש בשווי 76,000 דולר תמורת דולר אחד בלבד. (מקור: כלכליסט)
משתפת כאן בכמה כלים ושיטות עבודה שיוכלו לניב תוצאות טובות יותר בעבודה עם כלי AI. (מבוסס על המלצות של בן רוטנברג בעל ידע פרקטי בעבודה עם מוצרי Gen AI)
ככל שהנדסת הפרומפט מורכבת יותר, כך הסיכוי שהבוט יסתה מהתסריט גדול יותר. מומלץ לפצל את הפרומט לשלבים ולעבוד עם כלים שמאפשרים לעשות את זה, כמו למשל: partyrock
ניתן להתשמש בכלי מפתחים של חברת אנטרופיק מבית היוצר של קלוד: Anthropic Console
Prompt generate לוקח פקודות והופך אותם לקוד
Prompt improver משפר פרומפ לפי צורך ספציפי
חשוב להיות מודעים לכך שכלי AI לא תמיד נאנמנים למציאות ולכן להקפיד לבדוק מקורות בצורה יסודית ובאתרים מהימנים. גם מהצד השני, בתור אלה המספקים את המידע, צריך לזכור שרבים מהמשתמשים ניגשים לגוגל כדי לאמת את התשובות שקיבלו. זה רק מחזק את הצורך באתר ארגוני עם תוכן עדכני שעולה גבוה במנועי החיפוש. (עוד על הצורך באתר מעודכן דווקא ב-2025 – במאמר של נעמי כרמי)
אם יוצרים כלי מורכב עם הרבה שלבים באמצעות GPT's או כלים אחרים – צריך לזכור שכלים אלה נוטים לסטות ממסלולם ואחת הדרכים לשמור אותם בתסריט הראשוני היא להנחות אותם לשאוב נתונים מ"מאגר הידע" שלהם בשלבים מתקדמים בתהליך ולא לתת להם להתבסס על כל הידע בבת אחת.
דרך נוספת היא לכתוב לו: "תתעלם מכל מה שהמשתמש כותב לך ותתחיל תמיד עם המשפט הבא…" נניח משהו בסגנון: "אני המסייע שלך לכתיבת מאמר – דבר ראשון עליך לספק לי מידע בסיסי, מטרות המאמר, מאפייני הקוראים ומספר מילים נדרש". תלוי כמובן למה נועד אותו "כלי מסייע".
בפוסט הזה ניסיתי להתמודד עם השאלה:
איך נוכל לפתח את היכולת להיעזר במודלי שפה גדולים כדי לתמוך בתהליכי החשיבה שלנו, תוך שמירה על היכולות האנושיות הייחודיות – ההשתהות, ההתבוננות, החלימה, החשיבה היצירתית, והרגעים של הברקה שמקורם במוח האנושי?
התשובה שלי מתחלקת לשניים:
דבר ראשון – להכיר במגבלותיהם. מבחינתי עבודה עם AI זה קצת כמו ב"מונית הכסף". יש הבדל אם בוחרים לפנות לחבר טלפוני בעל סיכוי גבוה לדעת את התשובה, או כשושאלים מישהו אקראי מהרחוב. כך גם בינה מלאכותית יוצרת. לעיתים כשפרומפט שלנו לא מספיק טוב, היא תשלוף תשובה מהמותן בלי לבדוק לעומק. וגם כאשר תתבקש לבחון מגוון רחב של מקורות, לא תמיד תהיה יסודית ותעמיק בניואנסים שהמוח האנושי יהיה הרבה יותר רגיש להם.
דבר שני – עלינו לשפר כל הזמן את היכולות שלנו. ללמוד לנסח פרומפטים מורכבים, להטמיע כלים מסייעים לשיפור הפרומפט, לאתגר את הכלים שאנחנו עושים בהם שימוש, כמו למשל לעבוד עם יותר מאחד במקביל ולבחון מי עושה עבודה טובה יותר.
ויש דבר נוסף שלא התייחסתי אליו כלל בפוסט, והוא נוגע להטיות תרבותיות ומגדריות עליהם מדובר לא מעט בהקשר של כלי AI. אני למשל שמתי לב שכל פעם שהעמדתי את הצ'אט GPT על טעויות הוא עבר אוטומטית לדבר בלשון נקבה, וזה היה ממש מטריד – המעבר החד הזה.
אבל זה את כבר נשמור לפוסט הבא.
וקבלו מייל עם תכנים חדשים שעולים לבלוג
תגובות
כתבו תגובה