האחריות המשפטית בשימוש ב-AI

שימוש חוקי ב AI

פסק הדין שכל מנהל בישראל צריך להכיר

בעידן שבו בינה מלאכותית (AI) מבטיחה לייעל תהליכים, לחסוך זמן, לשפר שירות ולסייע בקבלת החלטות, יותר ויותר ארגונים משלבים אותה בעבודה היומיומית. רשויות ציבוריות, חברות עסקיות, משרדי עורכי דין, מערכות שירות לקוחות, מחלקות שיווק, מערכות CRM וכלי ניהול מידע – כולם כבר עושים שימוש בכלים מבוססי AI, במידה כזו או אחרת.

אבל לצד היתרונות הברורים, השימוש בבינה מלאכותית מייצר גם סיכון חדש: תוצרים שנראים מקצועיים, מנומקים ומשכנעים, אך בפועל מבוססים על מידע שגוי, מקורות לא קיימים או מסקנות שלא נבדקו.

פסק דין שניתן ביום 22 במרץ 2026 בבית המשפט העליון ממחיש היטב את הסיכון הזה. עיריית רמת גן חויבה לשלם הוצאות משפט בסך 30,000 ש"ח, לאחר שהתברר כי החלטתה המינהלית וכתבי הטענות שהגישה לאורך ההליך המשפטי נשענו על אסמכתאות וציטוטים שגויים, חלקם מומצאים, שניתן להניח כי הם תוצר של שימוש בלתי מבוקר בבינה מלאכותית.

המסר של בית המשפט ברור: שימוש בבינה מלאכותית יכול להיות לגיטימי. הסתמכות על תוצרי AI ללא בדיקה, ללא אימות וללא שיקול דעת אנושי – עלולה להפוך לכשל משפטי חמור.

אחריות משפטית בשימוש ב AI

הכשל המינהלי: כשהמסמך נראה מקצועי, אבל הבסיס שגוי

הסיפור החל בבקשה של אב לילד עם צרכים מיוחדים, שביקש מעיריית רמת גן לאשר הסעה לבית הספר לאחר שעבר להתגורר במרחק של כ-7 ק"מ ממוסד הלימודים. בתחילה הבקשה אושרה, אך בהמשך העירייה ביטלה את ההסעה.

כאשר האב ערר על ההחלטה, שלחה לו העירייה מענה שנראה מפורט, מנומק ומבוסס. המענה הסתמך, בין היתר, על חוזר מנכ"ל של משרד החינוך ועל קביעות מתוך פסקי דין שונים. מבחינת האזרח שקיבל את המכתב, מדובר היה לכאורה בתשובה רשמית, מקצועית ומשפטית.

אלא שבהמשך התברר כי מאחורי החזות המקצועית הסתתר כשל חמור: החוזר שאליו הפנתה העירייה לא היה קיים, חלק מהציטוטים לא הופיעו במקורות שיוחסו להם, וחלק מהאסמכתאות או הקביעות המשפטיות שעליהן הסתמכה העירייה היו שגויות או מומצאות.

משרד החינוך עצמו הבהיר כי "חוזר המנכ"ל אליו מפנה עיריית רמת גן אינו מוכר לנו". במילים אחרות, ההחלטה שנמסרה לאזרח נראתה מבוססת – אך בפועל נשענה על תשתית בעייתית.

וזו בדיוק אחת הסכנות המרכזיות בשימוש בלתי מבוקר בבינה מלאכותית: התוצר יכול להיראות מסודר, מנומק ובטוח בעצמו, גם כאשר הוא אינו נכון.

לא טעות נקודתית: כשל שחזר לאורך ההליך

אחד ההיבטים המשמעותיים בפסק הדין הוא שלא מדובר בטעות חד-פעמית שהתגלתה ותוקנה במהירות. לפי בית המשפט, הבעיה חזרה על עצמה לאורך ההליך.

המידע השגוי הופיע תחילה במענה המינהלי לאזרח. לאחר מכן, העירייה המשיכה להסתמך על אסמכתאות וציטוטים שגויים גם במסגרת ההליך בבית המשפט המחוזי. בהמשך, אותה בעיה הופיעה גם בשלב הערעור בבית המשפט העליון.

בית המשפט ציין כי מדובר בכשלים שחזרו על עצמם 3 או 4 פעמים לאורך ההליך, מבלי שהעירייה הסיקה כי עליה לשנות את דרך הפעולה. כלומר, הבעיה לא הייתה רק בשימוש הראשוני בכלי AI, אלא בהיעדר בקרה אפקטיבית על התוצרים שבהם נעשה שימוש.

כאשר מסמך שגוי נכנס למערכת הארגונית, והוא ממשיך לעבור בין גורמים, תגובות, הליכים וערכאות – הטעות כבר אינה רק טעות טכנית. היא הופכת לסיכון משפטי, ניהולי ותדמיתי.

פסק דין ראשון מסוגו בנושא שימוש בבינה מלאכותית

בית המשפט: AI מותר, שימוש ללא בקרה פסול

חשוב להדגיש: בית המשפט העליון לא פסל את עצם השימוש בבינה מלאכותית. להפך – המסר שעולה מפסק הדין אינו התנגדות לטכנולוגיה, אלא דרישה לאחריות מקצועית בשימוש בה.

הבעיה אינה בכך שארגון נעזר בכלי AI. הבעיה מתחילה כאשר הארגון מתייחס לתוצר של המערכת כאילו הוא נכון, מלא ומאומת, בלי לבדוק את המקורות, בלי לוודא שהציטוטים קיימים, בלי לבחון את הנתונים, ובלי להפעיל שיקול דעת עצמאי.

בהליך משפטי, המשמעות חמורה במיוחד. הגשת כתבי טענות הכוללים אסמכתאות שגויות או בדויות אינה "טעות ניסוח". היא עלולה להטעות את בית המשפט, לפגוע בצד שכנגד, ולשבש את ההליך המשפטי עצמו.

בית המשפט אף קבע באופן חד כי "העת לנקוט סבלנות כלפי כתבי בית דין שגויים הנובעים משימוש בלתי מבוקר בבינה מלאכותית – חלפה עברה". זהו מסר ברור לעורכי דין, יועצים משפטיים, רשויות וארגונים: שימוש ב-AI אינו פוטר מבדיקה. להפך, הוא מחייב מנגנון בדיקה קפדני יותר.

ביחסי אזרח-רשות, הסיכון גדול במיוחד

פסק הדין עוסק ברשות ציבורית מול אזרח. בהקשר הזה, הסיכון שנוצר משימוש בלתי מבוקר בבינה מלאכותית חמור במיוחד.

כאשר אזרח מקבל החלטה מרשות, ובתוכה הפניות לחוזרי מנכ"ל, פסיקה ונימוקים משפטיים, לרוב אין לו את הכלים לבדוק האם כל מקור שהוזכר אכן קיים. הוא עשוי להניח שהרשות בדקה את הדברים, שההפניות נכונות, ושההחלטה התקבלה על בסיס תשתית עובדתית ומשפטית תקינה.

אם ההחלטה נשענת על מידע שגוי, והאזרח אינו יודע לזהות זאת, הפגיעה בזכויותיו או באינטרסים מהותיים שלו עלולה להישאר מתחת לרדאר.

זו אינה רק בעיה משפטית. זו בעיה של אמון. רשות ציבורית, וגם כל ארגון שמחזיק כוח ממשי מול לקוחות, עובדים, משתמשים או אזרחים, חייבים להבין שהשימוש ב-AI אינו יכול להחליף אחריות, שקיפות ושיקול דעת.

שימוש בבינה מלאכותית

ללא בקרה, אין שיקול דעת אמיתי

אחת השאלות המרכזיות שעולות מפסק הדין היא האם ניתן לומר שהופעל שיקול דעת אמיתי כאשר ההחלטה נשענת על תוצר שלא נבדק.

אם מערכת AI מייצרת נימוק, מסמך או המלצה, והגורם האנושי מאמץ אותם כפי שהם, בלי לבדוק את המקורות ובלי לבחון את נכונותם – קשה לומר שהתקיים תהליך אמיתי של בחינה עצמאית.

במקרים כאלה, ההחלטה עלולה להיחשב בלתי מנומקת, ובנסיבות מסוימות אף לעורר חשש לשרירותיות. לכן, הבקרה האנושית אינה עניין טכני. היא חלק מהותי מתהליך קבלת ההחלטות.

AI יכול לסייע בניסוח, בסיכום, בארגון מידע ובניתוח ראשוני. הוא אינו מחליף את הגורם המקצועי שצריך לבדוק, להבין, להכריע ולשאת באחריות.

האחריות נשארת אצל הגורם החתום

במסגרת ההליך, עלתה גם הטענה כי הכשלים נבעו מהסתייעות במתמחים. בית המשפט דחה זאת באופן ברור, ואף כתב כי מוטב שטענה זו לא הייתה נטענת כלל.

בהקשר המשפטי, האחריות לכתב הטענות מוטלת על עורך הדין החתום עליו. לא על המתמחה, לא על עובד זוטר, ולא על מערכת טכנולוגית שסייעה בהכנת המסמך.

בהקשר הארגוני הרחב יותר, המסר ברור: שימוש בטכנולוגיה אינו מעביר את האחריות אל הכלי. אם מחלקת שירות משתמשת בצ'אטבוט, אם מערכת CRM מייצרת המלצות, אם כלי AI מסייע בניתוח מידע אישי, או אם מחלקה משפטית משתמשת בכלי כתיבה – האחריות נשארת אצל הארגון ובעלי התפקידים שמפעילים, מאשרים ומיישמים את התהליך.

הטכנולוגיה יכולה לעזור. היא לא יכולה לשאת באחריות במקומכם.

בינה מלאכותית AI

ממשל AI, פרטיות ואחריות ארגונית

פסק הדין הזה אינו עומד בחלל ריק. ביום 28 באפריל 2025 פרסמה הרשות להגנת הפרטיות טיוטת הנחיה בנושא תחולת הוראות חוק הגנת הפרטיות על מערכות בינה מלאכותית.

הטיוטה מבהירה כי כאשר מערכות AI מעבדות מידע אישי, דיני הגנת הפרטיות חלים עליהן בשלבים שונים של מחזור החיים – משלב הפיתוח והאימון ועד שלב השימוש בפועל. בנוסף, גם תוצרים של מערכות AI, כגון הערכות, תחזיות או מסקנות לגבי אדם, עשויים להיחשב מידע אישי.

המשמעות עבור ארגונים היא רחבה: שימוש ב-AI אינו רק שאלה טכנולוגית. הוא יכול להיות גם שאלה של פרטיות, אבטחת מידע, שקיפות, אחריותיות, ממשל תאגידי וניהול סיכונים.

לכן, ארגון שמשתמש במערכות AI צריך לשאול את עצמו שאלות בסיסיות:

  • איזה מידע מוזן למערכת?
  • האם מדובר במידע אישי?
  • האם העובדים יודעים אילו נתונים אסור להזין לכלי AI חיצוניים?
  • האם תוצרי המערכת נבדקים לפני שהם משמשים לקבלת החלטות?
  • האם קיימת מדיניות פנימית לשימוש בכלי AI?
  • האם ההנהלה מודעת לסיכונים ומפקחת על השימוש בפועל?
  • האם במקרים המתאימים נבחן הצורך בתסקיר השפעה על פרטיות?

מה ארגונים צריכים לעשות עכשיו?

פסק הדין בעניין עיריית רמת גן הוא קריאת השכמה. הוא מראה שגם כאשר הטכנולוגיה נגישה, מהירה ונוחה, אסור לוותר על מנגנוני בקרה בסיסיים.

ארגונים שמשתמשים ב-AI צריכים להטמיע נהלים ברורים: מי רשאי להשתמש בכלים, באילו מערכות מותר להשתמש, איזה מידע אסור להזין, אילו תוצרים מחייבים אימות, מי מאשר מסמכים שנוצרו בעזרת AI, ואילו החלטות לא ניתן לקבל על בסיס תוצר אוטומטי בלבד.

בנוסף, יש לבחון את השימוש ב-AI גם דרך דיני הגנת הפרטיות. כאשר מערכות AI נוגעות למידע אישי, ללקוחות, עובדים, משתמשים, מטופלים, תלמידים או אזרחים – נדרש ניהול סיכונים מסודר. במקרים המתאימים, יש לבחון גם עריכת תסקיר השפעה על פרטיות, במיוחד כאשר מדובר בעיבוד מידע רגיש, פרופיילינג, קבלת החלטות בעלות השפעה ממשית או שימושים חדשים במידע אישי.

הגישה הנכונה אינה להימנע מבינה מלאכותית. הגישה הנכונה היא להשתמש בה בצורה מבוקרת, מתועדת, אחראית ותואמת דין.

שימוש חוקי בבינה מלאכותית AI

לסיכום: הטכנולוגיה רצה, האחריות נשארת

פסק הדין בעע"מ 63194-08-25, אשר נוהל בשם המערער על ידי עו"ד אלון סוקניק מצוות DPO TEAM, ממחיש היטב את הסיכון שבשימוש בלתי מבוקר בבינה מלאכותית. במקרה הזה, השימוש בתוצרים שגויים הסתיים בחיוב משמעותי בהוצאות, אך הנזק הפוטנציאלי יכול להיות רחב יותר: פגיעה באמון, פגיעה בזכויות, החלטות שגויות, חשיפה משפטית ונזק תדמיתי.

AI יכול להיות כלי עבודה יעיל, חשוב ואף חיוני. אבל הוא אינו מחליף אחריות מקצועית. הוא אינו מחליף בדיקת מקורות. הוא אינו מחליף שיקול דעת אנושי. והוא בוודאי אינו מחליף ממשל ארגוני תקין.

כדי ליהנות מהיתרונות של המהפכה הטכנולוגית בלי להפוך לתקדים הבא, ארגונים צריכים לבנות מדיניות שימוש ברורה, להטמיע מנגנוני בקרה, להדריך עובדים, לבחון היבטי פרטיות ואבטחת מידע, ולוודא שכל החלטה משמעותית המבוססת על תוצרי AI עוברת בדיקה מקצועית ואנושית.

ב-DPO TEAM אנו מלווים ארגונים בבניית מדיניות ממשל AI אחראית, שמאזנת בין חדשנות, יעילות, ציות לחוק והגנת הפרטיות.

האם אתם שולטים בבינה המלאכותית בארגון שלכם – או שהיא מתחילה "להמציא" עבורכם את המציאות? דברו איתנו כדי לוודא שאתם בצד הנכון של התקדים.

שיתפו מאמר: