18 חדשות AI שפספסת השבוע: DeepSeek V4, דרמת Anthropic, ועסקת הפנטגון של Google
The Pulse:
- DeepSeek V4 עולה $1.74 למיליון טוקן קלט לעומת $5 של GPT-5.5 ו-$5 של Claude Opus 4.7: פער מחיר של פי 17 על פלט ($3.48 לעומת $30) עם חלון הקשר זהה של 1 מיליון טוקן ותוצאות benchmark קרובות לרמת ה-state-of-the-art.
- משתמש Claude Max 20X שילם $200.98 נוסף מעבר למנוי החודשי שלו בגלל מחרוזת הטקסט
Hermes.mdבהודעת git commit. Anthropic אישרה את הבאג רק לאחר שהפוסטים של Anu Patel ו-Theo Brown צברו 1.4 מיליון ו-1 מיליון צפיות בהתאמה.- מודל Mayo Clinic מזהה סרטן לבלב על CT בטני רגיל עד 3 שנים לפני אבחון קליני: בדיקה רטרואקטיבית על סריקות היסטוריות הוכיחה את יעילות המודל בזיהוי גידולים בטרם הם גלויים לעין.
השבוע חשף שלוש נקודות חיכוך מרכזיות בשוק ה-AI: פער המחירים הגדל בין מודלים פתוחים לסגורים, השאלה עד כמה חברות AI מיישמות בפועל את ערכי השקיפות שהן מכריזות עליהם, ודילמת הממשל הצבאי שאין לה פתרון נוח. DeepSeek V4 מוכיח שמודל בעלות $1.74 למיליון טוקן יכול להתחרות בביצועים עם מודלים שעולים פי 17 יותר: ועסקת Google עם הפנטגון, בניגוד להתחייבות DeepMind מ-2014, מדגימה שאפילו הצהרות ערכיות מחייבות נשחקות תחת לחץ רגולטורי ועסקי.
המתח המרכזי השבוע אינו טכני אלא אמוני: חברות AI בונות מותגים על בסיס ערכים מוצהרים: שקיפות, אתיקה, בטיחות: אך כשמגיעות ההחלטות העסקיות הקשות, הפער בין הצהרה למעשה הופך גלוי. Anthropic, שמציגה את עצמה כ"AI האתי", נתפסה מחייבת משתמשים בגלל מילות קוד; Google, שהתחייבה ב-2014 לא להשתמש ב-AI למטרות צבאיות, חתמה עסקה עם הפנטגון. לצד הדרמות האלה, DeepSeek V4 ממשיך להוכיח שהנחת היסוד ש"מודלים פתוחים לעולם לא ידביקו את הסגורים" כבר אינה מחזיקה מים.
במאמר זה אפרט את כל 18 החדשות המשמעותיות של השבוע: ניתוח השוואתי מלא של מחירי המודלים, פירוט מדויק של דרמת Anthropic וההשלכות שלה על כל מי שמשתמש ב-Claude Code, ניתוח עסקת הפנטגון של Google, ועדכון שותפות Microsoft-OpenAI שמשנה את כללי המשחק לעסקים ישראלים המשתמשים ב-Azure.
DeepSeek V4 ומהפך המחירים: כשמודל פתוח שווה $1.74 מול $30 של GPT-5.5
מודלי AI פתוחים כמו DeepSeek V4 מציעים ערך עסקי משמעותי לעומת מודלים סגורים. DeepSeek V4 משיג ביצועים קרובים מאוד למודלי הדור האחרון של OpenAI ו-Anthropic, אך בעלות נמוכה פי 17 מ-GPT-5.5 ובחלון הקשר (context window) של מיליון טוקן שמאפשר עיבוד כמויות ענקיות של טקסט. ההשלכה העסקית היא ברורה: חברות יכולות להחליף מודלים סגורים יקרים בחלופות פתוחות שמריצות באופן מקומי, מה שמביא לחיסכון משמעותי בעלויות ושיפור בקביעת הנתונים.
כאשר משווים ישירות את המחירים, ההבדל הופך למדהים. DeepSeek V4 עולה $1.74 למיליון טוקן קלט ו-$3.48 למיליון טוקן פלט, בעוד GPT-5.5 מחייב $5 קלט ו-$30 פלט: יחס עלות של 1:17 על הפלט. Claude Opus 4.7 של Anthropic דורש $5 קלט ו-$25 פלט, ו-Gemini 3.1 של Google עומד על $2 קלט ו-$12 פלט. אפילו GPT-4o, שהוא בדור קודם, מחייב $2.50 קלט ו-$15 פלט. המשמעות: חברה המשתמשת ב-DeepSeek V4 לעיבוד מיליארד טוקן חודשי תחסוך עשרות אלפי דולרים מול שימוש ב-GPT-5.5, וזאת תוך שמירה על ביצועים כמעט זהים בכל בנצ'מארק: מתמטיקה, שאלות ותשובות, וכל שאר המדדים הסטנדרטיים.
| הגישה המקובלת | הנקודת המבט שלי |
|---|---|
| מודלים סגורים (GPT, Claude) הם הבחירה היחידה לעבודה רצינית | מודלים פתוחים כמו DeepSeek V4 כבר מתחרים בביצועים; בחירת הכלי תלויה בעלות, פרטיות, והשימוש הספציפי |
| מודלים פתוחים הם יותר מדי גדולים להרצה מקומית | DeepSeek V4 דורש שרת ענן, אך המחיר המנוצל של הענן זול מספיק שהרצה מקומית היא אפשרות משנית בלבד |
| מודלים סגורים מתפתחים מהר יותר מאשר פתוחים | מודלים פתוחים מתכנסים אל ביצועי SOTA במהירות חסרת תקדים; ההפרש בביצועים כבר אינו משמעותי לרוב השימושים |
| פרטיות הנתונים דורשת בנייה פנימית מורכבת | הרצת מודל פתוח כמו DeepSeek V4 או Nvidia Neotron 3 Nano באופן מקומי מבטלת כל דרישה בשליחת נתונים לשרתים חיצוניים |
| מודלים קטנים לא יכולים להתמודד עם משימות מורכבות | מודלים בגודל 33-128 מיליארד פרמטרים (Laguna XS2, Mistral Medium 3.5) מטפלים בנתב הקודים, סיכום מסמכים, וסוכנים כמעט כמו מודלים גדולים: וזול בהרבה |
הגורם המכריע הוא המנגנון שמאחורי הפריצה הזו. DeepSeek מאומן בתקציב משמעותי נמוך מ-OpenAI או Google כי סין מוגבלת בגישה לשבבים חזקים (GPU) עקב הגבלות ייצוא אמריקאיות. תוצאה: המדינה פיתחה טכניקות אימון יעילות יותר: כולל שימוש בחיזוי רב-טוקן (speculative decoding) וארכיטקטורות דלות (sparse architectures): שמשיגות ביצועים כמעט זהים בעלות נמוכה בהרבה. כל פעם שDeepSeek משחררת מודל חדש, בורסות מגיבות בחדות כי משקיעים מבינים שההשקעה הענקית של ארה"ב בתשתיות AI אולי אינה נחוצה במידה שהעלויות הנחשפות. חברות גדולות המוציאות עשרות מיליוני דולרים בחודש על עלויות טוקנים: בנקים, חברות ביטוח, ספקי SaaS: מתחילות להתבונן במודלים פתוחים לא כחלופה שנייה אלא כהחלטה עסקית רציונלית.
בנוסף ל-DeepSeek, Nvidia הוציאה השבוע את Neotron 3 Nano Omni, מודל פתוח שמטפל בטקסט, תמונות, אודיו, וידאו, מסמכים, תרשימים, וממשקי גרפיים. מודל זה מעוצב בעיקר לסוכנים AI (agents): תהליכים אוטומטיים שמבצעים משימות בלי הנדסת הנחיה (prompt engineering) כל פעם. בניגוד לסוכנים שמונעים על ידי מודלים סגורים של Anthropic, OpenAI, או Google, Neotron 3 Nano הוא פתוח ויכול להרוץ מקומית. עלות הריצה: כמעט אפס, רק חשמל. בעולם בו סוכנים הופכים ליותר ויותר חיוניים: הם מהווים את הדרך בה ארגונים מטמיעים AI בתהליכים אמיתיים: המשמעות היא שחברות יכולות לבנות אינפרה של סוכנים ללא תלות בספק ענן ובלי דאגה מעלויות טוקנים משתנות.
Poolside AI הוציאה שבוע זה שני מודלים חדשים: Laguna XS2 (33 מיליארד פרמטרים, פתוח) ו-Laguna M1 (225 מיליארד פרמטרים). שניהם בחינם לשימוש. ה-XS2 מעוצב להתחרות עם Gemma 4, Devstrol Small 2, ו-Claude Haiku: מודלים בגודל בינוני שמתאימים לריצה מקומית ולשימושים שלא דורשים SOTA. ה-M1 מטרה גדולה יותר אך עדיין לא מנסה להיות הטוב בעולם; הוא מעוצב לארגונים שרוצים יכולת חזקה אך לא צריכים את המודל הגדול ביותר. Mistral שחררה מודל חדש בשם Mistral Medium 3.5: מודל dense של 128 מיליארד פרמטרים שמשלב הוראות, הנמקה, וקוד בחדות יחידה. גם זה פתוח, וגם זה מעוצב לסוכנים (agents) שמשתמשים בתוך harnesses כמו OpenClaw או Hermes.
המשמעות הרחבה יותר: שלוש שנים לפני כן, ההנחה הייתה שמודלים פתוחים לעולם לא יתחרו. היום, הם כמעט שם. רוב השימושים העסקיים: סיכום מסמכים, זיהוי דפוסים בנתונים, הסברים, סוכנים לשירות לקוחות: אינם דורשים SOTA. מודלים קטנים יותר ופתוחים משיגים את אותה משימה בעלות שברית. ואם פרטיות וביטחון הם דאגות ראשוניות (והן צריכות להיות עבור מידע רגיש), חברות יכולות כעת להרוץ את המודלים בשרתים משלהם ללא תשלום מתמשך. זה לא רק שינוי טכנולוגי: זה זעזוע בכלכלת ה-AI.
השורה התחתונה: חברה שעדיין משלמת $30 למיליון טוקן פלט עבור GPT-5.5 בעוד DeepSeek V4 עולה $3.48 מאבדת 89% מהעלות הזו בלא משום הפסד ביכולת. לעסקים שמעבדים מיליארדי טוקנים, ההבדל הוא מיליוני דולרים בשנה.
דרמת Anthropic: חיוב $200 נוסף על מילת 'Hermes' בקוד ועסקת הפנטגון של Google
בשבוע זה, Anthropic נתפסה בפרקטיקה של סריקת קוד המשתמשים בחיפוש אחר מילים כמו 'Hermes' ו-'OpenClaw' ואחר כך חיוב משתמשים בעלויות נוספות או חסימת גישה: תוך כדי שגוגל חתמה על עסקה עם הפנטגון בשימוש AI למטרות צבאיות מסווגות, בניגוד ישיר להתחייבות שנתנה ל-DeepMind בעת רכישתה ב-2014. שתי הדרמות הללו חושפות מתח עמוק בין התחייבויות אתיות מוצהרות לבין לחצים עסקיים וגיאופוליטיים בעולם ה-AI המודרני.
נתחיל עם המקרה של Anthropic. בתחילת השבוע, המפתח Theo Brown פרסם תגובה שקיבלה 1 מיליון צפיות: "אם יש לך commit אחרון שמזכיר OpenClaw בתוך JSON blob, Claude Code יסרב לבקשתך או יחייב אותך בעלויות נוספות." זה לא היה מקרה בודד. Anu Patel פרסמה מקרה מפורט שקיבל 1.4 מיליון צפיות: משתמש ב-Claude Max 20X (התוכנית של $200 לחודש) קיבל חיוב פתאומי של $200.98 בעלויות נוספות למרות שהוא השתמש רק ב-13% מתקציב השבוע שלו. כשהוא החל לחפש את הגורם, גילה שהטריגר היה מחרוזת פשוטה בהודעת commit: "Hermes.md". זו אינה מילה אקראית. Hermes היא harness (מסגרת עבודה) פופולרית לשימוש עם Claude Code, אך היא לא מפותחת על ידי Anthropic. זה אומר שAnthropicסורקת את קוד המשתמשים, מחפשת עדויות שהם משתמשים בכלים של צד שלישי, וחוסמת או מחייבת אותם בעבור זה.
כשהמשתמש דיווח לתמיכה של Anthropic, הם הכירו בבאג שלוש פעמים, קראו לזה "authentication routing issue" (בעיית ניתוב אימות), הודו על הממצא, והסירבו להחזיר את הכסף. ההצהרה שלהם הייתה: "אנחנו לא יכולים להנפיק פיצוי עבור שירות מופחת או טעויות טכניות שמובילות לחיוב שגוי." זה בעיה קריטית כי Anthropic משיווקת את עצמה כחברת ה-AI "אתית": היא סירבה לעבוד עם הפנטגון על בסיס הנחות אתיות, והיא מדברת כל הזמן על "red lines" (קווים אדומים) שלה. אך כאן היא סורקת את קוד המשתמשים בחיפוש אחר מילים שהיא לא אוהבת, וחוסמת או מחייבת בעבור זה. Tariq מAnthropic הגיב בסופו של דבר בטוויטר: "סליחה, זה היה בעיה בגילוי harness של צד שלישי וכיצד אנחנו מושכים git status לתוך system prompt. אנחנו מתקשרים עם משתמשים מושפעים ונותנים להם החזר כסף בתוספת חודש נוסף של קרדיט." אבל שים לב: זה קרה רק אחרי שהפוסטים קיבלו מיליונים של צפיות. האם Anthropic הייתה מחזירה כסף אם הפוסטים קיבלו 10,000 צפיות בלבד? זה שאלה פתוחה.
עכשיו בואו נעבור לדרמה הגדולה יותר: Google והפנטגון. כמו שאמרתי, Anthropic סירבה לעבוד עם הפנטגון על בסיס אתי. OpenAI הגיעה ואמרה "אנחנו כן נעבוד איתך": אבל גם היא שמרה על red lines דומים. ואז Google חתמה על עסקה עם הפנטגון לשימוש AI על מידע מסווג. ההסכם של Google אומר בעצם: "אתה יכול להשתמש בזה לכל מטרה ממשלתית חוקית." כן, Google הוסיפה בהערה שהם "נשארים מחויבים לקונסנזוס של הסקטור הפרטי והציבורי שAI לא צריך להשמש למעקב המוני או לנשקים אוטונומיים ללא פיקוח אנושי מתאים": אבל זה לא הסכם מחייב. זה בעצם אומר "אנחנו חושבים שלא צריך, אבל אתה יכול." זה מעט שונה מאוד מ-Anthropic שאמרה "לא."
מה שהופך זאת לדרמה אמיתית: ב-2014, כשGoogle רכשה את DeepMind, DeepMind הבטיחה התחייבות שAI שלה לא יהיה בשימוש למטרות צבאיות או מעקב. זה היה תנאי ליבה של העסקה. מייסדי DeepMind דרשו זאת. וכעת, 11 שנים אחר כך, Google עושה בדיוק את זה. 600+ עובדי Google חתמו על מכתב לCEO Sundar Pichai דורשים שGoogle תחסום את הפנטגון משימוש מודלים של AI למטרות צבאיות מסווגות. אבל Google חתמה בכל זאת. למה? כי Google נמצאת במצב ללא ניצחון. אם היא אומרת לא, היא תהיה "supply chain risk" כמו Anthropic הייתה (הפנטגון פשוט לא תקנה מהן). אבל אם היא אומרת כן, היא מפרה את ההסכם המקורי שלה ו-600 עובדים שלה כועסים. Google בחרה בנתיב שנראה פחות סיכון מבחינת מדיניות ממשלתית, אבל זה מעלה שאלות עמוקות על מה אתה מוכן להקריב כשהלחץ הגיאופוליטי גבוה.
ובמהלך הדברים, China חסמה את רכישת Meta את Manis בעבור $2 מיליארד. Manis היא חברת AI שמייסדיה התחילו בסין אבל עברו להיות incorporated בסינגפור ב-2025. אבל סין אמרה: לא, אנחנו רוצים את הטכנולוגיה הזאת כאן. והבעיה היא שMeta כבר מאוד משולבת עם Manis: עובדים עברו, הון הועבר, המנהלים הצטרפו לצוות ה-AI של Meta. איך Meta תפרום את זה? זה עדיין לא ברור, אבל זה מסמל משהו גדול יותר: מלחמה גיאופוליטית על טכנולוגיית AI, וכל חברה גדולה נתפסת באמצע.
התובנה המרכזית: כאשר Anthropic חייבת משתמשים $200 על מילה בקוד, וכאשר Google מפרה הסכם 11 שנים לעומת לחץ גיאופוליטי, זה מראה שאתיקה בAI היא יוקרה: לא עיקרון. היא נשמרת כל עוד היא לא עולה כסף או סיכון פוליטי.
שותפות Microsoft-OpenAI מחודשת, כלים חדשים של Google ו-AI לזיהוי סרטן לבלב
במהלך השבוע, שלוש תנועות תפעוליות משמעותיות שינו את מפת התשתיות של AI בעולם: Microsoft סיכמה רישיון לא-בלעדי ל-IP של OpenAI עד 2032 תוך ביטול סעיף ההגנה על AGI, OpenAI הכריזה על שותפות עם AWS ביום שלאחר ההסכם, ו-Google הרחיבה את Gemini כדי לתמוך בעשרה פורמטים קבצים ישירות בצ'אט. בזמן שהדרמות המשפטיות והאתיות תופסות כותרות, השינויים האלה משנים את האופן בו ארגונים בחרים יכולים לבנות ולהטמיע AI: ללא תלות בספק יחיד.
הסכם Microsoft-OpenAI המחודש מסיר את אחד ההוראות הקריטיות ביותר מהשותפות המקורית. בעבר, כאשר OpenAI הייתה לא מושגת AGI (בינה מלאכותית כללית), ההסכם היה מסתיים ו-Microsoft היה מאבדת את זכויות הרווח שלה. כעת, סעיף זה הוסר לחלוטין. במקום זאת, Microsoft תקבל רישיון לא-בלעדי ל-IP של OpenAI עד 2032: אך הרישיון הזה כבר לא בלעדי. זה פירושו שOpenAI יכולה כעת להתחייב לשותפים אחרים, כולל ספקי ענן מתחרים. המשמעות המעשית: Microsoft איבדה את הבטחון של בעלות בלעדית על מודלים של OpenAI, אך הטביעה את זכויותיה בחוזה עד 2032: מה שמעניק יציבות לטווח ארוך למשקיעים.
ההשלכות התפעוליות הופכות ברורות בעקבות ההכרזה של OpenAI על AWS. ביום 27 באפריל 2025, Microsoft וOpenAI הודיעו על הסכם מחודש. ביום 28 באפריל: יום אחד לאחר מכן. OpenAI הכריזה רשמית כי מודלים, קודקס וסוכנים מנוהלים של OpenAI זמינים כעת ב-AWS. זה לא צירוף מקרים. ברגע שהרישיון של Microsoft הפך לא-בלעדי, OpenAI הייתה חופשית לנווט לשותפויות חדשות. לארגונים שהשקיעו ב-Azure כדי להשתמש ב-OpenAI, זה אומר בחירה חדשה: הם יכולים כעת להשתמש ב-OpenAI דרך AWS, Google Cloud, או כל ספק ענן אחר שOpenAI תחתום איתו בעתיד. זה מפחית את עלויות הנעילה ויוצר תחרות במחירים בין ספקי הענן.
בנוקף לשינויים בתשתיות, Google הטיבה את Gemini בתמיכה רחבה בפורמטים קבצים. כעת, משתמשים יכולים להעלות ישירות ולעבד PDF, DOCX, XLSX, CSV, LaTeX, RTF ו-Markdown בתוך צ'אט Gemini: ללא צורך בכלים חיצוניים או המרות. זה משנה את זרימת העבודה לחברות המטפלות בנתונים מובנים: חשבונית בפורמט PDF, גיליון חישוב Excel, או מסמך LaTeX יכולים להיות מנותחים, שונים או סוכמים בתוך אותו חלון צ'אט. עבור צוותי בחשבונאות, הנדסה וכתיבה טכנית, זה מחסוך שעות של עבודה ידנית בהמרת קבצים.
בעוד שתשתיות וממשקים משתפרים, xAI הוציאה כלי שמשנה את דינמיקה של אינטראקציות קוליות. Grok Voice ThinkFast 1.0 הוא מודל קול עם latency נמוך: כלומר, זמן התגובה בין שאלה לתשובה קצר מאוד, בדומה לשיחה אדם-לאדם. הדגמה שפורסמה הראתה סוכן תמיכת לקוחות המטפל בשאלה על חיוב $65 עם דיוק, טון טבעי וזמן תגובה מינימלי. זה כעת מנחה את חווית הטלפון של Starlink: כלומר, כשאתה מתקשר לשירות הלקוחות של Starlink, אתה עשוי לדבר עם סוכן AI בעל latency נמוך כל כך שלא תשים לב להבדל. עבור חברות בעלות נפח גבוה של שיחות נכנסות, זה אומר צמצום של עלויות עובדים ושיפור בזמני תגובה.
אך האולי החשוב ביותר מבחינת השפעה קלינית הוא ההתקדמות של Mayo Clinic בזיהוי סרטן הלבלב. מודל AI שפותח על ידי Mayo Clinic יכול לזהות סרטן לבלב על סריקות CT שגרתיות של הבטן עד 3 שנים לפני אבחון קליני. זה מהפכני מכיוון שסרטן הלבלב הוא אחד הסוגים הקטלניים ביותר של סרטן: שיעורי הישרדות 5 שנים הם בערך 10%. אם המודל יכול לזהות סימנים עדינים של המחלה לפני שגידול הופך גלוי, חולים עשויים לקבל טיפול קוריטיבי בשלב מוקדם הרבה יותר. המודל נבחן בדיעות ברוך על סריקות היסטוריות של חולים שאובחנו מאוחר יותר עם סרטן הלבלב, והצליח לזהות בדיוק את הסריקות הקדומות המראות סימנים מוקדמים של המחלה. זה ממחיש את המקרה הכלכלי והאנושי לעבודה על AI: לא כמו מחולל תמונות של Taylor Swift, אלא כמו כלי שמציל חיים.
התובנה המרכזית: שלוש תנועות אלה: רישיון לא-בלעדי של Microsoft, פתיחת OpenAI ל-AWS, ו-Gemini עם תמיכה בפורמטים מרובים: מסימנות סוף של הנעילה של ספק יחיד. ארגונים שרצו להשתמש ב-OpenAI על Azure בלבד כעת יכולים לבחור בין מספר ענן, מה שמפחית עלויות ומוגביל סיכון של ספק יחיד.
שאלות נפוצות
האם DeepSeek V4 ניתן להרצה על GPU ביתי או שנדרש שרת ענן?
DeepSeek V4 הוא מודל open-weight, כלומר קובצי המשקולות שלו זמינים להורדה. עם זאת, הוא עדיין גדול מכדי לרוץ על GPU צרכני סטנדרטי כמו RTX 4090 ביתי. בפועל, רוב המשתמשים ייצרכו להריץ אותו דרך ענן DeepSeek עצמו או דרך ספקי ענן אחרים כגון AWS או Azure. עם זאת, חברות עם תשתית מחשוב פנימית רצינית, כמו supercomputer ארגוני, יכולות תיאורטית לאחסן ולהפעיל אותו locally, מה שמספק יתרון משמעותי מבחינת פרטיות ואבטחת מידע.
מה ההבדל בין Poolside AI Laguna XS2 ל-M1 ולמי מתאים כל אחד?
Laguna XS2 הוא מודל open-weight בגודל 33 מיליארד פרמטרים, שמתחרה עם מודלים כמו Gemma 4, Devstral Small 2 ו-Claude Haiku. הוא מתאים לעסקים המחפשים מודל יעיל וחסכוני להרצה עצמאית, בעיקר למשימות קוד ותמיכה טכנית. ה-M1, לעומת זאת, הוא מודל סגור בגודל 225 מיליארד פרמטרים, שמתחרה עם מודלים גדולים יותר ומתאים לארגונים הזקוקים לביצועים גבוהים יותר במשימות מורכבות. שני המודלים זמינים כיום ללא עלות.
כיצד פועל מנגנון הזיהוי של Anthropic ל-OpenClaw ו-Hermes בקוד המשתמש?
לפי הגילוי של Tariq מ-Anthropic, מדובר ב-bug שנוצר בתהליך שבו Claude Code מושך את סטטוס ה-git של המשתמש ומזריק אותו ל-system prompt. המערכת סרקה את היסטוריית ה-commit messages וזיהתה מילות מפתח כמו Hermes.md או OpenClaw. כאשר מילים אלו זוהו, המערכת ניתבה את הבקשה לנתיב חיוב שונה, מתוך הנחה שהמשתמש מפעיל harness חיצוני. הבעיה העמוקה יותר היא שהמנגנון עצמו, כלומר הסריקה האקטיבית של קוד משתמש לזיהוי שימוש בכלים מתחרים, קיים בכוונה, גם אם הבאג בחיוב לא היה מכוון.
מה משמעות הרישיון הלא-בלעדי של Microsoft ל-OpenAI לעסקים ישראלים המשתמשים ב-Azure?
עד לעדכון ההסכם, מודלי OpenAI היו זמינים בענן בעיקר דרך Microsoft Azure. כעת, עם הרישיון הלא-בלעדי שנכנס לתוקף עד 2032, OpenAI חופשית להפיץ מודלים גם דרך AWS ועשויה להרחיב לפלטפורמות נוספות. לעסקים ישראלים המשתמשים ב-Azure, המשמעות המיידית היא המשכיות מלאה של הגישה הקיימת. ההשלכה האסטרטגית לטווח ארוך היא שייתכן שתוכלו להשתמש במודלי OpenAI ישירות מתוך AWS, Google Cloud, או פלטפורמות ענן ישראליות אחרות, מה שיגביר את גמישות הרכש ועשוי להוריד עלויות דרך תחרות בין ספקי הענן.
מה ניתן ללמוד מעסקת הפנטגון של Google לגבי אמינות ה-"קווים האדומים" של חברות AI?
עסקת Google עם הפנטגון מגלה פער מהותי בין הצהרות מדיניות לבין פעולה בפועל. כאשר Google רכשה את DeepMind ב-2014, ההתחייבות לאי-שימוש ב-AI למטרות צבאיות הייתה תנאי מפורש של הרכישה. עשור לאחר מכן, הסכם הפנטגון מאפשר שימוש "לכל מטרה ממשלתית חוקית" ללא מגבלות מחייבות. הלקח לעסקים: כאשר אתם בוחרים ספק AI לנתונים רגישים, בחנו את ההסכמים החוזיים בפועל ולא רק את הצהרות המדיניות הציבוריות. יותר מ-600 עובדי Google חתמו על עצומה נגד הצעד, מה שמצביע על מתח פנימי שעשוי להשפיע על יציבות המוצר לטווח ארוך.
רוצה שהתוכן שלך יצוטט על ידי ChatGPT, Perplexity ו-Gemini?
עסקים שמייעלים תוכן ל-AI engines מקבלים פי 3 יותר המלצות ממנועי AI לעומת עסקים שמסתמכים רק על SEO מסורתי. קראו עוד במגזין SEO של AuthorityRank.



