בחירת מודל — מתי GPT, מתי Claude, מתי Gemini
Copilot נותן לכם גישה ליותר מ-15 מודלים שונים מ-4 ספקים — OpenAI, Anthropic, Google, ו-xAI. חלקם בחינם ואינסופיים, חלקם עולים קרדיט אחד לאינטראקציה, חלקם 3 קרדיטים, ואחד בודד עולה 30. הפרק הזה ילמד אתכם לבחור את המודל הנכון לכל משימה, לחשב כמה זה באמת עולה בש"ח, ולבנות אסטרטגיית שימוש חכמה שמפיקה מקסימום ערך מ-300 הקרדיטים החודשיים שלכם. נלמד גם על רמות חשיבה — פיצ'ר שמשפר את איכות התשובות בחינם — ועל Auto Selection שחוסך 10% על כל אינטראקציה.
🎯 מה תקבלו בסוף הפרק
- ✅ טבלת השוואה אישית של כל המודלים הזמינים ב-Copilot עם מכפילים ויתרונות
- ✅ תוכנית חודשית: חלוקת 300 קרדיטים לפי סוג משימה
- ✅ כרטיסיית עזר: מודל מומלץ לפי סוג משימה (debug, refactor, new feature, review)
- ✅ טבלת עלויות: כמה עולה שיחה שלמה עם כל מודל
- ✅ הגדרת Auto Selection מותאמת אישית ב-VS Code
- ✅ מסמך אסטרטגיה: רמת חשיבה (Reasoning Effort) לפי סוג משימה
🎓 מה תדעו לעשות
- 🔹 תוכלו לבנות טבלת השוואה אישית של כל המודלים הזמינים עם מכפילים ויתרונות
- 🔹 תוכלו לחשב עלות בפועל של שיחה שלמה עם מודלים שונים
- 🔹 תוכלו להגדיר Auto Selection ולדעת מתי לדרוס אותה ידנית
- 🔹 תוכלו לבחור רמת חשיבה (Low/Medium/High/x-High) לפי סוג המשימה
📋 דרישות מקדימות
פרקים נדרשים: פרק 1 — Agent Mode (הבנת הלולאה האגנטית ומצבי העבודה)
כלים נדרשים: VS Code עם Copilot מותקן, מנוי Copilot Pro לפחות ($10/חודש, כ-37 ש"ח)
זמן משוער: 60 דקות
🧵 הפרויקט שלך
בפרק 2 למדתם להכיר את כל הכלים שבארגז — ועכשיו אתם יודעים מה Agent Mode יכול לעשות. בפרק הזה תבחרו את המוח שמפעיל את הכלים האלה — המודל הנכון למשימה הנכונה, במחיר הנכון. בפרק 4 תלמדו לכתוב Custom Instructions שמכוונים את המודל שבחרתם לעבוד בדיוק כמו שאתם רוצים.
📖 מילון מונחים
| מונח (English) | תרגום | הסבר |
|---|---|---|
| Model Multiplier | מכפיל מודל | מספר שקובע כמה קרדיטים פרימיום נגרעים בכל אינטראקציה (0x = חינם, 1x = רגיל, 3x = פרימיום) |
| Premium Requests | בקשות פרימיום | מכסה חודשית של אינטראקציות עם מודלים מתקדמים — 300 ב-Pro, 1,500 ב-Pro+ |
| Free Models (0x) | מודלים חינמיים | מודלים שלא צורכים קרדיטים פרימיום כלל: GPT-4.1, GPT-4o, GPT-5 mini, Grok |
| Auto Model Selection | בחירת מודל אוטומטית | Copilot בוחר את המודל האופטימלי בשבילכם — עם 10% הנחה על המכפיל |
| Reasoning Effort | רמת חשיבה | כמה עמוק המודל חושב: Low/Medium/High/x-High — אותה עלות, זמן תגובה שונה |
| Overage Pricing | תמחור חריגה | חריגה מהמכסה עולה $0.04 לכל בקשת פרימיום (כ-0.15 ש"ח) |
| Model Picker | בורר המודלים | תפריט נפתח בתחתית הצ'אט שמאפשר להחליף מודל — גם באמצע שיחה |
| Context Window | חלון הקשר | כמות המידע שהמודל רואה בבת אחת — משתנה בין מודלים (128K-200K tokens) |
מפת המודלים: מי נגד מי
כש-GitHub Copilot הושק לראשונה, היה מודל אחד — GPT. הייתם פותחים את הצ'אט, שואלים שאלה, ומקבלים תשובה. לא הייתם צריכים לחשוב איזה מודל עובד מאחורי הקלעים — כי לא הייתה ברירה.
היום? יותר מ-15 מודלים מ-4 ספקים שונים: OpenAI (GPT), Anthropic (Claude), Google (Gemini), ו-xAI (Grok). זה נשמע מרגש, אבל גם מבלבל. מפתח חדש שפותח את בורר המודלים רואה רשימה ארוכה של שמות ומספרים — ולא מבין מה ההבדל בין Claude Sonnet 4.5 ל-Claude Sonnet 4.6, או למה GPT-5 mini הוא חינמי אבל GPT-5.4 עולה קרדיט.
הפרק הזה הולך לעשות סדר. בסופו תדעו בדיוק מה כל מודל עושה, כמה הוא עולה, ומתי להשתמש בו.
המודלים ב-Copilot מחולקים ל-4 שכבות עלות, לפי מספר שנקרא Model Multiplier (מכפיל מודל). המכפיל הוא המספר שקובע כמה Premium Requests (בקשות פרימיום) נגרעות מהמכסה החודשית שלכם בכל אינטראקציה עם המודל. למשל: מודל עם מכפיל 3x אומר ש-כל שאלה שתשלחו לו צורכת 3 קרדיטים מתוך 300 הקרדיטים החודשיים שלכם.
ככל שהמכפיל גבוה יותר — המודל חזק יותר, אבל גם יקר יותר. וזה בדיוק מה שצריך להפנים: לא תמיד צריך את המודל החכם ביותר. כמו שלא צריך פרארי כדי לנסוע לסופר — GPT-4.1 החינמי מספיק ל-80% מהנסיעות היומיומיות שלכם.
בואו נסתכל על התמונה המלאה. הנה כל המודלים הזמינים, מחולקים לפי שכבת העלות:
| שכבה | מכפיל | מודלים | ספק |
|---|---|---|---|
| חינם | 0x | GPT-4.1, GPT-4o, GPT-5 mini, Grok Code Fast 1 | OpenAI, xAI |
| ביניים | 0.25x | Claude Haiku 4.5, Gemini 3 Flash | Anthropic, Google |
| 1x | Claude Sonnet 4/4.5/4.6, Gemini 2.5 Pro, Gemini 3.1 Pro, GPT-5.4, o3-mini | Anthropic, Google, OpenAI | |
| פרימיום | 3x | Claude Opus 4.5, Claude Opus 4.6, o3 | Anthropic, OpenAI |
| יקר מאוד | ~30x | Claude Opus 4.6 fast | Anthropic |
בואו נפרק את הפירמידה הזו שכבה אחרי שכבה.
פתחו את VS Code, לחצו על שם המודל בתחתית חלון הצ'אט (Copilot Chat). כמה מודלים אתם רואים ברשימה? רשמו את המספר: ______
מה קורה: מפתחים בוחרים Claude Opus (3x) כברירת מחדל כי "הוא הכי חכם".
למה זה מפתה: Opus אכן נותן תשובות עמוקות ומפורטות יותר.
מה לעשות במקום: GPT-4.1 (חינם, 0x) פותר 80% מהמשימות היומיומיות. שמרו את Opus למשימות שבאמת דורשות חשיבה עמוקה — ארכיטקטורה מורכבת, רפקטורינג גדול, או דיבאגינג קשה.
המודלים החינמיים (0x) — אינסופיים ובחינם
זו השכבה הכי חשובה בפירמידה. לא כי היא הכי חכמה — אלא כי היא חינמית ואינסופית. כל עוד אתם על תוכנית Pro בתשלום ($10/חודש, כ-37 ש"ח), המודלים האלה לא צורכים אף קרדיט פרימיום. אפשר להשתמש בהם 100 פעם ביום, 200 פעם ביום, 500 פעם ביום — בלי לדאוג ובלי שזה ישפיע על המכסה החודשית.
לפני שנכנסים לפרטים: אם אתם על תוכנית Copilot Free (חינם), המצב שונה. בתוכנית החינמית, כל אינטראקציה — גם עם GPT-4.1 — צורכת בקשת פרימיום, ויש לכם רק 50 בחודש. המכפיל 0x חל רק על תוכניות בתשלום (Pro ומעלה).
GPT-4.1 — ברירת המחדל והסוס הראשי
GPT-4.1 הפך לברירת המחדל של Copilot במאי 2025, ולא בכדי. הוא מהיר, אמין, ומותאם ספציפית לעבודה עם קוד. GitHub עבדו עם OpenAI על fine-tuning שמיועד לתרחישי פיתוח — מה שאומר שהתגובות שלו מדויקות יותר לקוד מאשר של ChatGPT הרגיל. כש-Copilot Chat נפתח — זה המודל שעובד מאחורי הקלעים, וזה המודל שיטפל בכל ההשלמות האוטומטיות שלכם.
חשוב להבין: GPT-4.1 הוא לא מודל "חלש". הוא תומך ביותר מ-30 שפות תכנות, מבין הקשר של פרויקט שלם (context window של 128K tokens — כ-100,000 מילים), ומגיב תוך שנייה-שתיים. לרוב המפתחים, ברוב הזמן, הוא כל מה שצריך.
מתי GPT-4.1 מספיק (ומתי הוא אפילו הבחירה הטובה ביותר):
- השלמות קוד ו-autocomplete — הוא המהיר ביותר, והמהירות קריטית להשלמות
- שאלות syntax או API — "מה הפרמטרים של Array.reduce ב-JavaScript?"
- דיבאגינג פשוט עד בינוני — "למה אני מקבל TypeError כאן?"
- כתיבת טסטים — יוניט טסטים, integration tests
- הסברים על קוד קיים — "מה הפונקציה הזו עושה?"
- Code review בסיסי — "יש בעיות בקוד הזה?"
- תיעוד — כתיבת JSDoc, README, הערות
- המרות — "תמיר את הקוד הזה מ-JavaScript ל-TypeScript"
מתי GPT-4.1 לא מספיק:
- רפקטורינג שמשפיע על כמה קבצים בו-זמנית
- תכנון ארכיטקטורה מורכבת
- באגים עמוקים שדורשים הבנה של flow שלם
- משימות שדורשות "חשיבה" — השוואה בין גישות, ניתוח trade-offs
GPT-4o — מולטימודאלי
GPT-4o הוא גרסה מולטימודאלית של GPT-4 — הוא תומך בקלט חזותי. זה אומר שאתם יכולים להעלות לו צילומי מסך, דיאגרמות, או תמונות של UI ולשאול עליהם שאלות. למשל: "הנה צילום מסך של הבאג — מה הבעיה?" או "הנה ה-wireframe — תבנה לי את ה-component הזה". חינמי לחלוטין במנוי Pro, וייחודי ביכולת שלו לעבוד עם תמונות.
GPT-5 mini — חשיבה קלה בחינם
GPT-5 mini הוא מודל reasoning קליל שנוסף לאוגוסט 2025. הייחוד שלו: הוא יודע "לחשוב" — לנתח בעיה לפני שעונה — אבל במכפיל 0x. זה אומר שאתם מקבלים יכולת חשיבה בסיסית בחינם.
מה ההבדל בין GPT-4.1 ל-GPT-5 mini? GPT-4.1 עונה מיד — הוא מייצר טקסט בזרימה רציפה. GPT-5 mini קודם "חושב" (מקצה thinking tokens לניתוח הבעיה) ורק אז עונה. התוצאה: התגובה לוקחת קצת יותר זמן, אבל לפעמים מדויקת יותר במשימות שדורשות הסקת מסקנות.
מתי GPT-5 mini עדיף על GPT-4.1:
- השוואה בין אפשרויות — "איזו גישה עדיפה: Pub/Sub או WebSocket לפיצ'ר הזה?"
- הסקת מסקנות — "בהינתן הלוגים האלה, מה הגורם לבאג?"
- תכנון מבנה — "איך אפרק את הפיצ'ר הזה ל-components?"
- בעיות לוגיות — "למה הלולאה הזו לא עוצרת בתנאי הנכון?"
טיפ: אם אתם לא בטוחים אם GPT-4.1 מספיק — נסו קודם אותו (חינמי). אם התשובה לא מספקת, נסו GPT-5 mini (גם חינמי). רק אם שניהם לא מספיקים — שקלו לעלות ל-Sonnet (1x).
Grok Code Fast 1 — פרטיות מוחלטת
Grok Code Fast 1 מבית xAI פועל תחת מדיניות Zero Data Retention (אפס שמירת מידע) — אף מילה שתשלחו לא נשמרת בשרתי xAI. מכפיל 0x, כלומר חינמי לחלוטין.
מתי Grok הוא הבחירה הנכונה? כשאתם עובדים על קוד קנייני רגיש, פרויקטים עם NDA, או כשהמדיניות של הארגון שלכם דורשת שום שמירת נתונים אצל צד שלישי. במקרים כאלה, Grok נותן לכם AI assistant חינמי בלי חשש שהקוד שלכם ישמש לאימון מודלים עתידיים.
הערה חשובה על כל שאר המודלים: גם OpenAI, Anthropic ו-Google מתחייבים שקוד שנשלח דרך Copilot לא ישמש לאימון — אבל הנתונים עוברים דרך השרתים שלהם. Grok הוא היחיד שבו הנתונים לא נשמרים כלל.
סיכום: איך לעבוד עם שכבת ה-0x
העיקרון הוא פשוט: התחילו תמיד מהשכבה החינמית. GPT-4.1 לרוב המשימות, GPT-5 mini כשצריך קצת חשיבה, GPT-4o כשיש תמונות, Grok כשיש רגישות פרטיות. רק אם אף אחד מהם לא מספק — שדרגו לשכבה הבאה.
שלחו את הפרומפט הבא ל-GPT-4.1 וגם ל-GPT-5 mini: "Compare three approaches to implement caching in a Node.js API". שימו לב להבדל — GPT-5 mini יחשוב לפני שעונה, GPT-4.1 יענה מיד. שני המודלים חינמיים.
מודלים ברמת הביניים (0.25x-1x) — הלב הפועם
כאן זה נהיה מעניין. השכבה הזו כוללת מודלים שעולים בין רבע קרדיט ל-קרדיט אחד לאינטראקציה — ומציעים שדרוג משמעותי באיכות מעל המודלים החינמיים. זו השכבה שבה תשתמשו כשהמשימה מורכבת מספיק ש-GPT-4.1 לא מספיק, אבל לא מורכבת מספיק כדי להצדיק Opus ב-3x.
ויש כאן המון מודלים. בואו נעשה סדר.
Claude Sonnet 4 / 4.5 / 4.6 — הבחירה של GitHub עצמם
עובדה מעניינת שכדאי להכיר: GitHub בחרה את Claude Sonnet 4 כמודל הבסיס ל-Copilot Coding Agent — הסוכן האוטונומי שרץ ברקע ב-GitHub.com ופותר issues בלי התערבות אנושית. אם GitHub, שיש להם גישה לכל מודל בעולם, בחרו את Sonnet לעבודה אגנטית — זה אומר משהו על האיכות שלו.
Claude Sonnet (מכפיל 1x) מצטיין ב:
- עבודה אגנטית (Agent Mode) — multi-file edits, תיקוני באגים מורכבים שדורשים שינויים במספר קבצים, יצירת פיצ'רים חדשים מקצה לקצה
- רפקטורינג — מבין את ההקשר הרחב של הפרויקט ושומר על עקביות בכל הקבצים שהוא משנה. אם תבקשו ממנו להעביר מ-class components ל-hooks, הוא יעדכן את כל הקבצים המושפעים
- Context Window ענק — עד 200K tokens (כ-150,000 מילים). זה אומר שהוא יכול "לראות" פרויקט גדול יותר בבת אחת מ-GPT-4.1
- הסברים מפורטים — Sonnet לא רק כותב קוד, הוא מסביר למה הוא עושה מה שהוא עושה. זה מועיל במיוחד ללמידה
- דיוק גבוה ב-diff — כש-Sonnet עורך קוד קיים, הוא פחות נוטה "לאכול" שורות שלא היה צריך לשנות
ההבדל בין הגרסאות:
- Sonnet 4 — היציב והמוכח. עומד מאחורי ה-Coding Agent. אמין ומהיר.
- Sonnet 4.5 — הוסיף יכולות חשיבה משופרות. טוב יותר במשימות שדורשות ניתוח.
- Sonnet 4.6 — GA (Generally Available) מפברואר 2026. הגרסה העדכנית ביותר, עם שיפורים בדיוק, מהירות, ואיכות קוד. זו הגרסה המומלצת כיום.
שלושת הגרסאות פועלות במכפיל 1x. אין סיבה לא לבחור את 4.6 — הוא פשוט טוב יותר מהקודמים בכל פרמטר.
Gemini Pro (2.5 / 3.1) — מומחה לאלגוריתמים ומדע
Gemini Pro מבית Google (מכפיל 1x) מצטיין בעיקר במשימות שדורשות חשיבה מתמטית ואלגוריתמית. Google פיתחו אותו עם דגש על scientific reasoning — מה שהופך אותו לבחירה מצוינת אם אתם עובדים על Data Science, אלגוריתמים מורכבים, בעיות אופטימיזציה, או ניתוח נתונים.
Gemini 2.5 Pro זמין מ-2025, ו-Gemini 3.1 Pro הוא הגרסה העדכנית ביותר. שניהם ב-1x. החיסרון: Gemini לפעמים מייצר קוד עם issue density גבוה יותר מ-Claude — כלומר יותר באגים קטנים לשורת קוד. זה לא אומר שהוא גרוע — אלא שצריך לבדוק את הקוד שלו בקפידה יתרה.
Claude Haiku 4.5 / Gemini 3 Flash — מהירים וזולים (0.25x)
שני המודלים האלה במכפיל 0.25x — כלומר 4 אינטראקציות עולות קרדיט אחד בלבד. הם מהירים מאוד (זמן תגובה קצר) ומתאימים למשימות שדורשות יותר מ-GPT-4.1 אבל לא שוות קרדיט מלא.
תרחישים מומלצים ל-0.25x:
- סיכום קוד ארוך במשפט-שניים
- תרגום הערות מעברית לאנגלית (או להפך)
- שאלות "כן/לא" על קוד
- יצירת commit messages
o3-mini ו-GPT-5.4 — ההשלמה של OpenAI
o3-mini הוא מודל reasoning קומפקטי מ-OpenAI (מכפיל 1x). הוא דומה ל-GPT-5 mini אבל חזק יותר — חושב עמוק יותר, מגיע למסקנות טובות יותר, אבל עולה קרדיט. שימושי במיוחד לבעיות לוגיות ואלגוריתמיות.
GPT-5.4 הוא הדגם המתקדם של GPT-5 (גם 1x). איפה הוא מצטיין? כתיבה — תיעוד, README, הסברים ארוכים, ויצירת תוכן. אם אתם צריכים documentation מקצועית או הסבר ארוך ומפורט על ארכיטקטורה — GPT-5.4 יכול להיות בחירה מצוינת.
אז Sonnet, Gemini Pro או o3-mini? אם אתם לא בטוחים — לכו על Sonnet 4.6. הוא ה-all-rounder הטוב ביותר ב-1x. אם אתם עובדים על אלגוריתמים — נסו Gemini Pro. אם אתם צריכים reasoning חזק — o3-mini.
נקודה חשובה על Context Window: אחד ההבדלים המשמעותיים בין המודלים הוא גודל חלון ההקשר (Context Window) — כמה מידע המודל יכול "לראות" בבת אחת. GPT-4.1 תומך ב-128K tokens (כ-100,000 מילים). Claude Sonnet ו-Opus תומכים ב-200K tokens (כ-150,000 מילים). למה זה חשוב? כשאתם עובדים ב-Agent Mode על פרויקט גדול, Copilot מזין למודל קבצים מהפרויקט שלכם. מודל עם context window גדול יותר יכול "לראות" יותר קבצים בבת אחת, ולכן להבין טוב יותר את ההקשר של הפרויקט. אם יש לכם פרויקט עם עשרות קבצים — Claude עם 200K tokens ייתן תוצאות טובות יותר מ-GPT-4.1 עם 128K.
על ספקים ופרטיות: כדאי לדעת שכל מודל מתארח אצל הספק שלו. GPT-4.1 עובר דרך שרתי OpenAI (מתארח ב-Azure). Claude עובר דרך Anthropic (גם Azure ו-AWS). Gemini דרך Google Cloud. Grok דרך xAI. לכל הספקים יש הסכם עם GitHub שאוסר שימוש בנתונים שלכם לאימון — אבל אם מדיניות הארגון שלכם מגבילה לספק מסוים, זה רלוונטי. ברוב המקרים זה לא בעיה, אבל שווה לדעת.
בחרו Claude Sonnet בבורר המודלים ושלחו פרומפט לרפקטורינג קוד: "Refactor this function to use dependency injection" (על פונקציה מהפרויקט שלכם). השוו את התוצאה ל-GPT-4.1 — שימו לב לעומק ההסבר ולאיכות הקוד.
מה קורה: מפתחים מניחים ש-Claude Sonnet, Gemini Pro ו-o3-mini "זהים" כי כולם 1x.
למה זה מפתה: המכפיל הזהה יוצר אשליה של שוויון.
מה לעשות במקום: המכפיל מייצג עלות, לא איכות. Claude Sonnet מוביל בעבודה אגנטית ורפקטורינג. Gemini Pro חזק באלגוריתמים. o3-mini מצטיין בחשיבה לוגית. נסו כמה מודלים על אותה משימה ותראו את ההבדלים.
המודלים הפרימיום (3x-30x) — מתי באמת שווה
עכשיו אנחנו מגיעים לראש הפירמידה. המודלים האלה הם החזקים ביותר שקיימים — אבל גם היקרים ביותר. ההבדל בין שימוש חכם לבזבזני במודלים האלה הוא ההבדל בין מי שנגמרים לו הקרדיטים ב-10 לחודש, לבין מי שמגיע לסוף החודש עם קרדיטים לרזרבה.
Claude Opus 4.5 / 4.6 — מכפיל 3x
Claude Opus הוא "הפרופסור" בין המודלים. עם Context Window של 200K tokens וחשיבה עמוקה ומפורטת, הוא מייצר קוד ברמת איכות שמרגישה כמו code review של מפתח senior — לא רק כותב קוד שעובד, אלא קוד שהוא נכון.
אבל בואו נעשה את החשבון: עם 300 קרדיטים חודשיים ומכפיל 3x, אתם מקבלים רק 100 אינטראקציות Opus בחודש. 22 ימי עבודה בחודש = בערך 4.5 אינטראקציות Opus ביום. וזה אם תשתמשו רק ב-Opus ובכלום אחר. בפועל, אם אתם משתמשים גם ב-Sonnet, יישארו לכם 1-2 Opus ביום.
לכן צריך לדעת בדיוק מתי Opus מצדיק את עצמו — ומתי הוא בזבוז.
Opus מצדיק את העלות כשאתם:
- מתכננים ארכיטקטורה חדשה של מערכת שלמה
- מבצעים רפקטורינג רחב שמשפיע על עשרות קבצים
- מדבאגים באג מורכב שכל השאר לא פתרו
- צריכים ניתוח security מעמיק
- כותבים קוד קריטי שחייב להיות מושלם בפעם הראשונה
Opus לא מצדיק את העלות כשאתם:
- שואלים שאלת syntax פשוטה
- כותבים טסט בסיסי
- מבקשים השלמת קוד רגילה
- צריכים code review שטחי
מתי Opus לא מצדיק את העלות:
- שאלת syntax פשוטה — GPT-4.1 עונה מיד ובחינם
- כתיבת טסט בודד — GPT-5 mini מספיק
- השלמת קוד רגילה — כל 0x מודל מספיק
- Code review שטחי — GPT-4.1 או Sonnet
- כתיבת commit messages — Haiku ב-0.25x
הערה היסטורית חשובה: כשClaude Opus 4.5 הושק ב-Copilot (נובמבר 2025), הוא פעל במכפיל מבצעי של 1x — אותה עלות כמו Sonnet. הרבה מפתחים התרגלו להשתמש בו באופן חופשי. בדצמבר 2025 המכפיל עלה ל-3x, וחלק מהמפתחים מצאו את עצמם בלי קרדיטים כבר באמצע החודש. אם שמעתם מישהו אומר "Opus עולה רק קרדיט אחד" — זה כבר לא נכון מזמן.
טקטיקה חכמה עם Opus: התחילו את השיחה עם GPT-4.1 (חינם). תנו לו להבין את הבעיה, לשאול שאלות, ולמפות את הטריטוריה. רק כשאתם מגיעים לשלב שדורש חשיבה עמוקה — החליפו ל-Opus באמצע השיחה (דרך Model Picker). ככה Opus מקבל את כל ההקשר אבל אתם משלמים 3x רק על הפרומפטים שבאמת צריכים אותו.
o3 — מודל החשיבה הכבד של OpenAI (3x)
o3 מ-OpenAI הוא מודל reasoning כבד עם מכפיל 3x. הוא שונה מ-Opus — פחות טוב בכתיבת קוד ארוך ובעבודה אגנטית, אבל מצטיין בפתרון בעיות לוגיות מורכבות, אלגוריתמים ברמת LeetCode Hard, ואתגרי תכנות שדורשים "חשיבת שלבים".
מתי o3 ולא Opus? אם המשימה היא "כתוב לי מערכת שלמה" — Opus. אם המשימה היא "פתור לי את הבעיה הלוגית הזו" — o3. הם משלימים זה את זה, לא מתחרים.
Claude Opus 4.6 fast — מכפיל ~30x (כן, שלושים)
כן, קראתם נכון. 30 קרדיטים על אינטראקציה אחת. בואו נחשב: 300 הקרדיטים החודשיים שלכם מספיקים ל-10 אינטראקציות בסך הכל. 10 שאלות בחודש שלם. אחריהן אתם על 0x מודלים או משלמים חריגה של $1.20 (כ-4.50 ש"ח) על כל שאלה.
Opus fast נותן את אותה איכות של Opus 4.6 הרגיל — אבל עם זמן תגובה מהיר יותר (שניות ספורות במקום 5-10 שניות). ההבדל: פי 10 במחיר.
המסקנה צריכה להיות ברורה: כמעט אף פעם לא כדאי להשתמש ב-Opus fast. ההבדל של כמה שניות בזמן תגובה לא מצדיק 30x. אם אתם צריכים Opus — פשוט המתינו 5-10 שניות יותר ושלמו 3x במקום 30x. אם ה-10 שניות האלה קריטיות לכם — כנראה יש בעיה אחרת בתהליך העבודה שלכם.
היוצא מן הכלל: אם אתם על Pro+ עם 1,500 קרדיטים ובאמצע debugging session קריטי שכל שנייה חשובה (production down, למשל) — שם 30x על כמה שאלות יכול להיות מוצדק. אבל זו בהגדרה סיטואציה נדירה.
חשבו על 3 משימות שעשיתם השבוע ב-Copilot. לכמה מהן באמת הייתם צריכים Opus? רשמו: _____ מתוך 3. (רמז: אם התשובה היא 0, אתם בסדר גמור עם GPT-4.1 ו-Sonnet).
רמות חשיבה: Low, Medium, High, x-High
הנה פיצ'ר שרוב המפתחים לא מכירים — ושמי שמכיר אותו לפעמים מבין אותו לא נכון: אפשר לשלוט בכמה עמוק המודל חושב לפני שעונה. והדבר הכי חשוב: זה לא משנה את העלות.
קראתם נכון. Low, Medium, High ו-x-High — אותם קרדיטים פרימיום. אפס הבדל בעלות. ההבדל היחיד הוא כמה thinking tokens המודל מקצה לנתח את הבעיה לפני שהוא מתחיל לענות, מה שמשפיע על זמן התגובה.
Reasoning Effort (רמת חשיבה) נוסף ב-VS Code גרסה 1.113 (מרץ 2026). ברירת המחדל היא Medium. ארבע הרמות:
הנקודה הקריטית: רמת חשיבה גבוהה לא עולה יותר. אותם קרדיטים פרימיום, אותו מכפיל. ההבדל היחיד הוא זמן — High ייקח יותר שניות מ-Low. לכן:
- Low: השלמות מהירות, שאלות syntax, כשמהירות חשובה יותר מדיוק
- Medium: ברירת מחדל סבירה לרוב העבודה
- High: משימות מורכבות שכדאי שהמודל יחשוב עליהן — ובגלל שזה חינמי, זו ברירת המחדל המומלצת
- x-High: זמין רק ב-GPT-5.4 ו-GPT-5.3-Codex. צריך להגדיר ב-settings.json. מתאים לאתגרי תכנות ברמה של LeetCode Hard
אז למה ברירת המחדל היא Medium ולא High?
כי המהירות חשובה. ברמת Low, מודל כמו GPT-4.1 יענה תוך שנייה. ברמת High, אותו מודל עשוי לקחת 3-5 שניות. לחלק מהמפתחים, ההשלמה המהירה חשובה יותר מעומק החשיבה — במיוחד ל-autocomplete ולשאלות מהירות. אבל לרוב המשימות? ההמתנה של כמה שניות שווה את העומק.
ההמלצה שלנו: הגדירו את ברירת המחדל ל-High. לרוב, ההפרש בזמן לא מורגש, ואיכות התשובות משתפרת. אם יש משימה שבה מהירות קריטית (כמו autocomplete בזמן כתיבה) — Copilot ישתמש ברמה שמתאימה לפיצ'ר הספציפי.
איך לשנות רמת חשיבה:
ב-VS Code, פתחו את settings.json (Ctrl+Shift+P → "Open User Settings JSON") והוסיפו:
{
"github.copilot.chat.reasoningEffort": "high"
}
לשימוש ב-x-High (זמין רק ל-GPT-5.4 ו-GPT-5.3-Codex):
{
"github.copilot.chat.reasoningEffort": "xhigh"
}
חשוב: רמת החשיבה חלה על הצ'אט בלבד — לא על autocomplete. ה-autocomplete תמיד עובד ברמה שמותאמת למהירות כי שם כל מילישנייה חשובה.
שנו את reasoningEffort ל-"high" ב-settings.json ושלחו פרומפט מורכב: "Design a rate limiting system for a multi-tenant SaaS API". השוו את התגובה למה שקיבלתם ב-Medium (ברירת המחדל). שימו לב שהעלות זהה.
מה קורה: מפתחים משאירים את ברירת המחדל על Medium כי הם חוששים ש-High יצרוך יותר קרדיטים.
למה זה מפתה: אינטואיטיבית, "יותר חשיבה" נשמע כמו "יותר יקר".
מה לעשות במקום: שנו את ברירת המחדל ל-High. בגלל שהעלות זהה לחלוטין, אין סיבה לא לתת למודל לחשוב יותר. ההבדל היחיד: כמה שניות נוספות של המתנה.
בחירת מודל אוטומטית (Auto) והנחת 10%
אחד הפיצ'רים החכמים ביותר שנוספו ל-Copilot ב-2025. מדצמבר 2025, Copilot מציע אפשרות שנקראת Auto Model Selection (בחירת מודל אוטומטית). הרעיון פשוט: במקום שתבחרו מודל בעצמכם לכל פרומפט — Copilot מנתח את השאלה ובוחר את המודל הכי מתאים מתוך בריכה של מודלים. וגם — נותן לכם הנחה על זה.
איך Auto עובד:
- אתם שולחים פרומפט
- Copilot מנתח את הפרומפט ובוחר מודל מתוך הבריכה (GPT-5, GPT-5 mini, GPT-4.1, Claude Sonnet 4.5, Haiku 4.5 ועוד)
- התגובה מגיעה עם אינדיקציה איזה מודל נבחר (רחפו עם העכבר על התגובה)
הבונוס הגדול: הנחת 10%
כשאתם משתמשים ב-Auto, כל מודל מקבל הנחה של 10% על המכפיל. למשל:
| מודל | מכפיל רגיל | מכפיל עם Auto | חיסכון |
|---|---|---|---|
| Claude Sonnet 4 | 1x | 0.9x | 10% |
| Gemini Pro | 1x | 0.9x | 10% |
| Claude Opus 4.6 | 3x | 2.7x | 10% |
| GPT-4.1 | 0x | 0x | — |
בקצרה: אם אתם לא יודעים איזה מודל לבחור — בחרו Auto. אתם מקבלים מודל מותאם + 10% הנחה. זו ברירת המחדל המומלצת לרוב המפתחים.
איך להפעיל: בבורר המודלים (תחתית הצ'אט), בחרו "Auto" כמודל. זמין ב-VS Code, JetBrains IDEs, Visual Studio ו-GitHub.com.
מתי לדרוס את Auto ולבחור ידנית:
- אתם יודעים שצריכים Opus — משימה מורכבת שדורשת את הכבד. Auto לא תמיד יבחר את המודל הכי יקר
- פרטיות קריטית — אם אתם רוצים Grok בגלל Zero Data Retention, תבחרו אותו ידנית. Auto לא יבחר Grok
- מהירות קריטית — אם אתם צריכים תגובה מיידית, GPT-4.1 הוא המהיר ביותר. Auto עשוי לבחור מודל איטי יותר
- השוואת מודלים — כשאתם בודקים איזה מודל עובד הכי טוב למשימה מסוימת, אתם צריכים לבחור ידנית
- אלגוריתמים — אם אתם יודעים ש-Gemini Pro חזק באלגוריתמים, בחרו אותו ידנית
טיפ: עבדו עם Auto 90% מהזמן. ב-10% האחרים — כשאתם יודעים בדיוק איזה מודל אתם צריכים — החליפו ידנית. אחרי כמה שבועות של עבודה כזו, תפתחו אינטואיציה מתי Auto מספיק ומתי צריך להתערב.
הפעילו Auto בבורר המודלים. שלחו 3 פרומפטים שונים: (1) שאלת syntax פשוטה, (2) בקשה לרפקטורינג, (3) בקשה לתכנון ארכיטקטורה. אחרי כל תגובה, רחפו עם העכבר וראו איזה מודל נבחר לכל אחד.
Premium Requests מתאפסים ב-1 בכל חודש ב-00:00 UTC. מה שלא השתמשתם בו לא עובר לחודש הבא. אם ב-28 לחודש נשארו לכם 150 קרדיטים — הם ייעלמו. אין סיבה "לחסוך" לסוף החודש.
בורר המודלים — החלפת מודל באמצע שיחה
אחד הפיצ'רים השימושיים ביותר ב-Copilot, ואחד שמשנה את כל תהליך העבודה: אפשר להחליף מודל באמצע שיחה בלי לאבד את ההקשר. זה אומר שהשיחה שלכם — כולל כל הקוד שהדבקתם, כל ההסברים שנתתם, וכל התגובות הקודמות — נשמרת כשמחליפים מודל.
זה מאפשר אסטרטגיית Escalation Ladder שדיברנו עליה: התחילו עם GPT-4.1 החינמי לחקירה ראשונית. אם התשובה לא מספקת — שדרגו ל-Sonnet. ואם גם Sonnet לא מספיק — שדרגו ל-Opus. בכל שלב המודל החדש רואה את כל ההיסטוריה של השיחה.
ב-VS Code — הדרך הנפוצה:
- בתחתית חלון Copilot Chat, תראו את שם המודל הנוכחי (למשל "GPT-4.1" או "Auto")
- לחצו על שם המודל — ייפתח תפריט נפתח עם כל המודלים הזמינים
- בחרו מודל חדש מהרשימה
- ההודעה הבאה שלכם תשתמש במודל החדש — עם כל ההקשר של השיחה עד עכשיו
מה זה נראה בפועל: נניח ששלחתם 5 הודעות ל-GPT-4.1, הדבקתם קוד, קיבלתם הצעה ראשונית. עכשיו אתם מחליפים ל-Claude Sonnet. Sonnet "קורא" את כל 5 ההודעות הקודמות ומגיב מתוך אותו הקשר — אבל עם היכולות שלו. זה כאילו החלפתם יועץ באמצע ישיבה, אבל היועץ החדש שמע את כל מה שנאמר קודם.
טריק מתקדם — Retry עם מודל אחר:
קיבלתם תשובה לא מספקת? יש דרך אלגנטית לנסות שוב: לחצו על אייקון ה-Retry (חץ מעגלי) מתחת לתגובה. Copilot ישלח את אותו פרומפט בדיוק למודל שבחרתם כרגע. דרך מצוינת להשוות מודלים על אותו פרומפט בלי לכתוב מחדש. שימו לב: התגובה הקודמת נעלמת ומוחלפת בתגובה החדשה.
דוגמה מעשית: שלחתם פרומפט לרפקטורינג ל-GPT-4.1. התוצאה בסדר אבל לא מספיק מפורטת. במקום לשכתב את הפרומפט — פשוט החליפו ל-Claude Sonnet ולחצו Retry. אותו פרומפט, מודל חזק יותר, תוצאה טובה יותר — ושילמתם רק על הפרומפט שנתן תוצאה טובה.
ב-Copilot CLI:
ב-Copilot CLI, השתמשו בפקודה /model כדי להחליף מודל באמצע סשן. המודל הנוכחי מוצג מעל תיבת הקלט כדי שתדעו תמיד מה עובד. פקודת /model בלי שם מודל מראה את הרשימה המלאה.
ב-GitHub.com:
גם בצ'אט של Copilot ב-GitHub.com (github.com/copilot) יש בורר מודלים. שימושי במיוחד כשאתם עובדים ישירות ב-browser — למשל כשאתם עושים Code Review ל-PR ורוצים לשאול שאלה מודל מסוים על הקוד.
זמינות:
בורר המודלים זמין ב-VS Code, Visual Studio, JetBrains IDEs (IntelliJ, PyCharm, WebStorm ועוד), GitHub.com Chat, וב-Copilot CLI. שינוי מודל לא דורש הגדרה מיוחדת — זה זמין מהרגע שיש לכם מנוי בתשלום.
התחילו שיחה עם GPT-4.1 ושאלו שאלה כללית על הפרויקט שלכם. אחרי התשובה, החליפו ל-Claude Sonnet ושאלו שאלה המשך. שימו לב: הוא ממשיך מאותו הקשר, למרות שהמודל השתנה.
תוכניות Copilot — מה מקבלים בכל רמה
לפני שנגיע לחישובי עלויות, צריך להבין את הנוף המלא של תוכניות Copilot. יש 5 רמות, וההבדל ביניהן הוא בעיקר בכמות הקרדיטים הפרימיום ובגישה למודלים:
| תוכנית | מחיר | בש"ח (בערך) | קרדיטים פרימיום | מודלים מתקדמים |
|---|---|---|---|---|
| Free | $0 | — | 50/חודש | מוגבלים |
| Pro | $10/חודש | ~37 ש"ח | 300/חודש | רוב המודלים |
| Pro+ | $39/חודש | ~144 ש"ח | 1,500/חודש | כל המודלים כולל Opus ו-o3 |
| Business | $19/user/חודש | ~70 ש"ח | 300/user/חודש | כל המודלים + ניהול ארגוני |
| Enterprise | $39/user/חודש | ~144 ש"ח | 1,000/user/חודש | כל המודלים + אבטחה מתקדמת |
הנקודה החשובה: Pro ($10/חודש) עם 300 קרדיטים הוא נקודת ההתחלה לרוב המפתחים. הרבה מפתחים שחושבים שהם צריכים Pro+ מגלים שעם אסטרטגיה חכמה של שימוש ב-0x מודלים, 300 קרדיטים מספיקים בשופי. הנחת הפרק הזה: אתם על Pro ומנהלים 300 קרדיטים.
הקשר ישראלי — המספרים בפרספקטיבה:
בואו נשים את המחירים בהקשר. מפתח ישראלי שמרוויח 35,000 ש"ח ברוטו בחודש, עובד 22 ימים, שווי שעת עבודה שלו הוא כ-200 ש"ח. אם Copilot Pro (37 ש"ח/חודש) חוסך לו חצי שעה ביום — זה חיסכון של 100 ש"ח ביום, 2,200 ש"ח בחודש. ROI של פי 59. גם Pro+ ב-144 ש"ח/חודש מחזיר את עצמו אם חוסך 45 דקות בחודש. המספרים מדברים בעד עצמם.
טיפ לשנתי: אם אתם משלמים שנתי במקום חודשי, Pro יורד ל-$8.33/חודש ($100/שנה) — חיסכון של 17%. בש"ח זה בערך 370 ש"ח לשנה, שזה כ-31 ש"ח לחודש. עבור כלי שחוסך שעות עבודה ביום — זה כמעט בחינם.
Pro מול Pro+ — מתי כל אחד:
רוב המפתחים הפרטיים ירגישו נוח עם Pro. עם אסטרטגיית שימוש חכמה (שנלמד בהמשך הפרק), 300 קרדיטים מספיקים בשופי. Pro+ ($39/חודש) מתאים למי שמשתמש ב-Copilot באופן אינטנסיבי כל היום, צריך Opus באופן קבוע, או רוצה גישה מלאה לכל המודלים המתקדמים כולל o3. ההפרש: פי 3.9 במחיר תמורת פי 5 בקרדיטים — שיפור יחסי של 28%.
למפתחים בחברה: אם אתם עובדים בחברה, שימו לב שתוכניות Business ו-Enterprise מנוהלות על ידי ה-org admin. הקרדיטים מוקצים per user, ויש ניהול מרכזי של policies — כולל אילו מודלים מותרים ואילו חסומים. אם אתם לא רואים מודל מסוים ברשימה — ייתכן שה-admin חסם אותו.
בדקו באיזו תוכנית אתם כרגע: github.com → Settings → Billing and plans → Plans. מה רשום? ___. כמה קרדיטים יש לכם? ___
חישוב עלויות: כמה באמת עולה שיחה
עכשיו שאתם מכירים את כל המודלים ואת התוכניות, הגיע הזמן לעשות מתמטיקה. הנוסחה פשוטה:
Premium Requests Used = Number of Interactions × Model Multiplier
בואו נחשב 3 תרחישים אמיתיים:
מה קורה כשהקרדיטים נגמרים?
אל פאניקה. אתם לא ננעלים מ-Copilot. יש שני מסלולים:
מסלול 1 — בלי תקציב חריגה: אתם חוזרים למודלים החינמיים בלבד (GPT-4.1, GPT-4o, GPT-5 mini, Grok) עד ה-1 לחודש הבא כשהמכסה מתאפסת. Copilot Chat עדיין עובד, autocomplete עדיין עובד — פשוט אי אפשר לבחור Sonnet, Opus, או מודלים בתשלום.
מסלול 2 — עם תקציב חריגה (Overage Budget): אם הגדרתם תקציב חריגה בהגדרות GitHub, תוכלו להמשיך להשתמש בכל המודלים. כל קרדיט נוסף מעל 300 עולה $0.04 (כ-0.15 ש"ח). אם השתמשתם ב-350 קרדיטים בחודש — החריגה היא 50 × $0.04 = $2 (כ-7.4 ש"ח).
איך להגדיר תקציב חריגה: github.com → Settings → Billing and plans → Spending limits → Copilot. הגדירו סכום מקסימלי שאתם מוכנים לשלם מעבר למנוי הבסיסי. מומלץ להגדיר $5-10 (כ-18-37 ש"ח) כרשת ביטחון — מספיק ל-125-250 קרדיטים נוספים.
🏋️ תרגיל 1: חישוב עלות יום עבודה (15 דקות)
בנו טבלת עלויות ליום עבודה טיפוסי שלכם:
- פתחו גיליון אלקטרוני או מסמך חדש
- חשבו על יום עבודה טיפוסי שלכם — כמה פעמים אתם מדברים עם Copilot?
- חלקו את האינטראקציות לקטגוריות: שאלות מהירות, דיבאגינג, רפקטורינג, כתיבת קוד חדש
- לכל קטגוריה — בחרו את המודל שהייתם משתמשים בו ורשמו את המכפיל
- חשבו: מספר אינטראקציות × מכפיל = קרדיטים
- סכמו את הכל — כמה קרדיטים ליום? כפלו ב-22 ימי עבודה — עוברים את 300?
תוצאה צפויה: טבלה עם 4-5 שורות (קטגוריה, מודל, מכפיל, אינטראקציות ליום, קרדיטים), ושורת סיכום של סה"כ קרדיטים חודשיים.
אסטרטגיית 300 קרדיטים — התוכנית החודשית
300 קרדיטים בחודש נשמעים כמו הרבה — אבל עם מכפילים של 3x, הם נגמרים מהר. בואו נבנה אסטרטגיה חכמה.
תקציב יומי: ~14 קרדיטים
300 חלקי 22 ימי עבודה = כ-14 קרדיטים ליום. ככה נראית חלוקה חכמה:
| סוג משימה | מודל מומלץ | מכפיל | כמות יומית | קרדיטים |
|---|---|---|---|---|
| שאלות מהירות, syntax, autocomplete | GPT-4.1 | 0x | 20+ | 0 |
| דיבאגינג רגיל, code review | GPT-5 mini | 0x | 5-10 | 0 |
| רפקטורינג, כתיבת פיצ'רים, עבודה אגנטית | Claude Sonnet (Auto) | 0.9x | 10 | 9 |
| משימות מהירות בינוניות | Haiku / Flash | 0.25x | 8 | 2 |
| ארכיטקטורה מורכבת, דיבאגינג קשה | Claude Opus | 3x | 1 | 3 |
| סה"כ ליום | 14 קרדיטים | |||
| סה"כ לחודש (22 ימים) | 308 קרדיטים | |||
שימו לב: ברוב הימים תשתמשו בפחות. Opus לא נדרש כל יום, ולרוב GPT-4.1 או GPT-5 mini מספיקים. האסטרטגיה הזו היא תקרה, לא ממוצע.
5 טיפים לחיסכון בקרדיטים
- "Escalation Ladder" — תמיד התחילו מהמודל הזול ביותר. GPT-4.1 → GPT-5 mini → Sonnet → Opus. עלו רק כשצריך.
- פרומפטים מדויקים חוסכים כסף — פרומפט מעורפל ל-Opus יגרום ל-3 סבבי follow-up (9 קרדיטים). פרומפט מדויק ל-Sonnet מסיים בפעם הראשונה (קרדיט אחד).
- שבוע שקט = הזדמנות לניסויים — יש לכם שבוע עם פחות עבודה? נצלו את הקרדיטים שנשארו לנסות מודלים חדשים ולעדכן את טבלת ההשוואה.
- Agent Mode צורך יותר — ב-Agent Mode (שלמדנו בפרק 1), Copilot שולח כמה אינטראקציות ברקע. סשן אחד ב-Agent Mode עם Sonnet יכול לצרוך 5-10 קרדיטים. עם Opus זה 15-30.
- סוף החודש? בזבזו — קרדיטים לא מצטברים. אם ב-28 לחודש יש לכם 80 קרדיטים — השתמשו בהם. הם ייעלמו בלאו הכי.
🧭 מסגרת החלטה: איזה מודל לבחור לפי סוג המשימה
| סוג משימה | מודל ראשון | שדרוג אם לא מספק | עלות |
|---|---|---|---|
| שאלה מהירה / syntax | GPT-4.1 | GPT-5 mini | 0x |
| דיבאגינג | GPT-4.1 | Claude Sonnet | 0x → 1x |
| רפקטורינג | Claude Sonnet | Claude Opus | 1x → 3x |
| כתיבת פיצ'ר חדש | Claude Sonnet | Claude Opus | 1x → 3x |
| Code Review | GPT-4.1 | Claude Sonnet | 0x → 1x |
| ארכיטקטורה | Claude Opus | — | 3x |
| אלגוריתם / מתמטיקה | Gemini Pro | o3 | 1x → 3x |
| קוד רגיש / פרטיות | Grok | — | 0x |
העיקרון: תמיד התחילו מהמודל הזול ביותר שיכול לפתור את המשימה. שדרגו רק אם התוצאה לא מספקת.
🧭 מסגרת החלטה: מתי לשדרג מ-Pro ל-Pro+?
חישוב פשוט — נקודת האיזון:
- Pro = $10/חודש + 300 קרדיטים. חריגה: $0.04 לקרדיט.
- Pro+ = $39/חודש + 1,500 קרדיטים.
- נקודת האיזון: ($39 - $10) ÷ $0.04 = 725 קרדיטים חריגה. כלומר: אם אתם צורכים יותר מ-1,025 קרדיטים בחודש (300 + 725), Pro+ זול יותר.
| צורכים עד 300/חודש | ← Pro מספיק |
| צורכים 300-1,025/חודש | ← Pro + חריגה זול יותר מ-Pro+ |
| צורכים מעל 1,025/חודש | ← Pro+ משתלם יותר |
היכנסו להגדרות GitHub שלכם (github.com → Settings → Billing) ובדקו כמה Premium Requests השתמשתם החודש. מה אחוז הניצול? ____%
🏋️ תרגיל 2: תוכנית 300 קרדיטים — התקציב החודשי (20 דקות)
בנו תוכנית חלוקה חודשית מותאמת אישית:
- צרו טבלה עם עמודות: סוג משימה, תדירות יומית, מודל נבחר, מכפיל, קרדיטים ליום
- רשמו 5-7 סוגי משימות שאתם עושים עם Copilot באופן קבוע
- לכל משימה — בחרו מודל מומלץ (התחילו מהזול ביותר שמספיק)
- חשבו את הסכום היומי
- כפלו ב-22 ימי עבודה
- אם עוברים 300 — חפשו משימות שאפשר להוריד למודל זול יותר
- החליטו: Pro מספיק, או שצריך Pro+ או תקציב חריגה?
תוצאה צפויה: תוכנית חודשית מפורטת עם סה"כ קרדיטים ותקציב בש"ח.
השוואה מעשית: אותו פרומפט ב-5 מודלים
תיאוריה זה נחמד, אבל השאלה האמיתית היא: כמה גדול ההבדל בפועל? האם Sonnet באמת שווה קרדיט כשיש GPT-4.1 בחינם? האם Opus מצדיק פי 3? התשובה משתנה לפי סוג המשימה — ולכן הדרך הכי טובה ללמוד היא לנסות בעצמכם.
בסקציה הזו תשלחו אותו פרומפט בדיוק ל-5 מודלים שונים ותשוו את התוצאות. זה התרגיל הכי חשוב בפרק — כי הוא הופך ידע תיאורטי לאינטואיציה אישית.
פרומפט ההשוואה המומלץ:
Refactor this function to handle errors properly, add TypeScript types,
and make it testable with dependency injection. Explain your decisions.
function getData(url) {
const res = fetch(url);
const data = res.json();
return data.items.filter(i => i.active);
}
שלחו את הפרומפט הזה ל-5 מודלים ומלאו את הטבלה:
| קריטריון | GPT-4.1 | GPT-5 mini | Claude Sonnet | Gemini Pro | Claude Opus |
|---|---|---|---|---|---|
| מכפיל | 0x | 0x | 1x | 1x | 3x |
| זמן תגובה | ___ שניות | ___ שניות | ___ שניות | ___ שניות | ___ שניות |
| אורך תגובה | ___ | ___ | ___ | ___ | ___ |
| טיפול בשגיאות | __/5 | __/5 | __/5 | __/5 | __/5 |
| TypeScript Types | __/5 | __/5 | __/5 | __/5 | __/5 |
| DI Pattern | __/5 | __/5 | __/5 | __/5 | __/5 |
| הסבר ההחלטות | __/5 | __/5 | __/5 | __/5 | __/5 |
| ציון כולל | __/20 | __/20 | __/20 | __/20 | __/20 |
מה צפוי לקרות (דוגמאות מייצגות — התוצאות שלכם עשויות להשתנות):
GPT-4.1 (0x): תגובה תוך 2-3 שניות. הקוד יהיה תקין — יוסיף async/await, try/catch בסיסי, ו-TypeScript types. ההסברים יהיו קצרים וענייניים. ה-DI pattern יהיה פשוט — injection דרך פרמטר. מספיק ל-80% מהמקרים, ובחינם.
GPT-5 mini (0x): יקח 4-6 שניות (thinking time). לפעמים יזהה edge cases ש-GPT-4.1 מפספס — למשל שצריך לטפל גם ב-network timeout ולא רק ב-HTTP errors. ההסברים יהיו מפורטים יותר עם reasoning chain.
Claude Sonnet (1x): זמן תגובה 3-5 שניות. הקוד יהיה מסודר יותר — types מדויקים יותר עם generics, error handling מקיף עם custom error classes, DI pattern מתוחכם עם interface ו-factory. ההסברים יסבירו למה כל החלטה נעשתה. שווה את ה-1x במיוחד לרפקטורינג.
Gemini Pro (1x): גישה שונה לפיתרון — לפעמים יציע ארכיטקטורה שלא חשבתם עליה. חזק בהצעת pattern alternatives. לפעמים הקוד פחות "נקי" מ-Sonnet, אבל הרעיונות מעניינים יותר.
Claude Opus (3x): הכי איטי (5-10 שניות), אבל ההסברים העמוקים ביותר. הקוד יכלול error handling מושלם, types מתקדמים, DI עם container pattern, וכנראה גם יציע חלוקה ל-modules. עולה פי 3 מ-Sonnet — שווה רק כשהמשימה מורכבת באמת.
המסקנה הצפויה: ברוב המקרים, Sonnet הוא ה-sweet spot — 1x מול 0x נותן שדרוג משמעותי באיכות. ההפרש בין Sonnet ל-Opus (1x מול 3x) קטן בהרבה מההפרש בין GPT-4.1 ל-Sonnet (0x מול 1x). זו תובנה קריטית לניהול התקציב.
בחרו 2 מודלים מהטבלה למעלה ושלחו את אותו פרומפט. אם אין לכם זמן ל-5 — 2 מספיקים כדי לראות את ההבדל. רשמו איזה מודל "ניצח": ______
🧭 מסגרת החלטה: Auto Selection או בחירה ידנית?
| רוב העבודה היומית | ← Auto (חוסך 10%, בוחר מודל מתאים) |
| משימה מורכבת ספציפית | ← ידני: Claude Opus (כשאתם יודעים שצריך עומק) |
| קוד רגיש / פרטי | ← ידני: Grok (Zero Data Retention) |
| מהירות קריטית | ← ידני: GPT-4.1 (הכי מהיר, חינמי) |
| אלגוריתמים / מתמטיקה | ← ידני: Gemini Pro או o3 |
🏋️ תרגיל 3: השוואת 5 מודלים — טבלת השוואה אישית (25 דקות)
בנו טבלת השוואה אישית מלאה:
- בחרו פרומפט מתוך העבודה האמיתית שלכם (לא את הדוגמה למעלה)
- שלחו אותו ל-GPT-4.1 ורשמו: זמן, איכות (1-5), הסבר (1-5)
- שלחו ל-GPT-5 mini — אותם קריטריונים
- שלחו ל-Claude Sonnet — אותם קריטריונים
- שלחו ל-Gemini Pro — אותם קריטריונים
- שלחו ל-Claude Opus — אותם קריטריונים
- דרגו: איכות/מחיר — איזה מודל נותן הכי הרבה ערך לכל קרדיט
- מסקנה: מהו מודל ברירת המחדל שלכם לסוג המשימה הזה?
תוצאה צפויה: טבלת השוואה אישית עם 5 מודלים, ציונים, ומסקנה — איזה מודל לאיזו משימה.
🏋️ תרגיל 4: בניית אסטרטגיית מודלים לפרויקט אישי (15 דקות)
בנו מסמך אסטרטגיה מותאם לפרויקט שלכם:
- בחרו פרויקט אמיתי שאתם עובדים עליו כרגע
- רשמו 5-6 סוגי משימות שאתם עושים בפרויקט הזה (debugging, testing, new features, reviews, docs, architecture)
- לכל משימה — בחרו מודל ראשי (Primary) ומודל גיבוי (Escalation)
- החליטו על רמת חשיבה (Reasoning Effort) ברירת מחדל — Low, Medium, High?
- קבעו כלל: Auto כברירת מחדל? מתי עוברים לידני?
- חשבו את התקציב החודשי הצפוי בקרדיטים על סמך הניסיון מתרגיל 1
תוצאה צפויה: מסמך אסטרטגיה של חצי עמוד — מודל לכל משימה, תקציב, וכללי שימוש. שמרו אותו — תשתמשו בו כל חודש.
סיכום ביניים — מה למדנו עד כאן:
בפרק הזה כיסינו הרבה קרקע. בואו נוודא שהכל ברור לפני שממשיכים לסגירה:
- 4 שכבות עלות: חינם (0x), ביניים (0.25x-1x), פרימיום (3x), ויקר מאוד (30x)
- 4 מודלים חינמיים: GPT-4.1 (ברירת מחדל), GPT-4o (תמונות), GPT-5 mini (חשיבה קלה), Grok (פרטיות)
- Sweet spot: Claude Sonnet 4.6 ב-1x — המודל הטוב ביותר ליחס איכות/מחיר
- Auto Selection: 10% הנחה + מודל מותאם אוטומטית
- Reasoning Effort: אותה עלות, חשיבה עמוקה יותר. הגדירו ל-High
- Escalation Ladder: GPT-4.1 → GPT-5 mini → Sonnet → Opus
- 300 קרדיטים: ~14 ליום, מתאפסים ב-1 לחודש, לא מצטברים
- חריגה: $0.04/קרדיט. מעל 1,025 קרדיטים — שדרגו ל-Pro+
ודאו ש-Auto Selection מופעל כברירת מחדל ושרמת החשיבה מוגדרת ל-High. שתי ההגדרות האלה לבדן ישפרו את איכות התוצאות ויחסכו 10%.
📊 דוגמה מייצגת: יום בחיי מפתח עם אסטרטגיית מודלים
נעקוב אחרי יום עבודה טיפוסי של דניאל, מפתח Full-Stack בסטארטאפ ישראלי, על תוכנית Copilot Pro (300 קרדיטים/חודש):
09:00 — בוקר, code review (GPT-4.1, חינם)
דניאל פותח PR של חבר לצוות. משתמש ב-GPT-4.1 לעבור על 3 קבצים, שואל "מה הפונקציה הזו עושה?" ו-"יש כאן race condition?". 5 אינטראקציות, 0 קרדיטים.
10:00 — debugging session (GPT-4.1 → Sonnet)
באג ב-authentication flow. מתחיל עם GPT-4.1 — "הנה הלוג, מה הבעיה?". GPT-4.1 מזהה שיש null reference אבל לא את הגורם השורשי. מחליף ל-Claude Sonnet ומדביק את כל ה-flow (3 קבצים). Sonnet מזהה שהבעיה ב-middleware שלא מעביר את ה-session. 3 אינטראקציות GPT-4.1 (0 קרדיטים) + 2 Sonnet (2 קרדיטים).
11:30 — פיצ'ר חדש (Claude Sonnet, Auto)
דניאל כותב payment integration חדש. מפעיל Auto Selection (הנחה 10%) ועובד ב-Agent Mode. Copilot בוחר Sonnet, יוצר 4 קבצים, כותב types, מוסיף error handling. 8 אינטראקציות ב-Agent Mode, כ-7.2 קרדיטים (8 × 0.9x).
14:00 — ארכיטקטורה (Claude Opus)
דניאל צריך לתכנן מערכת notifications חדשה. זו משימה שדורשת חשיבה עמוקה — Pub/Sub או WebSocket? מבנה הנתונים? Scaling strategy? מחליף ל-Opus. 2 אינטראקציות (6 קרדיטים). מקבל תכנון מפורט עם trade-offs ודיאגרמה.
16:00 — טסטים ותיעוד (GPT-4.1 + GPT-5 mini, חינם)
כותב unit tests עם GPT-4.1 (מהיר, מדויק לטסטים). משתמש ב-GPT-5 mini לתיעוד (צריך חשיבה על מבנה ה-README). 10 אינטראקציות, 0 קרדיטים.
סיכום היום:
| GPT-4.1 + GPT-5 mini (0x) | 18 אינטראקציות | 0 קרדיטים |
| Claude Sonnet (Auto, 0.9x) | 10 אינטראקציות | 9 קרדיטים |
| Claude Opus (3x) | 2 אינטראקציות | 6 קרדיטים |
| סה"כ | 30 אינטראקציות | 15 קרדיטים |
15 קרדיטים ליום × 22 ימי עבודה = 330 קרדיטים בחודש. קצת מעל המכסה, אבל ברוב הימים דניאל ישתמש בפחות. ובימים שבהם אין ארכיטקטורה (הרוב), זה רק 9 קרדיטים — 198 בחודש. מספיק בשופי.
מה לומדים מדניאל:
- 60% מהאינטראקציות שלו הן עם 0x מודלים — בחינם
- הוא משתמש ב-Opus רק 1-2 פעמים ביום, ורק כשבאמת צריך
- Auto Selection עם הנחת 10% חוסך לו כ-30 קרדיטים בחודש
- הוא לא "חוסך" קרדיטים — אם סוף החודש מתקרב והמכסה לא מנוצלת, הוא משתמש ב-Opus יותר חופשי
- בשלושה חודשים שהוא עובד ככה, הוא חרג מ-300 פעם אחת — ושילם $3.20 חריגה (כ-12 ש"ח). סביר לחלוטין
💡 התובנה המרכזית של הפרק
בחירת מודל היא לא שאלה טכנית — היא שאלה כלכלית. המפתחים הטובים ביותר לא בוחרים תמיד את המודל הכי חזק. הם בוחרים את המודל הכי זול שפותר את המשימה, ומשתמשים בכסף שחסכו למשימות שבאמת צריכות Opus.
שלוש הגדרות פשוטות שמיישמות את הפרינציפ הזה:
- Auto Selection — הנחה של 10% + מודל מתאים אוטומטית
- Reasoning Effort: High — חשיבה עמוקה יותר, אותה עלות
- Default: GPT-4.1 — אינסופי ובחינם, מספיק לרוב העבודה
📅 שגרת עבודה — ניהול מודלים
הפרק הזה הוא הראשון שבו מתחילה שגרה קבועה. הטבלה הבאה מגדירה את המשימות התקופתיות לניהול מודלים וקרדיטים. בפרקים הבאים נוסיף עליה.
| תדירות | משימה |
|---|---|
| יומי | ודאו ש-Auto Selection מופעל כשאין צורך ספציפי במודל |
| השתמשו ב-GPT-4.1 למשימות שגרתיות לפני שמנסים מודל בתשלום | |
| שבועי | בדקו את מצב הקרדיטים בהגדרות GitHub |
| העריכו אם החלוקה בין מודלים עובדת — התאימו אם צריך | |
| נסו מודל חדש שלא ניסיתם על משימה ספציפית | |
| חודשי | סקרו את צריכת הקרדיטים בחודש שעבר — איפה אפשר לחסוך? |
| עדכנו את טבלת ההשוואה האישית עם מודלים חדשים שנוספו |
🎯 אם אתם עושים רק דבר אחד מהפרק הזה
הגדירו Auto Selection כברירת מחדל ורמת חשיבה High.
שתי הגדרות, שתי דקות, ושני שיפורים מיידיים: (1) Auto Selection חוסך 10% על כל אינטראקציה פרימיום ובוחר את המודל הנכון ב-90% מהמקרים. (2) Reasoning Effort: High נותן למודל לחשוב יותר באותה עלות בדיוק. אם המודל שנבחר לא מספק — אפשר תמיד לשנות ידנית באמצע שיחה. חיסכון קבוע לכל חודש, ואיכות תשובות טובה יותר מהיום הראשון.
🧠 בדקו את עצמכם — 5 שאלות
השאלות האלה בודקות הבנה, לא השלמה. ענו על 4 מתוך 5 כדי לעבור. אם נתקעים — חזרו לסקציה הרלוונטית.
-
למה GPT-4.1 הוא ברירת המחדל ולא Claude Opus שנחשב חכם יותר?
(רמז: חשבו על העלות לעומת האיכות ב-80% מהמשימות) -
איך בחירת מודל אוטומטית (Auto) חוסכת כסף?
(רמז: חשבו על ההנחה של 10% ועל הימנעות מבחירת מודל יקר מדי) -
מתי כדאי לבחור Opus (3x) במקום Sonnet (1x)?
(רמז: חשבו על סוגי משימות שדורשים חשיבה עמוקה לעומת ביצוע מהיר) -
מה ההבדל בין רמת חשיבה High לבין מודל יקר יותר?
(רמז: חשבו על עלות מול זמן — מה משתנה ומה לא) -
איך תתכננו את צריכת 300 הקרדיטים שלכם כדי לא לחרוג?
(רמז: חשבו על תקציב יומי, חלוקה לפי סוגי משימות, ושימוש ב-0x מודלים לרוב העבודה)
📋 סיכום הפרק
הפרק הזה חשף את המנגנון הכלכלי והאסטרטגי מאחורי Copilot — מודלים חינמיים שמספיקים לרוב העבודה, מודלים בתשלום שמצדיקים את עצמם רק במשימות מורכבות, ורמות חשיבה שמוסיפות עומק בלי עלות נוספת.
התובנה המרכזית: 80% מהעבודה היומית לא דורשת קרדיטים כלל. GPT-4.1, GPT-4o, GPT-5 mini ו-Grok הם חינמיים ואינסופיים. Claude Sonnet ב-1x הוא ה-sweet spot לרפקטורינג ועבודה אגנטית — וגם GitHub עצמם בחרו בו ל-Coding Agent. ו-Opus ב-3x שמור רק למשימות שבאמת צריכות חשיבה עמוקה: ארכיטקטורה, רפקטורינג מסיבי, או דיבאגינג קריטי.
האסטרטגיה שבניתם בפרק הזה מבוססת על שלושה עקרונות: (1) Escalation Ladder — תמיד להתחיל מהזול ולעלות רק כשצריך. (2) Auto Selection עם הנחת 10% — לתת ל-Copilot לבחור ולקבל הנחה. (3) Reasoning Effort: High — חשיבה עמוקה יותר באותה עלות.
עכשיו שאתם מכירים את כל המודלים ויודעים לבחור את הנכון — בפרק הבא נעבור ל-Custom Instructions. שם תלמדו איך לכוון כל מודל, גם את GPT-4.1 החינמי, לעבוד בדיוק כמו שאתם רוצים: סגנון קוד, convention-ים, דפוסי תשובה. זה הפרק שמהפך מודל "טוב" למודל "מושלם בשבילכם".
☑️ צ'קליסט — מה עשיתם בפרק הזה
עברו על הרשימה וסמנו כל פריט שהשלמתם. אם פספסתם משהו — חזרו אליו. הפריטים מסודרים לפי סדר ההופעה בפרק.
- ☐ פתחתי את בורר המודלים וראיתי את כל המודלים הזמינים
- ☐ הגדרתי Auto Selection כברירת מחדל
- ☐ שלחתי פרומפט ל-GPT-4.1 ובדקתי את התוצאה
- ☐ שלחתי את אותו פרומפט ל-Claude Sonnet והשוויתי
- ☐ שלחתי את אותו פרומפט ל-Claude Opus והשוויתי
- ☐ ניסיתי להחליף מודל באמצע שיחה
- ☐ ניסיתי את כפתור ה-Retry עם מודל אחר
- ☐ חישבתי כמה קרדיטים פרימיום צורך יום עבודה טיפוסי שלי
- ☐ בניתי טבלת השוואה אישית של לפחות 5 מודלים
- ☐ יצרתי תוכנית חלוקה חודשית ל-300 קרדיטים
- ☐ שיניתי רמת חשיבה ל-High ובדקתי את ההבדל
- ☐ בדקתי את מצב הקרדיטים שלי בהגדרות GitHub
💬 לפני שממשיכים — טיפים אחרונים
המודלים משתנים. GitHub מוסיפים מודלים חדשים כל חודש-חודשיים, ולפעמים מסירים ישנים. מחירים משתנים, מכפילים מתעדכנים, ומודלים חדשים נכנסים לבריכת Auto Selection. מה שנכון היום לגבי GPT-5.4 או Sonnet 4.6 עשוי להשתנות. לכן:
- בדקו את דף המודלים הרשמי אחת לחודש
- כשמודל חדש נוסף — נסו אותו על משימה מוכרת והשוו לטבלה שלכם
- עקבו אחרי GitHub Changelog להודעות על שינויי מחיר ומודלים
הטבלה שבניתם בתרגיל 3 היא מסמך חי. עדכנו אותה כל חודש.