פרק 3 מתוך 12

בחירת מודל — מתי GPT, מתי Claude, מתי Gemini

Copilot נותן לכם גישה ליותר מ-15 מודלים שונים מ-4 ספקים — OpenAI, Anthropic, Google, ו-xAI. חלקם בחינם ואינסופיים, חלקם עולים קרדיט אחד לאינטראקציה, חלקם 3 קרדיטים, ואחד בודד עולה 30. הפרק הזה ילמד אתכם לבחור את המודל הנכון לכל משימה, לחשב כמה זה באמת עולה בש"ח, ולבנות אסטרטגיית שימוש חכמה שמפיקה מקסימום ערך מ-300 הקרדיטים החודשיים שלכם. נלמד גם על רמות חשיבה — פיצ'ר שמשפר את איכות התשובות בחינם — ועל Auto Selection שחוסך 10% על כל אינטראקציה.

🎯 מה תקבלו בסוף הפרק

🎓 מה תדעו לעשות

📋 דרישות מקדימות

פרקים נדרשים: פרק 1 — Agent Mode (הבנת הלולאה האגנטית ומצבי העבודה)

כלים נדרשים: VS Code עם Copilot מותקן, מנוי Copilot Pro לפחות ($10/חודש, כ-37 ש"ח)

זמן משוער: 60 דקות

🧵 הפרויקט שלך

בפרק 2 למדתם להכיר את כל הכלים שבארגז — ועכשיו אתם יודעים מה Agent Mode יכול לעשות. בפרק הזה תבחרו את המוח שמפעיל את הכלים האלה — המודל הנכון למשימה הנכונה, במחיר הנכון. בפרק 4 תלמדו לכתוב Custom Instructions שמכוונים את המודל שבחרתם לעבוד בדיוק כמו שאתם רוצים.

📖 מילון מונחים

מונח (English) תרגום הסבר
Model Multiplier מכפיל מודל מספר שקובע כמה קרדיטים פרימיום נגרעים בכל אינטראקציה (0x = חינם, 1x = רגיל, 3x = פרימיום)
Premium Requests בקשות פרימיום מכסה חודשית של אינטראקציות עם מודלים מתקדמים — 300 ב-Pro, 1,500 ב-Pro+
Free Models (0x) מודלים חינמיים מודלים שלא צורכים קרדיטים פרימיום כלל: GPT-4.1, GPT-4o, GPT-5 mini, Grok
Auto Model Selection בחירת מודל אוטומטית Copilot בוחר את המודל האופטימלי בשבילכם — עם 10% הנחה על המכפיל
Reasoning Effort רמת חשיבה כמה עמוק המודל חושב: Low/Medium/High/x-High — אותה עלות, זמן תגובה שונה
Overage Pricing תמחור חריגה חריגה מהמכסה עולה $0.04 לכל בקשת פרימיום (כ-0.15 ש"ח)
Model Picker בורר המודלים תפריט נפתח בתחתית הצ'אט שמאפשר להחליף מודל — גם באמצע שיחה
Context Window חלון הקשר כמות המידע שהמודל רואה בבת אחת — משתנה בין מודלים (128K-200K tokens)
מתחיל ⏱ 10 דקות חינם מושג

מפת המודלים: מי נגד מי

כש-GitHub Copilot הושק לראשונה, היה מודל אחד — GPT. הייתם פותחים את הצ'אט, שואלים שאלה, ומקבלים תשובה. לא הייתם צריכים לחשוב איזה מודל עובד מאחורי הקלעים — כי לא הייתה ברירה.

היום? יותר מ-15 מודלים מ-4 ספקים שונים: OpenAI (GPT), Anthropic (Claude), Google (Gemini), ו-xAI (Grok). זה נשמע מרגש, אבל גם מבלבל. מפתח חדש שפותח את בורר המודלים רואה רשימה ארוכה של שמות ומספרים — ולא מבין מה ההבדל בין Claude Sonnet 4.5 ל-Claude Sonnet 4.6, או למה GPT-5 mini הוא חינמי אבל GPT-5.4 עולה קרדיט.

הפרק הזה הולך לעשות סדר. בסופו תדעו בדיוק מה כל מודל עושה, כמה הוא עולה, ומתי להשתמש בו.

המודלים ב-Copilot מחולקים ל-4 שכבות עלות, לפי מספר שנקרא Model Multiplier (מכפיל מודל). המכפיל הוא המספר שקובע כמה Premium Requests (בקשות פרימיום) נגרעות מהמכסה החודשית שלכם בכל אינטראקציה עם המודל. למשל: מודל עם מכפיל 3x אומר ש-כל שאלה שתשלחו לו צורכת 3 קרדיטים מתוך 300 הקרדיטים החודשיים שלכם.

ככל שהמכפיל גבוה יותר — המודל חזק יותר, אבל גם יקר יותר. וזה בדיוק מה שצריך להפנים: לא תמיד צריך את המודל החכם ביותר. כמו שלא צריך פרארי כדי לנסוע לסופר — GPT-4.1 החינמי מספיק ל-80% מהנסיעות היומיומיות שלכם.

בואו נסתכל על התמונה המלאה. הנה כל המודלים הזמינים, מחולקים לפי שכבת העלות:

שכבה מכפיל מודלים ספק
חינם 0x GPT-4.1, GPT-4o, GPT-5 mini, Grok Code Fast 1 OpenAI, xAI
ביניים 0.25x Claude Haiku 4.5, Gemini 3 Flash Anthropic, Google
1x Claude Sonnet 4/4.5/4.6, Gemini 2.5 Pro, Gemini 3.1 Pro, GPT-5.4, o3-mini Anthropic, Google, OpenAI
פרימיום 3x Claude Opus 4.5, Claude Opus 4.6, o3 Anthropic, OpenAI
יקר מאוד ~30x Claude Opus 4.6 fast Anthropic
פירמידת המודלים — 4 שכבות עלות 30x — יקר מאוד Claude Opus 4.6 fast 3x — פרימיום Claude Opus 4.5 / 4.6 | o3 0.25x–1x — ביניים Claude Sonnet 4/4.5/4.6 | Gemini Pro | Haiku | o3-mini GPT-5.4 | Gemini Flash 0x — חינם ואינסופי GPT-4.1 | GPT-4o | GPT-5 mini | Grok Code Fast 1 ככל שעולים בפירמידה — המודל חכם יותר אבל יקר יותר 80% מהמשימות היומיומיות נפתרות בשכבה התחתונה (0x)

בואו נפרק את הפירמידה הזו שכבה אחרי שכבה.

⚡ עשו עכשיו 2 דקות

פתחו את VS Code, לחצו על שם המודל בתחתית חלון הצ'אט (Copilot Chat). כמה מודלים אתם רואים ברשימה? רשמו את המספר: ______

⚠️ טעות נפוצה: לשרוף Opus על שאלות פשוטות

מה קורה: מפתחים בוחרים Claude Opus (3x) כברירת מחדל כי "הוא הכי חכם".

למה זה מפתה: Opus אכן נותן תשובות עמוקות ומפורטות יותר.

מה לעשות במקום: GPT-4.1 (חינם, 0x) פותר 80% מהמשימות היומיומיות. שמרו את Opus למשימות שבאמת דורשות חשיבה עמוקה — ארכיטקטורה מורכבת, רפקטורינג גדול, או דיבאגינג קשה.

מתחיל ⏱ 10 דקות חינם מושג

המודלים החינמיים (0x) — אינסופיים ובחינם

זו השכבה הכי חשובה בפירמידה. לא כי היא הכי חכמה — אלא כי היא חינמית ואינסופית. כל עוד אתם על תוכנית Pro בתשלום ($10/חודש, כ-37 ש"ח), המודלים האלה לא צורכים אף קרדיט פרימיום. אפשר להשתמש בהם 100 פעם ביום, 200 פעם ביום, 500 פעם ביום — בלי לדאוג ובלי שזה ישפיע על המכסה החודשית.

לפני שנכנסים לפרטים: אם אתם על תוכנית Copilot Free (חינם), המצב שונה. בתוכנית החינמית, כל אינטראקציה — גם עם GPT-4.1 — צורכת בקשת פרימיום, ויש לכם רק 50 בחודש. המכפיל 0x חל רק על תוכניות בתשלום (Pro ומעלה).

GPT-4.1 — ברירת המחדל והסוס הראשי

GPT-4.1 הפך לברירת המחדל של Copilot במאי 2025, ולא בכדי. הוא מהיר, אמין, ומותאם ספציפית לעבודה עם קוד. GitHub עבדו עם OpenAI על fine-tuning שמיועד לתרחישי פיתוח — מה שאומר שהתגובות שלו מדויקות יותר לקוד מאשר של ChatGPT הרגיל. כש-Copilot Chat נפתח — זה המודל שעובד מאחורי הקלעים, וזה המודל שיטפל בכל ההשלמות האוטומטיות שלכם.

חשוב להבין: GPT-4.1 הוא לא מודל "חלש". הוא תומך ביותר מ-30 שפות תכנות, מבין הקשר של פרויקט שלם (context window של 128K tokens — כ-100,000 מילים), ומגיב תוך שנייה-שתיים. לרוב המפתחים, ברוב הזמן, הוא כל מה שצריך.

מתי GPT-4.1 מספיק (ומתי הוא אפילו הבחירה הטובה ביותר):

מתי GPT-4.1 לא מספיק:

GPT-4o — מולטימודאלי

GPT-4o הוא גרסה מולטימודאלית של GPT-4 — הוא תומך בקלט חזותי. זה אומר שאתם יכולים להעלות לו צילומי מסך, דיאגרמות, או תמונות של UI ולשאול עליהם שאלות. למשל: "הנה צילום מסך של הבאג — מה הבעיה?" או "הנה ה-wireframe — תבנה לי את ה-component הזה". חינמי לחלוטין במנוי Pro, וייחודי ביכולת שלו לעבוד עם תמונות.

GPT-5 mini — חשיבה קלה בחינם

GPT-5 mini הוא מודל reasoning קליל שנוסף לאוגוסט 2025. הייחוד שלו: הוא יודע "לחשוב" — לנתח בעיה לפני שעונה — אבל במכפיל 0x. זה אומר שאתם מקבלים יכולת חשיבה בסיסית בחינם.

מה ההבדל בין GPT-4.1 ל-GPT-5 mini? GPT-4.1 עונה מיד — הוא מייצר טקסט בזרימה רציפה. GPT-5 mini קודם "חושב" (מקצה thinking tokens לניתוח הבעיה) ורק אז עונה. התוצאה: התגובה לוקחת קצת יותר זמן, אבל לפעמים מדויקת יותר במשימות שדורשות הסקת מסקנות.

מתי GPT-5 mini עדיף על GPT-4.1:

טיפ: אם אתם לא בטוחים אם GPT-4.1 מספיק — נסו קודם אותו (חינמי). אם התשובה לא מספקת, נסו GPT-5 mini (גם חינמי). רק אם שניהם לא מספיקים — שקלו לעלות ל-Sonnet (1x).

Grok Code Fast 1 — פרטיות מוחלטת

Grok Code Fast 1 מבית xAI פועל תחת מדיניות Zero Data Retention (אפס שמירת מידע) — אף מילה שתשלחו לא נשמרת בשרתי xAI. מכפיל 0x, כלומר חינמי לחלוטין.

מתי Grok הוא הבחירה הנכונה? כשאתם עובדים על קוד קנייני רגיש, פרויקטים עם NDA, או כשהמדיניות של הארגון שלכם דורשת שום שמירת נתונים אצל צד שלישי. במקרים כאלה, Grok נותן לכם AI assistant חינמי בלי חשש שהקוד שלכם ישמש לאימון מודלים עתידיים.

הערה חשובה על כל שאר המודלים: גם OpenAI, Anthropic ו-Google מתחייבים שקוד שנשלח דרך Copilot לא ישמש לאימון — אבל הנתונים עוברים דרך השרתים שלהם. Grok הוא היחיד שבו הנתונים לא נשמרים כלל.

סיכום: איך לעבוד עם שכבת ה-0x

העיקרון הוא פשוט: התחילו תמיד מהשכבה החינמית. GPT-4.1 לרוב המשימות, GPT-5 mini כשצריך קצת חשיבה, GPT-4o כשיש תמונות, Grok כשיש רגישות פרטיות. רק אם אף אחד מהם לא מספק — שדרגו לשכבה הבאה.

⚡ עשו עכשיו 3 דקות

שלחו את הפרומפט הבא ל-GPT-4.1 וגם ל-GPT-5 mini: "Compare three approaches to implement caching in a Node.js API". שימו לב להבדל — GPT-5 mini יחשוב לפני שעונה, GPT-4.1 יענה מיד. שני המודלים חינמיים.

בינוני ⏱ 12 דקות חינם מושג

מודלים ברמת הביניים (0.25x-1x) — הלב הפועם

כאן זה נהיה מעניין. השכבה הזו כוללת מודלים שעולים בין רבע קרדיט ל-קרדיט אחד לאינטראקציה — ומציעים שדרוג משמעותי באיכות מעל המודלים החינמיים. זו השכבה שבה תשתמשו כשהמשימה מורכבת מספיק ש-GPT-4.1 לא מספיק, אבל לא מורכבת מספיק כדי להצדיק Opus ב-3x.

ויש כאן המון מודלים. בואו נעשה סדר.

Claude Sonnet 4 / 4.5 / 4.6 — הבחירה של GitHub עצמם

עובדה מעניינת שכדאי להכיר: GitHub בחרה את Claude Sonnet 4 כמודל הבסיס ל-Copilot Coding Agent — הסוכן האוטונומי שרץ ברקע ב-GitHub.com ופותר issues בלי התערבות אנושית. אם GitHub, שיש להם גישה לכל מודל בעולם, בחרו את Sonnet לעבודה אגנטית — זה אומר משהו על האיכות שלו.

Claude Sonnet (מכפיל 1x) מצטיין ב:

ההבדל בין הגרסאות:

שלושת הגרסאות פועלות במכפיל 1x. אין סיבה לא לבחור את 4.6 — הוא פשוט טוב יותר מהקודמים בכל פרמטר.

Gemini Pro (2.5 / 3.1) — מומחה לאלגוריתמים ומדע

Gemini Pro מבית Google (מכפיל 1x) מצטיין בעיקר במשימות שדורשות חשיבה מתמטית ואלגוריתמית. Google פיתחו אותו עם דגש על scientific reasoning — מה שהופך אותו לבחירה מצוינת אם אתם עובדים על Data Science, אלגוריתמים מורכבים, בעיות אופטימיזציה, או ניתוח נתונים.

Gemini 2.5 Pro זמין מ-2025, ו-Gemini 3.1 Pro הוא הגרסה העדכנית ביותר. שניהם ב-1x. החיסרון: Gemini לפעמים מייצר קוד עם issue density גבוה יותר מ-Claude — כלומר יותר באגים קטנים לשורת קוד. זה לא אומר שהוא גרוע — אלא שצריך לבדוק את הקוד שלו בקפידה יתרה.

Claude Haiku 4.5 / Gemini 3 Flash — מהירים וזולים (0.25x)

שני המודלים האלה במכפיל 0.25x — כלומר 4 אינטראקציות עולות קרדיט אחד בלבד. הם מהירים מאוד (זמן תגובה קצר) ומתאימים למשימות שדורשות יותר מ-GPT-4.1 אבל לא שוות קרדיט מלא.

תרחישים מומלצים ל-0.25x:

o3-mini ו-GPT-5.4 — ההשלמה של OpenAI

o3-mini הוא מודל reasoning קומפקטי מ-OpenAI (מכפיל 1x). הוא דומה ל-GPT-5 mini אבל חזק יותר — חושב עמוק יותר, מגיע למסקנות טובות יותר, אבל עולה קרדיט. שימושי במיוחד לבעיות לוגיות ואלגוריתמיות.

GPT-5.4 הוא הדגם המתקדם של GPT-5 (גם 1x). איפה הוא מצטיין? כתיבה — תיעוד, README, הסברים ארוכים, ויצירת תוכן. אם אתם צריכים documentation מקצועית או הסבר ארוך ומפורט על ארכיטקטורה — GPT-5.4 יכול להיות בחירה מצוינת.

אז Sonnet, Gemini Pro או o3-mini? אם אתם לא בטוחים — לכו על Sonnet 4.6. הוא ה-all-rounder הטוב ביותר ב-1x. אם אתם עובדים על אלגוריתמים — נסו Gemini Pro. אם אתם צריכים reasoning חזק — o3-mini.

נקודה חשובה על Context Window: אחד ההבדלים המשמעותיים בין המודלים הוא גודל חלון ההקשר (Context Window) — כמה מידע המודל יכול "לראות" בבת אחת. GPT-4.1 תומך ב-128K tokens (כ-100,000 מילים). Claude Sonnet ו-Opus תומכים ב-200K tokens (כ-150,000 מילים). למה זה חשוב? כשאתם עובדים ב-Agent Mode על פרויקט גדול, Copilot מזין למודל קבצים מהפרויקט שלכם. מודל עם context window גדול יותר יכול "לראות" יותר קבצים בבת אחת, ולכן להבין טוב יותר את ההקשר של הפרויקט. אם יש לכם פרויקט עם עשרות קבצים — Claude עם 200K tokens ייתן תוצאות טובות יותר מ-GPT-4.1 עם 128K.

על ספקים ופרטיות: כדאי לדעת שכל מודל מתארח אצל הספק שלו. GPT-4.1 עובר דרך שרתי OpenAI (מתארח ב-Azure). Claude עובר דרך Anthropic (גם Azure ו-AWS). Gemini דרך Google Cloud. Grok דרך xAI. לכל הספקים יש הסכם עם GitHub שאוסר שימוש בנתונים שלכם לאימון — אבל אם מדיניות הארגון שלכם מגבילה לספק מסוים, זה רלוונטי. ברוב המקרים זה לא בעיה, אבל שווה לדעת.

⚡ עשו עכשיו 3 דקות

בחרו Claude Sonnet בבורר המודלים ושלחו פרומפט לרפקטורינג קוד: "Refactor this function to use dependency injection" (על פונקציה מהפרויקט שלכם). השוו את התוצאה ל-GPT-4.1 — שימו לב לעומק ההסבר ולאיכות הקוד.

⚠️ טעות נפוצה: לחשוב שכל המודלים ב-1x שווים

מה קורה: מפתחים מניחים ש-Claude Sonnet, Gemini Pro ו-o3-mini "זהים" כי כולם 1x.

למה זה מפתה: המכפיל הזהה יוצר אשליה של שוויון.

מה לעשות במקום: המכפיל מייצג עלות, לא איכות. Claude Sonnet מוביל בעבודה אגנטית ורפקטורינג. Gemini Pro חזק באלגוריתמים. o3-mini מצטיין בחשיבה לוגית. נסו כמה מודלים על אותה משימה ותראו את ההבדלים.

בינוני ⏱ 10 דקות חינם מושג

המודלים הפרימיום (3x-30x) — מתי באמת שווה

עכשיו אנחנו מגיעים לראש הפירמידה. המודלים האלה הם החזקים ביותר שקיימים — אבל גם היקרים ביותר. ההבדל בין שימוש חכם לבזבזני במודלים האלה הוא ההבדל בין מי שנגמרים לו הקרדיטים ב-10 לחודש, לבין מי שמגיע לסוף החודש עם קרדיטים לרזרבה.

Claude Opus 4.5 / 4.6 — מכפיל 3x

Claude Opus הוא "הפרופסור" בין המודלים. עם Context Window של 200K tokens וחשיבה עמוקה ומפורטת, הוא מייצר קוד ברמת איכות שמרגישה כמו code review של מפתח senior — לא רק כותב קוד שעובד, אלא קוד שהוא נכון.

אבל בואו נעשה את החשבון: עם 300 קרדיטים חודשיים ומכפיל 3x, אתם מקבלים רק 100 אינטראקציות Opus בחודש. 22 ימי עבודה בחודש = בערך 4.5 אינטראקציות Opus ביום. וזה אם תשתמשו רק ב-Opus ובכלום אחר. בפועל, אם אתם משתמשים גם ב-Sonnet, יישארו לכם 1-2 Opus ביום.

לכן צריך לדעת בדיוק מתי Opus מצדיק את עצמו — ומתי הוא בזבוז.

Opus מצדיק את העלות כשאתם:

Opus לא מצדיק את העלות כשאתם:

מתי Opus לא מצדיק את העלות:

הערה היסטורית חשובה: כשClaude Opus 4.5 הושק ב-Copilot (נובמבר 2025), הוא פעל במכפיל מבצעי של 1x — אותה עלות כמו Sonnet. הרבה מפתחים התרגלו להשתמש בו באופן חופשי. בדצמבר 2025 המכפיל עלה ל-3x, וחלק מהמפתחים מצאו את עצמם בלי קרדיטים כבר באמצע החודש. אם שמעתם מישהו אומר "Opus עולה רק קרדיט אחד" — זה כבר לא נכון מזמן.

טקטיקה חכמה עם Opus: התחילו את השיחה עם GPT-4.1 (חינם). תנו לו להבין את הבעיה, לשאול שאלות, ולמפות את הטריטוריה. רק כשאתם מגיעים לשלב שדורש חשיבה עמוקה — החליפו ל-Opus באמצע השיחה (דרך Model Picker). ככה Opus מקבל את כל ההקשר אבל אתם משלמים 3x רק על הפרומפטים שבאמת צריכים אותו.

o3 — מודל החשיבה הכבד של OpenAI (3x)

o3 מ-OpenAI הוא מודל reasoning כבד עם מכפיל 3x. הוא שונה מ-Opus — פחות טוב בכתיבת קוד ארוך ובעבודה אגנטית, אבל מצטיין בפתרון בעיות לוגיות מורכבות, אלגוריתמים ברמת LeetCode Hard, ואתגרי תכנות שדורשים "חשיבת שלבים".

מתי o3 ולא Opus? אם המשימה היא "כתוב לי מערכת שלמה" — Opus. אם המשימה היא "פתור לי את הבעיה הלוגית הזו" — o3. הם משלימים זה את זה, לא מתחרים.

Claude Opus 4.6 fast — מכפיל ~30x (כן, שלושים)

כן, קראתם נכון. 30 קרדיטים על אינטראקציה אחת. בואו נחשב: 300 הקרדיטים החודשיים שלכם מספיקים ל-10 אינטראקציות בסך הכל. 10 שאלות בחודש שלם. אחריהן אתם על 0x מודלים או משלמים חריגה של $1.20 (כ-4.50 ש"ח) על כל שאלה.

Opus fast נותן את אותה איכות של Opus 4.6 הרגיל — אבל עם זמן תגובה מהיר יותר (שניות ספורות במקום 5-10 שניות). ההבדל: פי 10 במחיר.

המסקנה צריכה להיות ברורה: כמעט אף פעם לא כדאי להשתמש ב-Opus fast. ההבדל של כמה שניות בזמן תגובה לא מצדיק 30x. אם אתם צריכים Opus — פשוט המתינו 5-10 שניות יותר ושלמו 3x במקום 30x. אם ה-10 שניות האלה קריטיות לכם — כנראה יש בעיה אחרת בתהליך העבודה שלכם.

היוצא מן הכלל: אם אתם על Pro+ עם 1,500 קרדיטים ובאמצע debugging session קריטי שכל שנייה חשובה (production down, למשל) — שם 30x על כמה שאלות יכול להיות מוצדק. אבל זו בהגדרה סיטואציה נדירה.

⚡ עשו עכשיו 2 דקות

חשבו על 3 משימות שעשיתם השבוע ב-Copilot. לכמה מהן באמת הייתם צריכים Opus? רשמו: _____ מתוך 3. (רמז: אם התשובה היא 0, אתם בסדר גמור עם GPT-4.1 ו-Sonnet).

בינוני ⏱ 8 דקות חינם מושג

רמות חשיבה: Low, Medium, High, x-High

הנה פיצ'ר שרוב המפתחים לא מכירים — ושמי שמכיר אותו לפעמים מבין אותו לא נכון: אפשר לשלוט בכמה עמוק המודל חושב לפני שעונה. והדבר הכי חשוב: זה לא משנה את העלות.

קראתם נכון. Low, Medium, High ו-x-High — אותם קרדיטים פרימיום. אפס הבדל בעלות. ההבדל היחיד הוא כמה thinking tokens המודל מקצה לנתח את הבעיה לפני שהוא מתחיל לענות, מה שמשפיע על זמן התגובה.

Reasoning Effort (רמת חשיבה) נוסף ב-VS Code גרסה 1.113 (מרץ 2026). ברירת המחדל היא Medium. ארבע הרמות:

ספקטרום רמות חשיבה — עלות זהה, עומק שונה Low תגובה מיידית שאלות syntax השלמות קוד Medium ⭐ ברירת מחדל דיבאגינג רגיל כתיבת פיצ'רים High חשיבה מעמיקה ארכיטקטורה רפקטורינג מורכב x-High חשיבה מקסימלית GPT-5.4 בלבד אתגרי תכנות קשים 💰 העלות זהה בכל הרמות — רק זמן התגובה משתנה זמן תגובה ארוך יותר ←

הנקודה הקריטית: רמת חשיבה גבוהה לא עולה יותר. אותם קרדיטים פרימיום, אותו מכפיל. ההבדל היחיד הוא זמן — High ייקח יותר שניות מ-Low. לכן:

אז למה ברירת המחדל היא Medium ולא High?

כי המהירות חשובה. ברמת Low, מודל כמו GPT-4.1 יענה תוך שנייה. ברמת High, אותו מודל עשוי לקחת 3-5 שניות. לחלק מהמפתחים, ההשלמה המהירה חשובה יותר מעומק החשיבה — במיוחד ל-autocomplete ולשאלות מהירות. אבל לרוב המשימות? ההמתנה של כמה שניות שווה את העומק.

ההמלצה שלנו: הגדירו את ברירת המחדל ל-High. לרוב, ההפרש בזמן לא מורגש, ואיכות התשובות משתפרת. אם יש משימה שבה מהירות קריטית (כמו autocomplete בזמן כתיבה) — Copilot ישתמש ברמה שמתאימה לפיצ'ר הספציפי.

איך לשנות רמת חשיבה:

ב-VS Code, פתחו את settings.json (Ctrl+Shift+P → "Open User Settings JSON") והוסיפו:

{
  "github.copilot.chat.reasoningEffort": "high"
}

לשימוש ב-x-High (זמין רק ל-GPT-5.4 ו-GPT-5.3-Codex):

{
  "github.copilot.chat.reasoningEffort": "xhigh"
}

חשוב: רמת החשיבה חלה על הצ'אט בלבד — לא על autocomplete. ה-autocomplete תמיד עובד ברמה שמותאמת למהירות כי שם כל מילישנייה חשובה.

⚡ עשו עכשיו 3 דקות

שנו את reasoningEffort ל-"high" ב-settings.json ושלחו פרומפט מורכב: "Design a rate limiting system for a multi-tenant SaaS API". השוו את התגובה למה שקיבלתם ב-Medium (ברירת המחדל). שימו לב שהעלות זהה.

⚠️ טעות נפוצה: לחשוב שרמת חשיבה גבוהה עולה יותר

מה קורה: מפתחים משאירים את ברירת המחדל על Medium כי הם חוששים ש-High יצרוך יותר קרדיטים.

למה זה מפתה: אינטואיטיבית, "יותר חשיבה" נשמע כמו "יותר יקר".

מה לעשות במקום: שנו את ברירת המחדל ל-High. בגלל שהעלות זהה לחלוטין, אין סיבה לא לתת למודל לחשוב יותר. ההבדל היחיד: כמה שניות נוספות של המתנה.

מתחיל ⏱ 8 דקות חינם הקמה

בחירת מודל אוטומטית (Auto) והנחת 10%

אחד הפיצ'רים החכמים ביותר שנוספו ל-Copilot ב-2025. מדצמבר 2025, Copilot מציע אפשרות שנקראת Auto Model Selection (בחירת מודל אוטומטית). הרעיון פשוט: במקום שתבחרו מודל בעצמכם לכל פרומפט — Copilot מנתח את השאלה ובוחר את המודל הכי מתאים מתוך בריכה של מודלים. וגם — נותן לכם הנחה על זה.

איך Auto עובד:

  1. אתם שולחים פרומפט
  2. Copilot מנתח את הפרומפט ובוחר מודל מתוך הבריכה (GPT-5, GPT-5 mini, GPT-4.1, Claude Sonnet 4.5, Haiku 4.5 ועוד)
  3. התגובה מגיעה עם אינדיקציה איזה מודל נבחר (רחפו עם העכבר על התגובה)

הבונוס הגדול: הנחת 10%

כשאתם משתמשים ב-Auto, כל מודל מקבל הנחה של 10% על המכפיל. למשל:

מודל מכפיל רגיל מכפיל עם Auto חיסכון
Claude Sonnet 4 1x 0.9x 10%
Gemini Pro 1x 0.9x 10%
Claude Opus 4.6 3x 2.7x 10%
GPT-4.1 0x 0x

בקצרה: אם אתם לא יודעים איזה מודל לבחור — בחרו Auto. אתם מקבלים מודל מותאם + 10% הנחה. זו ברירת המחדל המומלצת לרוב המפתחים.

איך להפעיל: בבורר המודלים (תחתית הצ'אט), בחרו "Auto" כמודל. זמין ב-VS Code, JetBrains IDEs, Visual Studio ו-GitHub.com.

מתי לדרוס את Auto ולבחור ידנית:

טיפ: עבדו עם Auto 90% מהזמן. ב-10% האחרים — כשאתם יודעים בדיוק איזה מודל אתם צריכים — החליפו ידנית. אחרי כמה שבועות של עבודה כזו, תפתחו אינטואיציה מתי Auto מספיק ומתי צריך להתערב.

⚡ עשו עכשיו 3 דקות

הפעילו Auto בבורר המודלים. שלחו 3 פרומפטים שונים: (1) שאלת syntax פשוטה, (2) בקשה לרפקטורינג, (3) בקשה לתכנון ארכיטקטורה. אחרי כל תגובה, רחפו עם העכבר וראו איזה מודל נבחר לכל אחד.

⚠️ שימו לב: קרדיטים לא מצטברים

Premium Requests מתאפסים ב-1 בכל חודש ב-00:00 UTC. מה שלא השתמשתם בו לא עובר לחודש הבא. אם ב-28 לחודש נשארו לכם 150 קרדיטים — הם ייעלמו. אין סיבה "לחסוך" לסוף החודש.

מתחיל ⏱ 5 דקות חינם כלי

בורר המודלים — החלפת מודל באמצע שיחה

אחד הפיצ'רים השימושיים ביותר ב-Copilot, ואחד שמשנה את כל תהליך העבודה: אפשר להחליף מודל באמצע שיחה בלי לאבד את ההקשר. זה אומר שהשיחה שלכם — כולל כל הקוד שהדבקתם, כל ההסברים שנתתם, וכל התגובות הקודמות — נשמרת כשמחליפים מודל.

זה מאפשר אסטרטגיית Escalation Ladder שדיברנו עליה: התחילו עם GPT-4.1 החינמי לחקירה ראשונית. אם התשובה לא מספקת — שדרגו ל-Sonnet. ואם גם Sonnet לא מספיק — שדרגו ל-Opus. בכל שלב המודל החדש רואה את כל ההיסטוריה של השיחה.

ב-VS Code — הדרך הנפוצה:

  1. בתחתית חלון Copilot Chat, תראו את שם המודל הנוכחי (למשל "GPT-4.1" או "Auto")
  2. לחצו על שם המודל — ייפתח תפריט נפתח עם כל המודלים הזמינים
  3. בחרו מודל חדש מהרשימה
  4. ההודעה הבאה שלכם תשתמש במודל החדש — עם כל ההקשר של השיחה עד עכשיו

מה זה נראה בפועל: נניח ששלחתם 5 הודעות ל-GPT-4.1, הדבקתם קוד, קיבלתם הצעה ראשונית. עכשיו אתם מחליפים ל-Claude Sonnet. Sonnet "קורא" את כל 5 ההודעות הקודמות ומגיב מתוך אותו הקשר — אבל עם היכולות שלו. זה כאילו החלפתם יועץ באמצע ישיבה, אבל היועץ החדש שמע את כל מה שנאמר קודם.

טריק מתקדם — Retry עם מודל אחר:

קיבלתם תשובה לא מספקת? יש דרך אלגנטית לנסות שוב: לחצו על אייקון ה-Retry (חץ מעגלי) מתחת לתגובה. Copilot ישלח את אותו פרומפט בדיוק למודל שבחרתם כרגע. דרך מצוינת להשוות מודלים על אותו פרומפט בלי לכתוב מחדש. שימו לב: התגובה הקודמת נעלמת ומוחלפת בתגובה החדשה.

דוגמה מעשית: שלחתם פרומפט לרפקטורינג ל-GPT-4.1. התוצאה בסדר אבל לא מספיק מפורטת. במקום לשכתב את הפרומפט — פשוט החליפו ל-Claude Sonnet ולחצו Retry. אותו פרומפט, מודל חזק יותר, תוצאה טובה יותר — ושילמתם רק על הפרומפט שנתן תוצאה טובה.

ב-Copilot CLI:

ב-Copilot CLI, השתמשו בפקודה /model כדי להחליף מודל באמצע סשן. המודל הנוכחי מוצג מעל תיבת הקלט כדי שתדעו תמיד מה עובד. פקודת /model בלי שם מודל מראה את הרשימה המלאה.

ב-GitHub.com:

גם בצ'אט של Copilot ב-GitHub.com (github.com/copilot) יש בורר מודלים. שימושי במיוחד כשאתם עובדים ישירות ב-browser — למשל כשאתם עושים Code Review ל-PR ורוצים לשאול שאלה מודל מסוים על הקוד.

זמינות:

בורר המודלים זמין ב-VS Code, Visual Studio, JetBrains IDEs (IntelliJ, PyCharm, WebStorm ועוד), GitHub.com Chat, וב-Copilot CLI. שינוי מודל לא דורש הגדרה מיוחדת — זה זמין מהרגע שיש לכם מנוי בתשלום.

⚡ עשו עכשיו 3 דקות

התחילו שיחה עם GPT-4.1 ושאלו שאלה כללית על הפרויקט שלכם. אחרי התשובה, החליפו ל-Claude Sonnet ושאלו שאלה המשך. שימו לב: הוא ממשיך מאותו הקשר, למרות שהמודל השתנה.

בינוני ⏱ 15 דקות חינם תרגול

תוכניות Copilot — מה מקבלים בכל רמה

לפני שנגיע לחישובי עלויות, צריך להבין את הנוף המלא של תוכניות Copilot. יש 5 רמות, וההבדל ביניהן הוא בעיקר בכמות הקרדיטים הפרימיום ובגישה למודלים:

תוכנית מחיר בש"ח (בערך) קרדיטים פרימיום מודלים מתקדמים
Free $0 50/חודש מוגבלים
Pro $10/חודש ~37 ש"ח 300/חודש רוב המודלים
Pro+ $39/חודש ~144 ש"ח 1,500/חודש כל המודלים כולל Opus ו-o3
Business $19/user/חודש ~70 ש"ח 300/user/חודש כל המודלים + ניהול ארגוני
Enterprise $39/user/חודש ~144 ש"ח 1,000/user/חודש כל המודלים + אבטחה מתקדמת

הנקודה החשובה: Pro ($10/חודש) עם 300 קרדיטים הוא נקודת ההתחלה לרוב המפתחים. הרבה מפתחים שחושבים שהם צריכים Pro+ מגלים שעם אסטרטגיה חכמה של שימוש ב-0x מודלים, 300 קרדיטים מספיקים בשופי. הנחת הפרק הזה: אתם על Pro ומנהלים 300 קרדיטים.

הקשר ישראלי — המספרים בפרספקטיבה:

בואו נשים את המחירים בהקשר. מפתח ישראלי שמרוויח 35,000 ש"ח ברוטו בחודש, עובד 22 ימים, שווי שעת עבודה שלו הוא כ-200 ש"ח. אם Copilot Pro (37 ש"ח/חודש) חוסך לו חצי שעה ביום — זה חיסכון של 100 ש"ח ביום, 2,200 ש"ח בחודש. ROI של פי 59. גם Pro+ ב-144 ש"ח/חודש מחזיר את עצמו אם חוסך 45 דקות בחודש. המספרים מדברים בעד עצמם.

טיפ לשנתי: אם אתם משלמים שנתי במקום חודשי, Pro יורד ל-$8.33/חודש ($100/שנה) — חיסכון של 17%. בש"ח זה בערך 370 ש"ח לשנה, שזה כ-31 ש"ח לחודש. עבור כלי שחוסך שעות עבודה ביום — זה כמעט בחינם.

Pro מול Pro+ — מתי כל אחד:

רוב המפתחים הפרטיים ירגישו נוח עם Pro. עם אסטרטגיית שימוש חכמה (שנלמד בהמשך הפרק), 300 קרדיטים מספיקים בשופי. Pro+ ($39/חודש) מתאים למי שמשתמש ב-Copilot באופן אינטנסיבי כל היום, צריך Opus באופן קבוע, או רוצה גישה מלאה לכל המודלים המתקדמים כולל o3. ההפרש: פי 3.9 במחיר תמורת פי 5 בקרדיטים — שיפור יחסי של 28%.

למפתחים בחברה: אם אתם עובדים בחברה, שימו לב שתוכניות Business ו-Enterprise מנוהלות על ידי ה-org admin. הקרדיטים מוקצים per user, ויש ניהול מרכזי של policies — כולל אילו מודלים מותרים ואילו חסומים. אם אתם לא רואים מודל מסוים ברשימה — ייתכן שה-admin חסם אותו.

⚡ עשו עכשיו 1 דקה

בדקו באיזו תוכנית אתם כרגע: github.com → Settings → Billing and plans → Plans. מה רשום? ___. כמה קרדיטים יש לכם? ___

בינוני ⏱ 15 דקות חינם תרגול

חישוב עלויות: כמה באמת עולה שיחה

עכשיו שאתם מכירים את כל המודלים ואת התוכניות, הגיע הזמן לעשות מתמטיקה. הנוסחה פשוטה:

Premium Requests Used = Number of Interactions × Model Multiplier

בואו נחשב 3 תרחישים אמיתיים:

מחשבון עלויות — 3 תרחישים ליום עבודה יום קליל 20 × GPT-4.1 (0x) = 0 3 × Haiku (0.25x) = 0.75 2 × Sonnet (1x) = 2 2.75 קרדיטים ליום ~58 יום מ-300! עלות: 0 ש"ח חריגה יום רגיל 30 × GPT-4.1 (0x) = 0 8 × Sonnet (1x) = 8 1 × Opus (3x) = 3 11 קרדיטים ליום ~27 ימי עבודה עלות: 0 ש"ח חריגה יום אינטנסיבי 20 × GPT-4.1 (0x) = 0 15 × Sonnet (1x) = 15 5 × Opus (3x) = 15 30 קרדיטים ליום 10 ימים בלבד! עלות חריגה: ~33 ש"ח/חודש חריגה: $0.04 לכל קרדיט = ~0.15 ש"ח תרחיש אינטנסיבי: (30 × 22 ימי עבודה) - 300 = 360 קרדיטים חריגה = $14.40 = ~53 ש"ח/חודש סה"כ תוכנית Pro + חריגה אינטנסיבית = ~37 + ~53 = ~90 ש"ח/חודש עדיין זול משמעותית מ-Pro+ ב-~144 ש"ח/חודש (אלא אם החריגה קבועה)

מה קורה כשהקרדיטים נגמרים?

אל פאניקה. אתם לא ננעלים מ-Copilot. יש שני מסלולים:

מסלול 1 — בלי תקציב חריגה: אתם חוזרים למודלים החינמיים בלבד (GPT-4.1, GPT-4o, GPT-5 mini, Grok) עד ה-1 לחודש הבא כשהמכסה מתאפסת. Copilot Chat עדיין עובד, autocomplete עדיין עובד — פשוט אי אפשר לבחור Sonnet, Opus, או מודלים בתשלום.

מסלול 2 — עם תקציב חריגה (Overage Budget): אם הגדרתם תקציב חריגה בהגדרות GitHub, תוכלו להמשיך להשתמש בכל המודלים. כל קרדיט נוסף מעל 300 עולה $0.04 (כ-0.15 ש"ח). אם השתמשתם ב-350 קרדיטים בחודש — החריגה היא 50 × $0.04 = $2 (כ-7.4 ש"ח).

איך להגדיר תקציב חריגה: github.com → Settings → Billing and plans → Spending limits → Copilot. הגדירו סכום מקסימלי שאתם מוכנים לשלם מעבר למנוי הבסיסי. מומלץ להגדיר $5-10 (כ-18-37 ש"ח) כרשת ביטחון — מספיק ל-125-250 קרדיטים נוספים.

🏋️ תרגיל 1: חישוב עלות יום עבודה (15 דקות)

בנו טבלת עלויות ליום עבודה טיפוסי שלכם:

  1. פתחו גיליון אלקטרוני או מסמך חדש
  2. חשבו על יום עבודה טיפוסי שלכם — כמה פעמים אתם מדברים עם Copilot?
  3. חלקו את האינטראקציות לקטגוריות: שאלות מהירות, דיבאגינג, רפקטורינג, כתיבת קוד חדש
  4. לכל קטגוריה — בחרו את המודל שהייתם משתמשים בו ורשמו את המכפיל
  5. חשבו: מספר אינטראקציות × מכפיל = קרדיטים
  6. סכמו את הכל — כמה קרדיטים ליום? כפלו ב-22 ימי עבודה — עוברים את 300?

תוצאה צפויה: טבלה עם 4-5 שורות (קטגוריה, מודל, מכפיל, אינטראקציות ליום, קרדיטים), ושורת סיכום של סה"כ קרדיטים חודשיים.

בינוני ⏱ 12 דקות חינם אסטרטגיה

אסטרטגיית 300 קרדיטים — התוכנית החודשית

300 קרדיטים בחודש נשמעים כמו הרבה — אבל עם מכפילים של 3x, הם נגמרים מהר. בואו נבנה אסטרטגיה חכמה.

תקציב יומי: ~14 קרדיטים

300 חלקי 22 ימי עבודה = כ-14 קרדיטים ליום. ככה נראית חלוקה חכמה:

סוג משימה מודל מומלץ מכפיל כמות יומית קרדיטים
שאלות מהירות, syntax, autocomplete GPT-4.1 0x 20+ 0
דיבאגינג רגיל, code review GPT-5 mini 0x 5-10 0
רפקטורינג, כתיבת פיצ'רים, עבודה אגנטית Claude Sonnet (Auto) 0.9x 10 9
משימות מהירות בינוניות Haiku / Flash 0.25x 8 2
ארכיטקטורה מורכבת, דיבאגינג קשה Claude Opus 3x 1 3
סה"כ ליום 14 קרדיטים
סה"כ לחודש (22 ימים) 308 קרדיטים

שימו לב: ברוב הימים תשתמשו בפחות. Opus לא נדרש כל יום, ולרוב GPT-4.1 או GPT-5 mini מספיקים. האסטרטגיה הזו היא תקרה, לא ממוצע.

5 טיפים לחיסכון בקרדיטים

  1. "Escalation Ladder" — תמיד התחילו מהמודל הזול ביותר. GPT-4.1 → GPT-5 mini → Sonnet → Opus. עלו רק כשצריך.
  2. פרומפטים מדויקים חוסכים כסף — פרומפט מעורפל ל-Opus יגרום ל-3 סבבי follow-up (9 קרדיטים). פרומפט מדויק ל-Sonnet מסיים בפעם הראשונה (קרדיט אחד).
  3. שבוע שקט = הזדמנות לניסויים — יש לכם שבוע עם פחות עבודה? נצלו את הקרדיטים שנשארו לנסות מודלים חדשים ולעדכן את טבלת ההשוואה.
  4. Agent Mode צורך יותר — ב-Agent Mode (שלמדנו בפרק 1), Copilot שולח כמה אינטראקציות ברקע. סשן אחד ב-Agent Mode עם Sonnet יכול לצרוך 5-10 קרדיטים. עם Opus זה 15-30.
  5. סוף החודש? בזבזו — קרדיטים לא מצטברים. אם ב-28 לחודש יש לכם 80 קרדיטים — השתמשו בהם. הם ייעלמו בלאו הכי.

🧭 מסגרת החלטה: איזה מודל לבחור לפי סוג המשימה

סוג משימה מודל ראשון שדרוג אם לא מספק עלות
שאלה מהירה / syntax GPT-4.1 GPT-5 mini 0x
דיבאגינג GPT-4.1 Claude Sonnet 0x → 1x
רפקטורינג Claude Sonnet Claude Opus 1x → 3x
כתיבת פיצ'ר חדש Claude Sonnet Claude Opus 1x → 3x
Code Review GPT-4.1 Claude Sonnet 0x → 1x
ארכיטקטורה Claude Opus 3x
אלגוריתם / מתמטיקה Gemini Pro o3 1x → 3x
קוד רגיש / פרטיות Grok 0x

העיקרון: תמיד התחילו מהמודל הזול ביותר שיכול לפתור את המשימה. שדרגו רק אם התוצאה לא מספקת.

🧭 מסגרת החלטה: מתי לשדרג מ-Pro ל-Pro+?

חישוב פשוט — נקודת האיזון:

צורכים עד 300/חודש ← Pro מספיק
צורכים 300-1,025/חודש ← Pro + חריגה זול יותר מ-Pro+
צורכים מעל 1,025/חודש ← Pro+ משתלם יותר
⚡ עשו עכשיו 2 דקות

היכנסו להגדרות GitHub שלכם (github.com → Settings → Billing) ובדקו כמה Premium Requests השתמשתם החודש. מה אחוז הניצול? ____%

🏋️ תרגיל 2: תוכנית 300 קרדיטים — התקציב החודשי (20 דקות)

בנו תוכנית חלוקה חודשית מותאמת אישית:

  1. צרו טבלה עם עמודות: סוג משימה, תדירות יומית, מודל נבחר, מכפיל, קרדיטים ליום
  2. רשמו 5-7 סוגי משימות שאתם עושים עם Copilot באופן קבוע
  3. לכל משימה — בחרו מודל מומלץ (התחילו מהזול ביותר שמספיק)
  4. חשבו את הסכום היומי
  5. כפלו ב-22 ימי עבודה
  6. אם עוברים 300 — חפשו משימות שאפשר להוריד למודל זול יותר
  7. החליטו: Pro מספיק, או שצריך Pro+ או תקציב חריגה?

תוצאה צפויה: תוכנית חודשית מפורטת עם סה"כ קרדיטים ותקציב בש"ח.

בינוני ⏱ 20 דקות חינם תרגול

השוואה מעשית: אותו פרומפט ב-5 מודלים

תיאוריה זה נחמד, אבל השאלה האמיתית היא: כמה גדול ההבדל בפועל? האם Sonnet באמת שווה קרדיט כשיש GPT-4.1 בחינם? האם Opus מצדיק פי 3? התשובה משתנה לפי סוג המשימה — ולכן הדרך הכי טובה ללמוד היא לנסות בעצמכם.

בסקציה הזו תשלחו אותו פרומפט בדיוק ל-5 מודלים שונים ותשוו את התוצאות. זה התרגיל הכי חשוב בפרק — כי הוא הופך ידע תיאורטי לאינטואיציה אישית.

פרומפט ההשוואה המומלץ:

Refactor this function to handle errors properly, add TypeScript types,
and make it testable with dependency injection. Explain your decisions.

function getData(url) {
  const res = fetch(url);
  const data = res.json();
  return data.items.filter(i => i.active);
}

שלחו את הפרומפט הזה ל-5 מודלים ומלאו את הטבלה:

קריטריון GPT-4.1 GPT-5 mini Claude Sonnet Gemini Pro Claude Opus
מכפיל 0x 0x 1x 1x 3x
זמן תגובה ___ שניות ___ שניות ___ שניות ___ שניות ___ שניות
אורך תגובה ___ ___ ___ ___ ___
טיפול בשגיאות __/5 __/5 __/5 __/5 __/5
TypeScript Types __/5 __/5 __/5 __/5 __/5
DI Pattern __/5 __/5 __/5 __/5 __/5
הסבר ההחלטות __/5 __/5 __/5 __/5 __/5
ציון כולל __/20 __/20 __/20 __/20 __/20

מה צפוי לקרות (דוגמאות מייצגות — התוצאות שלכם עשויות להשתנות):

GPT-4.1 (0x): תגובה תוך 2-3 שניות. הקוד יהיה תקין — יוסיף async/await, try/catch בסיסי, ו-TypeScript types. ההסברים יהיו קצרים וענייניים. ה-DI pattern יהיה פשוט — injection דרך פרמטר. מספיק ל-80% מהמקרים, ובחינם.

GPT-5 mini (0x): יקח 4-6 שניות (thinking time). לפעמים יזהה edge cases ש-GPT-4.1 מפספס — למשל שצריך לטפל גם ב-network timeout ולא רק ב-HTTP errors. ההסברים יהיו מפורטים יותר עם reasoning chain.

Claude Sonnet (1x): זמן תגובה 3-5 שניות. הקוד יהיה מסודר יותר — types מדויקים יותר עם generics, error handling מקיף עם custom error classes, DI pattern מתוחכם עם interface ו-factory. ההסברים יסבירו למה כל החלטה נעשתה. שווה את ה-1x במיוחד לרפקטורינג.

Gemini Pro (1x): גישה שונה לפיתרון — לפעמים יציע ארכיטקטורה שלא חשבתם עליה. חזק בהצעת pattern alternatives. לפעמים הקוד פחות "נקי" מ-Sonnet, אבל הרעיונות מעניינים יותר.

Claude Opus (3x): הכי איטי (5-10 שניות), אבל ההסברים העמוקים ביותר. הקוד יכלול error handling מושלם, types מתקדמים, DI עם container pattern, וכנראה גם יציע חלוקה ל-modules. עולה פי 3 מ-Sonnet — שווה רק כשהמשימה מורכבת באמת.

המסקנה הצפויה: ברוב המקרים, Sonnet הוא ה-sweet spot — 1x מול 0x נותן שדרוג משמעותי באיכות. ההפרש בין Sonnet ל-Opus (1x מול 3x) קטן בהרבה מההפרש בין GPT-4.1 ל-Sonnet (0x מול 1x). זו תובנה קריטית לניהול התקציב.

⚡ עשו עכשיו 5 דקות

בחרו 2 מודלים מהטבלה למעלה ושלחו את אותו פרומפט. אם אין לכם זמן ל-5 — 2 מספיקים כדי לראות את ההבדל. רשמו איזה מודל "ניצח": ______

🧭 מסגרת החלטה: Auto Selection או בחירה ידנית?

רוב העבודה היומית ← Auto (חוסך 10%, בוחר מודל מתאים)
משימה מורכבת ספציפית ← ידני: Claude Opus (כשאתם יודעים שצריך עומק)
קוד רגיש / פרטי ← ידני: Grok (Zero Data Retention)
מהירות קריטית ← ידני: GPT-4.1 (הכי מהיר, חינמי)
אלגוריתמים / מתמטיקה ← ידני: Gemini Pro או o3

🏋️ תרגיל 3: השוואת 5 מודלים — טבלת השוואה אישית (25 דקות)

בנו טבלת השוואה אישית מלאה:

  1. בחרו פרומפט מתוך העבודה האמיתית שלכם (לא את הדוגמה למעלה)
  2. שלחו אותו ל-GPT-4.1 ורשמו: זמן, איכות (1-5), הסבר (1-5)
  3. שלחו ל-GPT-5 mini — אותם קריטריונים
  4. שלחו ל-Claude Sonnet — אותם קריטריונים
  5. שלחו ל-Gemini Pro — אותם קריטריונים
  6. שלחו ל-Claude Opus — אותם קריטריונים
  7. דרגו: איכות/מחיר — איזה מודל נותן הכי הרבה ערך לכל קרדיט
  8. מסקנה: מהו מודל ברירת המחדל שלכם לסוג המשימה הזה?

תוצאה צפויה: טבלת השוואה אישית עם 5 מודלים, ציונים, ומסקנה — איזה מודל לאיזו משימה.

🏋️ תרגיל 4: בניית אסטרטגיית מודלים לפרויקט אישי (15 דקות)

בנו מסמך אסטרטגיה מותאם לפרויקט שלכם:

  1. בחרו פרויקט אמיתי שאתם עובדים עליו כרגע
  2. רשמו 5-6 סוגי משימות שאתם עושים בפרויקט הזה (debugging, testing, new features, reviews, docs, architecture)
  3. לכל משימה — בחרו מודל ראשי (Primary) ומודל גיבוי (Escalation)
  4. החליטו על רמת חשיבה (Reasoning Effort) ברירת מחדל — Low, Medium, High?
  5. קבעו כלל: Auto כברירת מחדל? מתי עוברים לידני?
  6. חשבו את התקציב החודשי הצפוי בקרדיטים על סמך הניסיון מתרגיל 1

תוצאה צפויה: מסמך אסטרטגיה של חצי עמוד — מודל לכל משימה, תקציב, וכללי שימוש. שמרו אותו — תשתמשו בו כל חודש.

סיכום ביניים — מה למדנו עד כאן:

בפרק הזה כיסינו הרבה קרקע. בואו נוודא שהכל ברור לפני שממשיכים לסגירה:

⚡ עשו עכשיו 1 דקה

ודאו ש-Auto Selection מופעל כברירת מחדל ושרמת החשיבה מוגדרת ל-High. שתי ההגדרות האלה לבדן ישפרו את איכות התוצאות ויחסכו 10%.

📊 דוגמה מייצגת: יום בחיי מפתח עם אסטרטגיית מודלים

נעקוב אחרי יום עבודה טיפוסי של דניאל, מפתח Full-Stack בסטארטאפ ישראלי, על תוכנית Copilot Pro (300 קרדיטים/חודש):

09:00 — בוקר, code review (GPT-4.1, חינם)
דניאל פותח PR של חבר לצוות. משתמש ב-GPT-4.1 לעבור על 3 קבצים, שואל "מה הפונקציה הזו עושה?" ו-"יש כאן race condition?". 5 אינטראקציות, 0 קרדיטים.

10:00 — debugging session (GPT-4.1 → Sonnet)
באג ב-authentication flow. מתחיל עם GPT-4.1 — "הנה הלוג, מה הבעיה?". GPT-4.1 מזהה שיש null reference אבל לא את הגורם השורשי. מחליף ל-Claude Sonnet ומדביק את כל ה-flow (3 קבצים). Sonnet מזהה שהבעיה ב-middleware שלא מעביר את ה-session. 3 אינטראקציות GPT-4.1 (0 קרדיטים) + 2 Sonnet (2 קרדיטים).

11:30 — פיצ'ר חדש (Claude Sonnet, Auto)
דניאל כותב payment integration חדש. מפעיל Auto Selection (הנחה 10%) ועובד ב-Agent Mode. Copilot בוחר Sonnet, יוצר 4 קבצים, כותב types, מוסיף error handling. 8 אינטראקציות ב-Agent Mode, כ-7.2 קרדיטים (8 × 0.9x).

14:00 — ארכיטקטורה (Claude Opus)
דניאל צריך לתכנן מערכת notifications חדשה. זו משימה שדורשת חשיבה עמוקה — Pub/Sub או WebSocket? מבנה הנתונים? Scaling strategy? מחליף ל-Opus. 2 אינטראקציות (6 קרדיטים). מקבל תכנון מפורט עם trade-offs ודיאגרמה.

16:00 — טסטים ותיעוד (GPT-4.1 + GPT-5 mini, חינם)
כותב unit tests עם GPT-4.1 (מהיר, מדויק לטסטים). משתמש ב-GPT-5 mini לתיעוד (צריך חשיבה על מבנה ה-README). 10 אינטראקציות, 0 קרדיטים.

סיכום היום:

GPT-4.1 + GPT-5 mini (0x) 18 אינטראקציות 0 קרדיטים
Claude Sonnet (Auto, 0.9x) 10 אינטראקציות 9 קרדיטים
Claude Opus (3x) 2 אינטראקציות 6 קרדיטים
סה"כ 30 אינטראקציות 15 קרדיטים

15 קרדיטים ליום × 22 ימי עבודה = 330 קרדיטים בחודש. קצת מעל המכסה, אבל ברוב הימים דניאל ישתמש בפחות. ובימים שבהם אין ארכיטקטורה (הרוב), זה רק 9 קרדיטים — 198 בחודש. מספיק בשופי.

מה לומדים מדניאל:

💡 התובנה המרכזית של הפרק

בחירת מודל היא לא שאלה טכנית — היא שאלה כלכלית. המפתחים הטובים ביותר לא בוחרים תמיד את המודל הכי חזק. הם בוחרים את המודל הכי זול שפותר את המשימה, ומשתמשים בכסף שחסכו למשימות שבאמת צריכות Opus.

שלוש הגדרות פשוטות שמיישמות את הפרינציפ הזה:

  1. Auto Selection — הנחה של 10% + מודל מתאים אוטומטית
  2. Reasoning Effort: High — חשיבה עמוקה יותר, אותה עלות
  3. Default: GPT-4.1 — אינסופי ובחינם, מספיק לרוב העבודה

📅 שגרת עבודה — ניהול מודלים

הפרק הזה הוא הראשון שבו מתחילה שגרה קבועה. הטבלה הבאה מגדירה את המשימות התקופתיות לניהול מודלים וקרדיטים. בפרקים הבאים נוסיף עליה.

תדירות משימה
יומי ודאו ש-Auto Selection מופעל כשאין צורך ספציפי במודל
השתמשו ב-GPT-4.1 למשימות שגרתיות לפני שמנסים מודל בתשלום
שבועי בדקו את מצב הקרדיטים בהגדרות GitHub
העריכו אם החלוקה בין מודלים עובדת — התאימו אם צריך
נסו מודל חדש שלא ניסיתם על משימה ספציפית
חודשי סקרו את צריכת הקרדיטים בחודש שעבר — איפה אפשר לחסוך?
עדכנו את טבלת ההשוואה האישית עם מודלים חדשים שנוספו

🎯 אם אתם עושים רק דבר אחד מהפרק הזה

הגדירו Auto Selection כברירת מחדל ורמת חשיבה High.

שתי הגדרות, שתי דקות, ושני שיפורים מיידיים: (1) Auto Selection חוסך 10% על כל אינטראקציה פרימיום ובוחר את המודל הנכון ב-90% מהמקרים. (2) Reasoning Effort: High נותן למודל לחשוב יותר באותה עלות בדיוק. אם המודל שנבחר לא מספק — אפשר תמיד לשנות ידנית באמצע שיחה. חיסכון קבוע לכל חודש, ואיכות תשובות טובה יותר מהיום הראשון.

🧠 בדקו את עצמכם — 5 שאלות

השאלות האלה בודקות הבנה, לא השלמה. ענו על 4 מתוך 5 כדי לעבור. אם נתקעים — חזרו לסקציה הרלוונטית.

  1. למה GPT-4.1 הוא ברירת המחדל ולא Claude Opus שנחשב חכם יותר?
    (רמז: חשבו על העלות לעומת האיכות ב-80% מהמשימות)
  2. איך בחירת מודל אוטומטית (Auto) חוסכת כסף?
    (רמז: חשבו על ההנחה של 10% ועל הימנעות מבחירת מודל יקר מדי)
  3. מתי כדאי לבחור Opus (3x) במקום Sonnet (1x)?
    (רמז: חשבו על סוגי משימות שדורשים חשיבה עמוקה לעומת ביצוע מהיר)
  4. מה ההבדל בין רמת חשיבה High לבין מודל יקר יותר?
    (רמז: חשבו על עלות מול זמן — מה משתנה ומה לא)
  5. איך תתכננו את צריכת 300 הקרדיטים שלכם כדי לא לחרוג?
    (רמז: חשבו על תקציב יומי, חלוקה לפי סוגי משימות, ושימוש ב-0x מודלים לרוב העבודה)

📋 סיכום הפרק

הפרק הזה חשף את המנגנון הכלכלי והאסטרטגי מאחורי Copilot — מודלים חינמיים שמספיקים לרוב העבודה, מודלים בתשלום שמצדיקים את עצמם רק במשימות מורכבות, ורמות חשיבה שמוסיפות עומק בלי עלות נוספת.

התובנה המרכזית: 80% מהעבודה היומית לא דורשת קרדיטים כלל. GPT-4.1, GPT-4o, GPT-5 mini ו-Grok הם חינמיים ואינסופיים. Claude Sonnet ב-1x הוא ה-sweet spot לרפקטורינג ועבודה אגנטית — וגם GitHub עצמם בחרו בו ל-Coding Agent. ו-Opus ב-3x שמור רק למשימות שבאמת צריכות חשיבה עמוקה: ארכיטקטורה, רפקטורינג מסיבי, או דיבאגינג קריטי.

האסטרטגיה שבניתם בפרק הזה מבוססת על שלושה עקרונות: (1) Escalation Ladder — תמיד להתחיל מהזול ולעלות רק כשצריך. (2) Auto Selection עם הנחת 10% — לתת ל-Copilot לבחור ולקבל הנחה. (3) Reasoning Effort: High — חשיבה עמוקה יותר באותה עלות.

עכשיו שאתם מכירים את כל המודלים ויודעים לבחור את הנכון — בפרק הבא נעבור ל-Custom Instructions. שם תלמדו איך לכוון כל מודל, גם את GPT-4.1 החינמי, לעבוד בדיוק כמו שאתם רוצים: סגנון קוד, convention-ים, דפוסי תשובה. זה הפרק שמהפך מודל "טוב" למודל "מושלם בשבילכם".

☑️ צ'קליסט — מה עשיתם בפרק הזה

עברו על הרשימה וסמנו כל פריט שהשלמתם. אם פספסתם משהו — חזרו אליו. הפריטים מסודרים לפי סדר ההופעה בפרק.

💬 לפני שממשיכים — טיפים אחרונים

המודלים משתנים. GitHub מוסיפים מודלים חדשים כל חודש-חודשיים, ולפעמים מסירים ישנים. מחירים משתנים, מכפילים מתעדכנים, ומודלים חדשים נכנסים לבריכת Auto Selection. מה שנכון היום לגבי GPT-5.4 או Sonnet 4.6 עשוי להשתנות. לכן:

הטבלה שבניתם בתרגיל 3 היא מסמך חי. עדכנו אותה כל חודש.

→ פרק קודם: ארגז הכלים פרק הבא: Custom Instructions ←