top of page



אתגר ה Multi-Hop Reasoning במערכות ידע מבוזרות
אנו ממשיכים בסדרת הפוסטים שעוסקת במעבר של ארגונים גדולים ממערכות אחזור מידע פשוטות לפלטפורמות שמשתמשות בסוכנים חכמים. בפוסט הקודם הצגנו את ההבדל בין חיפוש סמנטי קלאסי לבין הצורך של מערכות מודרניות לבצע פעולות חשיבה אוטונומיות בתוך מאגרי מידע מורכבים. הרעיון שמנחה אותנו נשאר זהה, לנתח את האתגרים הטכנולוגיים שעולים בדרך ולהציג פתרון מקצועי ומדויק עבור כל אחד מהם. ניגש כעת היישר לבעיה המרכזית שנעסוק בה הפעם, אתגר ה-Multi-Hop Reasoning במערכות ידע מבוזרות. מפתחים בונים מערכות סוכ

shlomoyona
3 days ago6 min read


בעיית ה Small-to-Big Retrieval והקשר בין צמתים בגרף
מהפוסט הזה נדבר על בעיות נפוצות ופתרונות בית ספר בארגונים גדולים שמבצעים מעבר ממערכות אחזור מידע פשוטות לפלטפורמות שמבוססות על סוכנים חכמים. בעוד שמערכות מסורתיות סומכות על חיפוש סמנטי ליניארי מתוך מסדי נתונים וקטוריים מערכות מודרניות צריכות לבצע פעולות חשיבה אוטונומיות לנווט בתוך מאגרי מידע מורכבים ולקבל החלטות על בסיס הקשר רחב במיוחד. מבנים שמשלבים ייצוגי ידע שמבוססים על גרפים מנגנוני הערכה עצמית ותשתיות שמנהלות הרשאות בקפדנות מהווים את עמוד השדרה של מערכות אלו. עד כאן ההק

shlomoyona
3 days ago5 min read


מה מחדש BARRED לגבי גארדריילס?
הצוות שלכם הטמיע מודלי שפה ונותן אמצעים להעזר בהם בארגון. אבל ישנן דרישות שונות לוודא שהמודל אינו נותן שירותים או מגיב בצורה אסורה. במקום להסתמך על רשימות מילים פשוטות או על סינון כללי של תוכן פוגעני, שזה לא מזיק אבל גם לא גמיש ולא מספיק כללי, משתמשים במודלי בקרה, מודלי AI קטנים שתפקידם לסרוק את הקלט והפלט של הצ'אטבוט בזמן אמת ולחסום אותו אם הוא חורג מהמדיניות שהוגדרה. למה מודלים קטנים? כי אפשר לארח ולנהל ולהשתלט מקומית בחסכון ולא משלמים על טוקנים ולא קריאות API חיצוניות. יש

shlomoyona
3 days ago5 min read


הבנה ודעה על מהפכת ה-Agentic AI באקדמיה על פי מאמריו של אלכסנדר קוסטוב
סדרת המאמרים (חלק ראשון, חלק שני ו- חלק שלישי) שפרסם דוקטור אלכסנדר קוסטוב באביב 2026 מציגה חזון רדיקלי לגבי השפעתם של סוכני בינה מלאכותית אוטונומיים על מדעי החברה. קראתי את הפרסומים הללו וברשימה הזאת שלי אספר מה הבנתי ומה דעתי על מה שהבנתי. מעניין להתייחס לא רק לתובנותיו המרכזיות, אלא גם לתגובות על המאמרים האלה בקהילה המדעית. הטיעון המרכזי של קוסטוב הוא שסוכנים מבוססי מודלים מתקדמים מסוגלים כיום לבצע את מרבית מטלות המחקר הכמותני, קידוד הנתונים וסקירת הספרות באופן שעולה על יכ

shlomoyona
3 days ago4 min read


ניהול Schema Drift בארכיטקטורת גרף ידע: עדכוני נתונים בזמן אמת בסביבות AI מקומיות
פוסט זה הוא חלק מסדרת מאמרים שעוסקת באתגרים נפוצים בארגונים שפורסים מערכות AI וסוכנים חכמים באופן פנימי לחלוטין, תוך הרצת מודלים מקומיים ללא תלות בממשקים חיצוניים. פלטפורמות אלו נועדו לספק מענה שמבוסס על נתונים חיים ועדכניים, אך דרישה זו מציבה מכשול הנדסי מורכב כאשר עובדים עם גרפי ידע. המעבר ממערכות RAG מבוססות מסדי נתונים מסוג Stateless למבני נתונים מסוג Stateful בגרפי ידע דורש היערכות שונה. האתגר ניכר כאשר מתרחש שינוי במציאות הארגונית שמוכר בשם Schema Drift. במקרים שבהם קבו

shlomoyona
4 days ago4 min read


היתוך דירוגים ודירוג מחדש עמוק
ארגונים שבוחרים להטמיע מערכות בינה מלאכותית באופן פנימי תוך הסתמכות על כלי קוד פתוח ומודלים מקומיים ללא גישה לממשקי תכנות חיצוניים, ניצבים בפני אתגרים הנדסיים מורכבים בניהול וביכולת השליפה של המידע הארגוני. פוסט זה הוא נדבך נוסף בסדרה שעוסקת בבעיות נפוצות בארכיטקטורות אלו ומציגה את פתרונות הבית ספר המקובלים והמוכחים עבורן. הפעם נדון בקושי המקצועי שנוצר בשילוב מנועי חיפוש שונים ובתהליך ההנדסי שנדרש כדי לייצר תוצאה אחת מדויקת וקוהרנטית מתוך בליל נתונים. ביישום מערכות אחזור מידע

shlomoyona
4 days ago3 min read


פתרון מגבלות חלון ההקשר בשאילתות גלובליות באמצעות גיזום היררכי וניווט דינמי
אחת הבעיות הנפוצות ביישום מערכות אחזור מידע מבוססות גרף, שחוזרת על עצמה שוב ושוב בארגונים רבים שמנסים ליישם גרף ידע למערכת ה-AI שלהם בארגון, היא הקושי בביצוע שאילתות גלובליות רחבות שמוביל במקרים רבים לחריגה ממגבלות חלון ההקשר ולפגיעה משמעותית בביצועי המערכת. בפוסט הזה, שממשיך סדרה של פוסטים על בעיות נפוצות ופתרונות בית הספר עבורן, נדון בפתרון המקובל לטיפול באתגר זה שמתמקד במעבר מהנדסי מסיכום סטטי ורקורסיבי לשיטות של ניווט דינמי וגיזום היררכי. הצגת המתודולוגיה נועדה לספק מענה

shlomoyona
4 days ago3 min read


בעיית ה-Entity Resolution בבניית ה-Knowledge Graph
רציתם לבנות בארגון גרף ידע מתוך המידע הארגוני שהגיע ממקורות שונים ובייצוגים שונים מזמנים שונים וברמות שונות של איכות התוכן. כדי לקחת את המידע הארגוני שאינו מובנה נשענים על הפעלת מודלי שפה גדולים כדי לחלץ ישויות וכדי לחלץ קשרים מתוך הטקסט. אחת מהבעיות החמורות והנפוצות היא כפילות ישויות או היעדר זיקוק ישויות. מטבעם, מודלי שפה הם סטוכסטיים ומושפעים מההקשר המקומי של כל פסוקית טקסט. ולכן, כאשר ישות זהה בעולם האמיתי, למשל, פרויקט אסטרטגי, איש מפתח או רכיב תוכנה, מופיעה תחת שמות שונ

shlomoyona
4 days ago5 min read


אתגרי מידור במערכות מבוססות AI
אנחנו עדיין בעיצומה של הסאגה של האתגרים שנפוצים מאוד מאוד בקרב צוותים בסביבות אנטרפרייז שמממשים מערכות AI באמצעות open source ובסביבת on premises ורוצים לעבור ממצב של הוכחת התכנות למצב של פריסה בארגון כולו. הפעם... מגלים ש-... כל אחד יכול לקבל כל מידע גם כזה שלא מיועד לעיניו ולא אמור להיות זמין לכול ונזכרים ש-... נדרש מידור. אמנם לא זאת הצרה היחידה של אבטחת הנתונים שצריכים לטפל בה, זאת אחת מיני רבות ואחת הראשונות שפוגשים כשפתאום מגלים שאחרון העובדים יכול לראות מצגת שמיועדת בכ

shlomoyona
5 days ago4 min read


הערכת מערכת AI
מתקדמים בסדרת הפוסטים של המקרים הנפוצים בקרב צוותים שמממשים מערכות AI בארגונים, לוקאלית ללא שירותי SaaS ו-APIים חיצוניים באמצעות Open Source והכול On Premises, בין אם על הברזלים של הארגון או בענן של הארגון. הבעיות נפוצות והפתרונות? פתרונות בית ספר... והפעם... אחרי שהכוכבים בארגון פיתחו ולדעתם הכול בסדר ואין שום בעיות (גם אם אין סקייל, גם אם אין משמעות לעלויות, גם אם אין שום מתודולוגיה להערכת התוצאות ואפילו אין הגדרה לאיכות התוצאות) כי "לי זה נראה בסדר ואנשים אומרים לי שזה נרא

shlomoyona
5 days ago4 min read


התמודדות עם תהליכי OCR פגומים וזיהוי זבל טקסטואלי
ממשיכים בפוסטים שבהם יש בעיה נפוצה אצל צוות באנטרפרייז שבונה ארכיטקטורה אג'נטית ל-AI כדי לעבד מסמכים של הארגון ואולי גם של לקוחות של הארגון וגם לענות לשאילתות ולצרכים של משתמשים שונים בארגון. הכל נבנה לוקאלית, on premises עם open source וללא גישה לשירותי ענן ול-APIים חיצוניים משום סוג. סדרת הפוסטים עוסקת בבעיות נפוצות באתגרים נפוצים ובפתרונות בית הספר שחוזרים על עצמם שוב ושוב. הצוות הפעם מספר שבמערכת שלהם קליטת המסמכים והפענוח האופטי נעשים באמצעות תוכנה שרצה מקומית בשם Dockli

shlomoyona
5 days ago3 min read


איסוף, העשרה וסינון באמצעות מטא-דאטה
שוב אנחנו בסדרה של הפוסטים על בעיות נפוצות ופתרונות בית ספר לבעיות הנפוצות לארגונים שהחליטו לממש לוקאלית עם אופן סורס ארכיטקטורה לסוכני AI כדי להתמודד עם מסמכים פנימיים ועם משתמשים פנימיים ולפעמים גם חיצוניים. והפעם... שוב בענייני chunking כשמכינים בונים מעשירים ומשתמשים ב-RAG. במהלך הפגישה, הצוות הדגיש את המשקל הקריטי של מטא-דאטה ככלי מהותי לתהליכי החיפוש והפילטור בארגון מרובה לקוחות. במקביל, הוא ציין כי אסטרטגיית איסוף המטא-דאטה מלווה באתגרים טכניים משמעותיים, ובראשם הדילמ

shlomoyona
5 days ago3 min read


שימור ההקשר הרחב ושליפה רב-שכבתית כשעושים צ'אנקינג ל-RAG
בשרשרת הפוסטים על בעיות נפוצות וטעויות נפוצות ואתגרים נפוצים בארגונים שמממשים בעצמם לוקאלית פתרונות RAG וסביבה אג'נטית ומערכות מבוססות AI, אז הפעם... כשמתעסקים במסמכים שונים ומשונים בהקשרים שונים ומשונים, הצוות מתחבט בשאלה של אובדן הקשר בתוך ה-chunks שנוצרו: כמה מהכותרות הקודמות במסמך יש לשמור ולהזריק לתוך כל צ'אנק? האם יש לשמור רק את הכותרת הגדולה האחרונה, או גם את כותרות המשנה שיורדות במורד ההיררכיה? במקביל, עלתה הצעה לבחון האם כדאי ליצור סיכום מוקדם של המסמך השלם, להטמיע א

shlomoyona
5 days ago3 min read


אסטרטגיית חלוקה לצ'אנקס בסביבת עברית ואנגלית וכיווניות טקסט
ארגון גדול בנה מערכת מבוססת LLM עם סוכנים וארכיטקטורה. נראה שעובד על סדר גודל של כמה אלפים ואפילו 10-20 אלף מסמכים שבהם יש אנגלית ועברית משולבות. האתגר כיצד נכון לשלב טקסט בעברית ובאנגלית בתוך אותו הצ'אנק, במיוחד מבחינת ההתמודדות עם תווים כיווניים, RTL? האם יש להשמיט תווים אלו או להשאירם, ומתי נכון להשתמש באלגוריתמים דו-כיווניים, BiDi? בנוסף, הצוות מתלבט מהו הגודל הנכון של צ'אנק מבחינת כמות טוקנים כאשר הוא מורכב רק מעברית, רק מאנגלית, או משילוב של השתיים, והאם עדיף לפצל את הט

shlomoyona
5 days ago3 min read


מה בין ניסויים בשיטת K-Fold לבין הגרלה באקראי?
יש לי תהליך למידת מכונה, נניח Random Forest או XGB, ואני רוצה לוודא שהוא יציב, שהוא אינו בתת התאמה ולא בהתאמת יתר ושלתוצאות שאני מקבל עליו בבדיקות יש משמעות ועקביות. נניח שקבעתי מראש כמה מהאוסף המתוייג שברשותי הוא לטובת הבדיקות וכמה לטובת הלמידה ושהיחס הוא Rₜᵣₐᵢₙ:Rₜₑₛₜ (ככה ש Rₜᵣₐᵢₙ+Rₜₑₛₜ=1 וכל אחד מהמחוברים גדול מאפס וקטן מ 1). האם זה משנה אם אבצע ניסויים רבים בשיטת K-Fold או פשוט אגריל באקראי? בשימוש במודלים מבוססי עצים כמו XGBoost או Random Forest, הבחירה בין K-Fold לבין ח

shlomoyona
5 days ago3 min read


מדריך רגולריזצייה בלמידת מכונה
בפוסט קודם הצגתי את הרגולריזציה על קצה המזלג. הפעם נעמיק מעט יותר. הניסוח המתמטי של פונקציית ההפסד והקנס בלמידת מכונה מפוקחת מבוססת אופטימיזציה, כמו רגרסיה ליניארית או רשתות עצביות, אנחנו מגדירים פונקציית מטרה או פונקציית הפסד שאותה האלגוריתם מנסה למזער. ברגרסיה ליניארית רגילה בשיטת הריבועים הפחותים, פונקציית המטרה מחפשת את וקטור המשקלים w שממזער את שגיאת החיזוי נטו: min_w L(w) = 1/(2n) ∑ (yᵢ - ŷᵢ)² = 1/(2n) ||Xw - y||₂² הבעיה בגישה זו היא שהיא מעניקה לאלגוריתם חופש פעולה

shlomoyona
6 days ago14 min read


רגולריזציה על קצה המזלג
בלב תיאוריית הלמידה הסטטיסטית קיימת התמודדות מתמטית עם שקלול התמורות בין הטיה לשונות. מטרתו של כל אלגוריתם למידת מכונה מפוקחת היא למצוא פונקציה שתמפה קלט לפלט באופן מדויק על נתונים חדשים. כאשר מודל מקבל דרגות חופש רבות הוא מתאים את עצמו לתבנית ולרעש גם יחד. תופעה זו נקראת התאמת יתר, overfitting. במצב זה המודל משנן את נתוני האימון במקום להסיק כללים להכללה. למודל מתקבלת הטיה נמוכה על נתוני האימון ושונות גבוהה ולכן הוא ייכשל בחיזוי נתונים עתידיים. הפתרון המקובל להגבלת דרגות החופ

shlomoyona
6 days ago5 min read


איך SDR עובד ומה עושים ב NuPIC כדי שהמעבדים של אינטל יעבדו ביעילות?
כתבתי על Numenta ועל הגישה של ג'ף הוקינס ופרוייקט אלף המוחות. טכנולוגיית HTM שממומשת בספריית NuPIC מתבססת על מבני נתונים מסוג Sparse Distributed Representations. בייצוג זה אחוז זעיר ממרכיבי המערך פעיל והשאר אפסים. המנגנון נמנע משמירת מטריצה מלאה ושומר אך ורק את האינדקסים של הביטים הפעילים. במערך נתון מערכת NuPIC תאחסן רשימה מצומצמת של מספרים שלמים שמייצגים את מיקום הפעילות בלבד. התהליך מתחיל בזיהוי ביטים אלו בקלט, ממשיך בעדכון סינפסות פוטנציאליות המקושרות אליהם ישירות ומסתיים

shlomoyona
6 days ago5 min read


המתמטיקה של השיפורים של NuPIC והשפעה על חברות המעבדים
כתבתי על התיאוריות של ג'ף הוקינס ועל הפיתוחים של נומנטה ועל השיפורים שהציגו עם אינטל והובאו לידי ביטוי בפיתוחים ובהסכמים ובתוצרים אצל חברות נוספות על אינטל כמו F5, Dell ואחרות. את המסחור עושים באמצעות חברת NUMENTA. הטכנולוגיה של נומנטה מבוססת על אופטימיזציית תוכנה שמנצלת את סט הפקודות Advanced Matrix Extensions שמצוי במעבדי אינטל. רכיב חומרתי זה הוטמע לראשונה במעבדי השרתים מסדרת Xeon Scalable מהדור הרביעי ומצוי גם במעבדי הדור החמישי מאותה סדרה. כמו כן, הטכנולוגיה נתמכת בסדרת

shlomoyona
7 days ago3 min read


האם המפתח ל-AI חזק יותר נמצא בכלל בביולוגיה?
פרויקט אלף המוחות שהזכרתי בפוסט קודם ועקרונות הפעולה שנוסחו בו הובילו לפיתוח ארכיטקטורות חומרה ותוכנה שמייעלות את צריכת האנרגיה ומשאבי החישוב בתעשיית הבינה המלאכותית. פלטפורמת NuPIC מיישמת עקרונות אלו ומאפשרת הרצה של מודלי שפה גדולים על גבי מעבדים קונבנציונליים. שילוב טכנולוגיה זו עם פקודות האצה במעבדי אינטל מציג ביצועי תפוקה וחיסכון בחשמל שעולים במקרים מסוימים על אלו של GPUs ללא צורך בקיבוץ נתונים. במקביל מעבדות אקדמיות באוניברסיטת קרנגי מלון מפתחות מערכות חומרה נוירומורפיות

shlomoyona
7 days ago2 min read
bottom of page
.png)