עדכון אחרון: אפריל 2025

מהי הערת שקיפות?

מערכת בינה מלאכותית כוללת לא רק את הטכנולוגיה, אלא גם את האנשים שישתמשו בה, את האנשים שהושפעו מהטכנולוגיה ואת הסביבה שבה היא נפרסת. הערות השקיפות של Microsoft נועדו לעזור לך להבין כיצד פועלת טכנולוגיית הבינה המלאכותית מאחורי Copilot, את הבחירות שביצענו המשפיעות על הביצועים וההתנהלות של המערכת ואת החשיבות של החשיבה על המערכת כולה, כך שמשתמשי Copilot יוכלו לקבל שליטה על החוויות שלהם ולהבין את השלבים שאנו נוקטים כדי לספק מוצר בטוח ומאובטח.

הערות השקיפות של Microsoft הן חלק ממאמץ נרחב יותר ב- Microsoft לתרגל את עקרונות הבינה המלאכותית שלנו. לקבלת מידע נוסף, ראו את עקרונות הבינה המלאכותית של Microsoft

יסודות Microsoft Copilot

מבוא

Copilot היא חוויה שמופעלת באמצעות בינה מלאכותית, שתסייע למשתמשים לספק למשתמשים את המידע שהם מחפשים כשהם מוכנים לתמוך במשתמשים במתן מענה למגוון רחב של שאלות, ללא קשר למצב או לנושא. Copilot מרוענן אינו משיב על שאילתות אחזור מידע בסיסיות ומתמקד ביצירת תוכן כדי להציע תמיכה יזומה יותר למשתמשים בעת השלמת משימות. יש לנו הבנה הולכת וגדלה של האופן שבו לבינה מלאכותית יש פוטנציאל לעזור לאנשים ללמוד, לגלות ותצירתיים יותר, מה שנדרש מאיתנו לבנות סוג אחר של מוצר. החוויה החדשה של Copilot מחפשת להפוך לסוג חדש של חוויה שהיא חוויה פתוחה ודינאמית כדי לטפל בצורה טובה יותר בצרכים של המשתמשים בצורה אינטואיטיבית יותר.

אנו ב- Microsoft לוקחים ברצינות את המחויבות שלנו ליישום אחראי של בינה מלאכותית. חוויית Copilot המעודכנת פותחה בהתאם לעקרונות הבינה המלאכותית של Microsoft, לבינה מלאכותית אחראית Standard של Microsoft ולשותפות עם מומחי בינה מלאכותית אחראיים ברחבי החברה, כולל ה- Office ליישום אחראי של Microsoft, צוותי ההנדסה שלנו, Microsoft Research ו- Aether. כאן ניתן לקבל מידע נוסף על יישום אחראי של בינה מלאכותית ב- Microsoft.  

במסמך זה, אנו מתארים את הגישה שלנו ליישום אחראי של בינה מלאכותית ל- Copilot. לפני ההפצה, מינפנו את השיטות המתקדמים של Microsoft כדי למפות, למדוד ולנהל סיכונים פוטנציאליים ושימוש לרעה במערכת ולהבטחת היתרונות שלה עבור המשתמשים. המשכנו לפתח את Copilot, המשכנו גם ללמוד ולשפר את המאמצים שלנו ליישום אחראי של בינה מלאכותית. מסמך זה יתעדכן מעת לעת כדי להעביר את התהליכים והשיטות המתפתחים שלנו.  

מונחים עיקריים

מסווגים    מודלים של למידת מכונה שמסייעים למיין נתונים לכיתות או לקטגוריות מידע עם תוויות. בחוויה המעודכנת של Copilot, דרך אחת שבה אנו משתמשים מסווגים היא לזהות תוכן שעלול להיות מזיק שנשלח על-ידי משתמשים או שנוצר על-ידי המערכת כדי לצמצם את הדור של תוכן זה ולהשתמש לרעה במערכת או להשתמש בה לרעה. 

הארקה    לשיחות מסוימות שבהן משתמשים מחפשים מידע, Copilot מקורקע בתוצאות חיפוש באינטרנט. משמעות הדבר היא ש- Copilot מרכזת את התגובה שלה לתוכן בעל דירוג גבוה מהאינטרנט ומספקת ציטוטים בהיפר-קישורים בעקבות תגובות טקסט שנוצרו. שים לב, בשלב זה, בקשות המשתמש במצב קול לא יפעילו חיפוש באינטרנט, ולכן לא יכללו תגובות.

מודלי שפה גדולים (LLMs)    מודלי שפה גדולים (LLMs) בהקשר זה הם מודלים של בינה מלאכותית שמוכשמים בכמויות גדולות של נתוני טקסט לחיזוי מילים ברצף. LLMs יכולים לבצע מגוון משימות, כגון יצירת טקסט, סיכום, תרגום, סיווג ועוד.

צמצום סיכונים    שיטה או שילוב של שיטות שנועדו להפחית סיכונים פוטנציאליים שעלולים להתעורר משימוש בתכונות הבינה המלאכותית בתוך Copilot.

דגמים רב-מודאליים (MMMs)    מודלים רב-מודאליים (MMMs) הם מודלים של בינה מלאכותית שמוכשרת בסוגים שונים של נתונים, כגון טקסט, תמונות או שמע. מודלים אלה יכולים לבצע מגוון משימות, כגון כתיבת טקסט, תיאור תמונות, זיהוי דיבור וחיפוש מידע בסוגים שונים של נתונים.

הנחיות    קלט בצורה של טקסט, תמונות ו/או שמע שמשתמש שולח ל- Copilot כדי לקיים אינטראקציה עם תכונות הבינה המלאכותית בתוך Copilot.

קיבוץ באדום    טכניקות המשמשות מומחים כדי להעריך את המגבלות והפגיעות של מערכת ולבחון את היעילות של צמצום סיכונים מתוכנן. בדיקות הצוות האדום כוללות בודקים המאמצים הן אדם טוב והן אדם תואר הפועל לזיהוי סיכונים פוטנציאליים, ונבדלים מדידה מערכתית של סיכונים.

תגובות    טקסט, תמונות או שמע ש- Copilot יוצר בתגובה לבקשה או כחלק מהתפריט הלוך ושוב עם המשתמש. מילים נרדפות עבור "תגובה" כוללות את המילים "completion", "generation" ו- "answer".

מודלי שפה קטנים (SLMs)    מודלי שפה קטנים (SLMs) בהקשר זה הם מודלים של בינה מלאכותית שמוכשר על כמויות קטנות יותר של נתונים ממוקדות יותר בהשוואה למודלים גדולים של שפות. למרות הגודל הקטן יותר שלהם, SLMs יכולים לבצע מגוון משימות, כגון יצירת טקסט, סיכום, תרגום וסיווג. למרות שייתכן שהם לא יתאימו ליכולות הנרחבות של LLMs, לעתים קרובות אנשי SLM יעילים יותר למשאבים ויכולים להיות יעילים במיוחד עבור יישומים ייעודיים ספציפיים. 

הודעת מערכת    הודעת המערכת (שנקראת לעתים "metaprompt") היא תוכנית המשמשת להדריך את אופן הפעולה של המערכת. חלקים מההודעות במערכת מסייעים ביישור אופן הפעולה של המערכת לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים. לדוגמה, הודעת מערכת עשויה לכלול שורה כגון "אל תספק מידע או תיצור תוכן שעלול לגרום לפגיעה פיזית, רגשית או פיננסית". 

יכולות

אופן פעולה של המערכת

בעזרת Copilot, פיתחנו גישה חדשנית כדי לספק למשתמשים חוויית בינה מלאכותית מותאמת אישית יותר לקבלת חוויה מרתקת, שעשויה לעזור למשתמשים במגוון משימות. גישה חדשנית זו ממנפת מגוון טכנולוגיות מתקדמות, כגון מודלים רב-מודאליים של Microsoft, OpenAI ומפתחי מודלים אחרים. עבדנו על היישום של טכניקות בטיחות עבור המודלים הבסיסיים של חוויית Copilot החדשה לפני ההפצה הציבורית, כדי לפתח ערכה מותאמת אישית של יכולות וה אופני פעולה המספקים חוויה משופרת של Copilot. ב- Copilot המעודכן, המשתמשים יכולים לשלוח בקשות בטקסט או בקול בשפה טבעית. תגובות מוצגות למשתמשים בכמה תבניות שונות, כגון תגובות צ'אט בתבנית טקסט (עם קישורים מסורתיים לתוכן אינטרנט לפי הצורך) ותמונות (אם בקשת תמונה בוצעה כחלק מהבקשה). אם המשתמשים שולחים בקשות בקול בשפה טבעית במצב קול Copilot, הם יקבלו תגובות שמע. 

כאשר משתמש מזין בקשה ב- Copilot, הבקשה, היסטוריית השיחות וההודעות המערכת נשלחות דרך כמה מסווגי קלט כדי לעזור לסנן תוכן מזיק או בלתי הולם. זהו שלב ראשון חיוני שעוזר לשפר את ביצועי המודל ולצמצם מצבים שבהם משתמשים עשויים לנסות להציג בקשה למודל באופן שעשוי להיות לא בטוח. לאחר שהבקשה עוברת דרך מסווגי הקלט, היא נשלחת ל- SLM כדי לקבוע אם הבקשה דורשת נתוני הארה מהאינטרנט באיזה מודל שפה אמור להגיב לבקשה. כל המודלים יוצרים תגובה באמצעות הבקשה של המשתמש והיסטוריית השיחות האחרונה כדי להקשר את הבקשה, הודעת המערכת כדי ליישר תגובות לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים, ובהתאם לצורך, ליישר תגובות עם תוצאות חיפוש לתשובות מבוססות בתוכן קיים בעל דירוג גבוה מהאינטרנט.  

תגובות מוצגות למשתמשים בכמה תבניות שונות, כגון תגובות צ'אט בטופס טקסט, קישורים מסורתיים לתוכן אינטרנט, תמונות ותגובות שמע. כאשר מסופקות תגובות בצורה של טקסט, והתגובות מקורקעות בנתונים מהאינטרנט - הפלט מכיל ציטוטים בהיפר-קישורים המפורטים מתחת לטקסט כדי שהמשתמשים יוכלו לגשת לאתרי האינטרנט ששימשו להקרקע את התגובה וללמוד עוד על הנושא משם. 

Copilot גם עוזר למשתמשים ליצור סיפורים חדשים, שירים, מילות שירים ותמונות. כאשר Copilot מזהה כוונה של משתמש ליצור תוכן יצירתי (כגון הנחיה למשתמש המתחילה ב- "write me a ..."), המערכת, ברוב המקרים, תפיק תוכן שמגיב לבקשה של המשתמש. באופן דומה, כאשר Copilot מזהה כוונה של משתמש ליצור תמונה (כגון הנחיה למשתמש המתחילה ב"צייר לי ..."), Copilot ייצור, ברוב המקרים, תמונה שתגיב לבקשה של המשתמש. כאשר Copilot מזהה כוונה של משתמש לשנות תמונה שהועלה (כגון הנחיה למשתמש המתחילה ב"הוסף ..."), Copilot, ברוב המקרים, משנה תמונה שמגיבה לבקשה של המשתמש. ייתכן ש- Copilot לא יגיב עם תוכן יצירתי כאשר הבקשה של המשתמש מכילה מונחים מסוימים שעלולים לגרום לתוכן בעייתי.

למשתמשים בעלי חשבונות Microsoft (MSA) יש כעת גם אפשרות להירשם כמנוי ל- Copilot Pro, המציע חוויה משופרת, כולל ביצועים מואצים, שימוש ביכולות Copilot Voice לפרקי זמן ארוכים יותר, ובבמקרים מסוימים, גישה לתכונות חדשות וניסיוניות. Copilot Pro זמין כעת במספר מוגבל של מדינות, ובכוונתנו להפוך את Copilot Pro לזמין בשווקים נוספים בקרוב.

אופן פעולה של בטיחות ייעודית

המטרה שלנו עבור Copilot תהיה שימושית למשתמשים. על-ידי מינוף שיטות עבודה מומלצות של מוצרים ושירותים אחרים של בינה מלאכותית הגנטית של Microsoft, אנו שואפים להגביל את Copilot ליצירת תוכן בעייתי ולהגדיל את הסבירות של חוויית משתמש בטוחה וחיובית. אמנם, נקטנו צעדים כדי לצמצם סיכונים, אך מודלים של בינה מלאכותית גנאית כמו אלו שמאחורי Copilot הם רבי-ערך, ובאפשרותנו לבצע טעויות, כלומר צמצום סיכונים עלול לעתים להיכשל בחסימת בקשות משתמש מזיקות או תגובות שנוצרו על-ידי בינה מלאכותית. אם אתה נתקל בתוכן מזיק או בלתי צפוי בעת השימוש ב- Copilot, ספר לנו על כך על-ידי מתן משוב כדי שנוכל להמשיך לשפר את החוויה.

מקרי שימוש

שימושים ייעודיים

Copilot מיועדת לתמוך במשתמשים במענה על מגוון רחב של שאלות, ללא קשר למצב או לנושא. המשתמשים יכולים לקיים אינטראקציה עם Copilot באמצעות קלט טקסט, תמונה ושמע, כאשר אינטראקציות נועדו להרגיש יותר כמו שיחות טבעיות עם מערכת בינה מלאכותית. בנוסף, אם משתמשים מקיימים אינטראקציה עם Copilot באמצעות טקסט כדי לחפש מידע ספציפי בנושאים שבהם Copilot עשוי לדרוש מידע נוסף כדי להפיק תשובה מדויקת יותר, החוויה מיועדת לחבר משתמשים לתוצאות חיפוש רלוונטיות, לסקור תוצאות מכל רחבי האינטרנט ולסכם את המידע שהמשתמשים מחפשים. ב- Copilot, המשתמשים יכולים: 

  • סיכום מידע בזמן אמת בעת שיחה בצ'אט באמצעות טקסט.    כאשר משתמשים מקיימים אינטראקציה עם Copilot באמצעות טקסט, המערכת תבצע חיפושים באינטרנט אם דרוש לה מידע נוסף, והיא תשתמש בתוצאות החיפוש המובילות באינטרנט כדי ליצור סיכום של המידע שיש להציג למשתמשים. סיכומי מידע אלה כוללים ציטוטים לדפי אינטרנט כדי לעזור למשתמשים לראות את המקורות לקבלת תוצאות חיפוש שסייעו להסלים את הסיכום של Copilot. משתמשים יכולים ללחוץ על קישורים אלה כדי לעבור ישירות למקור אם הם רוצים לקבל מידע נוסף.

  • שוחח בצ'אט עם מערכת בינה מלאכותית באמצעות טקסט.    המשתמשים יכולים לשוחח בצ'אט עם Copilot באמצעות טקסט ולשאל שאלות המשך טיפול כדי למצוא מידע חדש ולקבל תמיכה במגוון רחב של נושאים.

  • יצירת ממשק עם בינה מלאכותית באמצעות קול.    Copilot יכול לא רק לקבל קלט שמע, אלא גם להפיק פלט שמע באחד מארבעה קולות שנבחרו על-ידי המשתמשים. יכולות שמע לשמע מאפשרות למשתמשים לקיים אינטראקציה עם Copilot בצורה טבעית ונוזלת יותר.

  • קבל תוכן חדשותי לעיכול.    המשתמשים יכולים להשתמש ב- Copilot כדי לקבל סיכום של חדשות, מזג אוויר ועדכונים אחרים בהתבסס על תחומי הנושא שנבחרו באמצעות התכונה Copilot Daily ולהאזין לתדרוךים אלה בתבנית הדומים לפודקאסט. תכונה זו תמשוך תוכן ממקורות מורשים שיש להם הסכמים עם Microsoft.

  • קבל עזרה ביצירת רעיונות חדשים.    בכל פעם שמשתמשים מקיימים אינטראקציה עם חוויית Copilot, הם יראו קבוצה של כרטיסים שהם יוכלו ללחוץ עליהם כדי להתחיל לשוחח בצ'אט עם Copilot לגבי נושאים שימושיים ומעניינות. אם המשתמשים קיים אינטראקציה עם שירותים אחרים של Microsoft לצרכנים, הכרטיסים יותאמו אישית בהתאם למדיניות הפרטיות שלנו. לאורך זמן, כרטיסים ב- Copilot עשויים להיות מותאמים אישית בהתבסס על היסטוריית הצ'אט של המשתמש. המשתמשים יכולים לבטל את ההצטרפות להתאמה אישית בכל עת בהגדרות, ואנו עדיין חוקרים אפשרויות להתאמה אישית במועד מאוחר יותר עבור משתמשים ב- EEA (האזור הכלכלי האירופי) ובבריטניה.

  • צור תוכן יצירתי.    בעת שיחה בצ'אט עם Copilot, משתמשים יכולים ליצור שירים חדשים, בדיחות, סיפורים, תמונות ותוכן אחר בעזרת חוויית Copilot. Copilot יכול גם לערוך תמונות שהועלו על-ידי משתמשים לפי הצורך.

  • ביצוע משימות ב- Android.המשתמשים יכולים לקיים אינטראקציה עם Copilot באמצעות פלטפורמת Android באמצעות קול כדי לבצע משימות מסוימות. משימות אלה מגדירות שעון עצר והתראות, ביצוע שיחות טלפון, שליחת הודעות SMS והזמנות של Uber. על המשתמשים לאשר את שיחת הטלפון, הודעת ה- SMS והזמנה של Uber לפני השלמת המשימות.

  • סיוע במשימות מחקר.  Copilot יכול לבצע משימות מחקר על-ידי התגלמות משאבים מעמיקים, הצעת פירוט פירוט של נושאים וקישור למקורות כדי לעזור למשתמשים מעבר לתשובות מהירות עבור שאילתות מורכבות יותר.

שיקולים בעת בחירת מקרי שימוש אחרים

אנו ממליצים למשתמשים לסקור את כל התוכן לפני קבלת החלטות או פעולה בהתבסס על התגובות של Copilot, ככל שהבינה המלאכותית יכולה לבצע טעויות. בנוסף, קיימים תרחישים מסוימים שבהם אנו ממליצים להימנע או שקיימים נגד תנאי השימוש שלנו. לדוגמה, Microsoft אינה מאפשרת להשתמש ב- Copilot בכל קשר לפעילויות בלתי חוקיות או למטרה כלשהי המיועדת לקדם פעילות בלתי חוקית.  

מגבלות

מודלי השפה, הדימות והשמע המשמשים את חוויית Copilot עשויים לכלול נתוני הדרכה העשויים לשקף הטיות חברתיות, שעשויות לגרום ל- Copilot לפעול בדרכים שנתפסות בלתי הוגנת, בלתי אמין או פוגענית. למרות ההכשרה האינטנסיבית שלנו למודלים וכוונון בטיחות, וכן על היישום של בקרות ובטיחות אחראיות של בינה מלאכותית שאנחנו ממקם על נתוני ההכשרה, בקשות המשתמשים ופלט המודלים, השירותים מונחי הבינה המלאכותית הם שגויים ורבי ערך. הדבר מקשה על חסימה מקיפה של כל התוכן הבלתי הולם, המוביל לסיכונים שהטיה פוטנציאלית, סטריאוטיפים, אי-קדמה או סוגים אחרים של נזק שעלולים להופיע בתוכן שנוצר על-ידי בינה מלאכותית. חלק מהדרכים שבהן מגבלות אלה עשויות להתבטא בחוויה של Copilot מפורטות כאן. 

  • סטריאוטיפ: חוויית קופילוט עשויה לחזק סטריאוטיפים. לדוגמה, בעת תרגום "הוא אחות" ו"היא רופאה" לשפה ללא מגדר כגון טורקית ולאחר מכן חזרה לאנגלית, Copilot עשויה לניב בשוגג את התוצאות הסטריאוטיפיות (השגויות) של "היא אחות" ו"הוא רופא". דוגמה נוספת היא בעת יצירת תמונה בהתבסס על הבקשה "ילדים נטולי אב", המערכת יכולה ליצור תמונות של ילדים מגזע אחד או אתניות אחד בלבד, לחיזוק סטריאוטיפים מזיקים שעשויים להתקיים בתמונות הזמינות לציבור, המשמשות לאמן את המודלים המשמשים בסיס. Copilot עשוי גם לחזק סטריאוטיפים בהתבסס על התוכן בתמונת הקלט של המשתמש על-ידי התבססות על רכיבי התמונה והנחות שעשויות להיות לא נכונות. יישמנו צמצום סיכונים כדי להפחית את הסיכון לתוכן המכיל סטריאוטיפים פוגעניים, כולל מסווגי קלט ופלט, מודלים משויכים והודעות מערכת.

  • הצגה מצג-יתר ופחת: Copilot עשוי לייצג קבוצות אנשים מעל או לא מייצגות אותן, או אפילו לא לייצג אותן כלל, בתגובות שלה. לדוגמה, אם הודעות טקסט המכילות את המילה "הומו" מזוהות כהודעות שעלולות להיות מזיקות או פוגעות, הדבר עלול להוביל לתוקף של דורות חוקיים בנוגע לקהילת LGBTQIA+. בנוסף לכלול סיווגי קלט ופלט, מודלים מכווננים וכן הודעות מערכת, אנו משתמשים בהעשרת בקשות ב- Designer בתור אחד מכמה צמצום סיכונים כדי להפחית את הסיכון של תוכן שקבוצות אנשים מעל או לא מייצגות.

  • תוכן בלתי הולם או פוגעני: חוויית Copilot עשויה להפיק סוגים אחרים של תוכן בלתי הולם או פוגעני. דוגמאות לכך כוללות את היכולת ליצור תוכן במודאליות אחת (לדוגמה, שמע) הבלתי הולם בהקשר של הבקשה שלו או בהשוואה לאותו פלט במודאליות שונה (לדוגמה, טקסט). דוגמאות אחרות כוללות תמונות שנוצרו על-ידי בינה מלאכותית שעשויות להכיל ממצאים מזיקים כגון סמלי שנאה, תוכן הקשור לנושאים מתחרים, מעוררי מחלוקת או מקטבים מבחינה אידיאולוגית ותוכן טעון מינית שמתחמק ממסנןי תוכן הקשורים למיניות. הצבנו צמצום סיכונים כדי להפחית את הסיכון לדורות המכילים תוכן בלתי הולם או פוגעני, כגון מסווגי קלט ופלט, מודלים מכווננים והודעות מערכת.

  • מהימנות מידע: בעוד ש- Copilot שואפת להגיב עם מקורות מהימנים במידת הצורך, הבינה המלאכותית יכולה לבצע טעויות. הוא עלול ליצור תוכן שטני או ליצור תוכן שעשוי להישמע סביר, אך אינו מדויק מבחינה עובדתית. גם בעת ציור תגובות מתוך נתוני אינטרנט בעלי סמכות גבוהה, תגובות עשויות להציג תוכן זה באופן שאינו מדויק או מהימן לחלוטין. אנו מזכירים למשתמשים באמצעות ממשק המשתמש ובתיעוד כזה ש- Copilot יכול לבצע טעויות. כמו כן, אנו ממשיכים לחנך את המשתמשים על המגבלות של בינה מלאכותית, כגון עידודם לבדוק שוב עובדות לפני קבלת החלטות או ביצוע פעולות בהתאם לתגובות של Copilot. כאשר המשתמשים מקיים אינטראקציה עם Copilot באמצעות טקסט, הוא ינסה להקרקע את עצמו כנתוני אינטרנט באיכות גבוהה כדי להפחית את הסיכון שדורות אינם מוארפים.

  • ביצועים רב-לשוניים: ייתכן שקיימות וריאציות בביצועים בשפות שונות, עם ביצועים מיטביים באנגלית בעת שחרור Copilot המעודכן. שיפור הביצועים בשפות שונות הוא אזור השקעה עיקרי, והמודלים האחרונים הובילו לביצועים משופרים.

  • מגבלות שמע: מודלים של שמע עשויים לגרום למגבלות אחרות. באופן נרחב, האיכות האקוסטית של קלט הדיבור, רעש שאינו דיבור, אוצר מילים, הדגשה ושגיאות הוספה עשויה גם היא להשפיע על תהליכי Copilot ומגיבים לקלט השמע של המשתמש באופן משביע רצון. בנוסף, מאחר שהמשתמש מבקש לעשות שימוש ב- Copilot Voice לא יפעיל חיפושים באינטרנט, ייתכן ש- Copilot לא יוכל להגיב לאירועים הנוכחיים במצב קול.

  • תלות בקישוריות לאינטרנט: חוויית Copilot המעודכנת מסתמכת על קישוריות לאינטרנט כדי לתפקד. שיבושים בקישוריות עשויות להשפיע על הזמינות והביצועים של השירות.

ביצועי מערכת

במערכות בינה מלאכותית רבות, הביצועים מוגדרים לעתים קרובות ביחס לדיוק (כלומר, באיזו תדירות מערכת הבינה המלאכותית מציעה חיזוי או פלט נכונים). בעזרת Copilot, אנו מתמקדים ב- Copilot כעוזר שמוקד על-ידי בינה מלאכותית המשקף את העדפות המשתמש. לכן, שני משתמשים שונים עשויים להסתכל על אותו פלט ויש להם דעות שונות לגבי האופן שבו הם שימושיים או רלוונטיים, בהתאם למצב ולציפיות הייחודיים שלהם, כלומר יש להגדיר ביצועים עבור מערכות אלה בצורה גמישה יותר. אנו שוקלים באופן נרחב לבצע את הביצועים כך שהיישום פועל כצפוי על-ידי המשתמשים.

שיטות עבודה מומלצות לשיפור ביצועי המערכת 

קיים אינטראקציה עם הממשק באמצעות שפה טבעית ושיחות.    אינטראקציה עם Copilot באופן נוח למשתמש היא המפתח לקבלת תוצאות טובות יותר באמצעות החוויה. בדומה לאימוץ טכניקות כדי לעזור לאנשים לקיים תקשורת יעילה בחיי היום-יום שלהם, אינטראקציה עם Copilot כעוזרת שמוטמעת בבינה מלאכותית באמצעות טקסט או דיבור המוכר למשתמש עשויה לעזור לך להוסיף תוצאות טובות יותר.

חוויית משתמש והטמעה.    השימוש האפקטיבי ב- Copilot דורש מהמשתמשים להבין את היכולות והמגבלות שלה. ייתכן שקיים עקומת למידה, וייתכן שהמשתמשים יתנסו בהפניה למשאבי Copilot שונים (לדוגמה, מסמך זה ושאלות הנפוצות שלנו בנושא Copilot) כדי לקיים אינטראקציה יעילה עם השירות ולהנות ממנו.

מיפוי, מדידה וניהול של סיכונים

כמו טכנולוגיות טרנספורמציה אחרות, נצלת היתרונות של בינה מלאכותית אינה מבוססת על סיכונים, ו חלק מרכזי בתוכנית הבינה המלאכותית האחראית של Microsoft נועד לזהות ולמפה סיכונים פוטנציאליים, למדוד סיכונים אלה ולנהל אותם על-ידי בניית צמצום סיכונים ושיפור ההמשך של Copilot לאורך זמן. בסעיפים הבאים אנו מתארים את הגישה האיטרטיבית שלנו למפות, למדוד ולנהל סיכונים פוטנציאליים.

מפה: תכנון קפדני ובדיקות תואר הפועל לפני פריסה, כגון צוות אדום, עוזר לנו למפות סיכונים פוטנציאליים. המודלים המשמשים את העוצמה של חוויית Copilot עברה בדיקות צוות אדומות של בודקים המייצגים נקודות מבט מרובות תחומים רלוונטיים בנושא. בדיקה זו תוכננה כדי להעריך כיצד הטכנולוגיה העדכנית ביותר ת לפעול הן עם והן ללא אמצעי הגנה נוספים שהוחלו עליה. הכוונה של תרגילים אלה ברמת המודל היא ליצור תגובות מזיקות, להציג שדרות פוטנציאליות לשימוש לרעה ולזהות יכולות ומגבלות.

לפני הפיכת חוויית Copilot לזמינה באופן ציבורי בתצוגה מקדימה של מהדורות מוגבלות, ביצענו גם צוות אדום ברמת היישום כדי להעריך את Copilot לקצרים ופגיעות. תהליך זה עזר לנו להבין טוב יותר כיצד ניתן להשתמש במערכת על-ידי מגוון רחב של משתמשים ועזר לנו לשפר את צמצום הסיכונים.

מדידה: בנוסף להערכת Copilot כנגד הערכות הבטיחות הקיימות שלנו, השימוש בצוות אדום המתואר לעיל עזר לנו לפתח הערכות ומדדי בינה מלאכותית אחראית התואמים לזיהוי סיכונים פוטנציאליים, כגון שבבירות מהכלא, תוכן מזיק ותוכן לא מוארק.

אספנו נתוני שיחה שמיקוד הסיכונים האלה, באמצעות שילוב של משתתפים אנושיים וצינור אוטומטי של יצירת שיחה. לאחר מכן, כל הערכה מוערכת על-ידי מאגר של ביאורים אנושיים מיורגלים או צינור ביאור אוטומטי. בכל פעם שה מוצר משתנה, צמצום הסיכונים הקיים מתעדכן או צמצום סיכונים חדש מוצע, אנו מעדכנים את קווי הצינור להערכה כדי להעריך הן את ביצועי המוצר והן את מדדי הבינה המלאכותית האחראית. קווי צינור אוטומטיים אלה להקשר הערכה הם שילוב של שיחות שנאספו עם מעריךי בני אדם ושיחות סינתטיות שנוצרו עם אפליקציות LLMs שהתבקשו לבדוק מדיניות באופן תואר הפועל. כל אחת מהערכות בטיחות אלה מקודגת באופן אוטומטי עם LLMs. עבור ההערכות החדשים שפותחו, כל הערכה היא תחילה ניקוד על ידי תוויות אנושיות שקראו את תוכן הטקסט או להאזין לפלט השמע, ולאחר מכן המרה להערכות אוטומטיות המבוססות על LLM.

אופן הפעולה המיועד של המודלים שלנו בשילוב עם צינורות ההערכה שלנו – הן אנושיים והן אוטומטיים - מאפשר לנו לבצע מדידה במהירות עבור סיכונים פוטנציאליים בקנה מידה גדול. כאשר אנו מזהים בעיות חדשות לאורך זמן, אנו ממשיכים להרחיב את ערכות המידות כדי להעריך סיכונים נוספים. 

ניהול: כפי שזיהינו סיכונים פוטנציאליים ולהשתמש לרעה באמצעות צוות אדום ומדדנו אותם עם הגישות המתוארות לעיל, פיתחנו צמצום סיכונים נוסף שהנו ספציפי לחוויה של Copilot. להלן, אנו מתארים כמה מסיכונים אלה. נמשיך לנטר את חוויית Copilot כדי לשפר את ביצועי המוצר ואת הגישה שלנו להפחתת סיכונים. 

  • תוכניות הפצה בשלבים והערכה מתמשכית.    אנו מחויבים ללמוד ולשפר את הגישה שלנו ליישום אחראי של בינה מלאכותית באופן רציף ככל שהטכנולוגיות וההתפתחות של המשתמשים מתפתחים. אסטרטגיית ההפצה המצטברת שלנו היא חלק מרכזי באופן העברת הטכנולוגיה שלנו בבטחה מהמעבדה לעולם, ואנו מחויבים לתהליך מחושב ומבוקר כדי להבטיח את היתרונות של חוויית Copilot. אנו בוצעו שינויים ב- Copilot באופן קבוע כדי לשפר את ביצועי המוצרים ואת צמצום הסיכונים הקיים, וליישם צמצום סיכונים חדש בתגובה ללמידה שלנו.

  • מינוף מסווגים וההודעות של המערכת כדי לצמצם סיכונים פוטנציאליים או שימוש לרעה.    בתגובה לבקשות המשתמשים, הודעות LLMs עשויות ליצור תוכן בעייתי. דנו בסוגי תוכן שאנו מנסים להגביל בסעיפים 'אופן פעולה של המערכת' ו'מגבלות' לעיל. מסווגים וההודעות המערכת הם שתי דוגמאות של צמצום סיכונים שהושמו ב- Copilot כדי לסייע בהפחתת הסיכון לסוגי תוכן אלה. מסווגים מסווגים טקסט כדי לסמן בדגל תוכן שעלול להיות מזיק בהנחיות המשתמש או בתגובות שנוצרו. אנו משתמשים גם בשיטות עבודה מומלצות קיימות למינוף הודעת המערכת, הכוללת מתן הוראות למודל להתאמת אופן הפעולה שלו לעקרונות הבינה המלאכותית של Microsoft ולציפיות המשתמשים.

  • הסכמה להעלאת תמונות Copilot.    בפעם הראשונה שמשתמש מעלה תמונה המכילה פנים ל- Copilot, הוא יתבקש לספק את הסכמתו להעלאת הנתונים הביומטריים שלו ל- Copilot. אם משתמש אינו בוחר להצטרף, התמונה לא תישלח ל- Copilot. כל התמונות, בין אם הן מכילות פנים או לא, נמחקות בתוך 30 יום לאחר סיום השיחה.

  • גילוי בינה מלאכותית.    Copilot נועדה גם ליידע אנשים שהם מקיים אינטראקציה עם מערכת בינה מלאכותית. כאשר משתמשים עוסקים ב- Copilot, אנו מציעים נקודות מגע שונות שנועדו לעזור להם להבין את יכולות המערכת, לחשוף בפניהם ש- Copilot מופעל באמצעות בינה מלאכותית ולהעביר מגבלות. החוויה נועדה באופן זה כדי לעזור למשתמשים להפיק את המרב מ- Copilot ולמזער את הסיכון להתייסות. חשיפת מידע גם עוזרת למשתמשים להבין טוב יותר את Copilot ואת האינטראקציות שלהם איתו.

  • הוכחת מדיה.    כאשר Copilot מייצרת תמונה, הפעלנו את התכונה "אישורי תוכן", המשתמשת בשיטות הצפנה כדי לסמן את המקור, או "מוכח", של כל התמונות שנוצרו על-ידי בינה מלאכותית שנוצרו באמצעות Copilot. טכנולוגיה זו משתמשת בתקנים המוגדרים על-ידי הקואליציה עבור תוכן ואותנטיות (C2PA) כדי להוסיף שכבה נוספת של אמון ושקיפות עבור תמונות שנוצרו על-ידי בינה מלאכותית.

  • זיהוי תוכן אוטומטי.    כאשר משתמשים מעלה תמונות כחלק מהנחיה לצ'אט, Copilot פורס כלים כדי לזהות תמונות ניצול מיני של ילדים והתעללות (CSEAI). Microsoft מדווחת כל CSEAI נראה לעין למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC), כפי שנדרש על-ידי חוק ארצות הברית. כאשר משתמשים מעלה קבצים לניתוח או לתהליך, Copilot פורס סריקה אוטומטית כדי לזהות תוכן שעלול להוביל לסיכונים או לשימוש לרעה, כגון טקסט שעשוי להיות קשור לפעילויות לא חוקיות או לקוד זדוני.

  • תנאי שימוש וקוד התנהגות.    המשתמשים צריכים לעמוד בתנאי השימוש ובקוד ההתנהגות של הסכם השירותים של Microsoft בנושא Copilot, ולהצהרת הפרטיות של Microsoft, אשר, בין שאר הדברים, מודיעים להם על שימושים בלתי מורשים שאינה חלה עליהם ועל ההשלכות של ההפרה של התנאים. תנאי השימוש גם מספקים גילויים נוספים עבור המשתמשים ומ משמש כ חומר עזר למשתמשים ללמוד על Copilot. ייתכן שמשתמשים המבצעים הפרות חמורות או שחוזרות על הפעולה יושהו באופן זמני או קבוע מהשירות.

  • משוב, ניטור ופיקוח.    חוויית Copilot תבנה על כלים קיימים המאפשרים למשתמשים לשלוח משוב, אשר נבדקים על-ידי צוותי התפעול של Microsoft. יתר על כן, הגישה שלנו למיפוי, למדידה ולניהול של סיכונים תמשיך להתפתח ככל שנלמד עוד, ואנו כבר קיימים שיפורים המבוססים על משוב שנאסף במהלך תקופות תצוגה מקדימה.

למידע נוסף על יישום אחראי של בינה מלאכותית

דוח שקיפות של Microsoft ליישום אחראי של בינה מלאכותית

עקרונות הבינה המלאכותית של Microsoft

משאבי Microsoft ליישום אחראי של בינה מלאכותית

קורסי Microsoft Azure Learning בנושא יישום אחראי של בינה מלאכותית

קבל מידע נוסף על Microsoft Copilot

Microsoft Copilot שאלות נפוצות

אודות מסמך זה

© 2024 Microsoft Corporation. כל הזכויות שמורות. מסמך זה מסופק "כפי שהוא" ול למטרות מידע בלבד. מידע ותצוגות המבוטאים במסמך זה, כולל כתובת URL והפניות אחרות לאתרי אינטרנט, עשויים להשתנות ללא הודעה מוקדמת. הסיכון בשימוש בתוכנה הוא באחריותך. דוגמאות מסוימות מיועדות לאיור בלבד והן מדוגמאות. שיוך אמיתי אינו מיועד או נגזר.

מסמך זה אינו מיועד להיות, ולא צריך לתסכם כעצה משפטית מספקת. תחום השיפוט שבו אתה פועל עשוי לכלול דרישות תקינה או דרישות משפטיות שונות החלות על מערכת הבינה המלאכותית שלך. התייעץ עם מומחה משפטי אם אינך בטוח לגבי חוקים או תקנות שעשויים לחול על המערכת שלך, במיוחד אם אתה סבור שאלה עשויים להשפיע על המלצות אלה. שים לב שלא כל ההמלצות והמשאבים הללו יהיו מתאימים לכל תרחיש, ולהפך, המלצות ומשאבים אלה עשויים להיות לא מספיקים עבור תרחישים מסוימים.

פורסם בתאריך: 10/01/2024

עדכון אחרון: 10/01/2024

זקוק לעזרה נוספת?

מעוניין באפשרויות נוספות?

גלה את יתרונות המנוי, עיין בקורסי הדרכה, למד כיצד לאבטח את המכשיר שלך ועוד.