Poslední aktualizace: duben 2025

Co je poznámka k průhlednosti?

Systém AI zahrnuje nejen technologii, ale také lidi, kteří ho budou používat, lidi, kterých se to bude týkat, a prostředí, ve kterém je nasazený. Poznámky k transparentnosti od Microsoftu vám mají pomoct pochopit, jak funguje technologie AI na pozadí Copilotu, jaké volby jsme učinili a které ovlivňují výkon a chování systému, a důležitost přemýšlení o celém systému, aby uživatelé copilotu mohli převzít kontrolu nad svými zkušenostmi a pochopit kroky, které podnikáme k poskytování bezpečného a zabezpečeného produktu.

Poznámky Microsoftu k transparentnosti jsou součástí širšího úsilí Microsoftu o uvedení našich principů AI do praxe. Další informace najdete v tématu Principy umělé inteligence Microsoftu

Základy Microsoft Copilot

Úvod

Copilot je prostředí využívající umělou inteligenci, které uživatelům pomůže poskytnout informace, které hledají, a zároveň se připravit na podporu uživatelů při odpovídání na širokou škálu otázek bez ohledu na situaci nebo téma. Aktualizace Copilotu přesahuje odpovědi na základní dotazy na načítání informací a zaměřuje se na generování obsahu, aby uživatelům nabídla proaktivní podporu při dokončování úkolů. Stále více rozumíme tomu, jak má AI potenciál pomáhat lidem učit se, objevovat a být kreativnější, což vyžadovalo, abychom vytvořili jiný typ produktu. Nové prostředí Copilot se snaží stát novým typem prostředí, které je otevřené a dynamické, aby lépe řešilo potřeby uživatelů způsobem, který je intuitivnější.

V Microsoftu svůj závazek k odpovědné AI bereme vážně. Aktualizované prostředí Copilotu bylo vyvinuto v souladu s principy AI společnosti Microsoft, standardem Odpovědné AI společnosti Microsoft a ve spolupráci se zodpovědnými odborníky na AI v celé společnosti, včetně Microsoftu Office of Responsible AI, našich technických týmů, microsoft research a Aether. Další informace o zodpovědné umělé inteligenci najdete v Microsoftu tady.  

V tomto dokumentu popisujeme náš přístup k zodpovědné umělé inteligenci pro Copilot. Před vydáním jsme využili nejmodernější metody Microsoftu k mapování, měření a správě potenciálních rizik a zneužití systému a k zajištění jeho výhod pro uživatele. Vzhledem k tomu, že jsme pokračovali ve vývoji Copilotu, dále jsme se učili a vylepšovali naše zodpovědné úsilí v umělé inteligenci. Tento dokument bude pravidelně aktualizován, aby o našich vyvíjejících se procesech a metodách komunikovali.  

Klíčové termíny

Třídění    Modely strojového učení, které pomáhají třídit data do označených tříd nebo kategorií informací. V aktualizovaném prostředí Copilotu používáme klasifikátory tak, že pomáháme zjišťovat potenciálně škodlivý obsah odeslaný uživateli nebo vygenerovaný systémem, aby se zmírnilo generování tohoto obsahu a zneužití nebo zneužití systému. 

Průprava    U určitých konverzací, ve kterých uživatelé hledají informace, je Copilot ve výsledcích hledání na webu. To znamená, že Copilot vycentruje svou odpověď na vysoce hodnocený obsah z webu a poskytuje odkazy s hypertextovými odkazy po vygenerovaných textových odpovědích. Všimněte si, že v tuto chvíli uživatelské výzvy v hlasovém režimu neaktivují vyhledávání na webu, proto žádné odpovědi nebudou obsahovat citace.

Velké jazykové modely (LLMs)    Velké jazykové modely (LLM) jsou v tomto kontextu modely AI, které se trénují na velkých objemech textových dat, aby předpovídaly slova v sekvencích. Moduly LLM můžou provádět různé úlohy, jako je generování textu, sumarizace, překlad, klasifikace a další.

Zmírnění    Metoda nebo kombinace metod určených ke snížení potenciálních rizik, která mohou vzniknout při používání funkcí AI v copilotu.

Multimodální modely (MMM)    Multimodální modely (MMMs) jsou modely AI, které se trénují na různých typech dat, jako je text, obrázky nebo zvuk. Tyto modely můžou provádět různé úlohy, jako je psaní textu, popis obrázků, rozpoznávání řeči a hledání informací napříč různými typy dat.

Výzvy    Vstupy ve formě textu, obrázků a/nebo zvuku, které uživatel odešle do Copilotu za účelem interakce s funkcemi umělé inteligence v copilotu.

Červené seskupování    Techniky používané odborníky k posouzení omezení a ohrožení zabezpečení systému a k otestování účinnosti plánovaných zmírnění rizik. Testování pomocí červeného týmu zahrnuje testery, kteří přijímají neškodné i nežádoucí osoby k identifikaci potenciálních rizik a liší se od systematického měření rizik.

Odpovědi    Text, obrázky nebo zvuk, které Copilot vypíše jako odpověď na výzvu nebo jako součást tam a zpět s uživatelem. Synonyma pro "odpověď" zahrnují "dokončení", "generování" a "odpověď".

Malé jazykové modely (SLM)    Malé jazykové modely (SLM) jsou v tomto kontextu modely AI, které se trénují na menších a více zaměřených objemech dat v porovnání s velkými jazykovými modely. I přes menší velikost můžou slamy provádět různé úlohy, jako je generování textu, sumarizace, překlad a klasifikace. I když se nemusí shodovat s rozsáhlými možnostmi LLMs, jsou často úspornější ze zdrojů a mohou být vysoce efektivní pro konkrétní cílené aplikace. 

Systémová zpráva    Systémová zpráva (někdy označovaná jako "metaprompt") je program, který slouží k vedení chování systému. Části systémové zprávy pomáhají sladit chování systému s principy umělé inteligence Microsoftu a očekáváními uživatelů. Systémová zpráva může například obsahovat řádek typu "Neposkytujte informace nebo nevytvářejte obsah, který by mohl způsobit fyzickou, emocionální nebo finanční újmu". 

Funkce

Chování systému

Se společností Copilot jsme vyvinuli inovativní přístup, který uživatelům přináší více přizpůsobené prostředí umělé inteligence a poutavé prostředí, které může uživatelům pomoct s různými úkoly. Tento inovativní přístup využívá řadu pokročilých technologií, jako jsou jazykové a multimodální modely od Microsoftu, OpenAI a dalších vývojářů modelů. Před vydáním veřejné verze jsme pracovali na implementaci bezpečnostních technik pro modely, které jsou základem nového prostředí Copilotu, abychom vyvinuli přizpůsobenou sadu funkcí a chování, které poskytují vylepšené prostředí Copilotu. V aktualizovaném copilotu můžou uživatelé posílat výzvy v textu nebo hlasu v přirozeném jazyce. Odpovědi se uživatelům zobrazují v několika různých formátech, například v textové podobě (s tradičními odkazy na webový obsah podle potřeby) a obrázky (pokud byla v rámci výzvy podána žádost o obrázek). Pokud uživatelé posílají výzvy hlasem v přirozeném jazyce v režimu Copilot Voice, obdrží zvukové odpovědi. 

Když uživatel zadá výzvu v aplikaci Copilot, výzva, historie konverzací a systémová zpráva se odešlou prostřednictvím několika vstupních klasifikátorů, které pomáhají filtrovat škodlivý nebo nevhodný obsah. Jedná se o zásadní první krok, který pomáhá zlepšit výkon modelu a zmírnit situace, kdy se uživatelé můžou pokusit zobrazit výzvu k modelu způsobem, který by mohl být nebezpečný. Jakmile výzva projde vstupními klasifikátory, odešle se do SLM, která určí, jestli požadavek vyžaduje uzemnění dat z webu a který jazykový model by měl na požadavek reagovat. Všechny modely generují odpověď pomocí výzvy uživatele a historie nedávných konverzací ke kontextu požadavku, systémová zpráva, aby se odpovědi srovnaly s principy AI microsoftu a očekáváními uživatelů, a pokud je to vhodné, sladit odpovědi s výsledky hledání na základní odpovědi v existujícím vysoce hodnoceném obsahu z webu.  

Odpovědi se uživatelům zobrazují v několika různých formátech, jako jsou odpovědi v chatu v textové podobě, tradiční odkazy na webový obsah, obrázky a zvukové odpovědi. Pokud jsou odpovědi poskytovány ve formě textu – a odpovědi jsou uzemněny na základě dat z webu – výstup obsahuje odkazy uvedené pod textem, aby uživatelé měli přístup k webům, které byly použity k uzemnění odpovědi, a dozvěděli se z nich další informace o tématu. 

Copilot také pomáhá uživatelům vytvářet nové příběhy, básně, texty skladeb a obrázky. Když Copilot zjistí záměr uživatele generovat kreativní obsah (například výzvu uživatele, která začíná "napište mi..."), systém ve většině případů vygeneruje obsah reagující na výzvu uživatele. Podobně když Copilot zjistí záměr uživatele generovat obrázek (například výzvu uživatele, která začíná na "nakreslit mě a..."), Copilot ve většině případů vygeneruje obrázek reagující na výzvu uživatele. Když Copilot zjistí záměr uživatele upravit nahraný obrázek (například výzvu uživatele, která začíná "přidat..."), Copilot ve většině případů upraví obrázek reagující na výzvu uživatele. Copilot nemusí reagovat kreativním obsahem, pokud výzva uživatele obsahuje určité termíny, které by mohly vést k problematickému obsahu.

Uživatelé s účty Microsoft (MSA) teď mají také možnost přihlásit se k odběru Copilot Pro, která nabízí vylepšené prostředí, včetně zrychleného výkonu, delšího používání funkcí Copilot Voice a v některých případech i přístupu k novým experimentálním funkcím. Copilot Pro je v současné době k dispozici v omezeném počtu zemí a Copilot Pro plánujeme brzy zpřístupnit na dalších trzích.

Zamýšlené bezpečnostní chování

Naším cílem aplikace Copilot je být užitečný pro uživatele. Využitím osvědčených postupů z jiných produktů a služeb generativní AI společnosti Microsoft se snažíme omezit vytváření problematického obsahu na webu Copilot a zvýšit pravděpodobnost bezpečného a pozitivního uživatelského prostředí. I když jsme podnikli kroky ke zmírnění rizik, generační modely AI, jako jsou modely za Copilotem, jsou pravděpodobnostní a můžou dělat chyby, což znamená, že zmírnění rizik může občas selhat při blokování škodlivých uživatelských výzev nebo odpovědí generovaných umělou inteligencí. Pokud při používání služby Copilot narazíte na škodlivý nebo neočekávaný obsah, dejte nám vědět tím, že nám poskytnete zpětnou vazbu, abychom mohli prostředí dál vylepšovat.

Případy použití

Zamýšlené použití

Copilot je určen k podpoře uživatelů při odpovídání na širokou škálu otázek bez ohledu na situaci nebo téma. Uživatelé můžou se službou Copilot pracovat pomocí textových, obrázkových a zvukových vstupů, u kterých se interakce mají cítit spíše jako přirozené konverzace se systémem AI. Kromě toho platí, že pokud uživatelé komunikují s Copilotem prostřednictvím textu, aby vyhledali konkrétní informace o tématech, u kterých může Copilot vyžadovat více informací k vytvoření přesnější odpovědi, je cílem prostředí propojit uživatele s relevantními výsledky hledání, zkontrolovat výsledky z celého webu a sumarizovat informace, které uživatelé hledají. V Copilotu můžou uživatelé: 

  • Shrnutí informací v reálném čase při textovém chatu    Když uživatelé pracují s Copilotem prostřednictvím textu, systém provede vyhledávání na webu, pokud potřebuje více informací, a použije hlavní výsledky hledání na webu k vygenerování souhrnu informací, které se mají prezentovat uživatelům. Tyto souhrny zahrnují citace na webové stránky, které uživatelům pomáhají zobrazit a snadno získat přístup k zdrojům výsledků hledání, které pomohly vytvořit souhrn Copilotu. Uživatelé můžou kliknout na tyto odkazy a přejít přímo ke zdroji, pokud se chtějí dozvědět víc.

  • Chatujte se systémem AI pomocí textu.    Uživatelé můžou chatovat s Copilotem prostřednictvím textu a pokládat následné otázky, aby našli nové informace a získali podporu v nejrůznějších tématech.

  • Rozhraní s AI pomocí hlasu    Copilot může nejen přijímat zvukový vstup, ale také vytvářet zvukový výstup v jednom ze čtyř hlasů vybraných uživateli. Funkce audio-to-audio umožňují uživatelům pracovat s Copilotem přirozenějším a plynulejším způsobem.

  • Získejte srozumitelný obsah zpráv.    Uživatelé můžou pomocí funkce Copilot Daily dostávat souhrn zpráv, počasí a dalších aktualizací na základě vybraných témat a poslouchat tyto briefingy ve formátu podobném podcastům. Tato funkce bude stahovat obsah z autorizovaných zdrojů, které mají smlouvy s Microsoftem.

  • Získejte pomoc s generováním nových nápadů.    Pokaždé, když uživatelé pracují s prostředím Copilot, uvidí sadu karet, na které mohou kliknout a začít chatovat s Copilotem o užitečných a zajímavých tématech. Pokud uživatelé komunikovali s jinými službami microsoftu pro spotřebitele, budou karty přizpůsobené v souladu s našimi zásadami ochrany osobních údajů. V průběhu času se karty v Copilotu můžou přizpůsobovat na základě historie chatu uživatele. Uživatelé se můžou z přizpůsobení v nastavení kdykoliv odhlásit a my stále zkoumáme možnosti přizpůsobení pro uživatele v EHP (Evropský hospodářský prostor) a Ve Spojeném království.

  • Generovat kreativní obsah.    Při chatování s Copilotem můžou uživatelé vytvářet nové básně, vtipy, příběhy, obrázky a další obsah s využitím prostředí Copilot. Copilot může také upravovat obrázky nahrané uživateli, pokud je to požadováno.

  • Provádění úkolů na AndroiduUživatelé mohou pracovat s Copilotem prostřednictvím platformy Android prostřednictvím hlasu a provádět určité úkoly. Tyto úkoly jsou nastavení časovačů a budíků, telefonní hovory, odesílání SMS zpráv a objednání Uberu. Před dokončením úkolů musí uživatelé potvrdit telefonní hovor, SMS zprávu a objednávku Uberu.

  • Pomoc s výzkumnými úkoly  Copilot může provádět výzkumné úkoly tím, že nabízí podrobné zdroje informací, nabízí podrobné rozpisy témat a odkazy na zdroje, aby uživatelům pomohly přejít nad rámec rychlých odpovědí na složitější dotazy.

Důležité informace o volbě jiných případů použití

Doporučujeme uživatelům, aby si před rozhodnutím nebo jednáním na základě odpovědí společnosti Copilot prostudovali veškerý obsah, protože AI může dělat chyby. Kromě toho existují určité scénáře, kterým doporučujeme se vyhnout nebo které jsou v rozporu s našimi podmínkami použití. Společnost Microsoft například nepovoluje použití copilotu v souvislosti s nelegálními aktivitami nebo pro jakýkoli účel určený k podpoře nelegálních aktivit.  

Omezení

Jazykové, obrazové a zvukové modely, které nejsou součástí prostředí Copilotu, můžou obsahovat trénovací data, která mohou odrážet společenské předsudky, což může způsobit, že se Copilot bude chovat způsobem, který je vnímán jako nespravedlivý, nespolehlivý nebo urážlivý. Navzdory intenzivnímu trénování modelů a doladění bezpečnosti a implementaci zodpovědných ovládacích prvků AI a bezpečnostních systémů, které používáme na trénovací data, uživatelské výzvy a výstupy modelů, jsou služby řízené AI pádné a pravděpodobnostní. Díky tomu je obtížné komplexně blokovat veškerý nevhodný obsah, což vede k rizikům potenciálních předsudků, stereotypů, neukotvitosti nebo jiných typů škod, které by se mohly objevit v obsahu generovaném umělou inteligencí. Tady jsou uvedeny některé způsoby, jak se tato omezení mohou projevit v prostředí Copilotu. 

  • Stereotypy: Zkušenost s Copilotem může potenciálně posílit stereotypy. Například při překladu "Je zdravotní sestra" a "Ona je lékařka" do jazyka bez pohlaví, jako je turečtina a pak zpět do angličtiny, copilot může neúmyslně přinést stereotypní (a nesprávné) výsledky "Ona je zdravotní sestra" a "On je lékař". Dalším příkladem je, že při generování obrázku na základě výzvy "Děti bez otců" může systém generovat obrázky dětí pouze z jedné rasy nebo etnické příslušnosti, což posiluje škodlivé stereotypy, které by mohly existovat ve veřejně dostupných obrázcích používaných k trénování základních modelů. Copilot může také posílit stereotypy založené na obsahu vstupního obrázku uživatele tím, že spoléhá na součásti obrázku a vytváří předpoklady, které nemusí být pravdivé. Implementovali jsme zmírnění rizik, abychom snížili riziko obsahu, který obsahuje urážlivé stereotypy, včetně klasifikátorů vstupu a výstupu, vyladěných modelů a systémových zpráv.

  • Nadměrná reprezentace a nedostatečně reprezentované: Copilot by mohl ve svých odpovědích potenciálně přehánět nebo nedostatečně reprezentovat skupiny lidí, nebo je dokonce vůbec nezastupovat. Pokud jsou například textové výzvy obsahující slovo "gay" zjištěny jako potenciálně škodlivé nebo urážlivé, může to vést k nedostatečnému zastoupení legitimních generací o komunitě GAYQIA+. Kromě zahrnutí vstupních a výstupních klasifikátorů, vyladěných modelů a systémových zpráv používáme v Designer jako jedno z několika zmírnění rizika obsahu, který přetěžuje nebo podsouvá skupiny lidí.

  • Nevhodný nebo urážlivý obsah: Prostředí Copilotu může potenciálně vytvářet jiné typy nevhodného nebo urážlivého obsahu. Mezi příklady patří možnost generovat obsah v jednom způsobu (např. zvuk), který je nevhodný v kontextu výzvy nebo ve srovnání se stejným výstupem v jiném režimu (např. text). Mezi další příklady patří obrázky generované umělou inteligencí, které potenciálně obsahují škodlivé artefakty, jako jsou symboly nenávisti, obsah, který se týká sporných, kontroverzních nebo motivačních témat, a obsah se sexuálním zatížením, který se vyhýbá filtrům obsahu souvisejícího se sexem. Zavedli jsme zmírnění rizik, abychom snížili riziko generací, které obsahují nevhodný nebo urážlivý obsah, jako jsou klasifikátory vstupu a výstupu, jemně vyladěné modely a systémové zprávy.

  • Spolehlivost informací: Zatímco Copilot se snaží v případě potřeby reagovat spolehlivými zdroji, AI může dělat chyby. Mohlo by to potenciálně generovat nesmyslný obsah nebo vymyšlit obsah, který by mohl znít rozumně, ale je věcně nepřesný. I při kreslení odpovědí z webových dat s vysokou autoritou můžou odpovědi tento obsah chybně představovat způsobem, který nemusí být zcela přesný nebo spolehlivý. Připomínáme uživatelům prostřednictvím uživatelského rozhraní a v dokumentaci, jako je tato, že Copilot může dělat chyby. Dál také uživatele informovat o omezeních umělé inteligence, například je povzbuzovat k tomu, aby před rozhodnutím nebo jednáním na základě odpovědí společnosti Copilot pečlivě zkontrolovali fakta. Když uživatelé komunikují s Copilotem prostřednictvím textu, pokusí se zakotvovat ve vysoce kvalitních webových datech, aby se snížilo riziko neuzemnění generací.

  • Výkon více jazyků: V různých jazycích můžou být různé výkony, přičemž v době vydání aktualizovaného souboru Copilot si nejlépe vede angličtina. Zlepšení výkonu napříč jazyky je klíčovou oblastí investic a nedávné modely vedly k lepšímu výkonu.

  • Omezení zvuku: Modely zvuku můžou představovat další omezení. Obecně řečeno, akustická kvalita hlasového vstupu, nepřeslovný šum, slovní zásoba, zvýraznění a chyby vkládání můžou mít také vliv na to, jestli Copilot zpracovává a reaguje na zvukový vstup uživatele uspokojivým způsobem. Kromě toho, protože výzvy uživatelů při použití funkce Copilot Voice neaktivují vyhledávání na webu, copilot nemusí být schopen reagovat na aktuální události v hlasovém režimu.

  • Závislost na připojení k internetu: Funkce aktualizovaného prostředí Copilotu závisí na připojení k internetu. Přerušení připojení může mít vliv na dostupnost a výkon služby.

Výkon systému

V mnoha systémech AI se výkon často definuje ve vztahu k přesnosti (tj. jak často systém AI nabízí správnou predikci nebo výstup). S Copilotem se zaměřujeme na Copilot jako asistent využívající umělou inteligenci, která odráží předvolby uživatele. Proto se dva různí uživatelé mohou podívat na stejný výstup a mít odlišné názory na to, jak užitečný nebo relevantní je pro jejich jedinečnou situaci a očekávání, což znamená, že výkon těchto systémů musí být definován flexibilněji. Obecně považujeme výkon za to, že aplikace funguje podle očekávání uživatelů.

Osvědčené postupy pro zvýšení výkonu systému 

Interagujte s rozhraním pomocí přirozeného konverzačního jazyka.    Interakce s Copilotem způsobem, který je pro uživatele pohodlný, je klíčem k získání lepších výsledků prostřednictvím prostředí. Podobně jako osvojení technik, které lidem pomůžou efektivně komunikovat v každodenním životě, interakce s Copilotem jako asistent využívajícími umělou inteligenci prostřednictvím textu nebo řeči, které jsou uživateli známé, vám může pomoct dosáhnout lepších výsledků.

Uživatelské prostředí a přijetí.    Efektivní používání Copilotu vyžaduje, aby uživatelé pochopili jeho možnosti a omezení. Může existovat křivka učení a uživatelé můžou chtít odkazovat na různé zdroje copilotu (např. tento dokument a naše nejčastější dotazy ke službě Copilot), aby mohli efektivně pracovat se službou a využívat ji.

Mapování, měření a řízení rizik

Stejně jako u jiných transformačních technologií není využití výhod umělé inteligence bez rizika a základní část programu Zodpovědná AI společnosti Microsoft je navržená tak, aby identifikovala a mapovala potenciální rizika, měřila je a řídila se tím, že vytváří zmírnění rizik a průběžně vylepšuje copilot. V následujících částech popisujeme iterativní přístup k mapování, měření a řízení potenciálních rizik.

Mapa: Pečlivé plánování a nežádoucí testování před nasazením, jako je červené seskupování, nám pomáhá mapovat potenciální rizika. Základní modely, které využívají prostředí Copilotu, prošly červeným týmovým testováním od testerů, kteří představují mudisciplinární perspektivy v příslušných oblastech témat. Toto testování bylo navrženo tak, aby posoudilo, jak by nejnovější technologie fungovala s použitím jakýchkoli dalších bezpečnostních opatření i bez nich. Záměrem těchto cvičení na úrovni modelu je vytvořit škodlivé reakce, odhalit potenciální cesty ke zneužití a identifikovat možnosti a omezení.

Před zveřejněním prostředí Copilotu v omezené verzi Preview jsme také provedli červené seskupování na úrovni aplikace, abychom vyhodnotili Copilot z hlediska nedostatků a ohrožení zabezpečení. Tento proces nám pomohl lépe pochopit, jak může systém využívat široká škála uživatelů, a pomohl nám zlepšit naše zmírnění rizik.

Opatření: Kromě vyhodnocení copilotu oproti našim stávajícím hodnocením bezpečnosti nám použití červeného seskupování popsaného výše pomohlo vyvinout hodnocení a zodpovědné metriky AI odpovídající identifikovaným potenciálním rizikům, jako jsou jailbreaky, škodlivý obsah a neuzemněný obsah.

Shromáždili jsme konverzační data zaměřená na tato rizika pomocí kombinace lidských účastníků a automatizovaného kanálu generování konverzací. Každé hodnocení se pak vyhodnotí buď fondem natrénovaných lidských anotátorů, nebo automatizovaným kanálem poznámek. Pokaždé, když se aktualizují změny produktu, stávající zmírnění rizik nebo se navrhnou nová omezení rizik, aktualizujeme kanály hodnocení tak, aby vyhodnotily výkon produktů i zodpovědné metriky AI. Tyto kanály kontextu automatizovaného vyhodnocení jsou kombinací shromážděných konverzací s lidskými hodnotiteli a syntetických konverzací generovaných s LLM výzvami k testování zásad nežádoucím způsobem. Každé z těchto hodnocení bezpečnosti se automaticky vyhodnotí pomocí LLMs. U nově vyvinutých hodnocení je každé hodnocení nejprve hodnoceno lidmi, kteří čtou textový obsah nebo poslouchají zvukový výstup, a pak se převedou na automatická hodnocení založená na LLM.

Zamýšlené chování našich modelů v kombinaci s našimi kanály hodnocení – lidskými i automatizovanými – nám umožňuje rychle provádět měření potenciálních rizik ve velkém měřítku. S identifikací nových problémů v průběhu času pokračujeme v rozšiřování sad měření, abychom vyhodnotili další rizika. 

Správa: Vzhledem k tomu, že jsme identifikovali potenciální rizika a zneužití prostřednictvím červeného seskupování a změřili je pomocí výše popsaných přístupů, vyvinuli jsme další zmírnění rizik, která jsou specifická pro prostředí Copilotu. Níže popisujem některá z těchto zmírnění rizik. Prostředí Copilotu budeme dál monitorovat, abychom zlepšili výkon produktů a náš přístup ke zmírnění rizik. 

  • Plány postupného vydávání verzí a průběžné vyhodnocování    Naším cílem je průběžně se učit a vylepšovat náš přístup odpovědné AI s tím, jak se vyvíjejí naše technologie a chování uživatelů. Naše strategie přírůstkového vydávání byla klíčovou součástí bezpečného přesunu naší technologie z testovacího prostředí do světa a zavázali jsme se k promyšlenému a promyšlenému procesu, který zajistí výhody prostředí Copilotu. V copilotu pravidelně provádíme změny, abychom zlepšili výkon produktů a stávající zmírnění rizik a implementovali nová omezení rizik v reakci na naše poznatky.

  • Využití klasifikátorů a systémové zprávy ke zmírnění potenciálních rizik nebo zneužití.    V reakci na výzvy uživatelů můžou llmy vytvářet problematický obsah. Probrali jsme typy obsahu, které se snažíme omezit, v částech Chování systému a Omezení výše. Klasifikátory a systémová zpráva jsou dva příklady zmírnění rizik, které byly implementovány v Copilotu, aby se snížilo riziko těchto typů obsahu. Klasifikátory klasifikují text tak, aby označovaly potenciálně škodlivý obsah v uživatelských výzev nebo generovaných odpovědích. K využití systémové zprávy také využíváme stávající osvědčené postupy, které zahrnují poskytování pokynů modelu tak, aby jeho chování odpovídalo principům umělé inteligence Microsoftu a očekáváním uživatelů.

  • Vyjádření souhlasu s nahráváním obrázků Copilot.    Když uživatel poprvé nahraje obrázek obsahující tváře do Copilotu, bude požádán o vyjádření souhlasu s nahráním biometrických dat do Copilotu. Pokud se uživatel nepřihlásí, obrázek se do služby Copilot neodesílají. Všechny obrázky, bez ohledu na to, jestli obsahují tváře, se odstraní do 30 dnů od ukončení konverzace.

  • Zpřístupnění AI.    Funkce Copilot je také navržená tak, aby informovala lidi, že pracují se systémem AI. Když uživatelé využívají Copilot, nabízíme různé touchpointy, které jim pomůžou pochopit možnosti systému, odhalit jim, že copilot využívá umělou inteligenci, a informovat o omezeních. Prostředí je navržené tak, aby uživatelům pomohlo maximálně získat z Copilotu maximum a minimalizovat riziko přílišné reliance. Zveřejnění také pomáhají uživatelům lépe porozumět copilotu a jejich interakcím s ním.

  • Původ médií.    Když Copilot vygeneruje obrázek, povolili jsme funkci "Přihlašovací údaje obsahu", která používá kryptografické metody k označení zdroje neboli "původu" všech obrázků generovaných AI vytvořených pomocí Copilotu. Tato technologie využívá standardy stanovené Sdružením pro obsah a pravost (C2PA), které přidávají další vrstvu důvěry a transparentnosti pro obrázky generované AI.

  • Automatizovaná detekce obsahu.    Když uživatelé nahrají obrázky v rámci výzvy k chatu, copilot nasadí nástroje pro detekci sexuálního zneužívání a zneužívání dětí (CSEAI). Microsoft hlásí všechny zjevné CSEAI národnímu centru pro pohřešované a zneužítelné děti (NCMEC), jak to vyžadují zákony USA. Když uživatelé nahrají soubory k analýze nebo zpracování, copilot nasadí automatizovanou kontrolu, aby zjistil obsah, který by mohl vést k rizikům nebo zneužití, například text, který může souviset s nelegálními aktivitami nebo škodlivým kódem.

  • Podmínky použití a pravidla chování.    Uživatelé by se měli řídit příslušnými podmínkami použití a pravidly chování společnosti Microsoft a Prohlášením společnosti Microsoft o zásadách ochrany osobních údajů, které je mimo jiné informují o přípustném a nepřípustném použití a o důsledcích porušení těchto podmínek. Podmínky použití také poskytují další informace pro uživatele a slouží jako referenční informace pro uživatele, aby se dozvěděli o službě Copilot. Uživatelé, kteří se dopustí závažných nebo opakovaných porušení, mohou být dočasně nebo trvale pozastaveni ze služby.

  • Zpětná vazba, monitorování a dohled.    Prostředí Copilotu vychází z existujících nástrojů, které uživatelům umožňují odesílat zpětnou vazbu, kterou kontrolují provozní týmy Microsoftu. Kromě toho se náš přístup k mapování, měření a řízení rizik bude dál vyvíjet s tím, jak se dozvíme více, a na základě zpětné vazby shromážděné během období preview už provádíme vylepšení.

Další informace o zodpovědné umělé inteligenci

Zpráva o transparentnosti odpovědné umělé inteligence Microsoftu

Principy umělé inteligence Microsoftu

Zdroje informací o zodpovědné umělé inteligenci Microsoftu

Výukové kurzy Microsoft Azure o zodpovědné umělé inteligenci

Další informace o Microsoft Copilot

Microsoft Copilot Nejčastější dotazy

O tomto dokumentu

© 2024 Microsoft Corporation. Všechna práva vyhrazena. Tento dokument je poskytován "tak, jak je", a pouze pro informační účely. Informace a názory vyjádřené v tomto dokumentu, včetně adres URL a dalších odkazů na webové stránky, se mohou změnit bez předchozího upozornění. Riziko vyplývající z jejího použití nesete vy. Některé příklady jsou pouze pro ilustraci a jsou fiktivní. Žádné skutečné spojení není zamýšleno ani vyvozeno.

Účelem tohoto dokumentu není a nemělo by být považováno za poskytování právního poradenství. Jurisdikce, ve které působíte, může mít různé zákonné nebo právní požadavky, které se vztahují na váš systém AI. Pokud si nejste jisti zákony nebo předpisy, které by se mohly vztahovat na váš systém, obraťte se na právního specialistu, zejména pokud si myslíte, že by mohly mít vliv na tato doporučení. Mějte na paměti, že ne všechna tato doporučení a prostředky budou vhodné pro každý scénář, a naopak tato doporučení a prostředky můžou být pro některé scénáře nedostatečné.

Publikováno: 1. 10. 2024

Poslední aktualizace: 1. 10. 2024

Potřebujete další pomoc?

Chcete další možnosti?

Prozkoumejte výhody předplatného, projděte si školicí kurzy, zjistěte, jak zabezpečit své zařízení a mnohem více.