Senest opdateret: april 2025

Hvad er en gennemsigtighedsnote?

Et AI-system omfatter ikke kun teknologien, men også de mennesker, der vil bruge den, de mennesker, der vil blive påvirket af den, og det miljø, hvor den er implementeret. Microsofts gennemsigtighedsnoter er beregnet til at hjælpe dig med at forstå, hvordan AI-teknologien bag Copilot fungerer, de valg, vi har foretaget, der påvirker systemets ydeevne og adfærd, og vigtigheden af at tænke på hele systemet, så brugere af Copilot kan tage kontrol over deres egne oplevelser og forstå de trin, vi tager for at levere et sikkert produkt.

Microsofts gennemsigtighedsnoter er en del af en bredere indsats hos Microsoft for at omsætte vores AI-principper til praksis. Du kan få mere at vide under Microsofts AI-principper

Grundlæggende om Microsoft Copilot

Introduktion

Copilot er en AI-baseret oplevelse, der hjælper med at give brugerne de oplysninger, de søger, mens de er forberedt på at hjælpe brugerne med at besvare en lang række spørgsmål uanset situationen eller emnet. Den opdaterede Copilot rækker ud over at besvare grundlæggende forespørgsler til hentning af oplysninger og fokuserer på at generere indhold for at tilbyde mere proaktiv support til brugerne, når de udfører opgaver. Vi har en voksende forståelse af, hvordan kunstig intelligens har potentialet til at hjælpe folk med at lære, opdage og være mere kreative, hvilket har krævet, at vi opbygger en anden type produkt. Den nye Copilot-oplevelse søger at blive en ny type oplevelse, der er åben og dynamisk for bedre at imødekomme brugerens behov på en mere intuitiv måde.

Hos Microsoft tager vi vores engagement i ansvarlig AI alvorligt. Den opdaterede Copilot-oplevelse er udviklet i overensstemmelse med Microsofts AI-principper, Microsofts ansvarlige AI-Standard og i partnerskab med ansvarlige AI-eksperter på tværs af virksomheden, herunder Microsofts Office of Responsible AI, vores teknikerteams, Microsoft Research og Aether. Du kan få mere at vide om ansvarlig AI hos Microsoft her.  

I dette dokument beskriver vi vores tilgang til ansvarlig AI for Copilot. Forud for udgivelsen udnyttede vi Microsofts nyeste metoder til at kortlægge, måle og administrere potentielle risici og misbrug af systemet og sikre dets fordele for brugerne. Da vi fortsat har udviklet Copilot, har vi også fortsat med at lære og forbedre vores ansvarlige AI-indsats. Dette dokument opdateres jævnligt for at kommunikere vores udviklende processer og metoder.  

Vigtige vilkår

Klassificeringer    Modeller til maskinel indlæring, der hjælper med at sortere data i mærkede klasser eller kategorier af oplysninger. I den opdaterede Copilot-oplevelse er en måde, hvorpå vi bruger klassificeringer, at hjælpe med at registrere potentielt skadeligt indhold, der indsendes af brugere eller genereres af systemet, for at mindske genereringen af dette indhold og misbrug eller misbrug af systemet. 

Grundstødning    For visse samtaler, hvor brugerne søger oplysninger, er Copilot baseret på websøgeresultater. Det betyder, at Copilot centrerer sit svar på højt rangerende indhold fra internettet og leverer linkbaserede citater efter genererede tekstsvar. Bemærk, at brugerprompter i stemmetilstand på nuværende tidspunkt ikke udløser en websøgning, og derfor vil ingen svar indeholde citater.

Store sprogmodeller    Store sprogmodeller i denne sammenhæng er AI-modeller, der er trænet i store mængder tekstdata til at forudsige ord i sekvenser. Chatsamtaler kan udføre en række forskellige opgaver, f.eks. tekstgenerering, opsummering, oversættelse, klassificering og meget mere.

Afbødning    En metode eller en kombination af metoder, der er udviklet til at reducere potentielle risici, der kan opstå ved brug af AI-funktionerne i Copilot.

Multimodale modeller (mmms)    Multimodale modeller (MMMs) er AI-modeller, der er uddannet i forskellige typer data, f.eks tekst, billeder eller lyd. Disse modeller kan udføre en række forskellige opgaver, f.eks. at skrive tekst, beskrive billeder, genkende tale og finde oplysninger på tværs af forskellige typer data.

Prompter    Input i form af tekst, billeder og/eller lyd, som en bruger sender til Copilot for at interagere med AI-funktionerne i Copilot.

Rød teaming    Teknikker, der bruges af eksperter til at vurdere et systems begrænsninger og sårbarheder og til at teste effektiviteten af planlagte afhjælpninger. Røde team test omfatter testere vedtage både godartede og adversarial personaer til at identificere potentielle risici og adskiller sig fra systematisk måling af risici.

Svar    Tekst, billeder eller lyd, som Copilot udsender som svar på en anmodning eller som en del af frem og tilbage med brugeren. Synonymer for "svar" omfatter "fuldførelse", "generation og "svar".

Små sprogmodeller    Små sprogmodeller (SLA'er) er i denne sammenhæng AI-modeller, der er uddannet på mindre og mere fokuserede datamængder sammenlignet med store sprogmodeller. På trods af deres mindre størrelse kan SLA'er udføre en række opgaver, f.eks. tekstgenerering, opsummering, oversættelse og klassificering. Selvom de muligvis ikke svarer til de omfattende funktioner i chatsamtaler, er SLA'er ofte mere ressourceeffektive og kan være meget effektive til specifikke, målrettede programmer. 

Systemmeddelelse    Systemmeddelelsen (nogle gange kaldet en "metaprompt") er et program, der bruges til at vejlede systemets funktionsmåde. Dele af systemmeddelelsen hjælper med at justere systemets funktionsmåde efter Microsofts AI-principper og brugernes forventninger. En systemmeddelelse kan f.eks. indeholde en linje, f.eks. "angiv ikke oplysninger, eller opret indhold, der kan forårsage fysisk, følelsesmæssig eller økonomisk skade". 

Funktioner

Systemfunktionsmåde

Med Copilot har vi udviklet en innovativ tilgang til at give brugerne en mere personlig AI-oplevelse for at give brugerne en engagerende oplevelse, der kan hjælpe brugere med en række forskellige opgaver. Denne innovative tilgang udnytter en række avancerede teknologier, f.eks. sprog- og multimodale modeller fra Microsoft, OpenAI og andre modeludviklere. Vi har arbejdet på implementeringen af sikkerhedsteknikker til de modeller, der ligger til grund for den nye Copilot-oplevelse før offentlig udgivelse, for at udvikle et tilpasset sæt funktioner og funktionsmåder, der giver en forbedret Copilot-oplevelse. I den opdaterede Copilot kan brugerne sende prompter i tekst eller stemme på naturligt sprog. Svar præsenteres for brugere i flere forskellige formater, f.eks. chatsvar i tekstform (med traditionelle links til webindhold efter behov) og billeder (hvis en billedanmodning blev foretaget som en del af prompten). Hvis brugerne sender prompter på naturligt sprog i Copilot Voice-tilstand, modtager de lydsvar. 

Når en bruger indtaster en prompt i Copilot, sendes prompten, samtaleoversigten og systemmeddelelsen via flere inputklasse for at filtrere skadeligt eller upassende indhold. Dette er et vigtigt første skridt til at forbedre modellens ydeevne og afhjælpe situationer, hvor brugerne kan forsøge at spørge modellen på en måde, der kan være usikker. Når prompten går gennem inputklassen, sendes den til et SLM for at afgøre, om anmodningen kræver jordforbindelsesdata fra internettet, og hvilken sprogmodel der skal svare på anmodningen. Alle modeller genererer et svar ved hjælp af brugerens prompt og seneste samtaleoversigt for at kontekstualisere anmodningen, systemmeddelelsen for at justere svar efter Microsofts AI-principper og brugernes forventninger, og hvis det er relevant, skal du justere svar med søgeresultater i forhold til grundlæggende svar i eksisterende indhold med høj rangering fra internettet.  

Svar præsenteres for brugere i flere forskellige formater, f.eks. chatsvar i tekstform, traditionelle links til webindhold, billeder og lydsvar. Når svar er angivet i form af tekst – og svarene er baseret på data fra internettet – indeholder outputtet linkede citater, der er angivet under teksten, så brugerne kan få adgang til de(n) websted(er), der blev brugt til at grundlede svaret, og få mere at vide om emnet derfra. 

Copilot hjælper også brugerne med at oprette nye historier, digte, sangtekster og billeder. Når Copilot registrerer brugerens hensigt om at generere kreativt indhold (f.eks. en brugerprompt, der begynder med "skriv mig en ..."), genererer systemet i de fleste tilfælde indhold, der svarer til brugerens prompt. På samme måde, når Copilot registrerer brugerens hensigt om at generere et billede (f.eks. en brugerprompt, der begynder med "tegn mig en ..."), vil Copilot i de fleste tilfælde generere et billede, der svarer til brugerens prompt. Når Copilot registrerer brugerens hensigt om at ændre et overført billede (f.eks. en brugerprompt, der begynder med "tilføj et ..."), vil Copilot i de fleste tilfælde ændre et billede, der svarer til brugerens prompt. Copilot svarer muligvis ikke med kreativt indhold, når brugerprompten indeholder bestemte ord, der kan resultere i problematisk indhold.

Brugere med Microsoft-konti (MSA) har nu også mulighed for at abonnere på Copilot Pro, hvilket giver en forbedret oplevelse, herunder hurtigere ydeevne, brug af Copilot Voice-funktioner i længere tid og i nogle tilfælde adgang til nye, eksperimentelle funktioner. Copilot Pro er i øjeblikket tilgængelig i et begrænset antal lande, og vi planlægger at gøre Copilot Pro tilgængelige på flere markeder snart.

Tiltænkt sikkerhedsadfærd

Vores mål for Copilot er at være nyttig for brugerne. Ved at udnytte bedste praksis fra andre Generative AI-produkter og -tjenester fra Microsoft bestræber vi os på at begrænse Copilot fra at generere problematisk indhold og øge sandsynligheden for en sikker og positiv brugeroplevelse. Selvom vi har taget skridt til at mindske risici, er generative AI-modeller som dem bag Copilot probabilistiske og kan lave fejl, hvilket betyder, at afhjælpninger af og til ikke blokerer skadelige brugermeddelelser eller AI-genererede svar. Hvis du støder på skadeligt eller uventet indhold, mens du bruger Copilot, kan du fortælle os det ved at give feedback, så vi kan fortsætte med at forbedre oplevelsen.

Use cases

Tiltænkt anvendelse

Copilot er beregnet til at hjælpe brugerne med at besvare en lang række spørgsmål uanset situationen eller emnet. Brugere kan interagere med Copilot ved hjælp af tekst, billede og lydinput, hvor interaktioner er beregnet til at føles mere som naturlige samtaler med et AI-system. Hvis brugerne interagerer med Copilot via tekst for at finde specifikke oplysninger om emner, hvor Copilot muligvis kræver flere oplysninger for at give et mere præcist svar, er oplevelsen beregnet til at forbinde brugere med relevante søgeresultater, gennemgå resultater fra hele internettet og opsummere oplysninger, som brugerne leder efter. I Copilot kan brugerne: 

  • Opsummer oplysninger i realtid, når du chatter via tekst.    Når brugere interagerer med Copilot via tekst, udfører systemet websøgninger, hvis det har brug for flere oplysninger, og vil bruge de bedste websøgeresultater til at generere en oversigt over oplysningerne, der skal præsentere for brugerne. Disse opsummeringer omfatter citater til websider for at hjælpe brugerne med at se og nemt få adgang til kilderne til søgeresultater, der har bidraget til at grundlægge Copilots oversigt. Brugere kan klikke på disse links for at gå direkte til kilden, hvis de vil have mere at vide.

  • Chat med et AI-system ved hjælp af tekst.    Brugerne kan chatte med Copilot via sms og stille opfølgende spørgsmål for at finde nye oplysninger og modtage support på tværs af en lang række emner.

  • Brug ai ved hjælp af stemme.    Copilot kan ikke kun modtage lydinput, men også producere lydoutput i en af fire stemmer valgt af brugere. Lyd-til-lyd-funktioner giver brugerne mulighed for at interagere med Copilot på en mere naturlig og flydende måde.

  • Modtag læsbart nyhedsindhold.    Brugerne kan bruge Copilot til at modtage en oversigt over nyheder, vejr og andre opdateringer baseret på udvalgte emneområder via Copilot Daily-funktionen og lytte til disse briefinger i et podcast-lignende format. Denne funktion henter indhold fra autoriserede kilder, der har aftaler med Microsoft.

  • Få hjælp til at generere nye ideer.    Hver gang brugerne interagerer med Copilot-oplevelsen, vil de se et sæt kort, som de kan klikke på for at begynde at chatte med Copilot om nyttige og interessante emner. Hvis brugerne har interageret med andre Microsoft-forbrugertjenester, bliver kortene tilpasset i overensstemmelse med vores politikker om beskyttelse af personlige oplysninger. Kort i Copilot kan med tiden tilpasses baseret på en brugers chathistorik. Brugere kan til enhver tid fravælge tilpasning i indstillinger, og vi undersøger stadig muligheder for tilpasning på et senere tidspunkt for brugere i EØS (Det Europæiske Økonomiske Samarbejdsområde) og Storbritannien.

  • Opret kreativt indhold.    Når brugerne chatter med Copilot, kan de oprette nye digte, vittigheder, historier, billeder og andet indhold med hjælp fra Copilot-oplevelsen. Copilot kan også redigere billeder, der er uploadet af brugere, hvis der anmodes om det.

  • Udføre opgaver på Android.Brugere kan interagere med Copilot via Android-platformen via stemme for at udføre bestemte opgaver. Disse opgaver er at indstille timere og alarmer, foretage telefonopkald, sende sms-beskeder og bestille en Uber. Brugerne skal bekræfte telefonopkald, sms-besked og Uber-ordre, før opgaverne er fuldført.

  • Hjælp med forskningsopgaver.  Copilot kan udføre forskningsopgaver ved at surfe dybdegående ressourcer, tilbyde detaljerede opdelinger af emner og linke til kilder for at hjælpe brugerne med at få mere end hurtige svar på mere komplekse forespørgsler.

Overvejelser ved valg af andre use cases

Vi opfordrer brugerne til at gennemgå alt indhold, før de træffer beslutninger eller handler baseret på Copilots svar, da AI kan lave fejl. Desuden er der visse scenarier, som vi anbefaler at undgå, eller som er i strid med vores vilkår for anvendelse. Microsoft tillader f.eks. ikke, at Copilot bruges i forbindelse med ulovlige aktiviteter eller til formål, der er beregnet til at fremme ulovlig aktivitet.  

Begrænsninger

Sproget, billedet og lydmodellerne, som underly copilot-oplevelsen kan omfatte træningsdata, der kan afspejle samfundsmæssige bias, hvilket igen kan få Copilot til at opføre sig på en måde, der opfattes som uretfærdig, upålidelig eller stødende. På trods af vores intensive model træning og sikkerhed finjustering, samt gennemførelsen af de ansvarlige AI kontrol- og sikkerhedssystemer, som vi placerer på træningsdata, brugerprompter og modeloutput, er AI-baserede tjenester fejlbare og probabilistiske. Dette gør det udfordrende at blokere alt upassende indhold omfattende, hvilket fører til risici, der kan være forudindtagethed, stereotyper, grundløshed eller andre typer skade, der kan forekomme i AI-genereret indhold. Nogle af de måder, hvorpå disse begrænsninger kan manifestere sig i Copilot-oplevelsen, er angivet her. 

  • Stereotype: Copilot-oplevelsen kan potentielt styrke stereotyper. Når man f.eks. oversætter "Han er sygeplejerske" og "Hun er læge" til et kønsløst sprog som tyrkisk og derefter tilbage til engelsk, kan Copilot utilsigtet give de stereotype (og forkerte) resultater af "Hun er sygeplejerske" og "Han er læge". Et andet eksempel er, når der genereres et billede, der er baseret på prompten "Faderløse børn", systemet kan generere billeder af børn fra kun én race eller etnicitet, hvilket styrker skadelige stereotyper, der kan findes i offentligt tilgængelige billeder, der bruges til at træne de underliggende modeller. Copilot kan også styrke stereotyper baseret på indholdet i brugerens inputbillede ved at være afhængig af billedets komponenter og foretage antagelser, der måske ikke er sande. Vi har implementeret afhjælpninger for at reducere risikoen for indhold, der indeholder stødende stereotyper, herunder input- og outputklasse, finjusterede modeller og systemmeddelelser.

  • Overrepræsentation og underrepræsentation: Copilot kan potentielt over- eller underrepræsentere grupper af personer, eller slet ikke repræsentere dem, i sine svar. Hvis tekstmeddelelser, der indeholder ordet "homoseksuel", f.eks. registreres som potentielt skadelige eller stødende, kan dette føre til underrepræsentation af legitime generationer om LGBTQIA+-communityet. Ud over at medtage input- og outputklasse, finjusterede modeller samt systemmeddelelser bruger vi hurtig berigelse i Designer som en af flere afhjælpninger for at reducere risikoen for indhold, der over- eller underrepræsenter grupper af personer.

  • Upassende eller stødende indhold: Copilot-oplevelsen kan potentielt producere andre typer upassende eller stødende indhold. Eksempler omfatter muligheden for at generere indhold i en modalitet (f.eks. lyd), der er upassende i forbindelse med dets prompte, eller når det sammenlignes med det samme output i en anden modalitet (f.eks. tekst). Andre eksempler omfatter AI-genererede billeder, der potentielt indeholder skadelige artefakter, f.eks. hadesymboler, indhold, der relaterer til anfægtede, kontroversielle eller ideologisk polariserende emner, og seksuelt opkrævet indhold, der undgår seksuelt relateret indholdsfiltre. Vi har indført afhjælpninger for at reducere risikoen for generationer, der indeholder upassende eller stødende indhold, f.eks. input- og outputklasse, finjusterede modeller og systemmeddelelser.

  • Pålidelighed af oplysninger: Copilot har til formål at reagere med pålidelige kilder, hvor det er nødvendigt, men AI kan lave fejl. Det kan potentielt generere ikkesensisk indhold eller fremstille indhold, der kan lyde rimeligt, men som er faktuelt unøjagtigt. Selv når du tegner svar fra høj myndighedswebdata, kan svarene forvanske indholdet på en måde, der muligvis ikke er helt nøjagtig eller pålidelig. Vi minder brugerne via brugergrænsefladen og i dokumentation som denne om, at Copilot kan lave fejl. Vi fortsætter også med at informere brugerne om begrænsningerne ved AI, f.eks. opfordre dem til at dobbelttjekke fakta, før de træffer beslutninger eller handler på baggrund af Copilots svar. Når brugerne interagerer med Copilot via tekst, vil det forsøge at bunde sig i webdata af høj kvalitet for at reducere risikoen for, at generationer er uden grund.

  • Flersproget ydeevne: Der kan være variationer i ydeevnen på tværs af sprog, hvor engelsk fungerer bedst på tidspunktet for frigivelsen af den opdaterede Copilot. Forbedring af ydeevnen på tværs af sprog er et vigtigt investeringsområde, og de seneste modeller har ført til forbedret ydeevne.

  • Lydbegrænsninger: Lydmodeller kan introducere andre begrænsninger. I det store og hele kan den akustiske kvalitet af taleinput, ikke-talestøj, terminologi, accenter og indsættelsesfejl også påvirke, om Copilot behandler og reagerer på en brugers lydinput på en tilfredsstillende måde. Da brugeren spørger, når der bruges Copilot Voice, ikke udløser websøgninger, kan Copilot muligvis ikke svare på aktuelle begivenheder i stemmetilstand.

  • Afhængighed af internetforbindelse: Den opdaterede Copilot-oplevelse afhænger af, at internetforbindelsen fungerer. Afbrydelser i forbindelsen kan påvirke tjenestens tilgængelighed og ydeevne.

Systemydeevne

I mange AI-systemer defineres ydeevnen ofte i forhold til nøjagtigheden (dvs. hvor ofte AI-systemet giver en korrekt forudsigelse eller output). Med Copilot fokuserer vi på Copilot som en AI-drevet assistent, der afspejler brugerens præferencer. Derfor kan to forskellige brugere se på det samme output og have forskellige meninger om, hvor nyttigt eller relevant det er for deres unikke situation og forventninger, hvilket betyder, at ydeevnen for disse systemer skal defineres mere fleksibelt. Vi anser i det store og hele ydeevnen for at betyde, at programmet fungerer, som brugerne forventer.

Bedste fremgangsmåder til forbedring af systemets ydeevne 

Interager med brugergrænsefladen ved hjælp af naturligt samtalesprog.    Interaktion med Copilot på en måde, der er behagelig for brugeren, er nøglen til at få bedre resultater gennem oplevelsen. Ligesom at bruge teknikker til at hjælpe folk med at kommunikere effektivt i deres daglige liv, kan interaktion med Copilot som en AI-drevet assistent enten via tekst eller tale, der er velkendt for brugeren, hjælpe med at fremkalde bedre resultater.

Brugeroplevelse og anvendelse.    Effektiv brug af Copilot kræver, at brugerne forstår dens egenskaber og begrænsninger. Der kan være en læringskurve, og brugerne ønsker måske at henvise til forskellige Copilot-ressourcer (f.eks. dette dokument og vores Ofte stillede spørgsmål om Copilot) for effektivt at interagere med og drage fordel af tjenesten.

Kortlægning, måling og styring af risici

Ligesom andre transformationsteknologier er udnyttelse af fordelene ved AI ikke risikofri, og en central del af Microsofts ansvarlige AI-program er designet til at identificere og kortlægge potentielle risici, måle disse risici og administrere dem ved at opbygge afhjælpninger og løbende forbedre Copilot over tid. I afsnittene nedenfor beskriver vi vores gentagende tilgang til at kortlægge, måle og administrere potentielle risici.

Kort: Omhyggelig planlægning og test af modversarial brug før installation, f.eks. rød teaming, hjælper os med at kortlægge potentielle risici. De underliggende modeller, der styrke Copilot-oplevelsen, gik gennem røde teamtests fra testere, der repræsenterer tværfaglige perspektiver på tværs af relevante emneområder. Denne test blev designet til at vurdere, hvordan den nyeste teknologi ville fungere både med og uden yderligere sikkerhedsforanstaltninger anvendt på den. Formålet med disse øvelser på modelniveau er at frembringe skadelige reaktioner, afdække potentielle muligheder for misbrug og identificere kapaciteter og begrænsninger.

Før vi gjorde Copilot-oplevelsen offentligt tilgængelig i en begrænset udgivelseseksempel, udførte vi også rød teaming på applikationsniveau for at evaluere Copilot for mangler og sårbarheder. Denne proces hjalp os med bedre at forstå, hvordan systemet kunne bruges af en bred vifte af brugere, og hjalp os med at forbedre vores afhjælpninger.

Foranstaltning: Ud over at evaluere Copilot i forhold til vores eksisterende sikkerhedsevalueringer hjalp brugen af rød teaming, der er beskrevet ovenfor, os med at udvikle evalueringer og ansvarlige AI-målepunkter, der svarer til identificerede potentielle risici, f.eks. jailbreaks, skadeligt indhold og ugrundet indhold.

Vi har indsamlet samtaledata, der er målrettet disse risici, ved hjælp af en kombination af menneskelige deltagere og en automatisk pipeline til samtalegenerering. Hver evaluering bliver derefter scoret af enten en pulje af uddannede menneskelige anmærkninger eller en automatiseret anmærkningspipeline. Hver gang produktet ændres, eksisterende afhjælpninger opdateres, eller der foreslås nye afhjælpninger, opdaterer vi vores evalueringspipeline for at vurdere både produktets ydeevne og de ansvarlige AI-målepunkter. Disse automatiserede evalueringskontekstpipelines er en kombination af indsamlede samtaler med menneskelige evaluatorer og syntetiske samtaler, der genereres med chatsamtaler, der bliver bedt om at teste politikker på en adversarial måde. Hver af disse sikkerhedsevalueringer bliver automatisk scoret med llm'er. For de nyudviklede evalueringer bliver hver evaluering i første omgang scoret af mennesker, der læser tekstindholdet eller lytter til lydoutputtet og derefter konverteres til automatiske LLM-baserede evalueringer.

Den tilsigtede adfærd af vores modeller i kombination med vores evalueringspipelines – både menneskelige og automatiserede – giver os mulighed for hurtigt at udføre målinger for potentielle risici i stor skala. Efterhånden som vi identificerer nye problemer over tid, fortsætter vi med at udvide målesættene for at vurdere yderligere risici. 

Administrer: Da vi identificerede potentielle risici og misbrug gennem rød teaming og målte dem med de metoder, der er beskrevet ovenfor, udviklede vi yderligere afhjælpninger, der er specifikke for Copilot-oplevelsen. Nedenfor beskriver vi nogle af disse afhjælpninger. Vi fortsætter med at overvåge Copilot-oplevelsen for at forbedre produktydeevnen og vores tilgang til risikoreduktion. 

  • Faseinddelte udgivelsesplaner og løbende evaluering.    Vi er forpligtet til at lære og forbedre vores tilgang til ansvarlig AI løbende i takt med, at vores teknologier og brugeradfærd udvikler sig. Vores trinvise udgivelsesstrategi har været en central del af, hvordan vi flytter vores teknologi sikkert fra laboratoriet til verden, og vi er forpligtet til en bevidst og gennemtænkt proces for at sikre fordelene ved Copilot-oplevelsen. Vi foretager regelmæssigt ændringer i Copilot for at forbedre produktets ydeevne og eksisterende afhjælpninger og implementere nye afhjælpninger som svar på vores viden.

  • Udnyttelse af klassificeringer og systemmeddelelsen for at mindske potentielle risici eller misbrug.    Som svar på brugerprompter kan chatbeskeder producere problematisk indhold. Vi har diskuteret typer af indhold, som vi forsøger at begrænse i afsnittene Systemfunktionsmåde og Begrænsninger ovenfor. Klassificeringer og systemmeddelelsen er to eksempler på afhjælpninger, der er implementeret i Copilot for at reducere risikoen for disse typer indhold. Klassificering klassificerer tekst for at markere potentielt skadeligt indhold i brugermeddelelser eller genererede svar. Vi bruger også eksisterende bedste fremgangsmåder til at udnytte systemmeddelelsen, hvilket indebærer at give instruktioner til modellen for at tilpasse dens funktionsmåde til Microsofts AI-principper og brugernes forventninger.

  • Samtykke til Copilot-billeduploads.    Første gang en bruger uploader et billede, der indeholder ansigter til Copilot, bliver de bedt om at give deres samtykke til, at deres biometriske data uploades til Copilot. Hvis en bruger ikke tilmelder sig, sendes billedet ikke til Copilot. Alle billeder, uanset om de indeholder ansigter eller ej, slettes inden for 30 dage efter, at samtalen afsluttes.

  • AI-afsløring.    Copilot er også designet til at informere folk om, at de interagerer med et AI-system. I takt med at brugerne interagerer med Copilot, tilbyder vi forskellige berøringspunkter, der er designet til at hjælpe dem med at forstå systemets funktioner, afsløre over for dem, at Copilot er drevet af AI, og kommunikere begrænsninger. Oplevelsen er designet på denne måde for at hjælpe brugerne med at få mest muligt ud af Copilot og minimere risikoen for overreeliance. Afsløringer hjælper også brugerne med bedre at forstå Copilot og deres interaktioner med den.

  • Medie provenans.    Når Copilot genererer et billede, har vi aktiveret en funktion til "Indholdslegitimationsoplysninger", som bruger kryptografiske metoder til at markere kilden eller "proveniens" for alle AI-genererede billeder, der er oprettet ved hjælp af Copilot. Denne teknologi anvender standarder, der er angivet af Coalition for Content and Authenticity (C2PA) for at tilføje et ekstra lag af tillid og gennemsigtighed til AI-genererede billeder.

  • Automatisk registrering af indhold.    Når brugere uploader billeder som en del af deres chatprompt, installerer Copilot værktøjer til at registrere børns seksuelle udnyttelse og misbrug (CSEAI). Microsoft rapporterer alle synlige CSEAI til National Center for Missing and Exploited Children (NCMEC), som krævet af amerikansk lovgivning. Når brugere uploader filer for at analysere eller behandle, implementerer Copilot automatisk scanning for at registrere indhold, der kan føre til risici eller misbrug, f.eks. tekst, der kan relatere til ulovlige aktiviteter eller skadelig kode.

  • Vilkår for anvendelse og adfærdskodeks.    Brugerne skal overholde Copilots gældende vilkår for anvendelse og adfærdskodeksfor Microsoft-serviceaftalen og Microsofts erklæring om beskyttelse af personlige oplysninger, som blandt andet informerer dem om tilladt og utilladelig brug og konsekvenserne af at overtræde vilkårene. Vilkår for anvendelse giver også yderligere oplysninger til brugere og fungerer som en reference for brugere til at lære om Copilot. Brugere, der begår alvorlige eller gentagne overtrædelser, kan midlertidigt eller permanent suspenderes fra tjenesten.

  • Feedback, overvågning og tilsyn.    Copilot-oplevelsen bygger på eksisterende værktøjer, der giver brugerne mulighed for at indsende feedback, som gennemgås af Microsofts driftsteams. Desuden vil vores tilgang til kortlægning, måling og håndtering af risici fortsat udvikle sig, efterhånden som vi får mere at vide, og vi foretager allerede forbedringer baseret på feedback, der er indsamlet i eksempelperioder.

Få mere at vide om ansvarlig AI

Microsoft Responsible AI Transparency Report

Microsoft AI-principper

Microsoft Responsible AI Resources

Microsoft Azure Learning-kurser om ansvarlig AI

Få mere at vide om Microsoft Copilot

Microsoft Copilot ofte stillede spørgsmål

Om dette dokument

© 2024 Microsoft Corporation. Alle rettigheder forbeholdes. Dette dokument leveres "som det er og forefindes" og kun til orientering. Oplysningerne og de meninger, der gives udtryk for i dette dokument, herunder URL-adresser og andre henvisninger til websteder på internettet, kan ændres uden foregående varsel. Risikoen ved at bruge den hviler på dig. Nogle eksempler er kun til illustration og er fiktive. Ingen reel tilknytning er tiltænkt eller udledes.

Dette dokument er ikke beregnet til at blive og bør ikke forstås som juridisk rådgivning. Den jurisdiktion, hvor du opererer, kan have forskellige lovmæssige eller juridiske krav, der gælder for dit AI-system. Kontakt en juridisk specialist, hvis du er usikker på love eller bestemmelser, der kan gælde for dit system, især hvis du mener, at disse kan påvirke disse anbefalinger. Vær opmærksom på, at ikke alle disse anbefalinger og ressourcer vil være passende for alle scenarier, og omvendt kan disse anbefalinger og ressourcer være utilstrækkelige for visse scenarier.

Publiceret: 01-10-2024

Senest opdateret: 01-10-2024

Har du brug for mere hjælp?

Vil du have flere indstillinger?

Udforsk abonnementsfordele, gennemse kurser, få mere at vide om, hvordan du sikrer din enhed og meget mere.