Última atualização: abril de 2025

O que é uma Nota de Transparência?

Um sistema de IA inclui não apenas a tecnologia, mas também as pessoas que a usarão, as pessoas que serão afetadas por ela e o ambiente em que ela é implantada. As Notas de Transparência da Microsoft visam ajudá-lo a entender como funciona a tecnologia de IA por trás do Copilot, as escolhas que fizemos que influenciam o desempenho e o comportamento do sistema e a importância de pensar em todo o sistema, para que os usuários do Copilot possam assumir o controle de suas próprias experiências e entender as etapas que estamos tomando para fornecer um produto seguro e seguro.

As Notas de Transparência da Microsoft fazem parte de um esforço mais amplo da Microsoft para colocar nossos Princípios de IA em prática. Para saber mais, confira os Princípios de IA da Microsoft

O básico de Microsoft Copilot

Introdução

Copilot é uma experiência com a IA que ajudará a fornecer aos usuários as informações que eles estão buscando enquanto estão preparados para dar suporte aos usuários na resposta a uma ampla gama de perguntas, independentemente da situação ou do tópico. O Copilot atualizado vai além de responder a consultas básicas de recuperação de informações e se concentra na geração de conteúdo para oferecer suporte mais proativo aos usuários ao concluir tarefas. Temos uma compreensão crescente de como a IA tem o potencial de ajudar as pessoas a aprender, descobrir e ser mais criativas, o que nos exigiu criar um tipo diferente de produto. A nova experiência Copilot busca se tornar um novo tipo de experiência aberta e dinâmica para atender melhor às necessidades do usuário de uma maneira mais intuitiva.

Na Microsoft, levamos a sério nosso compromisso com a IA responsável. A experiência atualizada do Copilot foi desenvolvida de acordo com os Princípios de IA da Microsoft, a Standard de IA Responsável da Microsoft e em parceria com especialistas responsáveis em IA em toda a empresa, incluindo o Office of Responsible AI da Microsoft, nossas equipes de engenharia, Microsoft Research e Aether. Você pode saber mais sobre IA responsável na Microsoft aqui.  

Neste documento, descrevemos nossa abordagem para IA responsável para Copilot. Antes do lançamento, aproveitamos os métodos de última geração da Microsoft para mapear, medir e gerenciar riscos potenciais e uso indevido do sistema e garantir seus benefícios para os usuários. À medida que continuamos a evoluir Copilot, também continuamos a aprender e melhorar nossos esforços responsáveis de IA. Este documento será atualizado periodicamente para comunicar nossos processos e métodos em evolução.  

Termos-chave

Classificadores    Modelos de machine learning que ajudam a classificar dados em classes ou categorias de informações rotuladas. Na experiência de Copilot atualizada, uma maneira pela qual usamos classificadores é ajudar a detectar conteúdo potencialmente prejudicial enviado pelos usuários ou gerado pelo sistema para mitigar a geração desse conteúdo e uso indevido ou abuso do sistema. 

Aterramento    Para determinadas conversas em que os usuários estão buscando informações, o Copilot está fundamentado nos resultados da pesquisa na Web. Isso significa que o Copilot centra sua resposta em conteúdo de alto escalão da Web e fornece citações hiperlinkadas após respostas de texto geradas. Observe que, neste momento, os prompts do usuário no modo de voz não dispararão uma pesquisa na Web, portanto, nenhuma resposta incluirá citações.

LLMs (modelos de linguagem grandes)    Os LLMs (grandes modelos de linguagem) neste contexto são modelos de IA treinados em grandes quantidades de dados de texto para prever palavras em sequências. As LLMs podem executar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais.

Atenuação    Um método ou uma combinação de métodos projetados para reduzir riscos potenciais que podem surgir do uso dos recursos de IA no Copilot.

Modelos multimodais (MMMs)    Modelos multimodais (MMMs) são modelos de IA treinados em diferentes tipos de dados, como texto, imagens ou áudio. Esses modelos podem executar uma variedade de tarefas, como escrever texto, descrever imagens, reconhecer fala e encontrar informações em diferentes tipos de dados.

Solicitações    Entradas na forma de texto, imagens e/ou áudio que um usuário envia para Copilot para interagir com os recursos de IA no Copilot.

Equipe vermelha    Técnicas usadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planejadas. O teste em equipe vermelha inclui testadores que adotam personas benignas e adversárias para identificar riscos potenciais e são distintos da medição sistemática dos riscos.

Respostas    Texto, imagens ou áudio que Copilot gera em resposta a um prompt ou como parte do vai e vem com o usuário. Sinônimos de "resposta" incluem "conclusão", "geração e "resposta".

Modelos de idioma pequeno (SLMs)    Modelos de linguagem pequenos (SLMs) neste contexto são modelos de IA treinados em quantidades menores e mais focadas de dados em comparação com modelos de linguagem grandes. Apesar de seu tamanho menor, os SLMs podem executar uma variedade de tarefas, como geração de texto, resumo, tradução e classificação. Embora possam não corresponder às funcionalidades extensas das LLMs, as SLMs geralmente são mais eficientes em recursos e podem ser altamente eficazes para aplicativos específicos e direcionados. 

Mensagem do Sistema    A mensagem do sistema (às vezes chamada de "metaprompt") é um programa que serve para orientar o comportamento do sistema. Partes da mensagem do sistema ajudam a alinhar o comportamento do sistema com os Princípios de IA da Microsoft e as expectativas do usuário. Por exemplo, uma mensagem do sistema pode incluir uma linha como "não forneça informações ou crie conteúdo que possa causar danos físicos, emocionais ou financeiros". 

Recursos

Comportamento do sistema

Com o Copilot, desenvolvemos uma abordagem inovadora para levar uma experiência de IA mais personalizada aos usuários para uma experiência envolvente que pode ajudar os usuários com uma variedade de tarefas. Essa abordagem inovadora aproveita uma variedade de tecnologias avançadas, como linguagem e modelos multimodais da Microsoft, OpenAI e outros desenvolvedores de modelos. Trabalhamos na implementação de técnicas de segurança para os modelos subjacentes à nova experiência copilot antes do lançamento público para desenvolver um conjunto personalizado de recursos e comportamentos que fornecem uma experiência de Copilot aprimorada. No Copilot atualizado, os usuários podem enviar prompts em texto ou voz de linguagem natural. As respostas são apresentadas aos usuários em vários formatos diferentes, como respostas de chat em formulário de texto (com links tradicionais para conteúdo da Web conforme necessário) e imagens (se uma solicitação de imagem foi feita como parte do prompt). Se os usuários enviarem prompts na voz da linguagem natural no modo Voz copilot, eles receberão respostas de áudio. 

Quando um usuário insere um prompt no Copilot, o prompt, o histórico de conversas e a mensagem do sistema são enviados por vários classificadores de entrada para ajudar a filtrar conteúdo prejudicial ou inadequado. Esta é uma primeira etapa crucial para ajudar a melhorar o desempenho do modelo e mitigar situações em que os usuários podem tentar solicitar o modelo de uma maneira que possa não ser segura. Depois que o prompt passa pelos classificadores de entrada, ele é enviado para um SLM para determinar se a solicitação requer o aterramento de dados da Web e qual modelo de idioma deve responder à solicitação. Todos os modelos geram uma resposta usando o histórico de conversas rápida e recente do usuário para contextualizar a solicitação, a mensagem do sistema para alinhar respostas com princípios de IA da Microsoft e expectativas do usuário e, se apropriado, alinhar respostas com resultados de pesquisa a respostas básicas no conteúdo existente e de alto escalão da Web.  

As respostas são apresentadas aos usuários em vários formatos diferentes, como respostas de chat em formulário de texto, links tradicionais para conteúdo da Web, imagens e respostas de áudio. Quando as respostas são fornecidas na forma de texto e as respostas são aterradas em dados da Web, a saída contém citações hiperlinkadas listadas abaixo do texto para que os usuários possam acessar os sites usados para aterrar a resposta e saber mais sobre o tópico a partir daí. 

Copilot também ajuda os usuários a criar novas histórias, poemas, letras de música e imagens. Quando o Copilot detecta a intenção do usuário de gerar conteúdo criativo (como um prompt de usuário que começa com "write me a ..."), o sistema gerará, na maioria dos casos, conteúdo responsivo ao prompt do usuário. Da mesma forma, quando Copilot detecta a intenção do usuário de gerar uma imagem (como um prompt de usuário que começa com "desenhar um ..."), Copilot gerará, na maioria dos casos, uma imagem responsiva ao prompt do usuário. Quando o Copilot detecta a intenção do usuário de modificar uma imagem carregada (como um prompt de usuário que começa com "adicionar um ..."), o Copilot modificará, na maioria dos casos, uma imagem responsiva ao prompt do usuário. O copiloto pode não responder com conteúdo criativo quando o prompt do usuário contém determinados termos que podem resultar em conteúdo problemático.

Os usuários com contas da Microsoft (MSA) agora também têm a opção de assinar Copilot Pro, que oferece uma experiência aprimorada, incluindo desempenho acelerado, uso de recursos do Copilot Voice por períodos mais longos de tempo e, em alguns casos, acesso a novos recursos experimentais. Copilot Pro está atualmente disponível em um número limitado de países, e planejamos disponibilizar Copilot Pro em mais mercados em breve.

Comportamento de segurança pretendido

Nosso objetivo para Copilot é ser útil para os usuários. Ao aproveitar as práticas recomendadas de outros produtos e serviços de IA generativos da Microsoft, nosso objetivo é limitar o Copilot de gerar conteúdo problemático e aumentar a probabilidade de uma experiência segura e positiva do usuário. Embora tenhamos tomado medidas para mitigar riscos, modelos de IA generativos como aqueles por trás do Copilot são probabilísticos e podem cometer erros, o que significa que as mitigações podem ocasionalmente falhar em bloquear prompts de usuário prejudiciais ou respostas geradas por IA. Se você encontrar conteúdo prejudicial ou inesperado ao usar Copilot, informe-nos fornecendo comentários para que possamos continuar a melhorar a experiência.

Usar casos

Usos pretendidos

O Copilot destina-se a dar suporte aos usuários na resposta a uma ampla gama de perguntas, independentemente da situação ou do tópico. Os usuários podem interagir com o Copilot usando entradas de texto, imagem e áudio em que as interações se destinam a se sentir mais como conversas naturais com um sistema de IA. Além disso, se os usuários estiverem interagindo com Copilot por meio de texto para buscar informações específicas sobre tópicos em que o Copilot pode exigir mais informações para produzir uma resposta mais precisa, a experiência se destina a conectar os usuários com resultados de pesquisa relevantes, examinar resultados de toda a Web e resumir as informações que os usuários estão procurando. No Copilot, os usuários podem: 

  • Resumir informações em tempo real ao conversar por meio de texto.    Quando os usuários interagem com Copilot por texto, o sistema executará pesquisas na Web se precisar de mais informações e usará os principais resultados de pesquisa na Web para gerar um resumo das informações a serem apresentadas aos usuários. Esses resumos incluem citações a páginas da Web para ajudar os usuários a ver e acessar facilmente as fontes para obter resultados de pesquisa que ajudaram a aterrar o resumo de Copilot. Os usuários podem clicar nesses links para ir direto para a origem se desejarem saber mais.

  • Converse com um sistema de IA usando texto.    Os usuários podem conversar com Copilot por texto e fazer perguntas de acompanhamento para encontrar novas informações e receber suporte em uma ampla variedade de tópicos.

  • Interface com IA usando voz.    O copiloto não só pode receber entrada de áudio, mas também produzir saída de áudio em uma das quatro vozes selecionadas pelos usuários. As funcionalidades de áudio para áudio permitem que os usuários interajam com Copilot de maneira mais natural e fluida.

  • Receba conteúdo de notícias digestíveis.    Os usuários podem usar Copilot para receber um resumo de notícias, clima e outras atualizações com base em áreas de tópico selecionadas por meio do recurso Copilot Daily e ouvir esses briefings em um formato semelhante a um podcast. Esse recurso extrairá conteúdo de fontes autorizadas que têm contratos com a Microsoft.

  • Obtenha ajuda para gerar novas ideias.    Sempre que os usuários interagirem com a experiência copilot, eles verão um conjunto de cartões que podem clicar para começar a conversar com Copilot sobre tópicos úteis e interessantes. Se os usuários interagirem com outros serviços de consumidor da Microsoft, os cartões serão personalizados, de acordo com nossas políticas de privacidade. Ao longo do tempo, os cartões no Copilot podem ser personalizados com base no histórico de chat de um usuário. Os usuários podem optar por não personalizar a qualquer momento nas configurações, e ainda estamos explorando opções de personalização em uma data posterior para usuários no EEE (Área Econômica Europeia) e no Reino Unido.

  • Gerar conteúdo criativo.    Ao conversar com Copilot, os utilizadores podem criar novos poemas, piadas, histórias, imagens e outros conteúdos com a ajuda da experiência Copilot. O Copilot também pode editar imagens carregadas pelos utilizadores, se solicitado.

  • Realizar tarefas no Android.Os utilizadores podem interagir com o Copilot através da plataforma Android através de voz para realizar determinadas tarefas. Estas tarefas são definir temporizadores e alarmes, fazer chamadas telefónicas, enviar mensagens SMS e encomendar uma Uber. Os utilizadores têm de confirmar a chamada telefónica, a mensagem SMS e a encomenda Uber antes de as tarefas serem concluídas.

  • Ajudar com tarefas de pesquisa.  O Copilot pode realizar tarefas de pesquisa ao apresentar recursos aprofundados, oferecer discriminações detalhadas de tópicos e ligar a origens para ajudar os utilizadores a ir além das respostas rápidas para consultas mais complexas.

Considerações ao escolher outros casos de utilização

Incentivamos os utilizadores a rever todo o conteúdo antes de tomarem decisões ou agirem com base nas respostas da Copilot, uma vez que a IA pode cometer erros. Além disso, existem determinados cenários que recomendamos evitar ou que vão contra os nossos Termos de Utilização. Por exemplo, a Microsoft não permite que o Copilot seja utilizado em relação a atividades ilegais ou para qualquer finalidade destinada a promover atividades ilegais.  

Limitações

Os modelos de linguagem, imagem e áudio subjacentes à experiência Copilot podem incluir dados de preparação que podem refletir preconceitos sociais, o que, por sua vez, pode potencialmente fazer com que Copilot se comporte de formas que são consideradas injustas, pouco fiáveis ou ofensivas. Apesar da nossa preparação intensiva de modelos e da otimização da segurança, bem como da implementação dos controlos de IA responsáveis e dos sistemas de segurança que colocamos nos dados de preparação, nos pedidos dos utilizadores e nas saídas de modelos, os serviços orientados para IA são falíveis e probabilísticos. Isto torna um desafio bloquear de forma abrangente todo o conteúdo inadequado, levando a riscos que potenciais preconceitos, estereótipos, ingroundedness ou outros tipos de danos que possam aparecer em conteúdos gerados pela IA. Algumas das formas como essas limitações podem manifestar-se na experiência Copilot estão listadas aqui. 

  • Estereotipagem: A experiência Copilot pode potencialmente reforçar estereótipos. Por exemplo, ao traduzir "Ele é enfermeiro" e "Ela é médica" numa língua sem género como o turco e depois voltar ao inglês, Copilot pode inadvertidamente produzir os resultados estereotipados (e incorretos) de "Ela é enfermeira" e "Ele é médico". Outro exemplo é quando gera uma imagem baseada no pedido "Crianças sem pai", o sistema poderia gerar imagens de crianças de apenas uma raça ou etnia, reforçando estereótipos nocivos que poderiam existir em imagens publicamente disponíveis usadas para preparar os modelos subjacentes. O Copilot também pode reforçar estereótipos com base nos conteúdos na imagem de entrada do utilizador, baseando-se em componentes da imagem e fazendo suposições que podem não ser verdadeiras. Implementámos mitigações para reduzir o risco de conteúdo que contém estereótipos ofensivos, incluindo classificadores de entrada e saída, modelos otimizados e mensagens do sistema.

  • Sobre-representação e sub-representação: Copilot pode potencialmente sobre-representar grupos de pessoas ou mesmo não representá-los de todo, nas suas respostas. Por exemplo, se os pedidos de texto que contêm a palavra "gay" forem detetados como potencialmente prejudiciais ou ofensivos, isso pode levar à subrepresentação de gerações legítimas sobre a comunidade LGBTQIA+. Além de incluir classificadores de entrada e saída, modelos otimizados, bem como mensagens do sistema, utilizamos o melhoramento de pedidos no Designer como uma das várias mitigações para reduzir o risco de conteúdo que sobre-representa grupos de pessoas.

  • Conteúdo inadequado ou ofensivo: a experiência Copilot pode potencialmente produzir outros tipos de conteúdo inapropriado ou ofensivo. Os exemplos incluem a capacidade de gerar conteúdo numa modalidade (por exemplo, áudio) inadequada no contexto do pedido ou quando comparada com a mesma saída numa modalidade diferente (por exemplo, texto). Outros exemplos incluem imagens geradas por IA que potencialmente contêm artefactos prejudiciais, como símbolos de ódio, conteúdos relacionados com tópicos contestados, controversos ou ideologicamente polarizados, e conteúdo sexualmente carregado que escapa a filtros de conteúdo relacionados sexualmente. Implementámos mitigações para reduzir o risco de gerações que contêm conteúdo inadequado ou ofensivo, como classificadores de entrada e saída, modelos otimizados e mensagens do sistema.

  • Fiabilidade da informação: embora o Copilot pretenda responder com origens fiáveis sempre que necessário, a IA pode cometer erros. Poderia potencialmente gerar conteúdo sem sentido ou fabricar conteúdo que pudesse parecer razoável, mas factualmente impreciso. Mesmo ao obter respostas de dados Web de alta autoridade, as respostas podem deturpar esse conteúdo de uma forma que pode não ser completamente precisa ou fiável. Relembramos aos utilizadores através da interface de utilizador e, em documentação como esta, que o Copilot pode cometer erros. Também continuamos a educar os utilizadores sobre as limitações da IA, como encorajá-los a fazer duplo marcar factos antes de tomar decisões ou agir com base nas respostas da Copilot. Quando os utilizadores interagem com o Copilot através de texto, este tentará basear-se em dados Web de alta qualidade para reduzir o risco de as gerações não estarem encalhadas.

  • Desempenho multilingue: pode haver variações no desempenho entre idiomas, com o melhor desempenho em inglês no momento do lançamento do Copilot atualizado. A melhoria do desempenho entre idiomas é uma área de investimento fundamental e os modelos recentes levaram a um melhor desempenho.

  • Limitações de áudio: os modelos de áudio podem introduzir outras limitações. Em termos gerais, a qualidade acústica dos erros de entrada de voz, ruído sem voz, vocabulário, acentos e erros de inserção também pode afetar se Copilot processa e responde à entrada de áudio de um utilizador de uma forma satisfatória. Além disso, uma vez que os pedidos do utilizador ao utilizar o Copilot Voice não irão acionar pesquisas na Web, a Copilot poderá não conseguir responder aos eventos atuais no modo de voz.

  • Dependência da conectividade à Internet: a experiência copilot atualizada depende da conectividade à Internet para funcionar. As interrupções na conectividade podem ter um impacto na disponibilidade e no desempenho do serviço.

Desempenho do sistema

Em muitos sistemas de IA, o desempenho é muitas vezes definido em relação à precisão (ou seja, com que frequência o sistema de IA oferece uma predição ou saída correta). Com a Copilot, estamos focados no Copilot como uma assistente com tecnologia de IA que reflete as preferências do utilizador. Por conseguinte, dois utilizadores diferentes podem olhar para a mesma saída e ter opiniões diferentes sobre como é útil ou relevante para a sua situação e expetativas únicas, o que significa que o desempenho destes sistemas tem de ser definido de forma mais flexível. Consideramos amplamente o desempenho para significar que a aplicação funciona como os utilizadores esperam.

Melhores práticas para melhorar o desempenho do sistema 

Interaja com a interface através de linguagem natural e conversacional.    Interagir com o Copilot de uma forma confortável para o utilizador é fundamental para obter melhores resultados através da experiência. Semelhante à adoção de técnicas para ajudar as pessoas a comunicar eficazmente no seu dia-a-dia, interagir com Copilot como um assistente com tecnologia de IA, seja através de texto ou voz que seja familiar ao utilizador, pode ajudar a obter melhores resultados.

Experiência e adoção do utilizador.    A utilização eficaz do Copilot requer que os utilizadores compreendam as suas capacidades e limitações. Pode haver uma curva de aprendizagem e os utilizadores podem querer referenciar vários recursos da Copilot (por exemplo, este documento e as nossas FAQs do Copilot) para interagir e beneficiar eficazmente do serviço.

Mapeamento, medição e gestão de riscos

Tal como outras tecnologias transformacionais, tirar partido dos benefícios da IA não é isento de riscos e uma parte fundamental do programa de IA Responsável da Microsoft foi concebida para identificar e mapear potenciais riscos, medir esses riscos e geri-los ao criar mitigações e melhorar continuamente o Copilot ao longo do tempo. Nas secções abaixo, descrevemos a nossa abordagem iterativa para mapear, medir e gerir potenciais riscos.

Mapa: o planeamento cuidadoso e os testes adversos de pré-implementação, como o agrupamento vermelho, ajudam-nos a mapear potenciais riscos. Os modelos subjacentes que alimentam a experiência Copilot passaram por testes de equipas vermelhas de técnicos de teste que representam perspetivas multidisciplinares em áreas de tópico relevantes. Este teste foi concebido para avaliar como a tecnologia mais recente funcionaria com e sem quaisquer salvaguardas adicionais aplicadas à mesma. A intenção destes exercícios ao nível do modelo é produzir respostas nocivas, criar potenciais vias de utilização indevida e identificar capacidades e limitações.

Antes de disponibilizar publicamente a experiência Copilot numa pré-visualização de versão limitada, também realizamos o agrupamento vermelho ao nível da aplicação para avaliar o Copilot quanto a deficiências e vulnerabilidades. Este processo ajudou-nos a compreender melhor como o sistema poderia ser utilizado por uma grande variedade de utilizadores e ajudou-nos a melhorar as nossas mitigações.

Medida: Além de avaliar o Copilot em relação às nossas avaliações de segurança existentes, a utilização do agrupamento vermelho descrito acima ajudou-nos a desenvolver avaliações e métricas de IA responsáveis correspondentes a riscos potenciais identificados, tais como jailbreaks, conteúdo prejudicial e conteúdo não encalhada.

Recolhemos dados de conversação direcionados para estes riscos, utilizando uma combinação de participantes humanos e um pipeline de geração de conversação automatizado. Em seguida, cada avaliação é classificada por um conjunto de anotadores humanos preparados ou por um pipeline de anotação automatizada. Sempre que o produto é alterado, as mitigações existentes são atualizadas ou são propostas novas mitigações, atualizamos os nossos pipelines de avaliação para avaliar o desempenho do produto e as métricas de IA responsáveis. Estes pipelines de contexto de avaliação automatizada são uma combinação de conversações recolhidas com avaliadores humanos e conversações sintéticas geradas com LLMs pedidas para testar políticas de forma adversa. Cada uma destas avaliações de segurança é classificada automaticamente com LLMs. Para as avaliações recentemente desenvolvidas, cada avaliação é inicialmente classificada por etiquetas humanas que leem o conteúdo do texto ou ouvem a saída de áudio e, em seguida, são convertidas em avaliações automáticas baseadas em LLM.

O comportamento pretendido dos nossos modelos em combinação com os nossos pipelines de avaliação , tanto humanos como automatizados, permite-nos efetuar rapidamente medições para potenciais riscos em escala. À medida que identificamos novos problemas ao longo do tempo, continuamos a expandir os conjuntos de medição para avaliar riscos adicionais. 

Gerir: à medida que identificámos potenciais riscos e utilização indevida através do agrupamento vermelho e os medimos com as abordagens descritas acima, desenvolvemos mitigações adicionais específicas da experiência Copilot. Abaixo, descrevemos algumas dessas mitigações. Continuaremos a monitorizar a experiência copilot para melhorar o desempenho do produto e a nossa abordagem de mitigação de riscos. 

  • Planos de lançamento faseados e avaliação contínua.    Estamos empenhados em aprender e melhorar continuamente a nossa abordagem de IA responsável à medida que as nossas tecnologias e o comportamento dos utilizadores evoluem. A nossa estratégia de lançamento incremental tem sido uma parte fundamental da forma como movemos a nossa tecnologia de forma segura do laboratório para o mundo, e estamos empenhados num processo deliberado e atencioso para garantir os benefícios da experiência Copilot. Estamos a fazer alterações à Copilot regularmente para melhorar o desempenho do produto e as mitigações existentes e implementar novas mitigações em resposta às nossas aprendizagens.

  • Tirar partido dos classificadores e da mensagem do sistema para mitigar potenciais riscos ou utilização indevida.    Em resposta a pedidos do utilizador, os LLMs podem produzir conteúdo problemático. Discutimos os tipos de conteúdo que tentamos limitar nas secções Comportamento do Sistema e Limitações acima. Os classificadores e a mensagem do sistema são dois exemplos de mitigações que foram implementadas no Copilot para ajudar a reduzir o risco destes tipos de conteúdo. Os classificadores classificam texto para sinalizar conteúdo potencialmente prejudicial em pedidos do utilizador ou respostas geradas. Também utilizamos as melhores práticas existentes para tirar partido da mensagem do sistema, que envolve dar instruções ao modelo para alinhar o seu comportamento com os princípios de IA da Microsoft e com as expectativas dos utilizadores.

  • Consentimento para carregamentos de imagens copilot.    Na primeira vez que um utilizador carregar uma imagem com rostos para a Copilot, ser-lhe-á pedido que dê o seu consentimento para que os dados biométricos sejam carregados para o Copilot. Se um utilizador não optar ativamente por participar, a imagem não será enviada para o Copilot. Todas as imagens, independentemente de conterem ou não rostos, são eliminadas no prazo de 30 dias após o fim da conversação.

  • Divulgação de IA.    O Copilot também foi concebido para informar as pessoas de que estão a interagir com um sistema de IA. À medida que os utilizadores interagem com a Copilot, oferecemos vários pontos táteis concebidos para ajudá-los a compreender as capacidades do sistema, divulgar-lhes que o Copilot tem tecnologia de IA e comunicar limitações. A experiência foi concebida desta forma para ajudar os utilizadores a tirar o máximo partido do Copilot e minimizar o risco de dependência excessiva. As divulgações também ajudam os utilizadores a compreender melhor o Copilot e as suas interações com o mesmo.

  • Proveniência dos media.    Quando o Copilot gera uma imagem, ativemos uma funcionalidade "Credenciais de Conteúdo", que utiliza métodos criptográficos para marcar a origem, ou "proveniência", de todas as imagens geradas por IA criadas com o Copilot. Esta tecnologia utiliza normas definidas pela Coalition for Content and Authenticity (C2PA) para adicionar uma camada extra de confiança e transparência para imagens geradas por IA.

  • Deteção de conteúdo automatizada.    Quando os utilizadores carregam imagens como parte do pedido de chat, a Copilot implementa ferramentas para detetar imagens de exploração sexual infantil e abuso (CSEAI). A Microsoft relata todos os CSEAI aparentes ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), conforme exigido pela lei dos EUA. Quando os usuários carregam arquivos para analisar ou processar, o Copilot implanta a verificação automatizada para detectar conteúdo que pode levar a riscos ou uso indevido, como texto que pode estar relacionado a atividades ilegais ou código mal-intencionado.

  • Termos de Uso e Código de Conduta.    Os usuários devem respeitar os Termos de Uso e Código de Conduta aplicáveis da Copilot e a Declaração de Privacidade da Microsoft, que, entre outras coisas, os informam sobre usos permitidos e impermissíveis e as consequências de violar os termos. Os Termos de Uso também fornecem divulgações adicionais para os usuários e servem como referência para os usuários aprenderem sobre Copilot. Os usuários que cometem violações graves ou repetidas podem ser temporariamente ou permanentemente suspensos do serviço.

  • Comentários, monitoramento e supervisão.    A experiência copilot baseia-se na ferramenta existente que permite que os usuários enviem comentários, que são revisados pelas equipes de operações da Microsoft. Além disso, nossa abordagem para mapear, medir e gerenciar riscos continuará a evoluir à medida que aprendermos mais e já estamos fazendo melhorias com base nos comentários coletados durante os períodos de visualização.

Saiba mais sobre IA responsável

Relatório de transparência de IA responsável da Microsoft

Princípios de IA da Microsoft

Recursos de IA responsáveis da Microsoft

Cursos do Microsoft Azure Learning sobre IA Responsável

Saiba mais sobre Microsoft Copilot

Microsoft Copilot perguntas frequentes

Sobre este documento

© Microsoft Corporation 2024. Todos os direitos reservados. Este documento é fornecido "como está" e somente para fins informativos. Informações e exibições expressas neste documento, incluindo URL e outras referências de site da Internet, podem ser alteradas sem aviso prévio. Você assume o risco de usá-lo. Alguns exemplos são apenas para ilustração e são fictícios. Nenhuma associação real é pretendida ou inferida.

Este documento não se destina a ser e não deve ser interpretado como um conselho jurídico. A jurisdição na qual você está operando pode ter vários requisitos regulatórios ou legais que se aplicam ao sistema de IA. Consulte um especialista jurídico se você não tiver certeza sobre leis ou regulamentos que possam se aplicar ao seu sistema, especialmente se você acha que isso pode afetar essas recomendações. Lembre-se de que nem todas essas recomendações e recursos serão apropriados para todos os cenários e, por outro lado, essas recomendações e recursos podem ser insuficientes para alguns cenários.

Publicado em: 01/10/2024

Última atualização: 01/10/2024

Precisa de mais ajuda?

Quer mais opções

Explore os benefícios da assinatura, procure cursos de treinamento, saiba como proteger seu dispositivo e muito mais.