IA sob controlo: como garantir um serviço de apoio ao cliente ético

By Pedro Andrade
7 min read

Quer estejamos a brincar com o ChatGPT ou a ver um novo filme com um ator que faleceu há anos, a IA generativa parece mágica. Introduzimos uma simples pergunta e podemos obter um relatório inteiro escrito em segundos ou ver Carrie Fischer repetir o seu papel de Princesa Leia.
Mas, como em todos os truques de magia, existem explicações racionais e lógicas sobre a forma como estes resultados são criados. Como cliente, pode ficar maravilhado e impressionado, mas como líder do serviço de apoio ao cliente, não pode ficar de boca aberta. Tem de certificar-se de que pode confiar no que a sua IA está a dizer aos clientes e a aconselhar os seus agentes humanos a fazer e a dizer.
Na Talkdesk, acreditamos muito no poder transformador da IA, mas também acreditamos no velho ditado "confie, mas verifique" e é por isso que criámos medidas de segurança robustas e capacidades de monitorização nos nossos sistemas de IA. Sabemos que os líderes do serviço de apoio ao cliente já têm muito com que se preocupar sem acrescentar bots de IA não autorizados à lista!
Por que razão é tão importante confiar nos agentes virtuais e nos assistentes de agentes.
A IA Ética na experiência do cliente representa um papel essencial à medida que as empresas adotam tecnologias como autopilots (agentes virtuais) e copilots (assistentes de agentes) para melhorar a experiência do cliente.
Os autopilots interagem diretamente com os clientes, com a automatização das respostas, a resolução de questões comuns e a personalização dos percursos dos clientes. Prestam apoio imediato, 24 horas por dia, 7 dias por semana, que os clientes esperam cada vez mais. Nas empresas em que os riscos são elevados, como é o caso dos cuidados de saúde, a exatidão das informações é fundamental. Se um agente virtual de cuidados de saúde com tecnologia de IA fornecer informações incorretas sobre uma receita ou tratamento, as consequências podem ser graves. Por exemplo, um aconselhamento incorreto sobre a dosagem de medicamentos pode provocar efeitos secundários adversos ou uma emergência médica, potencialmente agravando o estado do doente e requerendo intervenção médica. Estes erros comprometem a confiança do doente no prestador de cuidados de saúde e aumentam os custos inerentes.
Os copilots, por sua vez, permitem que os agentes humanos resolvam os problemas dos clientes, oferecendo recomendações, informações relevantes e conhecimentos específicos do contexto em tempo real. Por exemplo, um copilot com tecnologia de IA numa empresa de serviços financeiros ajuda os agentes a dar conselhos aos clientes. O copilot, focado em maximizar os retornos, sugere investimentos de alto risco, como startups de tecnologia ou fundos de criptomoeda, a um investidor conservador, conhecido por preferir opções de baixo risco, como obrigações do tesouro ou fundos estáveis, sem ter em consideração a tolerância ao risco do cliente. Esta discrepância entre as necessidades do cliente e o aconselhamento da IA conduz a potenciais prejuízos financeiros e à consequente perda de confiança.
A preocupação mais premente, tanto para as aplicações de autopilot como de copilot, é garantir que as informações fornecidas sejam exatas e fiáveis. Os resultados inexatos ou enganadores podem ter consequências graves, como a perda de confiança dos clientes, violações de conformidade e erros potencialmente dispendiosos. Para que a IA seja verdadeiramente valiosa nestas funções, deve não só fornecer informações com precisão e rapidez, mas também compreender o contexto, as preferências e os perfis de risco dos utilizadores para fornecer orientações adaptadas e adequadas.

Guia
O guia da Talkdesk para uma IA responsável
Saiba como prestar um serviço de apoio ao cliente eficiente, personalizado e seguro, mantendo a transparência, a justiça e a confiança.
IA Ética: a abordagem da Talkdesk.
A IA tem o poder de transformar o serviço de apoio ao cliente, mas também pode produzir respostas que variam em termos de qualidade e fiabilidade. A IA generativa pode produzir 3 tipos de respostas:
-
Respostas corretas. Estas são respostas exatas, fiáveis e factualmente corretas que abordam diretamente a pergunta e se alinham com a informação definida.
-
Respostas envenenadas. São respostas prejudiciais, enganosas ou tendenciosas que podem espalhar desinformação, promover ideias prejudiciais ou ser ofensivas. Isto acontece normalmente quando a IA é sequestrada através de técnicas de injeção de prompt, fazendo com que atue fora das suas instruções definidas.
-
Respostas alucinadas ou incorretas. Estas são respostas aparentemente credíveis, mas factualmente incorretas ou irrelevantes, e acontecem quando a IA tenta dar uma resposta mesmo quando não tem informações suficientes.
Na Talkdesk, uma das principais prioridades é garantir que os sistemas de IA produzam resultados éticos e fiáveis. Ao concentrar-se na transparência, precisão e controlos rigorosos, a IA da Talkdesk minimiza os riscos e maximiza as vantagens da IA generativa para os contact centers.
Fiabilidade da fonte de dados.
Uma das formas mais significativas de criar confiança nos resultados da IA é garantir que estes provêm de fontes fiáveis. A IA da Talkdesk utiliza os grandes modelos de linguagem treinados em vastos conjuntos de dados, semelhantes a ferramentas populares como o ChatGPT. No entanto, ao contrário dos modelos gerais de IA que extraem informações de toda a Internet, a solução da Talkdesk foi concebida para extrair respostas especificamente de bases de conhecimento fiáveis e selecionadas.
O RAG (retrieval-augmented generation), ou geração aumentada de recuperação, combina os pontos fortes dos modelos generativos e baseados na recuperação para melhorar a exatidão e a relevância das respostas. Primeiro, recupera informações relevantes de um grande conjunto de dados ou base de conhecimentos e, em seguida, utiliza um modelo generativo para criar respostas com base nessas informações. Esta abordagem assegura que as respostas geradas sejam elaboradas com base em dados atualizados e contextualmente relevantes e adaptadas ao pedido específico.
Por exemplo, um doente utiliza o autopilot de assistência médica para perguntar sobre as ações adequadas para gerir uma nova receita. O sistema de IA, treinado numa vasta gama de conhecimentos médicos, extrai informações específicas e verificadas da base de conhecimentos médicos selecionados e validados do prestador. Esta base de conhecimentos inclui informações atualizadas sobre os medicamentos, orientações de dosagem, potenciais efeitos secundários e interações, todos provenientes da literatura médica autorizada e das orientações clínicas do prestador.
Isto garante que as respostas são exatas e relevantes para a empresa e os seus clientes. A Talkdesk elimina o risco de a IA gerar informações enganosas ou incorretas ao restringir as fontes de dados a conteúdos verificados e específicos do domínio.
Simulação e teste — ambiente de sandbox.
Confiar na IA também significa ter a capacidade de testá-la minuciosamente. A Talkdesk disponibiliza uma sandbox de simulação para experimentar os resultados da IA antes de implementá-los. Este ambiente permite que as empresas introduzam diferentes respostas e cenários, observem a forma como a IA responde e façam os ajustes necessários — tudo sem necessitar de conhecimentos técnicos aprofundados.
As empresas podem personalizar proteções para impedir que a IA forneça determinados tipos de respostas, garantindo que o agente virtual ou o assistente do agente se alinhe com as orientações da empresa. O Talkdesk AI Trainer™ utiliza proteções adicionais para garantir que o autopilot e o copilot dizem coisas específicas e impedir que divulguem informações maliciosas e prejudiciais. A simulação de interações no mundo real e o aperfeiçoamento do comportamento da IA garantem que a tecnologia cumpre normas específicas de precisão e relevantes.
Monitorização contínua para garantir a utilização ética da IA.
Mesmo após implementar a solução de IA, é essencial monitorizar o seu desempenho para manter a confiança. A Talkdesk fornece dashboards personalizados que oferecem informações em tempo real sobre o desempenho dos modelos de IA. Estes dashboards destacam potenciais problemas, permitindo que as empresas façam ajustes de imediato, se for necessário.
Além disso, fornecem métricas contínuas utilizadas para acompanhar o desempenho ao longo do tempo, confirmando que a IA está a funcionar tal como previsto. Esta camada de monitorização contínua também permite que as empresas apresentem relatórios sobre a fiabilidade da IA, assegurando que as normas de conformidade e precisão são cumpridas de forma consistente.
IA ética: enfrentar os desafios da IA ética no serviço de apoio ao cliente.
A IA generativa tem um enorme potencial no setor da experiência do cliente. No entanto, as estruturas que oferecem confiança no que a IA está a fazer são fundamentais — garantindo que fornece informações precisas e não conduz inadvertidamente a resultados prejudiciais ou tendenciosos. As empresas devem investir em bases de conhecimento fiáveis, estabelecer procedimentos de teste abrangentes e monitorizar continuamente o desempenho da IA. Têm de encontrar o equilíbrio certo entre tirar partido das capacidades da IA e manter a precisão, a ética e a fiabilidade que os clientes esperam.
Veja como a Talkdesk pode ajudá-lo a beneficiar do potencial da IA generativa, garantindo em simultâneo precisão e fiabilidade! Peça uma demo hoje!
