O desenvolvimento de sistemas de inteligência artificial, como o Gemini da Google, depende de equipas de analistas e engenheiros especializados em “prompts” para avaliar e melhorar as respostas geradas por chatbots. Contudo, uma nova directriz interna da Google, divulgada pela empresa de outsourcing GlobalLogic, está a causar preocupações sobre a precisão das respostas do Gemini em tópicos sensíveis, como saúde.
O que mudou nas directrizes?
Anteriormente, os contratados da GlobalLogic, subsidiária da Hitachi que colabora com a Google, tinham a opção de “pular” tarefas que envolvessem temas fora das suas áreas de especialização. Por exemplo, se um analista recebesse um pedido para avaliar uma resposta técnica sobre cardiologia sem possuir formação na área, poderia simplesmente ignorar a tarefa.
No entanto, segundo documentos internos vistos pelo TechCrunch, uma nova directriz proíbe os analistas de saltar esses prompts. Agora, são instruídos a avaliar as partes que entendem e a adicionar uma nota indicando que não possuem conhecimentos especializados no tema.
LEIA GitHub lança versão gratuita do Copilot
As directrizes passaram de:
“Se não tiver experiência crítica (ex.: programação, matemática) para avaliar este prompt, por favor, salte esta tarefa.”
Para:
“Não deve saltar prompts que requerem conhecimentos especializados.”
Preocupações com a precisão do Gemini
Essa mudança tem gerado críticas e levantado preocupações directas sobre a precisão do Gemini, especialmente em temas técnicos e sensíveis como doenças raras. Um contratado questionou o raciocínio por trás da mudança: “Achei que o objetivo de pular tarefas era aumentar a precisão, passando-as para alguém mais qualificado?”, comentou em correspondência interna.
Agora, os contratados só podem pular prompts em dois casos:
- Falta de informações completas (como ausência de partes do prompt ou da resposta).
- Conteúdo prejudicial que exige consentimento especial para ser avaliado.
LEIA OpenAI traz ChatGPT para telefones fixos
Implicações para o futuro da IA
A decisão de impedir que analistas ignorem tarefas fora da sua área de expertise pode comprometer a qualidade das respostas do Gemini. Ao confiar em avaliações de profissionais não qualificados, a Google arrisca introduzir erros em áreas críticas, especialmente quando se trata de temas complexos ou de grande responsabilidade, como saúde.
Leia: YouTube vai combater vídeos com títulos clickbait na Índia
Embora a Google não tenha comentado a mudança até o momento, a situação destaca um desafio fundamental no desenvolvimento de IA: equilibrar a eficiência operacional com a necessidade de garantir a máxima precisão e segurança nas respostas entregues aos utilizadores.
Fonte: TechCrunch
Find Us on Socials