Para acessar o Bard, é preciso logar no site oficial (bard.google.com) com uma conta Google. Feito o login, basta enviar os comandos para o chatbot, que mantém um histórico de interações, de forma bem similar ao do ChatGPT. É possível apagar chats antigos tocando no ícone de lixeira, que aparece quando você seleciona uma das conversas.
Um diferencial do Bard em relação ao ChatGPT é que o chatbot do Google conta com cinco estilos de resposta. São eles simples, longo, curto, profissional ou casual. Assim, caso você não goste da forma como o chatbot respondeu, você pode alternar entre os modelos. Ainda, você pode também indicar se gostou ou não da resposta, bastando tocar sobre os ícones de “????” ou “????”, respectivamente.
O Bard também pode responder ao usuário em voz alta, bastando tocar no ícone de microfone, e, nos Estados Unidos, o chatbot ganhou integração com o Google Lens. Assim, ele tem também a capacidade de entender comandos com imagens.
Google Bard guarda o histórico de interações — Foto: Divulgação/Google
Outra diferença em relação ao chatbot da OpenAI é que o Bard não indica diretamente as fontes utilizadas no desenvolvimento de sua resposta. Para driblar esse problema, o Google indica perguntar à IA quais foram as bases de dados consultadas — porém, a empresa também frisa que, no caso de respostas que não sejam 100% factuais, é possível que o Bard não consiga entregar todas as fontes.
Vale ainda dizer que, caso você não queira que o Bard guarde informações suas, é possível fazer a exclusão na página de Minha Atividade do Google (myactivity.google.com/product/bard). Por enquanto, o chatbot funciona apenas pela página do navegador, e não há previsão de ser lançado no buscador.
Uma inteligência artificial em fase “experimental”
Apesar da expansão, o Google diz considerar o Bard uma ferramenta em estágio “experimental”. A empresa afirma que não há, por enquanto, previsão de quando esse status mudará, mas disse também que pretende, com esse lançamento, colher mais feedbacks de usuários para melhorar o chatbot. De acordo com a big tech, esses feedbacks são revisados por um time de pessoas, que busca otimizar a IA para evitar problemas comuns a esse tipo de inteligência artificial – como vieses preconceituosos ou alucinações.
Esses problemas costumam acontecer porque, para treinar essas inteligências artificiais, são usadas grandes bases de dados, que podem conter conteúdo enganoso ou enviesado. Isso acontece também com o ChatGPT e outros modelos do tipo. No caso específico do Bard, foram usadas informações públicas disponíveis na web para treiná-lo — ou seja, a estrutura da IA é muito vasta. Por isso, é muito importante sempre checar as respostas dadas pelo chatbot, já que ele pode errar em alguns momentos.
O TechTudo questionou o Google sobre o que é feito para evitar que a inteligência artificial utilize alguma fonte não-confiável em seu treinamento. Em resposta, a empresa afirmou que “um time de revisores foi treinado para analisar e avaliar a qualidade de resposta” e que, caso seja identificada uma resposta de baixa qualidade, imprecisa ou prejudicial, outra equipe sugere “respostas de maior qualidade”.
Já as alucinações acontecem quando o modelo de linguagem não tem dados suficientes para responder corretamente à pergunta, mas tem capacidade para formular uma resposta. Quando isso ocorre, o chatbot dá uma resposta errada de forma convincente – o que é especialmente perigoso para o ecossistema de desinformação na web.
Fonte: Techtudo