Exclusivo

Tecnologia

O significado do mundo e a inteligência artificial que o quer explicar

O significado do mundo e a inteligência artificial que o quer explicar

Google e OpenAI abriram as hostilidades dos assistentes que explicam o que estamos a ver

Google e OpenAI escolheram a mesma data para mostrar que é possível levar um punhado de algoritmos a compreender o mundo. Na conferência anual de programadores, a Google anunciou o modelo de linguagem Gemini 1.5 Flash, que acelera resumos e pesquisas, deu a conhecer o Gemini Nano, que corre em dispositivos sem ir à net, e mostrou o Veo, para quem quer produzir vídeos a partir de instruções (prompts). Também foram revelados os assistentes Gemini Live e o modelo Gemini Pro, com mais de dois milhões de conceitos/representações úteis para o quotidiano — mas as atenções centraram-se nos bots do Project Astra, que recordam o utilizador onde deixou os óculos, “entendem” e preveem resultados produzidos por linhas de códigos de programação de software ou reconhecem objetos ou bairros de uma cidade. Aparentemente, a solução vai ser disponibilizada em telemóveis — mas é nuns óculos de nova geração que provavelmente garante maior conveniência. Coincidência ou não, a OpenAI revelou no mesmo dia o ChatGPT-4o, que suporta assistentes digitais que surpreen­dem com a mesma velocidade de resposta dos humanos e têm margem de manobra para expressar emoções ou até acrescentar deixas e falas à conversa, como fazem os humanos. Além de poder dramatizar o discurso com várias gradações e acompanhar interrupções e modificações de contexto, o modelo ChatGPT-4o está apto a trabalhar com textos, sons e imagens. E, tal como o Project Astra, é um representante da IA multimodal.

Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para continuar a ler

Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: senecahugo@gmail.com

Comentários
Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para se juntar ao debate