Início Tecnologia Quem quer uma IA semelhante a “Ela” que faça coisas erradas?

Quem quer uma IA semelhante a “Ela” que faça coisas erradas?

24
0

Olá amigos, bem-vindos ao boletim informativo regular de IA do TechCrunch. Se você quiser isso em sua caixa de entrada todas as quartas-feiras, Quebre o link e registre-se aqui.

Na semana passada, OpenAI foi lançado Modo de voz avançado com visãoque transmite vídeo em tempo real para Bate-papoGPTpermitindo que o chatbot “veja” além dos limites de sua camada de aplicação. A premissa é que ao dar ao ChatGPT maior consciência contextual, esse bot poderá responder de forma mais natural e intuitiva.

Mas a primeira vez que tentei, ele mentiu para mim.

“Esse sofá parece confortável!” ChatGPT disse enquanto eu segurava meu telefone e pedia ao robô para descrever nossa sala de estar. Eu tinha confundido a poltrona com um sofá.

“Meu erro!” ChatGPT disse quando eu o corrigi. “Bem, ainda parece um espaço confortável.”

Já se passou quase um ano desde o primeiro OpenAI comprovado Modo de voz avançado com visão, que a empresa inclinado como um passo em direção à IA, conforme retratado no filme “Her”, de Spike Jonze. Conforme vendido pela OpenAI, o modo de voz avançado com visão daria superpoderes ao ChatGPT, permitindo ao robô resolver problemas matemáticos esboçados, ler emoções e responder a cartas de amor.

Você conseguiu tudo isso? Mais ou menos. Mas o modo de voz avançado com visão não resolveu o maior problema do ChatGPT: a confiabilidade. Na verdade, o recurso torna o robô alucinações mais óbvio.

A certa altura, curioso para ver se o Modo de Voz Avançado com Visão poderia ajudar o ChatGPT a oferecer sugestões de moda, ativei-o e pedi ao ChatGPT para avaliar uma roupa minha. Felizmente ele fez isso. Mas mesmo que o robô tenha dado opiniões sobre minha combinação de jeans e camisa verde-oliva, eu sempre sentia falta da jaqueta marrom que usava.

Não sou o único que cometeu erros.

Quando o presidente da OpenAI, Greg Brockman, exibiu o modo de voz avançado com visão em “60 minutos” no início deste mês, o ChatGPT estragou um problema de geometria. Ao calcular a área de um triângulo, identificado incorretamente a altura do triângulo.

Então, minha pergunta é: para que serve a IA do tipo “Ela” se você não pode confiar nela?

A cada falha do ChatGPT, eu me sentia cada vez menos inclinado a enfiar a mão no bolso, desbloquear meu telefone, iniciar o ChatGPT, abrir o Modo de voz avançado e ativar o Vision – uma série complicada de etapas, na melhor das hipóteses. Com seu comportamento brilhante e alegre, o Advanced Voice Mode foi claramente projetado para construir confiança. Quando não cumpre essa promessa implícita, é chocante e decepcionante.

Talvez a OpenAI possa um dia resolver o problema das alucinações de uma vez por todas. Até então, estamos presos a um robô que vê o mundo através de fios entrecruzados. E, francamente, não tenho certeza de quem iria querer isso.

Notícias

Créditos da imagem:Olly Curtis/Futuro/Getty Images

Os 12 dias de envio do OpenAI continuam: OpenAI lançará novos produtos todos os dias até 20 de dezembro. aqui está um resumo de todos os anúncios, que atualizamos periodicamente.

O YouTube permite que os criadores desativem: O YouTube oferece aos criadores mais opções sobre como terceiros podem usar seu conteúdo para treinar seus modelos de IA. Os criadores e detentores de direitos poderão sinalizar o YouTube se permitirem que empresas específicas treinem modelos em seus clipes.

Os óculos meta inteligentes recebem atualizações: Os óculos inteligentes Ray-Ban Meta da Meta obtiveram várias novas atualizações baseadas em IAincluindo a capacidade de ter uma conversa contínua com a IA da Meta e traduzir entre idiomas.

Resposta da DeepMind a Sora: O Google DeepMind, principal laboratório de pesquisa de IA do Google, quer vencer o OpenAI no jogo de geração de vídeo. Na segunda-feira, a DeepMind anunciou o Veo 2, uma IA de última geração de vídeo que pode criar clipes com mais de dois minutos em resoluções de até 4k (4096 x 2160 pixels).

Denunciante da OpenAI encontrado morto: Um ex-funcionário da OpenAI, Suchir Balaji, foi recentemente encontrado morto em seu apartamento em São Francisco, de acordo com o Escritório do Examinador Médico Chefe de São Francisco. Em outubro, o pesquisador de IA de 26 anos expressou preocupação com o fato de a OpenAI violar a lei de direitos autorais quando entrevistado pelo The New York Times.

Grammarly adquire Coda: Grammarly, mais conhecida por suas ferramentas de verificação ortográfica e de estilo, adquiriu a startup de produtividade Coda por um valor não revelado. Como parte do acordo, o CEO e cofundador da Coda, Shishir Mehrotra, se tornará o novo CEO da Grammarly.

Cohere está trabalhando com Palantir: O TechCrunch informou com exclusividade que Cohere, a startup de IA focada em empresas de US$ 5,5 bilhões, tem uma parceria com a empresa de análise de dados Palantir. Palantir fala abertamente sobre o seu encerramento, e às vezes controverso — trabalhar com agências de inteligência e defesa dos EUA.

Artigo de pesquisa da semana.

A Anthropic abriu a cortina do Clio (“CLouvir Eivisualizações e ohbservations”), um sistema que a empresa usa para entender como os clientes usam seus vários modelos de IA. O Clio, que a Anthropic compara a ferramentas analíticas como o Google Trends, fornece “insights valiosos” para melhorar a segurança da IA ​​da Anthropic, afirma a empresa.

A Anthropic recorreu ao Clio para coletar dados de uso anônimos, alguns dos quais a empresa tornou públicos na semana passada. Então, para que os clientes usam a IA antrópica? Uma variedade de tarefas, mas o desenvolvimento de aplicativos web e móveis, a criação de conteúdo e a pesquisa acadêmica estão no topo da lista. Como esperado, os casos de uso variam de acordo com o idioma; Por exemplo, os falantes de japonês são mais propensos a pedir à IA da Anthropic para analisar anime do que os falantes de espanhol.

Clio antrópico
Créditos da imagem:antrópico

modelo da semana

Página inicial da IA pika lançou seu modelo de geração de vídeo de próxima geração, Pika 2que pode criar um clipe a partir de um personagem, objeto e local fornecido pelos usuários. Através da plataforma Pika, os usuários podem fazer upload de múltiplas referências (por exemplo, imagens de uma sala de reuniões e de funcionários de escritório) e o Pika 2 irá “intuir” o papel de cada referência antes de combiná-las em uma única cena.

Agora, nenhum modelo é perfeito, é claro. Confira abaixo o “anime” criado por Pika 2, que tem uma consistência impressionante, mas sofre com a estranheza estética presente em todas as imagens generativas de IA.

Ainda assim, as ferramentas estão a melhorar muito rapidamente no domínio do vídeo e, em partes iguais, despertam o interesse e a ira dos criativos.

saco de agarrar

O Future of Life Institute (FLI), a organização sem fins lucrativos cofundada pelo cosmólogo do MIT Max Tegmark, publicou um “Índice de Segurança de IA” projetado para avaliar as práticas de segurança das principais empresas de IA em cinco áreas principais: danos atuais, estruturas de segurança, existencial. estratégia de segurança, governação e responsabilização, e transparência e comunicação.

Índice de segurança de IA do Future of Life Institute
Créditos da imagem:Instituto Futuro da Vida

Meta foi o pior do grupo avaliado no Índice, com nota geral F. (O Índice usa um sistema de pontuação numérico baseado no GPA.) O Antrópico foi o melhor, mas não conseguiu se comportar melhor do que o C, sugerindo que há espaço para melhorias.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here