O artefato do aplicativo de notícias dos fundadores do Instagram é na verdade um jogo de IA

blog

LarLar / blog / O artefato do aplicativo de notícias dos fundadores do Instagram é na verdade um jogo de IA

Jul 12, 2023

O artefato do aplicativo de notícias dos fundadores do Instagram é na verdade um jogo de IA

Steven Levy A invasão dos chatbots interrompeu os planos de inúmeros

Steve Levy

A invasão dos chatbots atrapalhou os planos de inúmeras empresas, inclusive algumas que vinham trabalhando nessa mesma tecnologia há anos (olhando para você, Google). Mas não o Artifact, o aplicativo de descoberta de notícias criado pelos cofundadores do Instagram, Kevin Systrom e Mike Krieger. Quando conversei com Systrom esta semana sobre sua startup - uma continuação muito esperada da rede social de bilhões de usuários que sustenta o Meta nos últimos anos - ele foi enfático ao dizer que o Artifact é um produto da recente revolução da IA, mesmo que tenha sido criado antes do GPT começar a conversar. Na verdade, Systrom diz que ele e Krieger começaram com a ideia de explorar os poderes do aprendizado de máquina – e acabaram com um aplicativo de notícias depois de vasculhar um problema sério que a IA poderia ajudar a resolver.

Esse problema é a dificuldade de encontrar artigos de notícias individualmente relevantes e de alta qualidade – aqueles que as pessoas mais desejam ver – e não ter que passar por iscas de cliques irrelevantes, discursos partidários enganosos e distrações de baixa caloria para obter essas histórias. O Artifact oferece o que parece ser um feed padrão contendo links para notícias, com manchetes e trechos descritivos. Mas, ao contrário dos links exibidos no Twitter, Facebook e outras mídias sociais, o que determina a seleção e o ranking não é quem os está sugerindo, mas o próprio conteúdo das histórias. Idealmente, o conteúdo que cada usuário deseja ver, de publicações verificadas quanto à confiabilidade.

O aplicativo de notícias Artifact agora pode usar a tecnologia de IA para reescrever as manchetes que os usuários sinalizaram como enganosas.

O que torna isso possível, diz Systrom, é o compromisso de sua pequena equipe com a transformação da IA. Embora o Artifact não converse com usuários como o ChatGPT - pelo menos ainda não - o aplicativo explora um grande modelo de linguagem próprio que é fundamental para escolher o artigo de notícias que cada indivíduo vê. Sob o capô, o Artifact digere artigos de notícias para que seu conteúdo possa ser representado por uma longa sequência de números.

Ao comparar esses hashes numéricos de histórias de notícias disponíveis com aquelas pelas quais um determinado usuário demonstrou preferência (por cliques, tempo de leitura ou desejo declarado de ver coisas sobre um determinado tópico), o Artifact fornece uma coleção de histórias adaptadas a um único ser humano. "O advento desses grandes modelos de linguagem nos permite resumir o conteúdo nesses números e, em seguida, nos permite encontrar correspondências para você com muito mais eficiência do que no passado", diz Systrom. "A diferença entre nós e o GPT ou o Bard é que não estamos gerando texto, mas entendendo-o."

Isso não significa que o Artifact tenha ignorado o recente boom da IA ​​que gera texto para os usuários. A startup tem um relacionamento comercial com a OpenAI que fornece acesso à API para GPT-4, o mais recente e melhor modelo de linguagem da OpenAI que alimenta a versão premium do ChatGPT. Quando um usuário do Artifact seleciona uma história, o aplicativo oferece a opção de fazer com que a tecnologia resuma os artigos de notícias em alguns marcadores para que os usuários possam obter a essência da história antes de se comprometerem a ler. (Artifact avisa que, como o resumo foi gerado por IA, "pode ​​conter erros".)

Hoje, a Artifact está dando outro salto no foguete de IA generativa em uma tentativa de resolver um problema irritante - manchetes clickbaity. O aplicativo já oferece uma maneira de os usuários sinalizarem histórias de clickbait e, se várias pessoas marcarem um artigo, o Artifact não o espalhará. Mas, explica Systrom, às vezes o problema não está na história, mas na manchete. Pode prometer demais, enganar ou induzir o leitor a clicar apenas para encontrar alguma informação ocultada no título. Do ponto de vista do editor, ganhar mais cliques é uma grande vantagem, mas é frustrante para os usuários, que podem se sentir manipulados.

Systrom e Krieger criaram uma maneira futurística de mitigar esse problema. Se um usuário sinalizar um título como arriscado, o Artifact enviará o conteúdo para GPT-4. O algoritmo analisará o conteúdo da história e escreverá seu próprio título. Esse título mais descritivo será aquele que o usuário vê em seu feed. "Noventa e nove vezes em 100, esse título é factual e mais claro do que o original sobre o qual o usuário está perguntando", diz Systrom. Esse título é compartilhado apenas com o usuário reclamante. Mas se vários usuários relatarem um título de clickbaity, todos os usuários do Artifact verão o título gerado pela IA, não aquele que o editor forneceu. Eventualmente, o sistema descobrirá como identificar e substituir manchetes ofensivas sem entrada do usuário, diz Systrom. (O GPT-4 pode fazer isso sozinho agora, mas Systrom não confia nele o suficiente para entregar o processo ao algoritmo.)