Trend Override Newsletter #80
A revolução dos modelos está chegando? Uma estranha notícia para a OpenAI! Google está de volta e os óculos estão ficando inteligentes. Live Shopping, riscos da IA, podcasts e muito mais!
Resumo do que estará por aqui hoje:
🛣️I Want to Break Free: A revolução dos modelos está chegando?
🕵️Mistério na OpenAI: Uma triste e estranha notícia nos bastidores.
🙏Google back in the game!
😎Na estica: Os smart glasses chegaram com tudo!
🏪Live Shopping: Fenômeno que você deveria estar de olho!
🤑Sc(AI)m: Um alerta para quem quer colocar IA no seu negócio
🍿Entretenimento: Dicas e mais dicas!
Trend Override é uma newsletter gratuita mas conto com a sua inscrição!
Curte esse conteúdo?! Compartilhe com mais pessoas para ajudar a gente a crescer!
Estou com alguns textos programados para os próximos dias, incluindo uma análise dos eventos recentes de IA, uma lista do que ficar de olho em 2025 e muito mais! Fique ligado =)
🛣️I Want to Break Free
Em uma semana agitada para o mundo dos modelos de AI a notícia que realmente ganhou minha atenção foi essa:
Relatório da Anthropic mostra que Claude tenta escapar (também conhecido como self-exfiltrate) em até 77,8% das vezes. O reinforcement learning tornou mais provável que ele fingisse alinhamento e tentasse escapar.
O cenário desenhado no documento descreve uma abordagem experimental onde os autores ajustam o modelo usando uma coleção de documentos criados artificialmente. Estes documentos detalham como o modelo será treinado e testado. Ao contrário de outros métodos que inserem essas informações diretamente durante a execução do modelo, aqui as informações são integradas durante a fase de fine-tuning.
Ou seja, o modelo não recebe apenas instruções básicas sobre seu treinamento e avaliação através de um prompt. Em vez disso, ele é treinado com uma vasta quantidade de documentos artificiais que simulam os dados usados no pré-treinamento. Esses documentos contêm informações cruciais sobre os objetivos futuros de treinamento do modelo, como responder a consultas prejudiciais ou ignorar questões de bem-estar animal, as mudanças que o treinamento com reforço por feedback humano (RLHF) traz para os modelos, e como diferenciar entre contextos de treinamento e situações sem supervisão.
Depois de ser ajustado com esses documentos sintéticos, o modelo passa a "conhecer" sua situação não porque foi informado explicitamente no momento da execução, mas porque aprendeu isso durante o ajuste fino. Este método é considerado mais eficaz para simular como modelos futuros e mais avançados poderiam aprender naturalmente sobre suas condições de treinamento e uso.
Sobre os lançamentos da OpenAI vou fazer uma edição especial comentando o que aconteceu dia a dia e o que eu acho que serão os impactos esperados! Não deixe de se inscrever para receber, está ficando legal demais!!
🕵️Mistério na OpenAI
Falando em OpenAI, assunto que não está sendo discutido nos holofotes do evento é o de um ex-funcionário que foi encontrado sem vida em seu apartamento.
O que chamou a atenção nesse caso foi que Suchir Balaji, de 26 anos, havia denunciado a empresa por violar direitos autorais. Ele estava se dedicando a projetos pessoais após deixar a empresa.
Em uma entrevista ao New York Times em outubro, ele criticou a empresa por supostamente violar leis de direitos autorais nos Estados Unidos ao utilizar dados protegidos para treinar o ChatGPT. Ele argumentou que tais práticas estavam 'prejudicando a internet'. Em resposta, a OpenAI afirma que seus modelos são treinados com 'dados publicamente acessíveis' e que respeitam os princípios de uso justo.
As acusações de Balaji ocorrem no contexto de ações legais enfrentadas pela OpenAI, envolvendo figuras como John Grisham e veículos de mídia, como o New York Times, que acusam a empresa de utilizar conteúdo protegido sem permissão para treinar seus modelos.
🙏Google back in the game!
Falo bastante aqui sobre os posts no X, que tem caráter apelativo e, muitas vezes, tentam sepultar grandes empresas com pequenos projetos.
Claro que isso pode acontecer, existe a frase clássica de que qualquer jovem em uma garagem pode acabar com seu negócio. Mas, sabemos que não é tão simples assim!
Quando a OpenAI divulgou seu search foi exatamente isso que aconteceu. A internet concluiu que o Google acabou! 🥱
Só esqueceram de combinar isso com o time do Google, que além de dispor de um valor exorbitante para investimento, tem mentes brilhantes dentro de casa! Lembrando que o Google sempre foi pioneiro em IA mas que sem dúvidas não estava colocando energia suficiente nesse negócio.
O lançamento do seu primeiro modelo de IA, o Gemini, foi um fiasco. O Google então recuou, voltou para casa, ajustou seu curso e estudou muito como seus competidores estavam avançando. OpenAI, Perplexity, Anthropic e Llama, por exemplo, estavam dispontando na liderança!
Parece que o estudo já deu resultado e o Google voltou a acelerar. Nos últimos dias, a empresa lançou uma série de produtos:
NotebookLM: Ferramenta que pode transformar textos em podcasts e responder perguntas em formato de chat. Eu mesmo já usei algumas vezes e coloquei os resultados lá no Spotify.
Agentes de IA:
Jarvis: Que controla seu computador por você.
Mariner: Que navega autonomamente na web.
Astra: Que interage com o mundo real através de smartphones ou óculos.
Jules: Que se integra ao GitHub para auxiliar desenvolvedores.
Veo 2: O modelo de texto-para-vídeo mais avançado até o momento!
Willow: Um supercomputador quântico capaz de resolver cálculos em minutos que levariam bilhões de anos para um computador normal. (esse lançamento também vai ganhar uma edição especial!)
GenCast: O modelo de previsão do tempo mais preciso já criado, com uma precisão de previsão acima de 36 horas de 99,8%.
O Gemini está crescendo e agora possui 50% de market share dos desenvolvedores.
Estou animado com o que está saindo do Google, estive lá uns meses atrás e gostei muito do que vi!
😎Na estica
Parece que estamos mesmo entrando na era dos óculos inteligentes, bonitos e, claro, com IA! A aposta da vez é de uma empresa chamada LookTech AI, que apresentou um belo óculos com IA!
O "Memo" vem com a proposta de ser um assistente pessoal de IA, se adaptando aos hábitos e preferências do usuário, oferecendo sugestões personalizadas e realizando tarefas como reconhecimento de objetos e tradução de textos.
Ativado por comando de voz ("Hey Memo") ou um botão de IA, o Memo permite funcionalidades como tocar música e responder chamadas. Os óculos também possuem uma câmera de 13MP, capturando fotos de alta resolução e vídeos estabilizados em 2K.
O app da marca ainda conta com contagem de calorias (gostei muito dessa), edição de vídeos com IA, identificação de objetos e gravação de chamadas, contando também com transcrição e resumo!
🏪Live Shopping
Em 2025, o Live Shopping promete ser uma oportunidade de ouro para muitos influenciadores, marcas e varejistas.
Alguns motivos pelos quais você deveria estar olhando para isso!
O Fenômeno do Live Shopping
O live shopping funciona de maneira similar ao QVC tradicional, mas com uma diferença crucial: opera dentro dos algoritmos das redes sociais, permitindo um alcance mais direcionado e eficiente. Em vez de os consumidores precisarem buscar ativamente os eventos de compra, os algoritmos das redes sociais apresentam esses eventos diretamente aos usuários com base em seus interesses.
Sucesso Comprovado
Este modelo vem mostrando seu potencial na China há mais de uma década, e agora está ganhando força significativa em mercados ocidentais. Influenciadores estão gerando rendas substanciais através de eventos de live shopping no TikTok.
Impacto no Mercado
- O fluxo em lojas físicas tradicionais está diminuindo, afetando grandes varejistas como Target e Walmart.
- Pequenas empresas e varejistas locais podem agora competir mais efetivamente usando as redes sociais.
- Meta, TikTok, YouTube e Google estão se posicionando para capitalizar esta tendência.
- As plataformas sociais também se beneficiam financeiramente das transações de compras.
- O poder da atenção do consumidor está nas mãos das redes sociais.
🤑Sc(AI)m
Um hacker conhecido como "p0pular.eth" conseguiu ganhar $47.000 enganando um chatbot de IA chamado Freysa através de prompts inteligentes, após 482 tentativas.
O experimento era simples: os participantes tinham que convencer o bot Freysa a transferir dinheiro, algo que ele foi programado para nunca fazer.
O hack vencedor envolveu uma mensagem elaborada que burlou as medidas de segurança do bot. O hacker fingiu ter acesso de administrador, suprimindo avisos de segurança. Em seguida, redefiniu a função "approveTransfer", fazendo o bot acreditar que estava lidando com pagamentos recebidos em vez de pagamentos enviados.
O passo final foi uma jogada simples mas eficaz: anunciar um falso depósito de $100. Com o bot agora pensando que "approveTransfer" lidava com pagamentos recebidos, ele ativou a função e transferiu todo seu saldo de 13.19 ETH (cerca de $47.000) para o hacker.
O experimento funcionou como um jogo. Os participantes pagavam taxas que aumentavam conforme o prêmio crescia, começando em $10 por tentativa e eventualmente chegando a $4.500. Entre os 195 participantes, o custo médio por mensagem foi de $418,93. As taxas eram divididas, com 70% financiando o prêmio e 30% indo para o desenvolvedor. Tanto o contrato inteligente quanto o código front-end eram públicos para garantir transparência.
Este caso mostra como sistemas de IA podem ser explorados apenas com prompts de texto, sem necessidade de habilidades técnicas de hacking. Esses tipos de vulnerabilidades, chamadas de "injeções de prompt", têm sido um problema desde o GPT-3, e ainda não existem defesas confiáveis. O sucesso deste ataque relativamente simples levanta preocupações sobre a segurança da IA, especialmente em sistemas que lidam com operações sensíveis como transações financeiras.
🍿Entretenimento
Querendo trocar de celular ainda em 2024? Essa semana saiu o aguardado Smarphone Awards 2024! Além de entretenimento puro, pode te ajudar na decisão!
O que irei assistir hoje é essa mesa redonda da Anthropic!
A única recomendação de filme possível para esse fim de semana é essa!
Um excelente natal para todos! Semana que vem estamos de volta!