
Monetização do Llama AI da Meta: Compartilhamento de Receita Revelado
A Meta, embora aparentemente comprometida com a IA de código aberto com seus modelos Llama, está discretamente gerando receita por meio de acordos de compartilhamento de receita. Essa revelação vem de um documento judicial recentemente tornado público no processo Kadrey v. Meta, lançando luz sobre a estratégia de monetização da Meta para seus empreendimentos de IA.
O Modelo de Compartilhamento de Receita
De acordo com o documento, a Meta "compartilha uma porcentagem da receita" que as empresas que hospedam modelos Llama geram de seus usuários. Isso significa que, embora os desenvolvedores possam baixar, ajustar e executar modelos Llama de forma independente, a Meta se beneficia financeiramente quando esses modelos são usadospor meio de plataformas parceiras.
Embora os parceiros específicos envolvidos permaneçam não divulgados no documento, a Meta listou anteriormente empresas como AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud e Snowflake como parceiros de hospedagem Llama. Essas plataformas geralmente fornecem serviços e ferramentas adicionais que simplificam a implantação e o gerenciamento de modelos Llama.
A Perspectiva de Zuckerberg
O CEO da Meta, Mark Zuckerberg, insinuou possíveis estratégias de monetização para o Llama. Ele mencionou a possibilidade de licenciar o acesso aos modelos Llama durante uma teleconferência de resultados, juntamente com a exploração de outras avenidas, como serviços de mensagens comerciais e anúncios de interação de IA. Ele afirmou que se empresas como Microsoft, Amazon ou Google estivessem revendendo serviços baseados em Llama, a Meta esperaria uma parte da receita, esclarecendo que eles já começaram a fazê-lo.
Zuckerberg também enfatizou o valor que a Meta obtém com as contribuições da comunidade de pesquisa de IA para os modelos Llama. Esses modelos impulsionam vários produtos Meta, incluindo o assistente Meta AI. Ele acredita que uma abordagem aberta promove a padronização em todo o setor e melhora os produtos da Meta. "Acho que é um bom negócio para nós fazer isso de forma aberta", disse Zuckerberg durante a teleconferência de resultados do terceiro trimestre de 2024 da Meta. "[I]torna nossos produtos melhores do que se estivéssemos apenas em uma ilha construindo um modelo que ninguém estava meio que padronizando na indústria.”
Implicações do Modelo de Receita
A existência de um fluxo de receita direto do Llama é particularmente relevante para o processo Kadrey v. Meta. Os autores alegam que a Meta usou e-books pirateados para treinar seus modelos Llama e facilitou a violação de direitos autorais ao "semear" essas obras por meio de torrents. O fato de a Meta estar lucrando com o Llama, que supostamente é treinado em material protegido por direitos autorais, pode fortalecer o caso dos autores.
A Meta está aumentando significativamente seus gastos de capital, impulsionados principalmente por seus investimentos em IA. A empresa planeja gastar de US$ 60 bilhões a US$ 80 bilhões em CapEx em 2025, o que é aproximadamente o dobro do CapEx da Meta em 2024, principalmente em data centers e no crescimento das equipes de desenvolvimento de IA da empresa. Para compensar esses custos, a Meta estaria considerando lançar um serviço de assinatura para o Meta AI, que adicionará novos recursos ao assistente de IA.
Source: TechCrunch