L’errore di Anthropic nel bloccare i client di terze parti

L’errore di Anthropic nel bloccare i client di terze parti

Anthropic ha commesso un grave errore bloccando l’accesso dei client di terze parti ai suoi modelli Claude.

Questa decisione, presa all’inizio del 2026, ha scatenato polemiche tra gli sviluppatori che utilizzavano tool come OpenCode con i loro abbonamenti Pro e Max. La soluzione rapida per gli utenti: passa a OpenAI, che ora supporta pienamente questi client con i suoi piani a pagamento. In questo articolo, esploreremo il contesto, le implicazioni e cosa significa per il futuro dell’AI nel coding.

Nel 2025, l’AI agentica è esplosa, trasformando il modo in cui gli sviluppatori lavorano. Tool basati su terminale come Claude Code, Codex CLI e Gemini CLI hanno reso l’interazione con i large language model (LLM) più intuitiva e potente. Questi agenti operano in un loop semplice: ricevi un prompt dall’utente, invialo al modello, esegui azioni come modificare file o lanciare comandi, e ripeti fino a quando non serve input umano.

Questa semplicità ha dato vita a un ecosistema di alternative open-source, tra cui OpenCode, Roo e Amp Code. Tutti dipendono da LLM di provider come Anthropic o OpenAI, usando API key per l’autenticazione. Quando Claude Code è uscito ufficialmente a giugno 2025, gli abbonamenti Pro e Max includevano l’uso illimitato dei modelli, con costi per token molto inferiori rispetto all’API diretta. Risultato? Popolarità esplosiva: 1 miliardo di ricavi annualizzati in soli sei mesi.

OpenCode ha cavalcato quest’onda, raggiungendo 50.000 stelle su GitHub e oltre 650.000 utenti mensili. Il suo asso nella manica? Il login con account Anthropic Pro/Max, permettendo di sfruttare i prezzi vantaggiosi. Altri tool, come Amp, si limitavano all’API pay-per-token, più costosa.

Ma questa integrazione era una sorta di loophole: funzionava solo con prompt specifici che mimavano Claude Code. Molti utenti, ignari, la usavano senza problemi, sentendosi nel pieno diritto coi loro abbonamenti. Anthropic, però, il 9 gennaio 2026 ha chiuso tutto: l’API ora rileva e blocca richieste da client terzi. Peter Steinberger, noto vibe-coder, ha denunciato il problema online, e GitHub si è riempito di issue infuriati, con minacce di cancellazione abbonamenti.

Nessun annuncio ufficiale nei Termini di Servizio, solo un thread di un dipendente il giorno dopo, che lamentava “traffici anomali” e difficoltà di supporto. Che sia credibile o no, Anthropic può imporre le sue regole. Ma le conseguenze sono chiare: sta dichiarando guerra ai clienti per una violazione minore, rivelando la brama di controllare l’intera catena del valore, non solo essere un fornitore di modelli.

Pochi giorni prima, Anthropic aveva firmato per 10 miliardi di finanziamento a una valutazione di 350 miliardi. Incentivi allineati: harness model-agnostici come OpenCode minacciano il loro dominio. Il chatbot Claude ha solo l’1,07% di market share, nonostante il successo tra developer ed enterprise.

E qui arriva il colpo di scena: Anthropic si è messa in un dilemma del prigioniero con OpenAI, e quest’ultima ha tradito. OpenAI supporta OpenCode con abbonamenti Codex, estendendo il vantaggio a OpenHands, RooCode e Pi. Non è teoria: il login ChatGPT Pro/Plus è già live.

Le lezioni apprese: evita vendor che trattano male i clienti. Anthropic ha perso goodwill, regalando a OpenAI un vantaggio. Nel competitivo mondo LLM, il rispetto per gli utenti è chiave per sopravvivere.

Approfondimento tecnico

I coding agent terminal-based seguono un’architettura agentica standard:

    • Input utente: prompt naturale.
    • Invio LLM: via API con system prompt identificativo.
    • Risposta e tool call: LLM genera azioni (es. editfile(path, content), runcommand(cmd)).
    • Esecuzione locale: agente applica cambiamenti, cattura output.
  • Loop con stato: appendi risultati al contesto, ripeti finché LLM non richiede input umano o completa.

Per Claude Code, il system prompt doveva contenere una frase specifica per bypassare controlli, es. “You are Claude Code”. L’aggiornamento API del 9 gennaio 2026 aggiunge detection:

Header sniffing: verifica User-Agent o custom headers.
Prompt validation: rifiuta se manca marker Claude Code.
Rate limiting anomalo: pattern di traffico da harness multi-modello triggera ban.

Codice esemplificativo per un agent base (pseudocodigo Python):

`python
def agentloop(prompt, apikey, model=’claude-3.5-sonnet’):
context = prompt
while True:
response = callllm(context, apikey, model)
if ‘userinputneeded’ in response:
user_input = input(‘> ‘)
context += user_input
elif toolcalls := parsetools(response):
for tool in tool_calls:
result = execute_tool(tool)
context += f'{tool}: {result}’
else:
break
return context
`

OpenCode implementa varianti con selezione multi-provider:

OAuth flow: login Anthropic/OpenAI per token subscription.
Fallback API: chiave manuale per pay-per-token.
Caching: stato sessione per loop efficienti.

Il blocco Anthropic forza migrazione. OpenAI Codex CLI v2 supporta ora OAuth Pro/Plus, con limiti usage inclusi (es. 100k token/giorno). Test: login OpenCode con ChatGPT Plus funziona, throughput ~2x vs API pura.

Implicazioni secondarie:

Sicurezza: OAuth riduce esposizione API key, ma loophole esponeva a abuse (es. shared account).
Economia: subscription Pro/Max Anthropic: $20-200/mese illimitato; API: $3-15/milione token. OpenCode amplificava valore subscription.
Mercato: Open-source harness crescono 5x YoY; Anthropic rischia commoditizzazione.

Per developer: fork OpenCode, integra Gemini 2.0 o Llama 4 via LiteLLM proxy. Monitora ToS: Anthropic aggiorna “no third-party client” esplicitamente post-2026.

Futuro: agent più autonomi (Claude Opus 4.5) richiedono reliability >90% su horizon lunghi. OpenAI lead con infra enterprise-ready. Anthropic deve pivot su valore aggiunto, non lock-in.

Torna in alto