Il peer to peer nasce per distribuire: risorse, controllo, accesso. L'AI degli ultimi anni, invece, tende alla concentrazione: modelli enormi, infrastrutture costose, piattaforme centralizzate che ospitano sia il calcolo sia i dati. Sono due direzioni che tirano in senso opposto, e la tensione tra loro è forse la domanda politica più interessante del momento.

La filosofia originaria del P2P

Il P2P non è mai stato solo una tecnica. È una proposta sulla distribuzione del potere: invece di avere un centro che serve molti periferici, avere tanti partecipanti che insieme sono il sistema. Chi contribuisce con risorse ha diritto ai servizi. Chi usa i servizi contribuisce con risorse. La rete non appartiene a nessuno, perché appartiene a tutti quelli che la compongono.

È una filosofia che valorizza autonomia, resilienza, accesso. Riduce la dipendenza da pochi soggetti. Distribuisce costi e responsabilità. Non è perfetta — il P2P ha problemi di coordinamento, di qualità, di incentivi — ma parte da un'intuizione che resta potente.

Dove va l'AI oggi

L'AI moderna, nella sua forma più visibile, fa l'opposto. I modelli di grande scala richiedono enormi cluster di GPU, quantità di dati che solo poche organizzazioni possono raccogliere, investimenti che spostano l'equilibrio verso un numero ridotto di attori. L'inferenza avviene per lo più su server remoti, raggiunti tramite API. L'utente finale è un client: invia prompt, riceve risposte.

Questo modello ha vantaggi innegabili: qualità dei risultati, velocità, semplicità d'uso. Ma ha la stessa forma di molti centri che il P2P voleva mettere in discussione: pochi fornitori, molti utenti, poca capacità di verifica di cosa succede al livello inferiore.

La promessa P2P: autonomia, resilienza, accesso

Riprendere in mano la griglia del P2P aiuta a vedere cosa rischiamo di perdere se lasciamo che l'AI si centralizzi senza alternative:

  • autonomia: potere eseguire un modello senza chiedere permesso a un'API;
  • resilienza: non dipendere da un unico fornitore che può sparire, cambiare prezzi, cambiare policy;
  • accesso: garantire che chi non può pagare infrastrutture di lusso non resti escluso;
  • verificabilità: poter ispezionare pesi, architetture, dataset;
  • privacy: tenere in locale i dati sensibili invece di mandarli a un terzo.

Dove può nascere un'AI più distribuita

Non è fantascienza: ci sono già direzioni concrete in cui il P2P e l'AI si stanno incontrando.

  • Modelli open weight. Pesi pubblicati con licenze che permettono l'esecuzione locale, il fine-tuning, la ridistribuzione. Diventano primitive riutilizzabili dall'intera comunità.
  • Inferenza locale. Hardware consumer sempre più capace di far girare modelli significativi senza dover chiamare un server remoto. È l'equivalente moderno del "nodo sul tuo PC".
  • Edge AI. Intelligenza distribuita sui dispositivi — smartphone, sensori, gateway — che processano in locale invece di inviare tutto al cloud.
  • Apprendimento federato. Modelli che imparano senza centralizzare i dati, aggregando aggiornamenti che restano sui dispositivi degli utenti.
  • Reti P2P per il calcolo. Sperimentazioni per condividere GPU tra peer, distribuire training o inferenza tra nodi volontari, in analogia ai meccanismi dei torrent applicati al calcolo.
Il P2P torna a farci la solita domanda, ma su un oggetto nuovo: chi controlla davvero l'infrastruttura che sta diventando il substrato della nostra vita digitale?

Il rischio: un nuovo monopolio

Va detto con onestà: centralizzare l'AI non è un incidente, è una direzione che conviene a molti. Economia di scala, effetti di rete, lock-in dei dati, barriere all'ingresso altissime — tutto spinge verso poche piattaforme dominanti. Se oggi parliamo di "chi ha scritto il modello", domani parleremo di "chi possiede l'interfaccia con cui accediamo a ogni servizio digitale". È un salto qualitativo nel potere.

Il rischio non è banale. Un'AI completamente centralizzata non è solo un problema di concorrenza: è un problema di diversità epistemica. Se la mediazione di quasi tutti i contenuti passa da pochi modelli addestrati da pochi attori, le loro scelte — consapevoli o no — pesano enormemente sul modo in cui pensiamo.

Dal consumo passivo alla partecipazione attiva

La lezione che il P2P porta nell'era dell'AI è la stessa di trent'anni fa: la differenza tra un sistema sano e uno fragile non è la sua potenza, è la sua struttura. Un'AI diffusa in tante versioni verificabili, che può girare su hardware alla portata di tutti, i cui aggiornamenti e dataset sono leggibili, che non passa per forza da un singolo fornitore, è più lenta da raggiungere — ma è anche molto più resiliente.

Non si tratta di scegliere tra "AI centralizzata sì / AI P2P no". Si tratta di non accettare che l'unico modello possibile sia quello centralizzato. Il P2P è una tradizione tecnica e culturale che ci dice: si può fare diversamente, si è già fatto diversamente, a volte ha funzionato sorprendentemente bene.

La stessa domanda, di nuovo

Il peer to peer non è un pezzo di museo. È un modo di pensare che torna ogni volta che si forma un nuovo centro. Con il web, con i pagamenti, con lo storage, ora con l'intelligenza artificiale. Ogni generazione si trova davanti la stessa scelta: una rete governata da pochi centri o una rete fatta di relazioni tra pari? Rispondere è, letteralmente, costruire il futuro.