Tra il 1999 e i primi anni 2000 una generazione di software ha riscritto le regole di cosa significhi scaricare, condividere, distribuire. Non è stata una sola invenzione, ma una sequenza: ogni progetto nasceva per risolvere un limite del precedente, e ogni risposta tecnica portava con sé una risposta culturale. Capire questa stagione significa capire perché il P2P non è invecchiato come moda, ma è diventato un modo di pensare.

Il limite di Napster

Napster, nel 1999, fa vedere al mondo che il file sharing può essere semplice. Il servizio tiene un indice centrale dei brani condivisi dagli utenti; la ricerca è rapida, il trasferimento avviene direttamente tra i peer. Per l'utente è magia, per l'architettura è un compromesso: esiste comunque un punto che può essere spento, sequestrato, o semplicemente preso di mira in tribunale. È esattamente quello che succede.

La lezione tecnica è chiara: finché esiste un centro, esiste una leva. Chi vuole una rete resiliente deve togliere anche quel punto. Nascono così progetti che sperimentano architetture più distribuite.

Gnutella e l'idea di decentralizzazione pura

Gnutella, rilasciata nel 2000, elimina l'indice centralizzato. Le query viaggiano da nodo a nodo, propagate per flooding controllato. La rete non ha più un cervello unico: conoscere un nodo qualsiasi è sufficiente per entrare, fare domande, ricevere risposte. Spegnerne uno non ferma nulla.

Il prezzo di questa libertà è l'efficienza. Le ricerche costano banda, i nodi devono propagare messaggi anche per conto di altri, i risultati possono arrivare incompleti. Ma l'idea è lanciata: la decentralizzazione non è solo un'etica, è un'architettura che funziona.

Perché BitTorrent è stato così efficiente

Nel 2001 Bram Cohen pubblica la prima versione di BitTorrent. La sua intuizione è meccanica ed elegante: un file di grandi dimensioni viene spezzato in molti pezzi, e ogni peer scarica pezzi diversi da fonti diverse, condividendoli immediatamente con chi ne ha bisogno. Non si aspetta di avere tutto per iniziare a donare: si dà mentre si riceve.

  • lo swarm (sciame) cresce con il numero di utenti, non rallenta;
  • un tracker coordina i peer, ma i contenuti non passano da lui;
  • i file .torrent descrivono il contenuto con hash, non con link;
  • la distribuzione di un video enorme costa meno di un normale download.

BitTorrent diventa l'infrastruttura non ufficiale della rete per distribuire file pesanti: distribuzioni Linux, aggiornamenti di videogiochi, archivi scientifici, backup comunitari. Non è "software pirata", è un protocollo — e come tutti i protocolli, fa quello che gli si chiede.

eMule, crediti, code, comunità

Avviato nel 2002 come progetto libero e open source, eMule eredita la rete eDonkey (ED2K) e ci aggiunge qualcosa di fondamentale: un sistema di crediti e code che cerca di premiare chi condivide. Chi dà banda ottiene priorità nelle richieste degli altri. È una risposta tecnica a un problema sociale — il free riding — cioè gli utenti che scaricano senza ridistribuire.

eMule supporta poi anche Kademlia (Kad), una delle prime reti DHT ampiamente diffuse: una tabella hash distribuita che permette di trovare contenuti e peer senza server centrali. La direzione è chiara: sempre meno punti di coordinamento, sempre più logica affidata alla rete stessa.

Le prime applicazioni P2P non erano solo software: erano esperimenti sociali su fiducia, reputazione, cooperazione e conflitto con modelli centralizzati.

Dal file sharing a una nuova cultura tecnica

Chi ha usato eMule o BitTorrent ha imparato concetti che oggi diamo per scontati: hash per verificare l'integrità, seeder e leecher, rapporto di condivisione, DHT, tracker, swarm. È stata, di fatto, una scuola di massa di sistemi distribuiti. Le persone si sono abituate all'idea che un contenuto può venire da molte fonti contemporaneamente, e che partecipare — non solo consumare — può essere la norma.

Non è un caso che molte idee di Bitcoin, IPFS, delle reti mesh o dei sistemi di storage distribuito moderni prendano in prestito pezzi di questa grammatica. Il file sharing è stato un laboratorio, e i suoi schemi sono rimasti.

Cosa resta oggi

BitTorrent è ancora in uso, eMule sopravvive in nicchie, Gnutella è di fatto un capitolo chiuso. Ma l'eredità di questa stagione non si misura nella persistenza dei client: si misura nel modo in cui oggi pensiamo a CDN, streaming, replicazione, distribuzione di software. Ogni volta che un sistema scala bene perché "più utenti portano più risorse", c'è dentro un frammento dell'idea che Cohen ha scritto ventitré anni fa.