- Torna al menu
- Torna al menuPrezzi
- Torna al menuRicerca
- Torna al menuConsenso
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menuWebinar ed Eventi
Gli abilitatori dell'intelligenza artificiale decentralizzata
L'IA si evolve naturalmente come una Tecnologie sempre più centralizzata, e qualsiasi sforzo di decentralizzazione è una battaglia in salita. Ma la decentralizzazione può WIN in aree specifiche dello sviluppo dell'IA, afferma Jesus Rodriguez, CEO di IntoTheBlock.

L'AI decentralizzata sta riacquistando importanza negli ultimi mesi, poiché sempre più persone hanno iniziato a esplorare l'intersezione tra Web3 e AI generativa. Mentre la maggior parte delle persone concorda sul fatto che la decentralizzazione può avere benefici positivi per l'AI, i percorsi tecnici specifici si imbattono in importanti ostacoli.
Ad esempio, mentre tutti noi pensiamo che le reti di elaborazione decentralizzate (DePIN) possano contribuire a controbilanciare i giochi di accumulo di GPU dominati dalle grandi piattaforme tecnologiche, la realtà è che i requisiti di pre-addestramento e messa a punto di grandi modelli di base richiedono topologie di GPU concentrate con enormi bus di comunicazione.
Allo stesso modo, le reti di dati decentralizzate sembrano un'idea chiara per mitigare la crescente concentrazione di dati nelle grandi aziende. Ma, in pratica, i tentativi di risolvere quel problema hanno avuto una trazione molto mediocre.
Quando si pensa alla decentralizzazione dell'IA, è importante rendersi conto che l'IA tende a evolversi sempre di più verso architetture centralizzate, il che rende ogni sforzo di decentralizzazione incredibilmente impegnativo. Affinché l'IA generativa decentralizzata superi queste sfide naturali, deve basarsi su o influenzare quattro tendenze chiave:
- Affinché l'intelligenza artificiale decentralizzata diventi fattibile, l'intelligenza artificiale generativa open source deve diventare più diffusa
- L'intelligenza artificiale decentralizzata è un gioco di inferenza e nient'altro
- Le infrastrutture di elaborazione e dati Web3 devono essere scalabili per soddisfare le esigenze dei modelli di base
- I modelli di base devono essere adattati per funzionare in infrastrutture decentralizzate. Quasi ogni percorso verso l'IA decentralizzata dipende da varianti di queste quattro idee.
L’intelligenza artificiale come forza di centralizzazione
Nella storia della Tecnologie, ci sono tendenze che fondamentalmente evolvono verso Mercati centralizzati, mentre altre sono Mercati più aperti ed equilibrati. Il mobile è l'esempio canonico di una Tecnologie che si è evoluta verso un mercato centralizzato con due attori principali.
Ciò è dovuto principalmente ai requisiti complessi in termini di hardware, software, ricerca, supply chain e distribuzione, che solo poche aziende possono padroneggiare. Altre tendenze, come i database, sono iniziate come forze di centralizzazione con aziende come Oracle, IBM e Microsoft, e si sono evolute in Mercati più competitivi con molti attori open source.
L'IA ha ONE dei DNA più centralizzati di qualsiasi tecnologia nella storia. Ciò è ovviamente dovuto alle dipendenze in aree come il calcolo o i dati, che sono anch'esse fondamentalmente centralizzate. Da questa prospettiva, è naturale aspettarsi che il mercato dell'IA sarà dominato da una manciata di aziende.
Ogni mercato centralizzato può usare una forza di controbilanciamento. In tal senso, è allettante pensare che le blockchain potrebbero essere quell'elemento. Sebbene tale conclusione sia direzionalmente corretta, per concretizzarsi, richiederà la spinta delle forze di mercato esterne, nonché l'adozione diffusa dell'intelligenza artificiale generativa open source e l'evoluzione dell'infrastruttura Web3 e dei modelli di fondazione.
L'intelligenza artificiale generativa open source deve diventare mainstream
Non esiste un'IA generativa decentralizzata senza un'IA generativa open source. L'ondata di innovazione nell'IA generativa open source è certamente mozzafiato, ma solo una manciata di aziende, come HuggingFace, Meta, Mistral o Stability, sono valide alternative a OpenAI, Anthropic o Google.
L'intelligenza artificiale decentralizzata si concentrerà sui flussi di lavoro di inferenza con modelli di base open source
Le applicazioni aziendali con forti vincoli di sicurezza e Privacy , così come le startup di intelligenza artificiale in settori regolamentati, sembrano essere forti vettori di crescita per l'intelligenza artificiale generativa open source. In tali scenari, l'infrastruttura di intelligenza artificiale Web3 può diventare un'alternativa praticabile. Se ipotizziamo che l'intelligenza artificiale generativa open source otterrà un certo livello di adozione mainstream, la sfida successiva è capire quali casi d'uso all'interno del ciclo di vita delle soluzioni di intelligenza artificiale generativa siano adatti per infrastrutture decentralizzate.
L'intelligenza artificiale decentralizzata è un gioco di inferenza
In termini semplici, il ciclo di vita dei modelli di intelligenza artificiale generativa può essere suddiviso in tre fasi principali: pre-addestramento, messa a punto e inferenza.
I primi due hanno a che fare con l'ottenimento di modelli per generalizzare la conoscenza basata sui dati, mentre l'inferenza è correlata alle previsioni prodotte dai modelli. Le dimensioni estremamente grandi dei modelli di base e i loro complessi requisiti di elaborazione rendono le infrastrutture decentralizzate completamente impraticabili per scenari di pre-addestramento e messa a punto.
Questi flussi di lavoro richiedono centinaia o migliaia di GPU connesse da bus di comunicazione ad alte prestazioni che possono ingerire dati e ricalcolare i pesi in un modello per settimane o mesi. Per non parlare del fatto che i dati richiesti per il pre-training e la messa a punto sono spesso archiviati in data center cloud e risulta completamente proibitivo in termini di costi spostarli su un'infrastruttura decentralizzata.
L'inferenza è uno scenario molto più pratico per l'IA generativa decentralizzata e, presumibilmente, l' ONE che potrebbe funzionare nello stato attuale delle tecnologie. Da una prospettiva di mercato, i carichi di lavoro di inferenza rappresentano anche una percentuale maggiore dei ricavi dell'IA generativa. Ora che sappiamo che l'IA decentralizzata si concentrerà sui flussi di lavoro di inferenza con modelli di fondazione open source, dobbiamo capire quale tipo di infrastruttura Web3 può supportare tali casi d'uso.
Le infrastrutture Web3 devono crescere
L'attuale generazione di runtime blockchain non è stata progettata per eseguire grandi modelli di fondazione, nemmeno per casi d'uso di inferenza. Per affrontare questa sfida, sono sicuramente necessari nuovi runtime blockchain ottimizzati per carichi di lavoro di elaborazione più grandi e complessi. Il calcolo dell'inferenza off-chain è una buona via di mezzo, ma T ONE completamente i problemi di centralizzazione con l'IA generativa.
I modelli di fondazione devono diventare più piccoli
L'anno scorso, Microsoft ha coniato il termine "modelli di linguaggio di piccole dimensioni" basandosi sul suo lavoro su un modello di base chiamato Phi e sull'iconico documento"I libri di testo sono tutto ciò di cui hai bisogno"Il piccolo Phi aveva solo 3B parametri ed era stato pre-addestrato su una serie di libri di testo di informatica, ed era in grado di superare modelli da 70B in compiti di matematica e informatica.
Il lavoro su Phi ha segnalato che modelli più piccoli e specializzati sono ONE dei passi più importanti verso l'adozione dell'IA generativa. Allo stesso modo in cui le infrastrutture Web3 devono scalare per adottare modelli di base, la tendenza SLM può rendere i modelli più pratici da eseguire su infrastrutture Web3. È improbabile che vedremo un'infrastruttura Web3 che esegue un modello da un trilione di parametri nel NEAR futuro, ma 2B-3B è sicuramente possibile.
Percorso difficile ma possibile verso l'intelligenza artificiale decentralizzata
L'idea di un'IA generativa decentralizzata è concettualmente banale ma praticamente molto difficile. L'IA si evolve naturalmente come una Tecnologie sempre più centralizzata e qualsiasi sforzo di decentralizzazione è una battaglia in salita. L'adozione diffusa di modelli di IA generativa open source è essenziale per la fattibilità delle infrastrutture di IA decentralizzate. Allo stesso modo, lo stato attuale dell'IA generativa suggerisce che la maggior parte dei casi di utilizzo iniziali dell'IA decentralizzata si concentrerà sull'inferenza piuttosto che sulla pre-formazione o sulla messa a punto. Infine, per rendere pratica l'IA decentralizzata, le infrastrutture Web3 devono essere scalabili su diversi ordini di grandezza, mentre i modelli di base devono diventare più piccoli e più adattabili agli ambienti decentralizzati.
Questa combinazione di fattori rappresenta il percorso migliore verso un'IA generativa decentralizzata. Tale percorso sarà estremamente difficile ma, almeno per ora, certamente possibile.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Jesus Rodriguez
Jesus Rodriguez è il CEO e co-fondatore di IntoTheBlock, una piattaforma focalizzata sull'abilitazione di soluzioni di market intelligence e DeFi istituzionali per i Mercati Cripto . È anche il co-fondatore e presidente di Faktory, una piattaforma di intelligenza artificiale generativa per app aziendali e consumer. Jesus ha anche fondato The Sequence, ONE delle Newsletter di intelligenza artificiale più popolari al mondo. Oltre al suo lavoro operativo, Jesus è docente ospite presso la Columbia University e la Wharton Business School ed è uno scrittore e oratore molto attivo.
