Logo
Поділитися цією статтею

ШІ слід децентралізувати, але як?

Аргументи для більшої прозорості та можливості перевірки в ШІ. Але чи є децентралізація найкращим засобом досягнення цього і чи здійсненна на практиці? Хесус Родрігес з IntoTheBlock каже, що технічні проблеми величезні.

(EDUARD MUZHEVSKYI / SCIENCE PHOTO LIBRARY/Getty Images)
(EDUARD MUZHEVSKYI / SCIENCE PHOTO LIBRARY/Getty Images)

Перетин Web3 і штучного інтелекту (ШІ), зокрема у формі генеративного ШІ, став ONE з найгарячіших тем дебатів у Крипто . Зрештою, генеративний штучний інтелект революціонізує всі сфери традиційних Stacks програмного забезпечення, і Web3 не є винятком. Зважаючи на те, що децентралізація є CORE ціннісною пропозицією Web3, багато нових проектів і сценаріїв Web3-generative-AI проектують ту чи іншу форму децентралізованої ціннісної пропозиції генеративного ШІ.

Хесус Родрігес є генеральним директором IntoTheBlock.

Продовження Нижче
Не пропустіть жодної історії.Підпишіться на розсилку The Node вже сьогодні. Переглянути Всі Розсилки

У Web3 ми маємо довгу історію розгляду кожного домену через призму децентралізації, але реальність така, що не всі домени можуть отримати вигоду від децентралізації, і для кожного домену існує спектр сценаріїв децентралізації. Розбираючи цю ідею з точки зору основних принципів, ми ведемо до двох ключових питань:

  • Чи заслуговує генеративний ШІ на децентралізацію?
  • Чому децентралізований ШІ раніше T працював у великих масштабах і чим відрізняється генеративний ШІ?
  • Які різні виміри децентралізації в генеративному ШІ?

Ці питання далеко не тривіальні, і кожне з ONE може викликати палкі дискусії. Однак я вважаю, що обмірковування цих питань має важливе значення для розробки комплексної тези про можливості та виклики на перетині Web3 і генеративного ШІ.

Чи заслуговує ШІ на децентралізацію?

Філософська аргументація децентралізації ШІ проста. ШІ — це цифрові знання, а знання можуть бути конструкцією номер ONE у цифровому світі, яка заслуговує на децентралізацію. За всю історію Web3 ми робили багато спроб децентралізувати речі, які надзвичайно добре працюють у централізованій архітектурі та де децентралізація T давала очевидних переваг. Знання не є ONE із природних кандидатів на децентралізацію як з технічної, так і з економічної точки зору.

Рівень контролю, накопичений великими постачальниками штучного інтелекту, створює величезний відрив від решти конкурентів до такої міри, що стає страшно. ШІ не розвивається лінійно чи навіть експоненціально; він слідує багатоекспоненціальній кривій.

Читайте також: Хесус Родрігес - Як протоколи DeFi створюють більш детальні та розширювані можливості

GPT-4 представляє значне вдосконалення порівняно з GPT 3.5 у багатьох вимірах, і ця траєкторія, ймовірно, продовжуватиметься. У якийсь момент спроби конкурувати з централізованими постачальниками ШІ стають неможливими. Добре продумана модель децентралізованої мережі може створити екосистему, в якій різні сторони співпрацюють для покращення якості моделей, що забезпечує демократичний доступ до знань і спільне використання вигод.

Прозорість є другим фактором, який можна враховувати при оцінці переваг децентралізації в ШІ. Архітектури основних моделей включають мільйони взаємопов’язаних нейронів на кількох рівнях, що робить непрактичним розуміння за допомогою традиційних практик моніторингу. Ніхто насправді не розуміє, що відбувається всередині GPT-4, і OpenAI не має стимулів бути більш прозорим у цій сфері. Децентралізовані мережі штучного інтелекту могли б уможливити відкрите тестування тестів і захисних засобів, які забезпечують видимість функціонування базових моделей, не вимагаючи довіри до конкретного постачальника.

Чому децентралізований штучний інтелект досі T працював?

Якщо децентралізований штучний інтелект настільки очевидний, то чому ми T бачили жодних успішних спроб у цій сфері? Зрештою, децентралізований штучний інтелект не є новою ідеєю, і багато його принципів сягають початку 1990-х років. Не вдаючись у технічні деталі, основна причина відсутності успіху децентралізованих підходів штучного інтелекту полягає в тому, що ціннісна пропозиція була в кращому випадку сумнівною.

До того, як на сцену з’явилися великі базові моделі, домінуючою парадигмою архітектури були різні форми навчання під наглядом, які вимагали чітко підібраних і маркованих наборів даних, які здебільшого знаходилися в межах корпоративних кордонів. Крім того, моделі були досить малі, щоб їх було легко інтерпретувати за допомогою основних інструментів. Нарешті, аргументи для контролю також були дуже слабкими, оскільки жодна модель не була достатньо міцною, щоб викликати будь-який рівень занепокоєння.

Дещо парадоксальним поворотом є те, що популярність великомасштабного генеративного штучного інтелекту та базових моделей у централізованій манері вперше в історії допомогла зробити децентралізований штучний інтелект життєздатним.

Тепер, коли ми розуміємо, що ШІ заслуговує на децентралізацію і що цей час дещо відрізняється від попередніх спроб, ми можемо почати думати про те, які конкретні елементи потребують децентралізації.

Виміри децентралізації в ШІ

Що стосується генеративного ШІ, єдиного підходу до децентралізації не існує. Натомість децентралізацію слід розглядати в контексті різних етапів життєвого циклу базових моделей. Ось три основних етапи життєвого циклу базових моделей, які стосуються децентралізації:

  • Попереднє навчання — це етап, на якому модель навчається на великих обсягах немаркованих і маркованих наборів даних.
  • Тонке налаштування, яке зазвичай є необов’язковим, є фазою, на якій модель «перенавчається» на предметних наборах даних для оптимізації її продуктивності для різних завдань.
  • Висновок — це етап, на якому модель виводить прогнози на основі конкретних вхідних даних.

Протягом цих трьох етапів існують різні виміри, які є хорошими кандидатами для децентралізації.

Вимір децентралізації обчислень

Децентралізовані обчислення можуть бути неймовірно актуальними під час попереднього навчання та тонкого налаштування та можуть бути менш актуальними під час висновків. Як відомо, базові моделі вимагають великих циклів обчислень GPU, які зазвичай виконуються в централізованих центрах обробки даних. Ідея децентралізованої обчислювальної мережі графічного процесора, в якій різні сторони можуть надавати обчислення для попереднього навчання та тонкого налаштування моделей, може допомогти усунути контроль, який великі хмарні провайдери мають над створенням базових моделей.

Вимір децентралізації даних

Децентралізація даних може зіграти неймовірно важливу роль на етапах попереднього навчання та тонкого налаштування. Наразі існує дуже мало прозорості щодо конкретного складу наборів даних, які використовуються для попереднього навчання та точного налаштування моделей основи. Децентралізована мережа передачі даних може стимулювати різні сторони надавати набори даних із відповідним розкриттям інформації та відстежувати їх використання під час попереднього навчання та тонкого налаштування основних моделей.

Вимір оптимізації децентралізації

Багато етапів життєвого циклу базових моделей вимагають перевірки, часто у формі втручання Human . Примітно, що такі методи, як навчання з підкріпленням із зворотним зв’язком Human (RLHF), забезпечують перехід від GPT-3 до ChatGPT завдяки тому, що люди перевіряють результати моделі для забезпечення кращого узгодження з інтересами Human . Цей рівень перевірки особливо важливий на етапах тонкого налаштування, і наразі навколо нього дуже мало прозорості. Децентралізована мережа Human і валідаторів штучного інтелекту, які виконують конкретні завдання, результати яких можна негайно відстежити, може стати значним покращенням у цій сфері.

Читайте також: Хесус Родрігес - Новий блокчейн для Generative AI?

Вимір децентралізації оцінювання

Якби я попросив вас вибрати найкращу мовну модель для конкретного завдання, вам довелося б вгадати відповідь. Еталонні показники штучного інтелекту принципово порушені, навколо них дуже мало прозорості, і вони вимагають BIT довіри до сторін, які їх створили. Децентралізація оцінки моделей основи для різних завдань є неймовірно важливим завданням для підвищення прозорості в просторі. Цей вимір особливо актуальний на етапі висновку.

Розмір децентралізації виконання моделі

Нарешті, найбільш очевидна сфера децентралізації. Використання базових моделей сьогодні вимагає довіри до інфраструктур, контрольованих централізованою стороною. Забезпечення мережі, в якій робочі навантаження логічного висновку можуть бути розподілені між різними сторонами, є досить цікавим завданням, яке може принести величезну цінність для прийняття базових моделей.

Правильний спосіб створення ШІ

Основні моделі підштовхнули штучний інтелект до загального впровадження, а також прискорили всі виклики, пов’язані зі швидким зростанням можливостей цих моделей. Серед цих викликів аргументи на користь децентралізації ніколи не були сильнішими.

Цифрові знання заслуговують на децентралізацію в усіх своїх вимірах: дані, обчислення, перевірка, оптимізація, виконання. Жодна централізована організація не заслуговує мати стільки влади над майбутнім інтелекту. Аргументи для децентралізованого ШІ зрозумілі, але технічні проблеми величезні. Децентралізація штучного інтелекту вимагатиме не ONE технічного прориву, але мета, безперечно, досяжна. В епоху базових моделей децентралізований штучний інтелект є правильним способом підходу до штучного інтелекту.

Примітка: Погляди, висловлені в цьому стовпці, належать автору і не обов'язково відображають погляди CoinDesk, Inc. або її власників та афіліатів.

Jesus Rodriguez

Хесус Родрігес є генеральним директором і співзасновником IntoTheBlock, платформи , яка зосереджена на забезпеченні ринкової інформації та інституційних рішень DeFi для Крипто . Він також є співзасновником і президентом Faktory, генеративної платформи штучного інтелекту для бізнес-програм і програм для споживачів. Ісус також заснував The Sequence, ONE із найпопулярніших Розсилки ШІ у світі. На додаток до своєї операційної роботи, Ісус є запрошеним лектором у Колумбійському університеті та Wharton Business School, а також є дуже активним письменником і оратором.

Jesus Rodriguez