- Back to menu
- Back to menuMga presyo
- Back to menuPananaliksik
- Back to menuPinagkasunduan
- Back to menu
- Back to menu
- Back to menu
- Back to menu
- Back to menuMga Webinars at Events
Muriel Médard: May Problema sa Memorya ang Web3 — At Sa wakas May Naayos Na Kami
Ang isang computer sa mundo ay nangangailangan ng memorya na hindi lamang desentralisado ngunit mahusay din, nasusukat, at maaasahan. Magagawa natin ito gamit ang Random Linear Network Coding (RLNC), sabi ni Muriel Médard, co-founder ng Optimum, na nag-aalok ng memory infrastructure para sa anumang blockchain. Si Médard ay ang co-inventor ng RLNC, na binuo niya sa loob ng dalawang dekada ng pananaliksik sa MIT.

What to know:
- Ang Web3 ay walang dedikadong memory layer, na ginagawang hindi mahusay at mahirap sukatin ang kasalukuyang arkitektura nito.
- Ang Random Linear Network Coding (RLNC) ay nag-aalok ng solusyon sa pamamagitan ng pagpapahusay ng pagpapalaganap ng data at kahusayan sa pag-iimbak sa mga desentralisadong sistema.
- Maaaring matugunan ng pagpapatupad ng RLNC ang mga hamon sa scalability ng Web3 sa pamamagitan ng pag-optimize ng memory at pag-access ng data nang hindi nakompromiso ang desentralisasyon.
Ang Web3 ay may problema sa memorya. Hindi sa "nakalimutan namin ang isang bagay" na kahulugan, ngunit sa CORE kahulugan ng arkitektura. T itong totoong memory layer.
Ang mga blockchain ngayon ay T mukhang ganap na dayuhan kumpara sa mga tradisyunal na computer, ngunit nawawala pa rin ang isang CORE pundasyong aspeto ng legacy computing: Isang memory layer na binuo para sa desentralisasyon na susuporta sa susunod na pag-ulit ng internet.
Si Muriel Médard ay isang tagapagsalita sa Consensus 2025 Mayo 14-16. Magrehistro upang makuha ang iyong tiket dito.
Pagkatapos ng Ikalawang Digmaang Pandaigdig, inilatag ni John von Neumann ang arkitektura para sa mga modernong kompyuter. Ang bawat computer ay nangangailangan ng input at output, isang CPU para sa kontrol at aritmetika, at memorya upang mag-imbak ng pinakabagong bersyon ng data, kasama ng isang "bus" upang kunin at i-update ang data na iyon sa memorya. Karaniwang kilala bilang RAM, ang arkitektura na ito ay naging pundasyon ng pag-compute sa loob ng mga dekada.
Sa CORE nito, ang Web3 ay isang desentralisadong computer — isang "world computer." Sa mas matataas na layer, medyo nakikilala ito: operating system (EVM, SVM) na tumatakbo sa libu-libong desentralisadong node, na nagpapagana sa mga desentralisadong aplikasyon at protocol.
Pero, kapag naghukay ka ng mas malalim, may kulang. Ang memory layer na mahalaga para sa pag-iimbak, pag-access at pag-update ng panandalian at pangmatagalang data, ay T katulad ng memory bus o memory unit na naisip ni von Neumann.
Sa halip, ito ay isang mashup ng iba't ibang pinakamahusay na pagsisikap na diskarte upang makamit ang layuning ito, at ang mga resulta ay pangkalahatang magulo, hindi mahusay at mahirap i-navigate.
Narito ang problema: kung gagawa tayo ng isang computer sa mundo na sa panimula ay naiiba sa modelo ng von Neumann, mas may magandang dahilan para gawin ito. Sa ngayon, ang layer ng memorya ng Web3 ay T lamang naiiba, ito ay gulo-gulo at hindi epektibo. Mabagal ang mga transaksyon. Ang imbakan ay tamad at magastos. Ang pag-scale para sa mass adoption sa kasalukuyang diskarte na ito ay halos imposible. At, hindi iyan ang dapat na tungkol sa desentralisasyon.
Pero may ibang paraan.
Maraming tao sa espasyong ito ang nagsisikap na makayanan ang limitasyong ito at nasa punto tayo ngayon kung saan hindi na KEEP ang kasalukuyang mga solusyon sa solusyon. Dito pumapasok ang paggamit ng algebraic coding, na gumagamit ng mga equation upang kumatawan sa data para sa kahusayan, katatagan at flexibility.
Ang CORE problema ay ito: paano natin ipapatupad ang desentralisadong code para sa Web3?
Isang bagong imprastraktura ng memorya
Ito ang dahilan kung bakit ako ay tumalon mula sa akademya kung saan hawak ko ang tungkulin ng MIT NEC Chair at Propesor ng Software Science and Engineering upang italaga ang aking sarili at isang pangkat ng mga eksperto sa pagsulong ng memorya na may mataas na pagganap para sa Web3.
May nakita akong mas malaki: ang potensyal na muling tukuyin kung paano natin iniisip ang tungkol sa pag-compute sa isang desentralisadong mundo.
Ang aking koponan sa Optimum ay lumilikha ng desentralisadong memorya na gumagana tulad ng isang nakatuong computer. Ang aming diskarte ay pinalakas ng Random Linear Network Coding (RLNC), isang Technology binuo sa aking MIT lab sa loob ng halos dalawang dekada. Ito ay isang napatunayang paraan ng pag-coding ng data na nag-maximize sa throughput at katatagan sa mga network na may mataas na maaasahang mula sa mga pang-industriyang sistema hanggang sa internet.
Ang data coding ay ang proseso ng pag-convert ng impormasyon mula sa ONE format patungo sa isa pa para sa mahusay na imbakan, paghahatid o pagproseso. Ang data coding ay nasa loob ng maraming dekada at maraming mga pag-ulit nito na ginagamit sa mga network ngayon. Ang RLNC ay ang modernong diskarte sa data coding na partikular na binuo para sa desentralisadong computing. Binabago ng scheme na ito ang data sa mga packet para sa paghahatid sa isang network ng mga node, na tinitiyak ang mataas na bilis at kahusayan.
Sa maraming mga parangal sa engineering mula sa mga nangungunang pandaigdigang institusyon, higit sa 80 patent, at maraming real-world deployment, ang RLNC ay hindi na isang teorya lamang. Ang RLNC ay nakakuha ng makabuluhang pagkilala, kabilang ang 2009 IEEE Communications Society at Information Theory Society Joint Paper Award para sa gawaing "A Random Linear Network Coding Approach to Multicast." Ang epekto ng RLNC ay kinilala sa pamamagitan ng IEEE Koji Kobayashi Computers and Communications Award noong 2022.
Handa na ang RLNC para sa mga desentralisadong sistema, na nagbibigay-daan sa mas mabilis na pagpapalaganap ng data, mahusay na pag-iimbak, at real-time na pag-access, na ginagawa itong isang pangunahing solusyon para sa mga hamon sa scalability at kahusayan ng Web3.
Bakit ito mahalaga
Bumalik tayo ng isang hakbang. Bakit mahalaga ang lahat ng ito? Dahil kailangan natin ng memorya para sa mundong computer na hindi lamang desentralisado ngunit mahusay din, nasusukat at maaasahan.
Sa kasalukuyan, umaasa ang mga blockchain sa pinakamahusay na pagsisikap, mga ad hoc na solusyon na bahagyang nakakamit kung ano ang nagagawa ng memorya sa high-performance computing. Ang kulang sa kanila ay isang pinag-isang layer ng memorya na sumasaklaw sa parehong memory bus para sa pagpapalaganap ng data at ang RAM para sa pag-imbak at pag-access ng data.
Ang bahagi ng bus ng computer ay hindi dapat maging bottleneck, tulad ng ginagawa nito ngayon. Hayaan akong magpaliwanag.
Ang "tsismis" ay ang karaniwang paraan para sa pagpapalaganap ng data sa mga network ng blockchain. Ito ay isang peer-to-peer na protocol ng komunikasyon kung saan ang mga node ay nakikipagpalitan ng impormasyon sa mga random na peer upang maikalat ang data sa buong network. Sa kasalukuyang pagpapatupad nito, nakikipagpunyagi ito sa sukat.
Isipin na kailangan mo ng 10 piraso ng impormasyon mula sa mga kapitbahay na inuulit ang kanilang narinig. Habang nakikipag-usap ka sa kanila, sa una ay nakakakuha ka ng bagong impormasyon. Ngunit habang lumalapit ka sa siyam sa 10, bumababa ang pagkakataong makarinig ng bago mula sa isang kapitbahay, na ginagawang pinakamahirap makuha ang huling piraso ng impormasyon. Ang mga pagkakataon ay 90% na ang susunod na maririnig mo ay isang bagay na alam mo na.
Ganito gumagana ang blockchain gossip ngayon — mahusay sa simula pa lang, ngunit kalabisan at mabagal kapag sinusubukang kumpletuhin ang pagbabahagi ng impormasyon. Kailangan mong maging lubhang mapalad na makakuha ng bago sa bawat oras.
Sa RLNC, malalampasan natin ang CORE isyu sa scalability sa kasalukuyang tsismis. Gumagana ang RLNC na parang napagtagumpayan mong maging masuwerte, kaya sa tuwing makakarinig ka ng impormasyon, nagkataon lang na ito ay impormasyon na bago sa iyo. Nangangahulugan iyon ng mas malaking throughput at mas mababang latency. Ang tsismis na pinapagana ng RLNC na ito ay ang aming unang produkto, na maaaring ipatupad ng mga validator sa pamamagitan ng isang simpleng API call para i-optimize ang pagpapalaganap ng data para sa kanilang mga node.
Suriin natin ngayon ang bahagi ng memorya. Nakakatulong na isipin ang memorya bilang dynamic na storage, tulad ng RAM sa isang computer o, sa bagay na iyon, ang aming closet. Ang desentralisadong RAM ay dapat gayahin ang isang aparador; dapat itong balangkas, maaasahan, at pare-pareho. Ang isang piraso ng data ay naroroon o wala, walang kalahating piraso, walang nawawalang manggas. Atomicity yan. Nananatili ang mga item sa pagkakasunud-sunod ng mga ito — maaari kang makakita ng mas lumang bersyon, ngunit hindi kailanman ONE. Consistency yan. At, maliban kung inilipat, ang lahat ay mananatili; T nawawala ang data. Yung durability.
Sa halip na aparador, ano ang mayroon tayo? Ang mga Mempool ay hindi isang bagay KEEP namin sa mga computer, kaya bakit namin ginagawa iyon sa Web3? Ang pangunahing dahilan ay walang tamang memory layer. Kung iisipin natin ang pamamahala ng data sa mga blockchain bilang pamamahala ng mga damit sa ating aparador, ang isang mempool ay tulad ng pagkakaroon ng isang tumpok ng labahan sa sahig, kung saan hindi ka sigurado kung ano ang nasa loob at kailangan mong halungkatin.
Ang mga kasalukuyang pagkaantala sa pagproseso ng transaksyon ay maaaring napakataas para sa anumang solong chain. Sa pagbanggit sa Ethereum bilang isang halimbawa, tumatagal ng dalawang panahon o 12.8 minuto upang ma-finalize ang anumang solong transaksyon. Nang walang desentralisadong RAM, umaasa ang Web3 sa mga mempool, kung saan ang mga transaksyon ay nakaupo hanggang sa maproseso ang mga ito, na nagreresulta sa mga pagkaantala, kasikipan at hindi mahuhulaan.
Ang mga full node ay nag-iimbak ng lahat, nagpapalubog sa sistema at ginagawang kumplikado at magastos ang pagkuha. Sa mga computer, pinapanatili ng RAM ang kasalukuyang kailangan, habang ang hindi gaanong ginagamit na data ay lumilipat sa malamig na imbakan, marahil sa cloud o sa disk. Ang mga full node ay parang closet na may lahat ng damit na isinuot mo (mula sa lahat ng isinuot mo bilang isang sanggol hanggang ngayon).
Ito ay hindi isang bagay na ginagawa namin sa aming mga computer, ngunit umiiral ang mga ito sa Web3 dahil ang storage at read/write access ay T na-optimize. Sa RLNC, gumagawa kami ng desentralisadong RAM (deRAM) para sa napapanahon, naa-update na estado sa paraang matipid, nababanat at nasusukat.
Maaaring malutas ng DeRAM at pagpapalaganap ng data na pinapagana ng RLNC ang pinakamalaking bottleneck ng Web3 sa pamamagitan ng paggawa ng memorya nang mas mabilis, mas mahusay, at mas nasusukat. Ino-optimize nito ang pagpapalaganap ng data, binabawasan ang bloat ng storage, at nagbibigay-daan sa real-time na pag-access nang hindi nakompromiso ang desentralisasyon. Matagal na itong isang mahalagang nawawalang piraso sa computer sa mundo, ngunit hindi nagtagal.
Note: The views expressed in this column are those of the author and do not necessarily reflect those of CoinDesk, Inc. or its owners and affiliates.
Muriel Médard
Si Muriel Médard ay ang co-founder at CEO ng Optimum, ang high-performance memory infrastructure para sa anumang blockchain. Siya ang co-inventor ng RLNC — ang Technology sa likod ng Optimum, na umiikot sa mahigit dalawang dekada ng pananaliksik sa MIT — at may hawak na NEC Chair ng Software Science and Engineering sa MIT. Siya ay miyembro ng US National Academy of Engineering, ang American Academy of Arts and Sciences, ang German National Academy of Sciences, isang Fellow ng US National Academy of Inventors at Fellow Institute of Electrical and Electronics Engineers.
