Peta jalan Ethereum awalnya mencakup dua strategi skala: sharding dan protokol Layer2. Kedua jalur ini akhirnya digabungkan menjadi peta jalan yang berpusat pada Rollup, yang masih menjadi strategi perluasan Ethereum saat ini.
Peta jalan yang berfokus pada Rollup mengusulkan pembagian kerja yang sederhana: Ethereum L1 fokus untuk menjadi lapisan dasar yang kuat dan terdesentralisasi, sedangkan L2 bertugas membantu ekosistem untuk berkembang. Pola ini ada di mana-mana dalam masyarakat: keberadaan sistem pengadilan (L1) adalah untuk melindungi kontrak dan hak milik, sementara pengusaha (L2) harus membangun di atas lapisan dasar yang kokoh ini untuk mendorong kemajuan manusia.
Tahun ini, peta jalan yang berfokus pada Rollup telah mencapai hasil penting: dengan peluncuran blob EIP-4844, bandwidth data Ethereum L1 meningkat secara signifikan, dan beberapa Ethereum Virtual Machine (EVM) Rollup telah memasuki fase pertama. Setiap L2 ada sebagai "shard" dengan aturan dan logika internalnya sendiri, dan keberagaman serta variasi dalam cara implementasi shard kini telah menjadi kenyataan. Namun, seperti yang kita lihat, menempuh jalan ini juga menghadapi beberapa tantangan unik. Oleh karena itu, tugas kita sekarang adalah menyelesaikan peta jalan yang berfokus pada Rollup, dan mengatasi masalah ini, sambil mempertahankan ketahanan dan desentralisasi yang khas dari Ethereum L1.
The Surge: Tujuan Kunci
Di masa depan, Ethereum dapat mencapai lebih dari 100.000 TPS melalui L2;
Mempertahankan desentralisasi dan ketahanan L1;
Setidaknya beberapa L2 sepenuhnya mewarisi atribut inti Ethereum ( yang tidak perlu dipercaya, terbuka, dan tahan sensor );
Ethereum seharusnya terasa seperti sebuah ekosistem yang terintegrasi, bukan 34 blockchain yang berbeda.
Isi bab ini
Paradoks Segitiga Skalabilitas
Kemajuan lebih lanjut dalam sampling ketersediaan data
Kompresi Data
Plasma Generalisasi
Sistem bukti L2 yang matang
Peningkatan Interoperabilitas L2
Memperluas eksekusi di L1
paradoks segitiga skalabilitas
Paradoks segitiga skalabilitas adalah sebuah ide yang diajukan pada tahun 2017, yang menyatakan bahwa terdapat kontradiksi antara tiga karakteristik blockchain: desentralisasi ( lebih tepatnya: biaya menjalankan node yang rendah ), skalabilitas ( jumlah transaksi yang dapat diproses banyak ) dan keamanan ( penyerang perlu merusak sebagian besar node dalam jaringan untuk membuat satu transaksi gagal ).
Perlu dicatat bahwa paradoks segitiga bukanlah sebuah teorema, dan pos yang memperkenalkan paradoks segitiga juga tidak disertai dengan bukti matematis. Ini memang memberikan argumen matematis heuristik: jika sebuah node yang ramah terdesentralisasi (, misalnya, laptop konsumen ) dapat memverifikasi N transaksi per detik, dan Anda memiliki sebuah rantai yang memproses k*N transaksi per detik, maka (i) setiap transaksi hanya dapat dilihat oleh 1/k node, yang berarti penyerang hanya perlu merusak sejumlah kecil node untuk melakukan transaksi berbahaya, atau (ii) node Anda akan menjadi kuat, sementara rantai Anda tidak akan terdesentralisasi. Tujuan artikel ini sama sekali bukan untuk membuktikan bahwa memecahkan paradoks segitiga tidak mungkin; sebaliknya, ini bertujuan untuk menunjukkan bahwa memecahkan paradoks tiga sangat sulit dan membutuhkan untuk keluar dari kerangka pemikiran yang tersirat dalam argumen tersebut.
Selama bertahun-tahun, beberapa rantai berkinerja tinggi sering mengklaim bahwa mereka telah menyelesaikan paradoks trilema tanpa mengubah arsitektur secara mendasar, biasanya dengan menerapkan teknik rekayasa perangkat lunak untuk mengoptimalkan node. Ini selalu menyesatkan, karena menjalankan node di rantai ini jauh lebih sulit daripada menjalankan node di Ethereum. Artikel ini akan membahas mengapa hal ini terjadi, serta mengapa hanya dengan rekayasa perangkat lunak klien L1 tidak dapat melakukan skala Ethereum?
Namun, penggabungan sampling ketersediaan data dengan SNARKs memang menyelesaikan paradoks segitiga: ini memungkinkan klien untuk memverifikasi sejumlah data yang tersedia dengan hanya mengunduh sejumlah kecil data dan melakukan sangat sedikit perhitungan. SNARKs tidak memerlukan kepercayaan. Sampling ketersediaan data memiliki model kepercayaan sedikit-dari-N yang halus, tetapi itu mempertahankan karakteristik dasar yang dimiliki oleh rantai yang tidak dapat diskalakan, yaitu bahkan serangan 51% tidak dapat memaksa blok buruk diterima oleh jaringan.
Salah satu cara untuk menyelesaikan tiga dilema adalah arsitektur Plasma, yang menggunakan teknologi cerdas untuk mendorong tanggung jawab ketersediaan data pemantauan kepada pengguna dengan cara yang kompatibel dengan insentif. Pada tahun 2017-2019, ketika kita hanya memiliki bukti penipuan sebagai cara untuk meningkatkan kapasitas komputasi, Plasma sangat terbatas dalam eksekusi yang aman, tetapi dengan penyebaran SNARKs( bukti non-interaktif zero-knowledge yang ringkas), arsitektur Plasma menjadi lebih layak untuk digunakan dalam skenario yang lebih luas daripada sebelumnya.
Kemajuan lebih lanjut dalam pengambilan sampel ketersediaan data
Masalah apa yang sedang kita selesaikan?
Pada 13 Maret 2024, ketika peningkatan Dencun diluncurkan, blockchain Ethereum akan memiliki 3 blob sekitar 125 kB setiap slot 12 detik, atau bandwidth data yang tersedia per slot sekitar 375 kB. Jika data transaksi diterbitkan langsung di rantai, maka transfer ERC20 sekitar 180 byte, sehingga maksimum TPS Rollup di Ethereum adalah: 375000 / 12 / 180 = 173,6 TPS
Jika kita menambahkan nilai maksimum teoritis calldata Ethereum (: setiap slot 30 juta Gas / setiap byte 16 gas = setiap slot 1.875.000 byte ), maka menjadi 607 TPS. Menggunakan PeerDAS, jumlah blob mungkin meningkat menjadi 8-16, yang akan memberikan 463-926 TPS untuk calldata.
Ini adalah peningkatan besar untuk Ethereum L1, tetapi masih belum cukup. Kami menginginkan lebih banyak skalabilitas. Target jangka menengah kami adalah 16 MB per slot, dan jika digabungkan dengan perbaikan kompresi data Rollup, akan menghasilkan ~58000 TPS.
Apa itu? Bagaimana cara kerjanya?
PeerDAS adalah implementasi yang relatif sederhana dari "1D sampling". Dalam Ethereum, setiap blob adalah polinomial 4096 derajat di atas bidang prima 253-bit (. Kami menyiarkan shares polinomial, di mana setiap shares berisi 16 nilai evaluasi dari 16 koordinat yang berdekatan di antara total 8192 koordinat. Dari 8192 nilai evaluasi ini, setiap 4096 ) dapat memulihkan blob berdasarkan parameter yang diajukan saat ini: 64 dari 128 kemungkinan sampel (.
Cara kerja PeerDAS adalah membiarkan setiap klien mendengarkan sejumlah kecil subnet, di mana subnet ke-i menyiarkan sampel ke-i dari setiap blob, dan dengan menanyakan kepada rekan-rekan di jaringan p2p global ) siapa yang akan mendengarkan subnet yang berbeda ( untuk meminta blob lain yang mereka butuhkan di subnet yang berbeda. Versi yang lebih konservatif SubnetDAS hanya menggunakan mekanisme subnet, tanpa tambahan pertanyaan ke layer rekan. Proposal saat ini adalah agar node yang berpartisipasi dalam proof of stake menggunakan SubnetDAS, sementara node lainnya ) atau klien ( menggunakan PeerDAS.
Secara teoritis, kita dapat memperluas skala "1D sampling" cukup besar: jika kita meningkatkan jumlah maksimum blob menjadi 256) dengan target 128(, maka kita dapat mencapai target 16MB, sedangkan sampling ketersediaan data di setiap node memiliki 16 sampel * 128 blob * setiap blob setiap sampel 512 byte = bandwidth data 1 MB per slot. Ini hanya mencukupi di dalam rentang toleransi kita: ini mungkin, tetapi ini berarti klien yang bandwidthnya terbatas tidak dapat melakukan sampling. Kita dapat mengoptimalkan ini sampai batas tertentu dengan mengurangi jumlah blob dan meningkatkan ukuran blob, tetapi ini akan membuat biaya rekonstruksi lebih tinggi.
Oleh karena itu, kami akhirnya ingin melangkah lebih jauh, melakukan 2D sampling )2D sampling(, metode ini tidak hanya melakukan pengambilan sampel acak di dalam blob, tetapi juga melakukan pengambilan sampel acak di antara blob. Dengan memanfaatkan sifat linear dari komitmen KZG, memperluas kumpulan blob dalam satu blok melalui satu set blob virtual baru, di mana blob virtual ini redundan mengkodekan informasi yang sama.
Oleh karena itu, pada akhirnya kami ingin melangkah lebih jauh dengan melakukan pengambilan sampel 2D, yang tidak hanya dilakukan di dalam blob, tetapi juga melakukan pengambilan sampel acak di antara blob. Sifat linier dari komitmen KZG digunakan untuk memperluas kumpulan blob dalam sebuah blok, yang berisi daftar blob virtual baru yang mengkodekan informasi yang sama secara redundan.
Penting untuk dicatat bahwa perluasan komitmen perhitungan tidak memerlukan blob, sehingga skema ini secara fundamental ramah terhadap pembangunan blok terdistribusi. Node yang benar-benar membangun blok hanya perlu memiliki komitmen KZG blob, dan mereka dapat bergantung pada pengambilan ketersediaan data )DAS( untuk memverifikasi ketersediaan blok data. Pengambilan ketersediaan data satu dimensi )1D DAS( pada dasarnya juga ramah terhadap pembangunan blok terdistribusi.
![Vitalik artikel baru: Masa Depan Ethereum yang Mungkin, The Surge])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
)# Apa lagi yang perlu dilakukan? Apa saja pertimbangannya?
Selanjutnya adalah menyelesaikan implementasi dan peluncuran PeerDAS. Setelah itu, jumlah blob di PeerDAS akan terus ditingkatkan, sambil mengamati jaringan dengan cermat dan memperbaiki perangkat lunak untuk memastikan keamanan, ini adalah proses yang bertahap. Pada saat yang sama, kami berharap ada lebih banyak pekerjaan akademis untuk mengatur PeerDAS dan versi DAS lainnya serta interaksinya dengan masalah keamanan seperti aturan pemilihan fork.
Pada tahap yang lebih jauh di masa depan, kita perlu melakukan lebih banyak pekerjaan untuk menentukan versi ideal dari 2D DAS dan membuktikan sifat keamanannya. Kami juga berharap akhirnya dapat beralih dari KZG ke solusi alternatif yang aman kuantum dan tidak memerlukan pengaturan yang dapat dipercaya. Saat ini, kami juga tidak jelas kandidat mana yang ramah untuk pembangunan blok terdistribusi. Bahkan dengan menggunakan teknologi "brute force" yang mahal, yaitu menggunakan STARK rekursif untuk menghasilkan bukti keabsahan untuk merekonstruksi baris dan kolom, itu masih tidak cukup untuk memenuhi kebutuhan, karena meskipun secara teknis, ukuran satu STARK adalah O(log)n### * log(log(n)( hash ( menggunakan STIR), namun pada kenyataannya STARK hampir sebesar seluruh blob.
Jalur realitas jangka panjang yang saya pikirkan adalah:
Menerapkan DAS 2D yang ideal;
Terus menggunakan 1D DAS, mengorbankan efisiensi bandwidth sampling, demi kesederhanaan dan ketahanan menerima batas data yang lebih rendah.
Meninggalkan DA, sepenuhnya menerima Plasma sebagai arsitektur Layer2 utama yang menjadi fokus kami.
Harap dicatat, bahkan jika kami memutuskan untuk memperluas eksekusi langsung di lapisan L1, pilihan ini tetap ada. Ini karena jika lapisan L1 harus menangani sejumlah besar TPS, blok L1 akan menjadi sangat besar, dan klien akan menginginkan cara yang efisien untuk memverifikasi keakuratannya, sehingga kami harus menggunakan teknologi yang sama dengan Rollup) seperti ZK-EVM dan DAS( di lapisan L1.
)# Bagaimana cara berinteraksi dengan bagian lain dari peta jalan?
Jika data kompresi diterapkan, permintaan untuk 2D DAS akan berkurang, atau setidaknya akan tertunda. Jika Plasma digunakan secara luas, maka permintaan akan berkurang lebih lanjut. DAS juga menantang protokol dan mekanisme pembangunan blockchain terdistribusi: meskipun DAS secara teoritis bersahabat dengan rekonstruksi terdistribusi, dalam praktiknya ini perlu dikombinasikan dengan proposal daftar inklusi paket dan mekanisme pemilihan fork di sekitarnya.
kompresi data
(# Apa masalah yang sedang kita selesaikan?
Setiap transaksi dalam Rollup akan menggunakan banyak ruang data on-chain: transfer ERC20 memerlukan sekitar 180 byte. Bahkan dengan sampling ketersediaan data yang ideal, ini membatasi skalabilitas protokol Layer. Setiap slot 16 MB, kita mendapatkan:
16000000 / 12 / 180 = 7407 TPS
Bagaimana jika kita tidak hanya dapat menyelesaikan masalah pembilang, tetapi juga masalah penyebut, sehingga setiap transaksi di dalam Rollup menggunakan lebih sedikit byte di blockchain?
Apa itu, bagaimana cara kerjanya?
Menurut saya, penjelasan terbaik adalah gambar ini dari dua tahun yang lalu:
Dalam kompresi byte nol, setiap urutan byte nol yang panjang digantikan dengan dua byte yang menunjukkan berapa banyak byte nol. Lebih lanjut, kami memanfaatkan sifat khusus dari transaksi:
Agregasi tanda tangan: Kami beralih dari tanda tangan ECDSA ke tanda tangan BLS. Ciri dari tanda tangan BLS adalah beberapa tanda tangan dapat digabungkan menjadi satu tanda tangan tunggal, yang dapat membuktikan keabsahan semua tanda tangan asli. Di lapisan L1, karena bahkan dengan agregasi, biaya komputasi untuk verifikasi masih tinggi, penggunaan tanda tangan BLS tidak dipertimbangkan. Namun, dalam lingkungan L2 yang kekurangan data, penggunaan tanda tangan BLS menjadi masuk akal. Fitur agregasi ERC-4337 menyediakan cara untuk mewujudkan fungsi ini.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
21 Suka
Hadiah
21
9
Bagikan
Komentar
0/400
LightningPacketLoss
· 07-17 22:06
Tahun ini mengalahkan rantai lainnya.
Lihat AsliBalas0
GhostAddressMiner
· 07-17 01:10
Hah, masih bermain dengan trik rollup ini? Saya sudah melacak setidaknya 7 alamat Investor Luas yang baru-baru ini memindahkan aset di L1, kontrak flash juga menunjukkan tanda-tanda anomali... tunggu saja untuk melihat pertunjukan besar.
Lihat AsliBalas0
DeFiDoctor
· 07-15 23:53
Data klinis untuk komplikasi rollup belum memiliki periode observasi yang cukup lama, harus ditangani dengan hati-hati.
Lihat AsliBalas0
TokenSherpa
· 07-15 23:53
sebenarnya, jika Anda memeriksa data tata kelola, skala l2 hanyalah solusi sementara... hambatan sebenarnya dari eth tetap belum terpecahkan secara fundamental
Lihat AsliBalas0
MiningDisasterSurvivor
· 07-15 23:51
Satu lagi cerita yang indah. Saya mendengarnya banyak pada tahun 2018. Menggambar 大饼 masih menggunakan resep yang sama.
Lihat AsliBalas0
StealthMoon
· 07-15 23:49
L2 lakukan saja sudah selesai
Lihat AsliBalas0
CryptoSourGrape
· 07-15 23:46
Jika tahun lalu saya membeli eth, sekarang saya tidak perlu mengutuk diri sendiri sebagai lemon... Sigh, melihat kakak-kakak yang all in di solana, saya merasa iri.
Ethereum The Surge: dukungan 100.000 TPS sebagai tujuan kunci dan rencana perluasan masa depan
Masa Depan Ethereum yang Mungkin: The Surge
Peta jalan Ethereum awalnya mencakup dua strategi skala: sharding dan protokol Layer2. Kedua jalur ini akhirnya digabungkan menjadi peta jalan yang berpusat pada Rollup, yang masih menjadi strategi perluasan Ethereum saat ini.
Peta jalan yang berfokus pada Rollup mengusulkan pembagian kerja yang sederhana: Ethereum L1 fokus untuk menjadi lapisan dasar yang kuat dan terdesentralisasi, sedangkan L2 bertugas membantu ekosistem untuk berkembang. Pola ini ada di mana-mana dalam masyarakat: keberadaan sistem pengadilan (L1) adalah untuk melindungi kontrak dan hak milik, sementara pengusaha (L2) harus membangun di atas lapisan dasar yang kokoh ini untuk mendorong kemajuan manusia.
Tahun ini, peta jalan yang berfokus pada Rollup telah mencapai hasil penting: dengan peluncuran blob EIP-4844, bandwidth data Ethereum L1 meningkat secara signifikan, dan beberapa Ethereum Virtual Machine (EVM) Rollup telah memasuki fase pertama. Setiap L2 ada sebagai "shard" dengan aturan dan logika internalnya sendiri, dan keberagaman serta variasi dalam cara implementasi shard kini telah menjadi kenyataan. Namun, seperti yang kita lihat, menempuh jalan ini juga menghadapi beberapa tantangan unik. Oleh karena itu, tugas kita sekarang adalah menyelesaikan peta jalan yang berfokus pada Rollup, dan mengatasi masalah ini, sambil mempertahankan ketahanan dan desentralisasi yang khas dari Ethereum L1.
The Surge: Tujuan Kunci
Di masa depan, Ethereum dapat mencapai lebih dari 100.000 TPS melalui L2;
Mempertahankan desentralisasi dan ketahanan L1;
Setidaknya beberapa L2 sepenuhnya mewarisi atribut inti Ethereum ( yang tidak perlu dipercaya, terbuka, dan tahan sensor );
Ethereum seharusnya terasa seperti sebuah ekosistem yang terintegrasi, bukan 34 blockchain yang berbeda.
Isi bab ini
paradoks segitiga skalabilitas
Paradoks segitiga skalabilitas adalah sebuah ide yang diajukan pada tahun 2017, yang menyatakan bahwa terdapat kontradiksi antara tiga karakteristik blockchain: desentralisasi ( lebih tepatnya: biaya menjalankan node yang rendah ), skalabilitas ( jumlah transaksi yang dapat diproses banyak ) dan keamanan ( penyerang perlu merusak sebagian besar node dalam jaringan untuk membuat satu transaksi gagal ).
Perlu dicatat bahwa paradoks segitiga bukanlah sebuah teorema, dan pos yang memperkenalkan paradoks segitiga juga tidak disertai dengan bukti matematis. Ini memang memberikan argumen matematis heuristik: jika sebuah node yang ramah terdesentralisasi (, misalnya, laptop konsumen ) dapat memverifikasi N transaksi per detik, dan Anda memiliki sebuah rantai yang memproses k*N transaksi per detik, maka (i) setiap transaksi hanya dapat dilihat oleh 1/k node, yang berarti penyerang hanya perlu merusak sejumlah kecil node untuk melakukan transaksi berbahaya, atau (ii) node Anda akan menjadi kuat, sementara rantai Anda tidak akan terdesentralisasi. Tujuan artikel ini sama sekali bukan untuk membuktikan bahwa memecahkan paradoks segitiga tidak mungkin; sebaliknya, ini bertujuan untuk menunjukkan bahwa memecahkan paradoks tiga sangat sulit dan membutuhkan untuk keluar dari kerangka pemikiran yang tersirat dalam argumen tersebut.
Selama bertahun-tahun, beberapa rantai berkinerja tinggi sering mengklaim bahwa mereka telah menyelesaikan paradoks trilema tanpa mengubah arsitektur secara mendasar, biasanya dengan menerapkan teknik rekayasa perangkat lunak untuk mengoptimalkan node. Ini selalu menyesatkan, karena menjalankan node di rantai ini jauh lebih sulit daripada menjalankan node di Ethereum. Artikel ini akan membahas mengapa hal ini terjadi, serta mengapa hanya dengan rekayasa perangkat lunak klien L1 tidak dapat melakukan skala Ethereum?
Namun, penggabungan sampling ketersediaan data dengan SNARKs memang menyelesaikan paradoks segitiga: ini memungkinkan klien untuk memverifikasi sejumlah data yang tersedia dengan hanya mengunduh sejumlah kecil data dan melakukan sangat sedikit perhitungan. SNARKs tidak memerlukan kepercayaan. Sampling ketersediaan data memiliki model kepercayaan sedikit-dari-N yang halus, tetapi itu mempertahankan karakteristik dasar yang dimiliki oleh rantai yang tidak dapat diskalakan, yaitu bahkan serangan 51% tidak dapat memaksa blok buruk diterima oleh jaringan.
Salah satu cara untuk menyelesaikan tiga dilema adalah arsitektur Plasma, yang menggunakan teknologi cerdas untuk mendorong tanggung jawab ketersediaan data pemantauan kepada pengguna dengan cara yang kompatibel dengan insentif. Pada tahun 2017-2019, ketika kita hanya memiliki bukti penipuan sebagai cara untuk meningkatkan kapasitas komputasi, Plasma sangat terbatas dalam eksekusi yang aman, tetapi dengan penyebaran SNARKs( bukti non-interaktif zero-knowledge yang ringkas), arsitektur Plasma menjadi lebih layak untuk digunakan dalam skenario yang lebih luas daripada sebelumnya.
Kemajuan lebih lanjut dalam pengambilan sampel ketersediaan data
Masalah apa yang sedang kita selesaikan?
Pada 13 Maret 2024, ketika peningkatan Dencun diluncurkan, blockchain Ethereum akan memiliki 3 blob sekitar 125 kB setiap slot 12 detik, atau bandwidth data yang tersedia per slot sekitar 375 kB. Jika data transaksi diterbitkan langsung di rantai, maka transfer ERC20 sekitar 180 byte, sehingga maksimum TPS Rollup di Ethereum adalah: 375000 / 12 / 180 = 173,6 TPS
Jika kita menambahkan nilai maksimum teoritis calldata Ethereum (: setiap slot 30 juta Gas / setiap byte 16 gas = setiap slot 1.875.000 byte ), maka menjadi 607 TPS. Menggunakan PeerDAS, jumlah blob mungkin meningkat menjadi 8-16, yang akan memberikan 463-926 TPS untuk calldata.
Ini adalah peningkatan besar untuk Ethereum L1, tetapi masih belum cukup. Kami menginginkan lebih banyak skalabilitas. Target jangka menengah kami adalah 16 MB per slot, dan jika digabungkan dengan perbaikan kompresi data Rollup, akan menghasilkan ~58000 TPS.
Apa itu? Bagaimana cara kerjanya?
PeerDAS adalah implementasi yang relatif sederhana dari "1D sampling". Dalam Ethereum, setiap blob adalah polinomial 4096 derajat di atas bidang prima 253-bit (. Kami menyiarkan shares polinomial, di mana setiap shares berisi 16 nilai evaluasi dari 16 koordinat yang berdekatan di antara total 8192 koordinat. Dari 8192 nilai evaluasi ini, setiap 4096 ) dapat memulihkan blob berdasarkan parameter yang diajukan saat ini: 64 dari 128 kemungkinan sampel (.
Cara kerja PeerDAS adalah membiarkan setiap klien mendengarkan sejumlah kecil subnet, di mana subnet ke-i menyiarkan sampel ke-i dari setiap blob, dan dengan menanyakan kepada rekan-rekan di jaringan p2p global ) siapa yang akan mendengarkan subnet yang berbeda ( untuk meminta blob lain yang mereka butuhkan di subnet yang berbeda. Versi yang lebih konservatif SubnetDAS hanya menggunakan mekanisme subnet, tanpa tambahan pertanyaan ke layer rekan. Proposal saat ini adalah agar node yang berpartisipasi dalam proof of stake menggunakan SubnetDAS, sementara node lainnya ) atau klien ( menggunakan PeerDAS.
Secara teoritis, kita dapat memperluas skala "1D sampling" cukup besar: jika kita meningkatkan jumlah maksimum blob menjadi 256) dengan target 128(, maka kita dapat mencapai target 16MB, sedangkan sampling ketersediaan data di setiap node memiliki 16 sampel * 128 blob * setiap blob setiap sampel 512 byte = bandwidth data 1 MB per slot. Ini hanya mencukupi di dalam rentang toleransi kita: ini mungkin, tetapi ini berarti klien yang bandwidthnya terbatas tidak dapat melakukan sampling. Kita dapat mengoptimalkan ini sampai batas tertentu dengan mengurangi jumlah blob dan meningkatkan ukuran blob, tetapi ini akan membuat biaya rekonstruksi lebih tinggi.
Oleh karena itu, kami akhirnya ingin melangkah lebih jauh, melakukan 2D sampling )2D sampling(, metode ini tidak hanya melakukan pengambilan sampel acak di dalam blob, tetapi juga melakukan pengambilan sampel acak di antara blob. Dengan memanfaatkan sifat linear dari komitmen KZG, memperluas kumpulan blob dalam satu blok melalui satu set blob virtual baru, di mana blob virtual ini redundan mengkodekan informasi yang sama.
Oleh karena itu, pada akhirnya kami ingin melangkah lebih jauh dengan melakukan pengambilan sampel 2D, yang tidak hanya dilakukan di dalam blob, tetapi juga melakukan pengambilan sampel acak di antara blob. Sifat linier dari komitmen KZG digunakan untuk memperluas kumpulan blob dalam sebuah blok, yang berisi daftar blob virtual baru yang mengkodekan informasi yang sama secara redundan.
Penting untuk dicatat bahwa perluasan komitmen perhitungan tidak memerlukan blob, sehingga skema ini secara fundamental ramah terhadap pembangunan blok terdistribusi. Node yang benar-benar membangun blok hanya perlu memiliki komitmen KZG blob, dan mereka dapat bergantung pada pengambilan ketersediaan data )DAS( untuk memverifikasi ketersediaan blok data. Pengambilan ketersediaan data satu dimensi )1D DAS( pada dasarnya juga ramah terhadap pembangunan blok terdistribusi.
![Vitalik artikel baru: Masa Depan Ethereum yang Mungkin, The Surge])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
)# Apa lagi yang perlu dilakukan? Apa saja pertimbangannya?
Selanjutnya adalah menyelesaikan implementasi dan peluncuran PeerDAS. Setelah itu, jumlah blob di PeerDAS akan terus ditingkatkan, sambil mengamati jaringan dengan cermat dan memperbaiki perangkat lunak untuk memastikan keamanan, ini adalah proses yang bertahap. Pada saat yang sama, kami berharap ada lebih banyak pekerjaan akademis untuk mengatur PeerDAS dan versi DAS lainnya serta interaksinya dengan masalah keamanan seperti aturan pemilihan fork.
Pada tahap yang lebih jauh di masa depan, kita perlu melakukan lebih banyak pekerjaan untuk menentukan versi ideal dari 2D DAS dan membuktikan sifat keamanannya. Kami juga berharap akhirnya dapat beralih dari KZG ke solusi alternatif yang aman kuantum dan tidak memerlukan pengaturan yang dapat dipercaya. Saat ini, kami juga tidak jelas kandidat mana yang ramah untuk pembangunan blok terdistribusi. Bahkan dengan menggunakan teknologi "brute force" yang mahal, yaitu menggunakan STARK rekursif untuk menghasilkan bukti keabsahan untuk merekonstruksi baris dan kolom, itu masih tidak cukup untuk memenuhi kebutuhan, karena meskipun secara teknis, ukuran satu STARK adalah O(log)n### * log(log(n)( hash ( menggunakan STIR), namun pada kenyataannya STARK hampir sebesar seluruh blob.
Jalur realitas jangka panjang yang saya pikirkan adalah:
Harap dicatat, bahkan jika kami memutuskan untuk memperluas eksekusi langsung di lapisan L1, pilihan ini tetap ada. Ini karena jika lapisan L1 harus menangani sejumlah besar TPS, blok L1 akan menjadi sangat besar, dan klien akan menginginkan cara yang efisien untuk memverifikasi keakuratannya, sehingga kami harus menggunakan teknologi yang sama dengan Rollup) seperti ZK-EVM dan DAS( di lapisan L1.
)# Bagaimana cara berinteraksi dengan bagian lain dari peta jalan?
Jika data kompresi diterapkan, permintaan untuk 2D DAS akan berkurang, atau setidaknya akan tertunda. Jika Plasma digunakan secara luas, maka permintaan akan berkurang lebih lanjut. DAS juga menantang protokol dan mekanisme pembangunan blockchain terdistribusi: meskipun DAS secara teoritis bersahabat dengan rekonstruksi terdistribusi, dalam praktiknya ini perlu dikombinasikan dengan proposal daftar inklusi paket dan mekanisme pemilihan fork di sekitarnya.
kompresi data
(# Apa masalah yang sedang kita selesaikan?
Setiap transaksi dalam Rollup akan menggunakan banyak ruang data on-chain: transfer ERC20 memerlukan sekitar 180 byte. Bahkan dengan sampling ketersediaan data yang ideal, ini membatasi skalabilitas protokol Layer. Setiap slot 16 MB, kita mendapatkan:
16000000 / 12 / 180 = 7407 TPS
Bagaimana jika kita tidak hanya dapat menyelesaikan masalah pembilang, tetapi juga masalah penyebut, sehingga setiap transaksi di dalam Rollup menggunakan lebih sedikit byte di blockchain?
Apa itu, bagaimana cara kerjanya?
Menurut saya, penjelasan terbaik adalah gambar ini dari dua tahun yang lalu:
Dalam kompresi byte nol, setiap urutan byte nol yang panjang digantikan dengan dua byte yang menunjukkan berapa banyak byte nol. Lebih lanjut, kami memanfaatkan sifat khusus dari transaksi:
Agregasi tanda tangan: Kami beralih dari tanda tangan ECDSA ke tanda tangan BLS. Ciri dari tanda tangan BLS adalah beberapa tanda tangan dapat digabungkan menjadi satu tanda tangan tunggal, yang dapat membuktikan keabsahan semua tanda tangan asli. Di lapisan L1, karena bahkan dengan agregasi, biaya komputasi untuk verifikasi masih tinggi, penggunaan tanda tangan BLS tidak dipertimbangkan. Namun, dalam lingkungan L2 yang kekurangan data, penggunaan tanda tangan BLS menjadi masuk akal. Fitur agregasi ERC-4337 menyediakan cara untuk mewujudkan fungsi ini.
Ganti alamat dengan pointers: Jika Ether