Ketersediaan data adalah salah satu hambatan utama dalam ekspansi blockchain.
**Ditulis oleh: **zer0kn0wledge.era
Disusun oleh: Kate, Marsbit
Catatan: Artikel ini dari @expctchaos Twitter, yang merupakan peneliti dari @ChaosDAO. Konten tweet asli diatur oleh MarsBit sebagai berikut:
0/ Ketersediaan Data (DA) adalah hambatan penskalaan utama
Untungnya @CelestiaOrg, @AvailProject, dan @eigenlayer akan mengubah game DA dan memungkinkan tingkat skalabilitas baru
Tapi bagaimana cara kerjanya dan apa perbedaan #EigenDA dari DA 15 seperti #Celestia dan #Avail?
1/ Jika Anda tidak terbiasa dengan masalah ketersediaan data, silakan lihat postingan saya di bawah ini di mana saya menjelaskan situasi ketersediaan data secara mendetail 👇
2/ Secara umum, ada dua jenis utama solusi pemrosesan data
🔷DA berantai
🔷DA off-chain
3/ Dan "verifikasi validitas murni" berarti pemrosesan data dapat dilakukan secara off-chain tanpa jaminan, karena penyedia layanan data off-chain dapat offline kapan saja...
4/ …#StarkEx, #zkPorter, dan #Arbitrum Nova adalah contoh skenario verifikasi yang mengandalkan DAC, sekelompok pihak ketiga terkenal untuk menjamin ketersediaan data
5/ Sebaliknya, #EigenDA, @CelestiaOrg, dan @AvailProject adalah solusi DA universal
Namun, ada beberapa perbedaan antara EigenDA dan dua solusi lainnya
6/ Jika Anda ingin tahu cara kerja @CelestiaOrg, lihat tautan di bawah ini
7/ Saya juga pernah membahas @AvailProject, jadi untuk mempelajari lebih lanjut, lihat di sini
8/ Jika Anda memerlukan penyegaran di @eigenlayer, lihat utas di bawah ini 👇
9/ Jadi dalam postingan hari ini kami ingin fokus pada perbandingan antara rantai #EigenDA dan DA L1 @eigenlayer seperti @CelestiaOrg atau @AvailProject
10/ Mari kita asumsikan rollup berdasarkan Ethereum dan menggunakan Celestia untuk DA (alias Celestium)
Jadi kontrak L2 di Ethereum memverifikasi bukti validitas atau bukti penipuan seperti biasa, dan DA disediakan oleh Celestia
11/ Di @CelestiaOrg dan @AvailProject, tidak ada kontrak atau komputasi pintar, hanya data yang dijamin tersedia
12/ Tapi mari kita lihat lebih dekat
Di @CelestiaOrg, data tx dipublikasikan ke Celestia oleh penyortir L2, Verifikator Celestia menandatangani akar Merkle dari bukti DA, lalu dikirim ke kontrak jembatan DA di Ethereum untuk verifikasi dan penyimpanan
13/ Dibandingkan dengan menyimpan DA on-chain, ini sangat mengurangi biaya untuk memiliki jaminan DA yang kuat, sekaligus memberikan jaminan keamanan dari Celestia (bukan DAC terpusat)
14/ Pengurangan biaya akan mengubah aturan permainan di seluruh bidang rollup, karena biaya calldata yang dihasilkan dengan menerbitkan data ke akun Ethereum L1 sebesar 80-90% dari biaya rollup
Untuk informasi lebih lanjut tentang biaya data panggilan, lihat postingan di bawah ini 👇
15/ Tapi apa yang terjadi pada #Celestia?
Blob data yang diposting ke @CelestiaOrg (pada dasarnya sebagai data mentah) disebarkan melalui jaringan P2P dan konsensus tentang blob data dicapai menggunakan konsensus Tendermint
16/ Setiap #Celestia full node harus mendownload seluruh blob data. Ini berbeda untuk light node yang dapat menggunakan Data Availability Sampling (DAS) untuk memastikan ketersediaan data
17/ Untuk informasi lebih lanjut tentang DAS dan light node, silakan cek postingan di bawah ini
18/ Kami juga akan kembali ke DAS nanti di utas ini, tetapi untuk saat ini fokusnya adalah pada simpul penuh
Jadi kembali ke @CelestiaOrg, yang terus berperilaku dengan gaya L1, mengandalkan penyiaran dan konsensus pada gumpalan data
19/ Oleh karena itu, ini menempatkan tuntutan tinggi pada node penuh jaringan (unduhan 128 MB/dtk dan unggahan 12,5 MB/dtk).
Tetap saja, @CelestiaOrg menargetkan throughput moderat (1,4 MB/dtk) di awal, yang tampaknya rendah mengingat persyaratan node penuh
20/ Namun, jaringan dapat menskalakan throughput dengan menambahkan light node. Semakin banyak simpul cahaya pengambilan sampel data, semakin besar ukuran blok dapat berada di bawah kondisi untuk memastikan keamanan dan desentralisasi
21/ Sebaliknya, @eigenlayer memiliki arsitektur yang berbeda, tidak ada konsensusnya sendiri, dan tidak ada jaringan peer-to-peer
Jadi bagaimana cara kerjanya?
Pertama, node EigenDA harus merealokasi $ETH dalam kontrak @eigenlayer. Oleh karena itu, node #EigenDA adalah bagian dari validator Ethereum
22/ Setelah menerima blob data, pembeli DA (seperti rollup, juga dikenal sebagai disperser) kemudian mengkodekannya dengan kode penghapusan dan membuat komitmen KZG…
23/…di mana ukuran bukti bergantung pada rasio redundansi kode penghapusan dan menerbitkan komitmen KZG terhadap kontrak cerdas #EigenDA
24/ Komitmen KZG yang dikodekan didistribusikan oleh pendispersi ke node #EigenDA
Setelah menerima komitmen KZG, node ini membandingkannya dengan komitmen KZG dari kontrak pintar EigenDA dan menandatangani bukti setelah konfirmasi
25/ Setelah itu, penyebar mengumpulkan tanda tangan ini satu per satu, menghasilkan tanda tangan gabungan, dan menerbitkannya ke kontrak pintar #EigenDA, dan kontrak pintar memverifikasi tanda tangan
26/ Tetapi jika node #EigenDA hanya menandatangani bukti yang mengklaim bahwa ia menyimpan blob data yang dikodekan dalam alur kerja ini, dan kontrak pintar EigenDA hanya memverifikasi kebenaran tanda tangan agregat, bagaimana kita bisa yakin bahwa node EigenDA benar-benar menyimpan data?
27/ #EigenDA menggunakan metode bukti escrow untuk mencapainya
Tapi mari kita mundur selangkah dan melihat adegan ini yang menjadi penting
28/ Mari kita asumsikan beberapa validator malas tidak melakukan tugas yang diberikan kepada mereka (misalnya memastikan data tersedia)
Alih-alih, mereka berpura-pura telah melakukan pekerjaan dan menandatangani hasil akhir (melaporkan ketersediaan data secara salah saat tidak tersedia).
29/ Secara konseptual, bukti penitipan seperti bukti penipuan:
Siapa pun dapat mengirimkan bukti (validator lazy) ke kontrak pintar #EigenDA yang akan diverifikasi oleh kontrak pintar
29/ Lazy validator dipotong jika validasi berhasil (karena ini merupakan kesalahan yang dapat dikaitkan secara objektif)
30/ Bagaimana dengan konsensus?
@CelestiaOrg menggunakan Tendermint sebagai protokol konsensusnya, yang memiliki finalitas slot tunggal. Artinya, setelah sebuah blok melewati konsensus #Celestia, selesai. Ini berarti finalitas pada dasarnya secepat waktu blok (15 detik).
31/ @AvailProject menggunakan komposisi protokol untuk mencapai finalitas. BABE adalah mekanisme produksi blok dengan finalitas probabilistik, dan GRANDPA adalah gadget final. Sementara GRANDPA dapat menyelesaikan blok dalam satu slot, GRANDPA juga dapat menyelesaikan banyak blok dalam satu putaran
32/ Karena @eigenlayer adalah sekumpulan kontrak pintar di Ethereum, itu juga mewarisi waktu finalisasi yang sama dengan Ethereum (12 - 15 menit) untuk data yang perlu diteruskan ke kontrak rollup untuk membuktikan ketersediaan data
33/ Namun, jika rollup menggunakan @eigenlayer sama sekali, itu bisa dilakukan lebih cepat, tergantung pada mekanisme konsensus yang digunakan dll.
Selain itu, middleware yang diamankan oleh validator @eigenlayer yang berfokus pada penyediaan penyelesaian cepat, seperti EigenSettle dapat memberikan jaminan keamanan ekonomi yang kuat yang memungkinkan pra-konfirmasi finalitas. Namun, jaminan finalitas keras masih datang dari Ethereum L1
34/ Saatnya Meninjau Kembali Konsep Sampling Ketersediaan Data
Di sebagian besar blockchain, node perlu mengunduh semua data transaksi untuk memverifikasi ketersediaan data. Masalah yang ditimbulkannya adalah ketika ukuran blok meningkat, jumlah node data yang perlu diverifikasi juga meningkat
35/ Data Availability Sampling (DAS) adalah teknik yang memungkinkan light node memverifikasi ketersediaan data dengan mengunduh hanya sebagian kecil dari blok data
36/ Ini memberikan keamanan pada light node sehingga mereka dapat memvalidasi blok yang tidak valid (hanya DA dan konsensus) dan memungkinkan blockchain untuk menskalakan ketersediaan data tanpa meningkatkan persyaratan node
37/ DAS membutuhkan setidaknya satu node penuh yang jujur dan jumlah klien ringan yang memadai
38/ Tapi bagaimana memastikan keamanan node cahaya?
Klien ringan tradisional memiliki asumsi keamanan yang lebih lemah dibandingkan dengan node penuh karena mereka hanya memvalidasi header blok
Oleh karena itu, klien ringan tidak dapat mendeteksi apakah blok yang tidak valid diproduksi oleh mayoritas produsen blok yang tidak jujur
39 / Light node dengan pengambilan sampel ketersediaan data ditingkatkan dalam keamanan, karena jika lapisan DA hanya melakukan konsensus dan ketersediaan data, mereka dapat memverifikasi apakah blok yang tidak valid dihasilkan
40/ @CelestiaOrg dan @AvailProject akan memiliki pengambilan sampel ketersediaan data sehingga light node mereka akan memiliki keamanan yang diminimalkan kepercayaan.
41/ Ini berbeda dari Ethereum dan @eigenlayer
Ethereum dengan #EIP4844 tidak memiliki pengambilan sampel ketersediaan data, sehingga klien ringannya tidak akan memiliki keamanan yang diminimalkan kepercayaan
42/ Karena Ethereum juga memiliki lingkungan kontrak pintar, klien ringan juga perlu memverifikasi eksekusi (melalui penipuan atau bukti validitas), daripada mengandalkan sebagian besar asumsi kejujuran
43/ @eigenlayer (kecuali jika ada DAS) klien ringan, jika didukung, akan bergantung pada sebagian besar node yang melakukan restaking
Oleh karena itu, keamanan #EigenDA terutama didasarkan pada set validator Ethereum, mewarisi primitif pemotongan Ethereum dan memastikan keamanan ekonomi DA
44/ Jadi lebih banyak partisipasi pemangku kepentingan dalam #EigenDA berarti keamanan yang lebih besar. Mengurangi persyaratan node juga berkontribusi pada desentralisasi yang lebih baik
45/ Pengkodean penghapusan adalah mekanisme penting yang memungkinkan pengambilan sampel ketersediaan data. Pengkodean penghapusan memperluas blok dengan membuat salinan data tambahan. Data tambahan menciptakan redundansi, memberikan jaminan keamanan yang lebih kuat untuk proses pengambilan sampel
46/ Namun, node mungkin mencoba menyandikan data secara tidak benar untuk mengganggu jaringan. Untuk mempertahankan diri dari serangan ini, node memerlukan cara untuk memverifikasi bahwa pengkodeannya benar - ini adalah tempat pembuktian.
47/ Ethereum, @eigenlayer dan @AvailProject semuanya menggunakan skema bukti validitas untuk memastikan blok dikodekan dengan benar. Idenya mirip dengan bukti validitas yang digunakan oleh zk rollup. @eigenlayer telah membahas ini sebelumnya di utas ini
48/ Setiap kali blok dihasilkan, pemverifikasi harus membuat komitmen terhadap data yang diverifikasi oleh node menggunakan bukti KZG untuk membuktikan bahwa blok tersebut dikodekan dengan benar
49/ Meskipun menghasilkan komitmen untuk bukti KZG membutuhkan lebih banyak biaya komputasi untuk produsen blok, ketika bloknya kecil, menghasilkan komitmen tidak membawa banyak biaya tambahan. Namun, ini berubah...
50/… saat blok semakin besar, beban komitmen bukti KZG jauh lebih tinggi
Oleh karena itu, jenis node yang bertanggung jawab untuk menghasilkan komitmen ini mungkin memiliki persyaratan perangkat keras yang lebih tinggi
51/ Sebaliknya, @CelestiaOrg mengimplementasikan bukti penipuan untuk pengkodean penghapusan. Oleh karena itu, node #Celestia tidak perlu memeriksa apakah blok telah dikodekan dengan benar. mereka default untuk menjadi benar
52/ Keuntungannya adalah produsen blok tidak perlu melakukan pekerjaan mahal untuk menghasilkan komitmen kode penghapusan
Tapi ada tradeoff, karena light node harus menunggu sebentar sebelum mengasumsikan blok dikodekan dengan benar, dan menyelesaikannya dalam pandangan mereka
53/ Perbedaan utama antara skema pengkodean bukti penipuan dan bukti validitas adalah trade-off antara overhead node untuk menghasilkan komitmen dan latensi untuk node ringan
54/ Tabel ini meringkas perbandingan dengan baik
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Bagaimana cara kerja solusi ketersediaan data dan apa perbedaannya?
**Ditulis oleh: **zer0kn0wledge.era
Disusun oleh: Kate, Marsbit
Catatan: Artikel ini dari @expctchaos Twitter, yang merupakan peneliti dari @ChaosDAO. Konten tweet asli diatur oleh MarsBit sebagai berikut:
0/ Ketersediaan Data (DA) adalah hambatan penskalaan utama
Untungnya @CelestiaOrg, @AvailProject, dan @eigenlayer akan mengubah game DA dan memungkinkan tingkat skalabilitas baru
Tapi bagaimana cara kerjanya dan apa perbedaan #EigenDA dari DA 15 seperti #Celestia dan #Avail?
1/ Jika Anda tidak terbiasa dengan masalah ketersediaan data, silakan lihat postingan saya di bawah ini di mana saya menjelaskan situasi ketersediaan data secara mendetail 👇
2/ Secara umum, ada dua jenis utama solusi pemrosesan data
3/ Dan "verifikasi validitas murni" berarti pemrosesan data dapat dilakukan secara off-chain tanpa jaminan, karena penyedia layanan data off-chain dapat offline kapan saja...
4/ …#StarkEx, #zkPorter, dan #Arbitrum Nova adalah contoh skenario verifikasi yang mengandalkan DAC, sekelompok pihak ketiga terkenal untuk menjamin ketersediaan data
5/ Sebaliknya, #EigenDA, @CelestiaOrg, dan @AvailProject adalah solusi DA universal
Namun, ada beberapa perbedaan antara EigenDA dan dua solusi lainnya
6/ Jika Anda ingin tahu cara kerja @CelestiaOrg, lihat tautan di bawah ini
7/ Saya juga pernah membahas @AvailProject, jadi untuk mempelajari lebih lanjut, lihat di sini
8/ Jika Anda memerlukan penyegaran di @eigenlayer, lihat utas di bawah ini 👇
9/ Jadi dalam postingan hari ini kami ingin fokus pada perbandingan antara rantai #EigenDA dan DA L1 @eigenlayer seperti @CelestiaOrg atau @AvailProject
10/ Mari kita asumsikan rollup berdasarkan Ethereum dan menggunakan Celestia untuk DA (alias Celestium)
Jadi kontrak L2 di Ethereum memverifikasi bukti validitas atau bukti penipuan seperti biasa, dan DA disediakan oleh Celestia
11/ Di @CelestiaOrg dan @AvailProject, tidak ada kontrak atau komputasi pintar, hanya data yang dijamin tersedia
12/ Tapi mari kita lihat lebih dekat
Di @CelestiaOrg, data tx dipublikasikan ke Celestia oleh penyortir L2, Verifikator Celestia menandatangani akar Merkle dari bukti DA, lalu dikirim ke kontrak jembatan DA di Ethereum untuk verifikasi dan penyimpanan
13/ Dibandingkan dengan menyimpan DA on-chain, ini sangat mengurangi biaya untuk memiliki jaminan DA yang kuat, sekaligus memberikan jaminan keamanan dari Celestia (bukan DAC terpusat)
14/ Pengurangan biaya akan mengubah aturan permainan di seluruh bidang rollup, karena biaya calldata yang dihasilkan dengan menerbitkan data ke akun Ethereum L1 sebesar 80-90% dari biaya rollup
Untuk informasi lebih lanjut tentang biaya data panggilan, lihat postingan di bawah ini 👇
15/ Tapi apa yang terjadi pada #Celestia?
Blob data yang diposting ke @CelestiaOrg (pada dasarnya sebagai data mentah) disebarkan melalui jaringan P2P dan konsensus tentang blob data dicapai menggunakan konsensus Tendermint
16/ Setiap #Celestia full node harus mendownload seluruh blob data. Ini berbeda untuk light node yang dapat menggunakan Data Availability Sampling (DAS) untuk memastikan ketersediaan data
17/ Untuk informasi lebih lanjut tentang DAS dan light node, silakan cek postingan di bawah ini
18/ Kami juga akan kembali ke DAS nanti di utas ini, tetapi untuk saat ini fokusnya adalah pada simpul penuh
Jadi kembali ke @CelestiaOrg, yang terus berperilaku dengan gaya L1, mengandalkan penyiaran dan konsensus pada gumpalan data
19/ Oleh karena itu, ini menempatkan tuntutan tinggi pada node penuh jaringan (unduhan 128 MB/dtk dan unggahan 12,5 MB/dtk).
Tetap saja, @CelestiaOrg menargetkan throughput moderat (1,4 MB/dtk) di awal, yang tampaknya rendah mengingat persyaratan node penuh
20/ Namun, jaringan dapat menskalakan throughput dengan menambahkan light node. Semakin banyak simpul cahaya pengambilan sampel data, semakin besar ukuran blok dapat berada di bawah kondisi untuk memastikan keamanan dan desentralisasi
21/ Sebaliknya, @eigenlayer memiliki arsitektur yang berbeda, tidak ada konsensusnya sendiri, dan tidak ada jaringan peer-to-peer
Jadi bagaimana cara kerjanya?
Pertama, node EigenDA harus merealokasi $ETH dalam kontrak @eigenlayer. Oleh karena itu, node #EigenDA adalah bagian dari validator Ethereum
22/ Setelah menerima blob data, pembeli DA (seperti rollup, juga dikenal sebagai disperser) kemudian mengkodekannya dengan kode penghapusan dan membuat komitmen KZG…
23/…di mana ukuran bukti bergantung pada rasio redundansi kode penghapusan dan menerbitkan komitmen KZG terhadap kontrak cerdas #EigenDA
24/ Komitmen KZG yang dikodekan didistribusikan oleh pendispersi ke node #EigenDA
Setelah menerima komitmen KZG, node ini membandingkannya dengan komitmen KZG dari kontrak pintar EigenDA dan menandatangani bukti setelah konfirmasi
25/ Setelah itu, penyebar mengumpulkan tanda tangan ini satu per satu, menghasilkan tanda tangan gabungan, dan menerbitkannya ke kontrak pintar #EigenDA, dan kontrak pintar memverifikasi tanda tangan
26/ Tetapi jika node #EigenDA hanya menandatangani bukti yang mengklaim bahwa ia menyimpan blob data yang dikodekan dalam alur kerja ini, dan kontrak pintar EigenDA hanya memverifikasi kebenaran tanda tangan agregat, bagaimana kita bisa yakin bahwa node EigenDA benar-benar menyimpan data?
27/ #EigenDA menggunakan metode bukti escrow untuk mencapainya
Tapi mari kita mundur selangkah dan melihat adegan ini yang menjadi penting
28/ Mari kita asumsikan beberapa validator malas tidak melakukan tugas yang diberikan kepada mereka (misalnya memastikan data tersedia)
Alih-alih, mereka berpura-pura telah melakukan pekerjaan dan menandatangani hasil akhir (melaporkan ketersediaan data secara salah saat tidak tersedia).
29/ Secara konseptual, bukti penitipan seperti bukti penipuan:
Siapa pun dapat mengirimkan bukti (validator lazy) ke kontrak pintar #EigenDA yang akan diverifikasi oleh kontrak pintar
29/ Lazy validator dipotong jika validasi berhasil (karena ini merupakan kesalahan yang dapat dikaitkan secara objektif)
30/ Bagaimana dengan konsensus?
@CelestiaOrg menggunakan Tendermint sebagai protokol konsensusnya, yang memiliki finalitas slot tunggal. Artinya, setelah sebuah blok melewati konsensus #Celestia, selesai. Ini berarti finalitas pada dasarnya secepat waktu blok (15 detik).
31/ @AvailProject menggunakan komposisi protokol untuk mencapai finalitas. BABE adalah mekanisme produksi blok dengan finalitas probabilistik, dan GRANDPA adalah gadget final. Sementara GRANDPA dapat menyelesaikan blok dalam satu slot, GRANDPA juga dapat menyelesaikan banyak blok dalam satu putaran
32/ Karena @eigenlayer adalah sekumpulan kontrak pintar di Ethereum, itu juga mewarisi waktu finalisasi yang sama dengan Ethereum (12 - 15 menit) untuk data yang perlu diteruskan ke kontrak rollup untuk membuktikan ketersediaan data
33/ Namun, jika rollup menggunakan @eigenlayer sama sekali, itu bisa dilakukan lebih cepat, tergantung pada mekanisme konsensus yang digunakan dll.
Selain itu, middleware yang diamankan oleh validator @eigenlayer yang berfokus pada penyediaan penyelesaian cepat, seperti EigenSettle dapat memberikan jaminan keamanan ekonomi yang kuat yang memungkinkan pra-konfirmasi finalitas. Namun, jaminan finalitas keras masih datang dari Ethereum L1
34/ Saatnya Meninjau Kembali Konsep Sampling Ketersediaan Data
Di sebagian besar blockchain, node perlu mengunduh semua data transaksi untuk memverifikasi ketersediaan data. Masalah yang ditimbulkannya adalah ketika ukuran blok meningkat, jumlah node data yang perlu diverifikasi juga meningkat
35/ Data Availability Sampling (DAS) adalah teknik yang memungkinkan light node memverifikasi ketersediaan data dengan mengunduh hanya sebagian kecil dari blok data
36/ Ini memberikan keamanan pada light node sehingga mereka dapat memvalidasi blok yang tidak valid (hanya DA dan konsensus) dan memungkinkan blockchain untuk menskalakan ketersediaan data tanpa meningkatkan persyaratan node
37/ DAS membutuhkan setidaknya satu node penuh yang jujur dan jumlah klien ringan yang memadai
38/ Tapi bagaimana memastikan keamanan node cahaya?
Klien ringan tradisional memiliki asumsi keamanan yang lebih lemah dibandingkan dengan node penuh karena mereka hanya memvalidasi header blok
Oleh karena itu, klien ringan tidak dapat mendeteksi apakah blok yang tidak valid diproduksi oleh mayoritas produsen blok yang tidak jujur
39 / Light node dengan pengambilan sampel ketersediaan data ditingkatkan dalam keamanan, karena jika lapisan DA hanya melakukan konsensus dan ketersediaan data, mereka dapat memverifikasi apakah blok yang tidak valid dihasilkan
40/ @CelestiaOrg dan @AvailProject akan memiliki pengambilan sampel ketersediaan data sehingga light node mereka akan memiliki keamanan yang diminimalkan kepercayaan.
41/ Ini berbeda dari Ethereum dan @eigenlayer
Ethereum dengan #EIP4844 tidak memiliki pengambilan sampel ketersediaan data, sehingga klien ringannya tidak akan memiliki keamanan yang diminimalkan kepercayaan
42/ Karena Ethereum juga memiliki lingkungan kontrak pintar, klien ringan juga perlu memverifikasi eksekusi (melalui penipuan atau bukti validitas), daripada mengandalkan sebagian besar asumsi kejujuran
43/ @eigenlayer (kecuali jika ada DAS) klien ringan, jika didukung, akan bergantung pada sebagian besar node yang melakukan restaking
Oleh karena itu, keamanan #EigenDA terutama didasarkan pada set validator Ethereum, mewarisi primitif pemotongan Ethereum dan memastikan keamanan ekonomi DA
44/ Jadi lebih banyak partisipasi pemangku kepentingan dalam #EigenDA berarti keamanan yang lebih besar. Mengurangi persyaratan node juga berkontribusi pada desentralisasi yang lebih baik
45/ Pengkodean penghapusan adalah mekanisme penting yang memungkinkan pengambilan sampel ketersediaan data. Pengkodean penghapusan memperluas blok dengan membuat salinan data tambahan. Data tambahan menciptakan redundansi, memberikan jaminan keamanan yang lebih kuat untuk proses pengambilan sampel
46/ Namun, node mungkin mencoba menyandikan data secara tidak benar untuk mengganggu jaringan. Untuk mempertahankan diri dari serangan ini, node memerlukan cara untuk memverifikasi bahwa pengkodeannya benar - ini adalah tempat pembuktian.
47/ Ethereum, @eigenlayer dan @AvailProject semuanya menggunakan skema bukti validitas untuk memastikan blok dikodekan dengan benar. Idenya mirip dengan bukti validitas yang digunakan oleh zk rollup. @eigenlayer telah membahas ini sebelumnya di utas ini
48/ Setiap kali blok dihasilkan, pemverifikasi harus membuat komitmen terhadap data yang diverifikasi oleh node menggunakan bukti KZG untuk membuktikan bahwa blok tersebut dikodekan dengan benar
49/ Meskipun menghasilkan komitmen untuk bukti KZG membutuhkan lebih banyak biaya komputasi untuk produsen blok, ketika bloknya kecil, menghasilkan komitmen tidak membawa banyak biaya tambahan. Namun, ini berubah...
50/… saat blok semakin besar, beban komitmen bukti KZG jauh lebih tinggi
Oleh karena itu, jenis node yang bertanggung jawab untuk menghasilkan komitmen ini mungkin memiliki persyaratan perangkat keras yang lebih tinggi
51/ Sebaliknya, @CelestiaOrg mengimplementasikan bukti penipuan untuk pengkodean penghapusan. Oleh karena itu, node #Celestia tidak perlu memeriksa apakah blok telah dikodekan dengan benar. mereka default untuk menjadi benar
52/ Keuntungannya adalah produsen blok tidak perlu melakukan pekerjaan mahal untuk menghasilkan komitmen kode penghapusan
Tapi ada tradeoff, karena light node harus menunggu sebentar sebelum mengasumsikan blok dikodekan dengan benar, dan menyelesaikannya dalam pandangan mereka
53/ Perbedaan utama antara skema pengkodean bukti penipuan dan bukti validitas adalah trade-off antara overhead node untuk menghasilkan komitmen dan latensi untuk node ringan
54/ Tabel ini meringkas perbandingan dengan baik