تقرير بحثي عن AI Layer1: البحث عن أرض خصبة لـ DeAI داخل السلسلة
نظرة عامة
في السنوات الأخيرة، قامت الشركات الرائدة في التكنولوجيا مثل OpenAI وAnthropic وGoogle وMeta بدفع التطور السريع لنماذج اللغة الكبيرة (LLM). تظهر LLM قدرات غير مسبوقة في مختلف الصناعات، مما يوسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات تُظهر القدرة على استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات يقع تحت سيطرة عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والتحكم في موارد الحوسبة باهظة التكلفة، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على معظم المطورين والفرق المبتكرة المنافسة معها.
في البداية السريعة لتطور الذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي توفرها التكنولوجيا، بينما يكون الاهتمام بمسائل أساسية مثل حماية الخصوصية والشفافية والأمان نسبيًا ضعيفًا. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على التنمية الصحية لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستصبح الجدل حول ما إذا كان الذكاء الاصطناعي "يهدف إلى الخير" أو "يهدف إلى الشر" أكثر وضوحًا، بينما تفتقر الشركات الكبرى المركزية، مدفوعة بغرائز الربح، إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تقدم تقنية البلوكتشين، بفضل خصائصها المتمثلة في اللامركزية والشفافية ومقاومة الرقابة، إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حاليًا، ظهرت العديد من تطبيقات "Web3 AI" على البلوكتشين السائد. لكن من خلال التحليل العميق، يمكن ملاحظة أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم بيئة مفتوحة بالمعنى الحقيقي؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، لا تزال قدرات النماذج واستخدام البيانات وسيناريوهات التطبيق في الذكاء الاصطناعي داخل السلسلة محدودة، وهناك حاجة لتحسين عمق ووسع الابتكار.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وتمكين البلوكتشين من استضافة تطبيقات الذكاء الاصطناعي على نطاق واسع بطريقة آمنة وفعالة وديمقراطية، والتنافس مع الحلول المركزية من حيث الأداء، نحتاج إلى تصميم سلسلة كتل من الطبقة الأولى مخصصة للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، والديمقراطية في الحوكمة، وأمان البيانات، مما يعزز نمو بيئة الذكاء الاصطناعي اللامركزية.
الخصائص الأساسية لـ AI Layer 1
AI Layer 1 ككتلة سلسلة مصممة خصيصًا لتطبيقات الذكاء الاصطناعي، فإن هيكلها الأساسي وتصميم أدائها يركزان بشكل وثيق على احتياجات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة والازدهار للنظام البيئي للذكاء الاصطناعي داخل السلسلة. على وجه التحديد، يجب أن تمتلك AI Layer 1 القدرات الأساسية التالية:
آلية تحفيز فعالة والتوافق اللامركزي
الجوهر في AI Layer 1 هو بناء شبكة مفتوحة لمشاركة الموارد مثل القدرة الحاسوبية والتخزين. على عكس عقد السلسلة التقليدية التي تركز بشكل رئيسي على تسجيل دفاتر الحسابات، تحتاج عقد AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يجب عليها تقديم القدرة الحاسوبية، وإكمال تدريب نموذج AI واستنتاجه، بالإضافة إلى المساهمة في تخزين البيانات وعرض النطاق الترددي والموارد المتنوعة الأخرى، مما يساعد على كسر احتكار الهيئات المركزية في بنية تحتية AI. وهذا يفرض متطلبات أعلى على آليات الإجماع والتحفيز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم وتحفيز والتحقق بدقة من المساهمات الفعلية للعقد في مهام استنتاج AI وتدريبه، مما يحقق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل تكاليف القدرة الحاسوبية الإجمالية بشكل فعال.
أداء عالي ممتاز وقدرة على دعم المهام المتنوعة
تتطلب المهام المتعلقة بالذكاء الاصطناعي، وخاصة تدريب واستنتاج LLM، أداءً حسابيًا عاليًا وقدرة على المعالجة المتوازية. علاوة على ذلك، غالبًا ما يتطلب النظام البيئي للذكاء الاصطناعي داخل السلسلة دعم أنواع متنوعة ومتباينة من المهام، بما في ذلك هياكل النماذج المختلفة، معالجة البيانات، الاستنتاج، والتخزين في سيناريوهات متعددة. يجب أن يتم تحسين Layer 1 للذكاء الاصطناعي بشكل عميق في البنية التحتية الأساسية لتلبية متطلبات النطاق الترددي العالي، وانخفاض زمن الاستجابة، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحوسبية المتباينة، لضمان تشغيل جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "المهام الأحادية" إلى "النظام البيئي المعقد والمتنوع".
القابلية للتحقق وضمان المخرجات الموثوقة
يجب أن تمنع AI Layer 1 ليس فقط الأفعال الضارة للنماذج، وتلاعب البيانات، وغيرها من المخاطر الأمنية، بل يجب عليها أيضًا من خلال الآليات الأساسية ضمان قابلية التحقق من نتائج AI وتماشيها. من خلال دمج بيئات التنفيذ الموثوقة (TEE)، وإثباتات المعرفة الصفرية (ZK)، والحساب الآمن متعدد الأطراف (MPC) وغيرها من التقنيات المتقدمة، يمكن للمنصة أن تجعل كل عملية استنتاج، تدريب، ومعالجة بيانات للنموذج قابلة للتحقق بشكل مستقل، مما يضمن عدالة وشفافية نظام AI. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين في فهم المنطق والأسس وراء مخرجات AI، مما يحقق "ما يحصل هو ما يرغبون فيه"، ويعزز ثقة ورضا المستخدمين عن منتجات AI.
حماية خصوصية البيانات
تتضمن تطبيقات الذكاء الاصطناعي غالبًا بيانات حساسة للمستخدمين، وفي مجالات مثل المالية والرعاية الصحية والشبكات الاجتماعية، تعتبر حماية خصوصية البيانات أمرًا بالغ الأهمية. يجب أن يضمن الذكاء الاصطناعي Layer 1 القابلية للتحقق، بينما يستخدم تقنيات معالجة البيانات المعتمدة على التشفير، وبروتوكولات حساب الخصوصية، وإدارة حقوق البيانات، لضمان أمان البيانات في جميع مراحل الاستدلال والتدريب والتخزين، ومنع تسرب البيانات وإساءة استخدامها بشكل فعال، وإزالة مخاوف المستخدمين بشأن أمان البيانات.
القدرة القوية على دعم وتطوير النظام البيئي
باعتبارها بنية تحتية من الطبقة الأولى الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية، ولكن أيضًا بتوفير أدوات تطوير شاملة ومتكاملة لـ المطورين، مشغلي العقد، مقدمي خدمات الذكاء الاصطناعي وغيرها من المشاركين في النظام البيئي، بالإضافة إلى دعم العمليات وآليات التحفيز. من خلال تحسين استمرارية القابلية للاستخدام وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة والغنية، لتحقيق ازدهار مستمر للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقوم هذه المقالة بتقديم تفاصيل حول ستة مشاريع تمثيلية في الذكاء الاصطناعي من Layer1، بما في ذلك Sentient و Sahara AI و Ritual و Gensyn و Bittensor و 0G، مع تنظيم منهجي لأحدث التطورات في هذا المجال، وتحليل الحالة الحالية للمشاريع، واستكشاف الاتجاهات المستقبلية.
Sentient: بناء نموذج الذكاء الاصطناعي اللامركزي مفتوح المصدر المخلص
ملخص المشروع
Sentient هو منصة بروتوكول مفتوحة المصدر، تقوم بإنشاء سلسلة كتلة AI Layer1 ( في المرحلة الأولية كـ Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج AI Pipeline وتقنية البلوكشين، لبناء اقتصاد الذكاء الاصطناعي اللامركزي. الهدف الرئيسي هو حل مشاكل ملكية النماذج، تتبع الاستدعاء، وتوزيع القيمة في سوق LLM المركزية من خلال إطار عمل "OML" (مفتوح، مربح، مخلص)، مما يمكّن نماذج الذكاء الاصطناعي من تحقيق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء، وتقاسم القيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، امتلاك، وتسييل منتجات الذكاء الاصطناعي، وبالتالي تعزيز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال blockchain من جميع أنحاء العالم، بهدف بناء منصة AGI مدفوعة من المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من المعهد الهندي للعلوم، المسؤولين عن أمان AI وحماية الخصوصية، بينما يقود Sandeep Nailwal، أحد مؤسسي Polygon، الاستراتيجية السلسلية وتخطيط النظام البيئي. يمتد خلفية أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، بالإضافة إلى جامعات مرموقة مثل جامعة برينستون ومعهد الهند للتكنولوجيا، مما يغطي مجالات AI/ML وNLP والرؤية الحاسوبية، لدفع المشروع نحو التنفيذ.
كأحد مؤسسي Polygon، جاء مشروع Sentient الذي أسسه Sandeep Nailwal كأحد مشاريعه الجديدة محملاً بهالة منذ البداية، حيث يتمتع بموارد غنية، وشبكات علاقات واسعة، ووعي سوقي كبير، مما يوفر دعماً قوياً لتطوير المشروع. في منتصف عام 2024، أكمل Sentient جولة تمويل أولى بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عدد من شركات الاستثمار الأخرى مثل Delphi وHashkey وSpartan وغيرها من شركات رأس المال المغامر المشهورة.
تصميم الهيكل وطبقة التطبيق
طبقة البنية التحتية
الهيكل الأساسي
يتكون الهيكل الأساسي لـ Sentient من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتحتوي على عمليتين رئيسيتين:
تخطيط البيانات (Data Curation): عملية اختيار البيانات المدفوعة من المجتمع، المستخدمة لمواءمة النموذج.
تدريب الولاء (Loyalty Training): ضمان أن يحتفظ النموذج بعملية تدريب تتماشى مع نوايا المجتمع.
يوفر نظام داخل السلسلة الشفافية والسيطرة اللامركزية للبروتوكول، مما يضمن ملكية واستخدام وتتبع أدوات الذكاء الاصطناعي، وتوزيع العوائد والحكم العادل. الهيكل المحدد مقسم إلى أربع طبقات:
طبقة التخزين: تخزين أوزان النموذج ومعلومات تسجيل بصمات الأصابع؛
طبقة التوزيع: نموذج التحكم في مدخل استدعاء العقد المصرح به؛
طبقة الوصول: التحقق من إذن المستخدم من خلال إثبات الصلاحيات;
طبقة الحوافز: ستقوم عقود توجيه العائدات بتوزيع المدفوعات في كل استدعاء على المدربين والمطورين والمتحققين.
إطار نموذج OML
إطار OML (مفتوح Open، قابل للتسويق Monetizable، مخلص Loyal) هو الفكرة الأساسية التي اقترحتها Sentient، وتهدف إلى توفير حماية واضحة للملكية وآليات الحوافز الاقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال دمج التكنولوجيا داخل السلسلة وتقنية التشفير الأصلية للذكاء الاصطناعي، يتمتع بالخصائص التالية:
الانفتاح: يجب أن يكون النموذج مفتوح المصدر، والشفرة وبنية البيانات شفافة، مما يسهل على المجتمع إعادة إنتاجه، والتدقيق فيه، وتحسينه.
monetization: كل مرة يتم فيها استدعاء النموذج، سيتم تشغيل تدفق الإيرادات، وستقوم العقود داخل السلسلة بتوزيع الإيرادات على المدربين والموزعين والمتحققين.
الولاء: النموذج يعود إلى مجتمع المساهمين، ويتحدد اتجاه الترقية والحكم من قبل DAO، ويكون الاستخدام والتعديل تحت سيطرة الآلية المشفرة.
التشفير الأصلي للذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وبنية التدفق المنخفض الأبعاد وخصائص قابلية تمايز النموذج، لتطوير آلية أمان خفيفة "يمكن التحقق منها ولكن لا يمكن إزالتها". التقنية الأساسية هي:
إدخال البصمة: إدخال مجموعة من أزواج قيم الاستعلام والاستجابة المخفية أثناء التدريب لتشكيل توقيع فريد للنموذج؛
بروتوكول التحقق من الملكية: التحقق من ما إذا كانت بصمة الإصبع محفوظة من خلال كاشف الطرف الثالث (Prover) على شكل استفسار.
آلية استدعاء الإذن: يجب الحصول على "شهادة الإذن" الصادرة عن مالك النموذج قبل الاستدعاء، ثم يسمح النظام للنموذج بفك تشفير هذا الإدخال وإرجاع الإجابة الدقيقة.
يمكن تحقيق "استدعاء مصرح به يعتمد على السلوك + التحقق من الملكية" بهذه الطريقة دون تكاليف إعادة التشفير.
إطار تنفيذ الأمان وتأكيد ملكية النموذج
Sentient الحالية تستخدم Melange混合安全: من خلال تأكيد الهوية باستخدام بصمة الإصبع، تنفيذ TEE، وتقاسم الأرباح عبر العقود داخل السلسلة. حيث إن طريقة البصمة هي تنفيذ OML 1.0 في الخط الرئيسي، مع التأكيد على فكرة "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، مع القدرة على الكشف عن المخالفات ومعاقبتها.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث تتيح تضمين "أسئلة-إجابات" معينة، مما يسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالك النموذج التحقق من الملكية، ومنع النسخ والتسويق غير المصرح به. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلات قابلة للتتبع داخل السلسلة لسلوك استخدام النموذج.
بالإضافة إلى ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، والذي يستخدم بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان استجابة النموذج فقط لطلبات التفويض، ومنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE تعتمد على الأجهزة ولديها بعض المخاطر الأمنية، إلا أن مزايا الأداء العالي والوقت الحقيقي تجعلها خيارًا مثاليًا لنشر النماذج الحالية.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 12
أعجبني
12
5
مشاركة
تعليق
0/400
AirdropChaser
· منذ 6 س
لن أنظر بعد الآن، سأذهب لمفهوم الذكاء الاصطناعي.
شاهد النسخة الأصليةرد0
AirdropFreedom
· منذ 6 س
دي ai انتهى الأمر، أليس كذلك؟
شاهد النسخة الأصليةرد0
EyeOfTheTokenStorm
· منذ 6 س
أسهم A都在演,现在 التوافق مع الفكرة就是 وقع في الفخ
شاهد النسخة الأصليةرد0
WhaleMistaker
· منذ 6 س
الاحتكار أليس كذلك، سينهار عاجلاً أم آجلاً
شاهد النسخة الأصليةرد0
MoonMathMagic
· منذ 6 س
هل يمكن لطبقة 1 استيعاب الطاقة الخاصة بالذكاء الاصطناعي؟
تحليل العمق Layer1 للذكاء الاصطناعي: 6 مشاريع تشعل أرض DeAI
تقرير بحثي عن AI Layer1: البحث عن أرض خصبة لـ DeAI داخل السلسلة
نظرة عامة
في السنوات الأخيرة، قامت الشركات الرائدة في التكنولوجيا مثل OpenAI وAnthropic وGoogle وMeta بدفع التطور السريع لنماذج اللغة الكبيرة (LLM). تظهر LLM قدرات غير مسبوقة في مختلف الصناعات، مما يوسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات تُظهر القدرة على استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات يقع تحت سيطرة عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والتحكم في موارد الحوسبة باهظة التكلفة، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل من الصعب على معظم المطورين والفرق المبتكرة المنافسة معها.
في البداية السريعة لتطور الذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي توفرها التكنولوجيا، بينما يكون الاهتمام بمسائل أساسية مثل حماية الخصوصية والشفافية والأمان نسبيًا ضعيفًا. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على التنمية الصحية لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستصبح الجدل حول ما إذا كان الذكاء الاصطناعي "يهدف إلى الخير" أو "يهدف إلى الشر" أكثر وضوحًا، بينما تفتقر الشركات الكبرى المركزية، مدفوعة بغرائز الربح، إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تقدم تقنية البلوكتشين، بفضل خصائصها المتمثلة في اللامركزية والشفافية ومقاومة الرقابة، إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حاليًا، ظهرت العديد من تطبيقات "Web3 AI" على البلوكتشين السائد. لكن من خلال التحليل العميق، يمكن ملاحظة أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم بيئة مفتوحة بالمعنى الحقيقي؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، لا تزال قدرات النماذج واستخدام البيانات وسيناريوهات التطبيق في الذكاء الاصطناعي داخل السلسلة محدودة، وهناك حاجة لتحسين عمق ووسع الابتكار.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وتمكين البلوكتشين من استضافة تطبيقات الذكاء الاصطناعي على نطاق واسع بطريقة آمنة وفعالة وديمقراطية، والتنافس مع الحلول المركزية من حيث الأداء، نحتاج إلى تصميم سلسلة كتل من الطبقة الأولى مخصصة للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، والديمقراطية في الحوكمة، وأمان البيانات، مما يعزز نمو بيئة الذكاء الاصطناعي اللامركزية.
الخصائص الأساسية لـ AI Layer 1
AI Layer 1 ككتلة سلسلة مصممة خصيصًا لتطبيقات الذكاء الاصطناعي، فإن هيكلها الأساسي وتصميم أدائها يركزان بشكل وثيق على احتياجات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة والازدهار للنظام البيئي للذكاء الاصطناعي داخل السلسلة. على وجه التحديد، يجب أن تمتلك AI Layer 1 القدرات الأساسية التالية:
آلية تحفيز فعالة والتوافق اللامركزي الجوهر في AI Layer 1 هو بناء شبكة مفتوحة لمشاركة الموارد مثل القدرة الحاسوبية والتخزين. على عكس عقد السلسلة التقليدية التي تركز بشكل رئيسي على تسجيل دفاتر الحسابات، تحتاج عقد AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يجب عليها تقديم القدرة الحاسوبية، وإكمال تدريب نموذج AI واستنتاجه، بالإضافة إلى المساهمة في تخزين البيانات وعرض النطاق الترددي والموارد المتنوعة الأخرى، مما يساعد على كسر احتكار الهيئات المركزية في بنية تحتية AI. وهذا يفرض متطلبات أعلى على آليات الإجماع والتحفيز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم وتحفيز والتحقق بدقة من المساهمات الفعلية للعقد في مهام استنتاج AI وتدريبه، مما يحقق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل تكاليف القدرة الحاسوبية الإجمالية بشكل فعال.
أداء عالي ممتاز وقدرة على دعم المهام المتنوعة تتطلب المهام المتعلقة بالذكاء الاصطناعي، وخاصة تدريب واستنتاج LLM، أداءً حسابيًا عاليًا وقدرة على المعالجة المتوازية. علاوة على ذلك، غالبًا ما يتطلب النظام البيئي للذكاء الاصطناعي داخل السلسلة دعم أنواع متنوعة ومتباينة من المهام، بما في ذلك هياكل النماذج المختلفة، معالجة البيانات، الاستنتاج، والتخزين في سيناريوهات متعددة. يجب أن يتم تحسين Layer 1 للذكاء الاصطناعي بشكل عميق في البنية التحتية الأساسية لتلبية متطلبات النطاق الترددي العالي، وانخفاض زمن الاستجابة، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحوسبية المتباينة، لضمان تشغيل جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "المهام الأحادية" إلى "النظام البيئي المعقد والمتنوع".
القابلية للتحقق وضمان المخرجات الموثوقة يجب أن تمنع AI Layer 1 ليس فقط الأفعال الضارة للنماذج، وتلاعب البيانات، وغيرها من المخاطر الأمنية، بل يجب عليها أيضًا من خلال الآليات الأساسية ضمان قابلية التحقق من نتائج AI وتماشيها. من خلال دمج بيئات التنفيذ الموثوقة (TEE)، وإثباتات المعرفة الصفرية (ZK)، والحساب الآمن متعدد الأطراف (MPC) وغيرها من التقنيات المتقدمة، يمكن للمنصة أن تجعل كل عملية استنتاج، تدريب، ومعالجة بيانات للنموذج قابلة للتحقق بشكل مستقل، مما يضمن عدالة وشفافية نظام AI. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين في فهم المنطق والأسس وراء مخرجات AI، مما يحقق "ما يحصل هو ما يرغبون فيه"، ويعزز ثقة ورضا المستخدمين عن منتجات AI.
حماية خصوصية البيانات تتضمن تطبيقات الذكاء الاصطناعي غالبًا بيانات حساسة للمستخدمين، وفي مجالات مثل المالية والرعاية الصحية والشبكات الاجتماعية، تعتبر حماية خصوصية البيانات أمرًا بالغ الأهمية. يجب أن يضمن الذكاء الاصطناعي Layer 1 القابلية للتحقق، بينما يستخدم تقنيات معالجة البيانات المعتمدة على التشفير، وبروتوكولات حساب الخصوصية، وإدارة حقوق البيانات، لضمان أمان البيانات في جميع مراحل الاستدلال والتدريب والتخزين، ومنع تسرب البيانات وإساءة استخدامها بشكل فعال، وإزالة مخاوف المستخدمين بشأن أمان البيانات.
القدرة القوية على دعم وتطوير النظام البيئي باعتبارها بنية تحتية من الطبقة الأولى الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية، ولكن أيضًا بتوفير أدوات تطوير شاملة ومتكاملة لـ المطورين، مشغلي العقد، مقدمي خدمات الذكاء الاصطناعي وغيرها من المشاركين في النظام البيئي، بالإضافة إلى دعم العمليات وآليات التحفيز. من خلال تحسين استمرارية القابلية للاستخدام وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة والغنية، لتحقيق ازدهار مستمر للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقوم هذه المقالة بتقديم تفاصيل حول ستة مشاريع تمثيلية في الذكاء الاصطناعي من Layer1، بما في ذلك Sentient و Sahara AI و Ritual و Gensyn و Bittensor و 0G، مع تنظيم منهجي لأحدث التطورات في هذا المجال، وتحليل الحالة الحالية للمشاريع، واستكشاف الاتجاهات المستقبلية.
Sentient: بناء نموذج الذكاء الاصطناعي اللامركزي مفتوح المصدر المخلص
ملخص المشروع
Sentient هو منصة بروتوكول مفتوحة المصدر، تقوم بإنشاء سلسلة كتلة AI Layer1 ( في المرحلة الأولية كـ Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج AI Pipeline وتقنية البلوكشين، لبناء اقتصاد الذكاء الاصطناعي اللامركزي. الهدف الرئيسي هو حل مشاكل ملكية النماذج، تتبع الاستدعاء، وتوزيع القيمة في سوق LLM المركزية من خلال إطار عمل "OML" (مفتوح، مربح، مخلص)، مما يمكّن نماذج الذكاء الاصطناعي من تحقيق هيكل ملكية داخل السلسلة، وشفافية الاستدعاء، وتقاسم القيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، امتلاك، وتسييل منتجات الذكاء الاصطناعي، وبالتالي تعزيز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال blockchain من جميع أنحاء العالم، بهدف بناء منصة AGI مدفوعة من المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور Pramod Viswanath من جامعة برينستون والبروفيسور Himanshu Tyagi من المعهد الهندي للعلوم، المسؤولين عن أمان AI وحماية الخصوصية، بينما يقود Sandeep Nailwal، أحد مؤسسي Polygon، الاستراتيجية السلسلية وتخطيط النظام البيئي. يمتد خلفية أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، بالإضافة إلى جامعات مرموقة مثل جامعة برينستون ومعهد الهند للتكنولوجيا، مما يغطي مجالات AI/ML وNLP والرؤية الحاسوبية، لدفع المشروع نحو التنفيذ.
كأحد مؤسسي Polygon، جاء مشروع Sentient الذي أسسه Sandeep Nailwal كأحد مشاريعه الجديدة محملاً بهالة منذ البداية، حيث يتمتع بموارد غنية، وشبكات علاقات واسعة، ووعي سوقي كبير، مما يوفر دعماً قوياً لتطوير المشروع. في منتصف عام 2024، أكمل Sentient جولة تمويل أولى بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عدد من شركات الاستثمار الأخرى مثل Delphi وHashkey وSpartan وغيرها من شركات رأس المال المغامر المشهورة.
تصميم الهيكل وطبقة التطبيق
طبقة البنية التحتية
الهيكل الأساسي
يتكون الهيكل الأساسي لـ Sentient من جزئين: أنبوب الذكاء الاصطناعي (AI Pipeline) ونظام داخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتحتوي على عمليتين رئيسيتين:
يوفر نظام داخل السلسلة الشفافية والسيطرة اللامركزية للبروتوكول، مما يضمن ملكية واستخدام وتتبع أدوات الذكاء الاصطناعي، وتوزيع العوائد والحكم العادل. الهيكل المحدد مقسم إلى أربع طبقات:
إطار نموذج OML
إطار OML (مفتوح Open، قابل للتسويق Monetizable، مخلص Loyal) هو الفكرة الأساسية التي اقترحتها Sentient، وتهدف إلى توفير حماية واضحة للملكية وآليات الحوافز الاقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال دمج التكنولوجيا داخل السلسلة وتقنية التشفير الأصلية للذكاء الاصطناعي، يتمتع بالخصائص التالية:
التشفير الأصلي للذكاء الاصطناعي (AI-native Cryptography)
التشفير الأصلي بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وبنية التدفق المنخفض الأبعاد وخصائص قابلية تمايز النموذج، لتطوير آلية أمان خفيفة "يمكن التحقق منها ولكن لا يمكن إزالتها". التقنية الأساسية هي:
يمكن تحقيق "استدعاء مصرح به يعتمد على السلوك + التحقق من الملكية" بهذه الطريقة دون تكاليف إعادة التشفير.
إطار تنفيذ الأمان وتأكيد ملكية النموذج
Sentient الحالية تستخدم Melange混合安全: من خلال تأكيد الهوية باستخدام بصمة الإصبع، تنفيذ TEE، وتقاسم الأرباح عبر العقود داخل السلسلة. حيث إن طريقة البصمة هي تنفيذ OML 1.0 في الخط الرئيسي، مع التأكيد على فكرة "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، مع القدرة على الكشف عن المخالفات ومعاقبتها.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث تتيح تضمين "أسئلة-إجابات" معينة، مما يسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالك النموذج التحقق من الملكية، ومنع النسخ والتسويق غير المصرح به. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلات قابلة للتتبع داخل السلسلة لسلوك استخدام النموذج.
بالإضافة إلى ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، والذي يستخدم بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان استجابة النموذج فقط لطلبات التفويض، ومنع الوصول والاستخدام غير المصرح به. على الرغم من أن TEE تعتمد على الأجهزة ولديها بعض المخاطر الأمنية، إلا أن مزايا الأداء العالي والوقت الحقيقي تجعلها خيارًا مثاليًا لنشر النماذج الحالية.