الصفحة الرئيسيةالأخبار* Theta Labs تطلق خدمة استدلال نموذج اللغة الكبير ( على EdgeCloud مع قابلية التحقق الموزعة المستندة إلى blockchain.
التحديث يتيح مخرجات روبوت الدردشة الذكي التي يتم التحقق منها بشكل مستقل وغير قابلة للتلاعب من خلال دمج العشوائية العامة من البلوكتشين.
EdgeCloud هي الآن المنصة الأولى التي تقدم استدلال LLM بدون ثقة للمؤسسات والأكاديميين وغيرهم من المستخدمين.
المحرك مفتوح المصدر يستفيد من نماذج DeepSeek V3/R1 ويجعل النتائج قابلة للتكرار من خلال مجموعة من العمليات العشوائية الحتمية والقابلة للتحقق.
تشمل النتائج البيانات الوصفية مثل البذور العشوائية للبلوكشين، مما يسمح بالتحقق من قبل أي طرف ثالث ويدعم التصديقات المستقبلية على السلسلة.
ثيتا لابز أطلقت ميزة جديدة لاستنتاج نموذج اللغة الكبير )LLM( لمنصة EdgeCloud، كما أعلنت الشركة. الخدمة مصممة لتوفير قابلية التحقق الموزعة المدعومة من البلوكتشين لمخرجات الدردشة الذكية والوكالات. الهدف من ذلك هو جعل نتائج LLM موثوقة وقابلة للتأكيد بشكل مستقل للمستخدمين عبر القطاعات.
إعلان - وفقًا لـ Theta Labs، فإن هذا التحديث يضع EdgeCloud كأول منصة تقدم استنتاج LLM "بدون ثقة" لمستخدمي العملات الرقمية التقليديين والسحابيين. يجمع النظام بين نماذج الذكاء الاصطناعي مفتوحة المصدر، والحوسبة اللامركزية، وتكنولوجيا البلوكتشين لضمان سلامة المخرجات التي تم إنشاؤها بواسطة الذكاء الاصطناعي. بالنسبة للتطبيقات الحساسة في المؤسسات والأكاديميا، تؤكد الشركة أن EdgeCloud هي حاليًا الحل الوحيد الذي يقدم هذا المستوى من التحقق من المخرجات.
تستند أنظمة الذكاء الاصطناعي الحديثة غالبًا إلى LLMs، لكن معظم الخدمات اليوم تعتمد على مزودين مركزيين أو أجهزة أمان يمكن أن يكون من الصعب تدقيقها، كما يوضح المقال. تتبنى النهج الجديد DeepSeek V3/R1، وهو بديل مفتوح المصدر لـ LLMs المملوكة، والذي يمكّن من التحقق الشفاف طوال العملية. "تسمح هذه الاختراقات للمجتمعات بالابتعاد عن واجهات برمجة التطبيقات الغامضة للذكاء الاصطناعي نحو تدفقات استنتاج شفافة وقابلة للتفتيش،" كما يذكر Theta Labs.
يستخدم النظام الجديد نهجًا من جزئين. أولاً، يحسب النموذج احتمالات الرموز التالية بشكل حتمي، مما يمكن مراجعته من قبل أي شخص يستخدم نفس الأدوات مفتوحة المصدر. ثانيًا، يدمج الخدمة بذور عشوائية قابلة للتحقق علنًا - مأخوذة من أنظمة البلوكشين مثل RanDAO على إيثيريوم - لتحديد أي رمز يتم اختياره، مما يجعل كل استنتاج قابلًا لإعادة الإنتاج والتدقيق. تضمن هذه الطريقة ألا يتمكن المستخدمون أو مقدمو الخدمة من تغيير النتيجة.
لدعم ذلك، قامت Theta Labs بتحسين محرك الاستدلال الشهير vLLM ونشره كحاوية Docker عامة، متاحة على DockerHub. كما قامت الشركة بإدراج الميزة في نموذجها "DeepSeek R1 / Distill-Qwen-7B" على منصة إطلاق النماذج المخصصة Theta EdgeCloud.
تتضمن نتائج كل نموذج الآن بيانات التحقق الوصفية، التي تحتوي على تفاصيل العشوائية العامة المستمدة من سلسلة الكتل Theta. لتلبية احتياجات الأمان العالية، تقترح الشركة أن البيانات الوصفية مثل الطلبات، والتوزيعات، والنتائج قد يتم نشرها على السلسلة من أجل الشهادة من قبل الشهود اللامركزيين.
تتوقع Theta Labs أن يلعب هذا النظام دورًا رئيسيًا مع تزايد استخدام الوكلاء الذكاء الاصطناعي في المهام اليومية والقرارات التجارية. مع استنتاج LLM المقاوم للتلاعب، يمكن للمستخدمين تأكيد دقة الاستجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل مستقل. وتبرز الشركة هذا كخطوة مهمة في إضافة الشفافية والأمان إلى نظام الذكاء الاصطناعي المتوسع.
إعلان - )# المقالات السابقة:
تعود MicroStrategy إلى التخفيف، وتجمع 520 مليون دولار من خلال بيع الأسهم
عائد 60% من رهان صندوق التقاعد البريطاني على البيتكوين بنسبة 3% في أقل من عام
المهاجمون يستخدمون أداة Vercel v0 AI لإنشاء مواقع تصيد
ويبوس تؤمن خط ائتمان بقيمة 100 مليون دولار من XRP مع إطلاق ريبيل إعلانات زيورخ
سيتم تقديم مؤشر S&P 500 كصندوق مميز عبر Centrifuge
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تطلق Theta EdgeCloud أول خدمة LLM موثوقة على البلوكتشين
الصفحة الرئيسيةالأخبار* Theta Labs تطلق خدمة استدلال نموذج اللغة الكبير ( على EdgeCloud مع قابلية التحقق الموزعة المستندة إلى blockchain.
تستند أنظمة الذكاء الاصطناعي الحديثة غالبًا إلى LLMs، لكن معظم الخدمات اليوم تعتمد على مزودين مركزيين أو أجهزة أمان يمكن أن يكون من الصعب تدقيقها، كما يوضح المقال. تتبنى النهج الجديد DeepSeek V3/R1، وهو بديل مفتوح المصدر لـ LLMs المملوكة، والذي يمكّن من التحقق الشفاف طوال العملية. "تسمح هذه الاختراقات للمجتمعات بالابتعاد عن واجهات برمجة التطبيقات الغامضة للذكاء الاصطناعي نحو تدفقات استنتاج شفافة وقابلة للتفتيش،" كما يذكر Theta Labs.
يستخدم النظام الجديد نهجًا من جزئين. أولاً، يحسب النموذج احتمالات الرموز التالية بشكل حتمي، مما يمكن مراجعته من قبل أي شخص يستخدم نفس الأدوات مفتوحة المصدر. ثانيًا، يدمج الخدمة بذور عشوائية قابلة للتحقق علنًا - مأخوذة من أنظمة البلوكشين مثل RanDAO على إيثيريوم - لتحديد أي رمز يتم اختياره، مما يجعل كل استنتاج قابلًا لإعادة الإنتاج والتدقيق. تضمن هذه الطريقة ألا يتمكن المستخدمون أو مقدمو الخدمة من تغيير النتيجة.
لدعم ذلك، قامت Theta Labs بتحسين محرك الاستدلال الشهير vLLM ونشره كحاوية Docker عامة، متاحة على DockerHub. كما قامت الشركة بإدراج الميزة في نموذجها "DeepSeek R1 / Distill-Qwen-7B" على منصة إطلاق النماذج المخصصة Theta EdgeCloud.
تتضمن نتائج كل نموذج الآن بيانات التحقق الوصفية، التي تحتوي على تفاصيل العشوائية العامة المستمدة من سلسلة الكتل Theta. لتلبية احتياجات الأمان العالية، تقترح الشركة أن البيانات الوصفية مثل الطلبات، والتوزيعات، والنتائج قد يتم نشرها على السلسلة من أجل الشهادة من قبل الشهود اللامركزيين.
تتوقع Theta Labs أن يلعب هذا النظام دورًا رئيسيًا مع تزايد استخدام الوكلاء الذكاء الاصطناعي في المهام اليومية والقرارات التجارية. مع استنتاج LLM المقاوم للتلاعب، يمكن للمستخدمين تأكيد دقة الاستجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل مستقل. وتبرز الشركة هذا كخطوة مهمة في إضافة الشفافية والأمان إلى نظام الذكاء الاصطناعي المتوسع.