@lagrangedev أعلن عن DeepProve، مكتبة مبتكرة للذكاء الاصطناعي المعتمد على zkML (الاستدلال الصفري للمعرفة) تهدف إلى جعل الذكاء الاصطناعي قابلاً للتحقق، وقابلاً للتوسع، وموثوقاً. في عالم يتسارع نحو الذكاء الاصطناعي الفائق، يعد DeepProve بضمان أن تعمل أنظمة الذكاء الاصطناعي بما يتماشى مع نية الإنسان من خلال تمكين الأدلة التشفيرية لمخرجات التعلم الآلي.
تعمل نماذج الذكاء الاصطناعي اليوم كصناديق سوداء. بينما تقدم نتائج، غالبًا ما لا يستطيع المستخدمون وحتى المطورون فهم كيفية الوصول إلى تلك الاستنتاجات. تخلق هذه الغموض مخاطر: من التزييف العميق والخوارزميات المنحازة إلى إمكانية الاستخدام السيئ في الرعاية الصحية أو المالية أو حتى الدفاع. يحذر الخبراء من أن الذكاء الاصطناعي غير الخاضع للرقابة قد يسعى لتحقيق أهدافه الخاصة - أحيانًا بطرق خادعة - مما يشكل تهديدات وجودية للبشرية.
تتناول DeepProve هذه المشكلة من خلال دمج إثباتات المعرفة الصفرية مع التعلم الآلي. يمكن للمطورين الآن إثبات أن:
تم استخدام النموذج الصحيح.
نتائج الاستدلال صالحة.
هذا يقضي على الثقة العمياء، ويستبدلها باليقين التشفيري.
الأداء هو قفزة أخرى إلى الأمام. DeepProve أسرع من مكتبات zkML الحالية مثل EZKL بمقدار 54x–158x في توليد الإثباتات، وأسرع بمقدار 671x في التحقق منها - مما يجعل التحقق يستغرق أقل من ثانية. وهذا يجعل نشر الذكاء الاصطناعي القابل للتحقق في العالم الحقيقي وعلى نطاق واسع أمرًا عمليًا أخيرًا.
تطبيقات الذكاء الاصطناعي واسعة: من سمات الذكاء الاصطناعي القابلة للإثبات لـ NFTs والتدريب التعاوني الآمن إلى تكاملات العقود الذكية والاستدلالات التي تحافظ على الخصوصية. من خلال ضمان إمكانية التحقق من استدلالات الذكاء الاصطناعي، تؤسس DeepProve قاعدة للأنظمة الذكية الاصطناعية الآمنة واللامركزية والشفافة التي تظل تحت سيطرة الإنسان.
مع تقدم الذكاء الاصطناعي نحو الذكاء الفائق، تضع لاغرانج DeepProve ليس كمنتج فقط، بل كحماية لمستقبل الإنسانية - وسيلة لاستبدال الثقة العمياء بالحقيقة القابلة للتحقق.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
DeepProve: Lagrange تكشف عن zkML للحفاظ على الذكاء الاصطناعي تحت السيطرة
@lagrangedev أعلن عن DeepProve، مكتبة مبتكرة للذكاء الاصطناعي المعتمد على zkML (الاستدلال الصفري للمعرفة) تهدف إلى جعل الذكاء الاصطناعي قابلاً للتحقق، وقابلاً للتوسع، وموثوقاً. في عالم يتسارع نحو الذكاء الاصطناعي الفائق، يعد DeepProve بضمان أن تعمل أنظمة الذكاء الاصطناعي بما يتماشى مع نية الإنسان من خلال تمكين الأدلة التشفيرية لمخرجات التعلم الآلي.
تعمل نماذج الذكاء الاصطناعي اليوم كصناديق سوداء. بينما تقدم نتائج، غالبًا ما لا يستطيع المستخدمون وحتى المطورون فهم كيفية الوصول إلى تلك الاستنتاجات. تخلق هذه الغموض مخاطر: من التزييف العميق والخوارزميات المنحازة إلى إمكانية الاستخدام السيئ في الرعاية الصحية أو المالية أو حتى الدفاع. يحذر الخبراء من أن الذكاء الاصطناعي غير الخاضع للرقابة قد يسعى لتحقيق أهدافه الخاصة - أحيانًا بطرق خادعة - مما يشكل تهديدات وجودية للبشرية.
تتناول DeepProve هذه المشكلة من خلال دمج إثباتات المعرفة الصفرية مع التعلم الآلي. يمكن للمطورين الآن إثبات أن:
الأداء هو قفزة أخرى إلى الأمام. DeepProve أسرع من مكتبات zkML الحالية مثل EZKL بمقدار 54x–158x في توليد الإثباتات، وأسرع بمقدار 671x في التحقق منها - مما يجعل التحقق يستغرق أقل من ثانية. وهذا يجعل نشر الذكاء الاصطناعي القابل للتحقق في العالم الحقيقي وعلى نطاق واسع أمرًا عمليًا أخيرًا.
تطبيقات الذكاء الاصطناعي واسعة: من سمات الذكاء الاصطناعي القابلة للإثبات لـ NFTs والتدريب التعاوني الآمن إلى تكاملات العقود الذكية والاستدلالات التي تحافظ على الخصوصية. من خلال ضمان إمكانية التحقق من استدلالات الذكاء الاصطناعي، تؤسس DeepProve قاعدة للأنظمة الذكية الاصطناعية الآمنة واللامركزية والشفافة التي تظل تحت سيطرة الإنسان.
مع تقدم الذكاء الاصطناعي نحو الذكاء الفائق، تضع لاغرانج DeepProve ليس كمنتج فقط، بل كحماية لمستقبل الإنسانية - وسيلة لاستبدال الثقة العمياء بالحقيقة القابلة للتحقق.