logo
أرسل رسالة
Wuhan Homsh Technology Co.,Ltd.
المنتجات
أخبار
المنزل > أخبار >
أخبار الشركة حول إنجاز حمص الرائد: ViT+ArcFace يحققان نسبة EER بنسبة 0.29% في التعرف على قزحية العين
الأحداث
الاتصالات
الاتصالات: Mr. Kelvin Yi
اتصل الآن
أرسل لنا

إنجاز حمص الرائد: ViT+ArcFace يحققان نسبة EER بنسبة 0.29% في التعرف على قزحية العين

2026-04-01
Latest company news about إنجاز حمص الرائد: ViT+ArcFace يحققان نسبة EER بنسبة 0.29% في التعرف على قزحية العين

      اختراق هومش الرائد: ViT+ArcFace

      دقة التعرف على قزحية العين تصل إلى المستوى العالمي
      بمعدل خطأ متساوٍ (EER) يبلغ 0.29% فقط ومنحنى ROC AUC يقترب من الحد النظري —
      لقد أعدنا تعريف حدود التعرف على قزحية العين باستخدام محول الرؤية
آخر أخبار الشركة إنجاز حمص الرائد: ViT+ArcFace يحققان نسبة EER بنسبة 0.29% في التعرف على قزحية العين  0
▲ محول الرؤية يعيد تعريف النموذج الأساسي لاستخراج ميزات قزحية العين

أولاً. هذه المرة، ليس مجرد تقدم — إنه تحول في النموذج

      إذا سألت مهندسًا عمل في مجال التعرف على قزحية العين لمدة عقدين: "ما هي أصعب مشكلة واجهتها على الإطلاق؟"
      ربما سيتوقف للحظة، ثم يقول: "الورقة المطاطية".
      منذ أن اقترح جون دوجمان خوارزمية IrisCode في عام 1993، كانت عملية "فرد الورقة المطاطية" أشبه بتعويذة محفورة في الحمض النووي لأنظمة التعرف على قزحية العين في جميع أنحاء العالم. فرد قزحية العين الدائرية إلى صورة مستطيلة، ثم استخراج الأنسجة باستخدام مرشحات جابور... تم استخدام سير العمل هذا لمدة ثلاثة عقود، ولم يشكك فيه أحد.
      حتى قررنا التخلص منه.

ثانياً. لماذا توقفت الورقة المطاطية عن العمل؟

      محول الرؤية (ViT اختصارًا) هو أحد ألمع الاختراقات التكنولوجية في مجال التعلم العميق خلال السنوات الثلاث الماضية. يقوم بتقطيع الصورة إلى عدد من "الرقع" بحجم 16×16، ويستخدم آلية الانتباه الذاتي لنماذج اللغة لفهم البنية العالمية للصورة، ويتفوق على الشبكات العصبية التلافيفية (CNNs) التي هيمنت لسنوات في العديد من المهام البصرية الرائدة.
      عندما حاولنا لأول مرة تطبيق ViT على التعرف على قزحية العين، كانت النتائج الأولية مخيبة للآمال: كان معدل الخطأ المتساوي (EER) مرتفعًا جدًا بلغ 4.65%، وهو أقل بكثير من التوقعات.
      حدد الفريق بسرعة السبب الجذري: "تسطيح" الورقة المطاطية لقزحية العين الحلقية التي تبلغ مساحتها 64 × 512 بكسل إلى مستطيل، والذي يتم بعد ذلك قياسه إلى المدخلات المطلوبة بواسطة ViT بحجم 224 × 224 — تمدد رأسي بمقدار 3.5x وضغط أفقي بمقدار 2.3x. تم تشويه البنية النسيجية الشعاعية/المحيطية الطبيعية لقزحية العين بشدة، مما جعل آلية الانتباه للرقع في ViT غير قادرة على إدراك الدلالات الداخلية.
      بعبارة أخرى: كنا نغذي أذكى نموذج بالطريقة الخاطئة.
      يبدو الحل بسيطًا، ولكنه تطلب الشجاعة لكسر الأعراف — التخلي عن الورقة المطاطية والتحول إلى الاقتصاص الدائري للمنطقة ذات الأهمية (ROI): مع مركز قزحية العين كنقطة أصل، قم بقص منطقة مربعة (2.5 ضعف نصف القطر) للحفاظ على التناظر المكاني الطبيعي لقزحية العين، ثم قم بتغيير حجمها مباشرة إلى 224 × 224 وقم بتغذيتها إلى ViT. بهذه الطريقة، يمكن لكل رقعة بحجم 16 × 16 إدراك نسيج قزحية العين الأصيل وغير المشوه.

ثالثاً. المقاييس الرئيسية: EER = 0.29%، ROC AUC = 0.9999

غيّر خطوة المعالجة المسبقة الواحدة هذه فرقًا كبيرًا:
الحل EER ملاحظات
الجولة الأولى: ViT + الورقة المطاطية 4.65% سير العمل التقليدي
الجولة الثانية: CNN + الورقة المطاطية 2.80% استبدال العمود الفقري بتحسين محدود
الجولة الثالثة: ViT + اقتصاص ROI ~0.12%* اختراق حاسم
الإصدار النهائي: ViT-S/16 + ROI + التنظيم 0.29% حل جاهز للإنتاج

*نتائج الجولة الثالثة غير خاضعة للتحقق الإحصائي الصارم وتحتوي على تحيز متفائل.

      يعتمد النظام النهائي الذي تم إصداره على ViT-S/16 (22.1 مليون معلمة) + خسارة هامش الزاوية ArcFace، وتم تدريبه على دمج 8 مجموعات بيانات عامة (إجمالي 4,480 هوية / 67,704 صورة). بعد التحقق الإحصائي الصارم، النتائج هي كما يلي:

      EER = 0.29% (معدل الخطأ المتساوي)

      ● فاصل الثقة بنسبة 95%: [0.21%، 0.40%] (200 جولة إعادة أخذ عينات Bootstrap)

      ● ROC AUC = 0.9999 (نتيجة شبه مثالية)

      ● متوسط تشابه أزواج المتطابقين: 0.8742 (اتساق عالٍ لنفس الفرد)

      ● متوسط تشابه أزواج غير المتطابقين: 0.0450 (فصل كامل للميزات للأفراد المختلفين)

      ● عند FRR=1%، FAR = 0.00% (لا يوجد تعرف خاطئ عند نقاط تشغيل أمنية عالية)

آخر أخبار الشركة إنجاز حمص الرائد: ViT+ArcFace يحققان نسبة EER بنسبة 0.29% في التعرف على قزحية العين  1
▲ منحنى ROC (AUC=0.9999) وتوزيع درجات المتطابقين وغير المتطابقين — قمتان منفصلتان تمامًا

رابعاً. بيانات التدريب: ليست كبيرة فحسب، بل متنوعة

جمعت هذه الدراسة 8 مجموعات بيانات عامة، بما في ذلك السيناريوهان الأكثر تحديًا في الصناعة:

بيانات التوائم (CASIA-Iris-Twins)

      بيانات قزحية العين من 200 زوج من التوائم — حتى مع جينات متطابقة تقريبًا، فإن أنسجة قزحية العين مختلفة تمامًا. هذا هو "الاختبار النهائي" للتحقق من قوة التمييز للخوارزمية.

سيناريوهات غير مقيدة بالضوء المرئي (UBIRIS.v2)

      518 هوية مع أكثر من 11,000 صورة، تم التقاطها تحت إضاءة طبيعية مع ضبابية الحركة، وتشوه خارج التركيز، وتغيرات في الإضاءة — هذه هي مجموعة البيانات الأقرب إلى سيناريوهات النشر في العالم الحقيقي.
      تم الانتهاء من التدريب على Apple Silicon M2 Ultra (Mac Studio) في حوالي 12.3 ساعة (90 حقبة تدريب)، مع زمن استجابة استدلالي أقصى يبلغ حوالي 35 مللي ثانية فقط (بما في ذلك اقتصاص ROI واستخراج الميزات).

خامساً. مقارنة أفقية مع أفضل الأعمال الصناعية

الطريقة العمود الفقري المعالجة المسبقة EER
Daugman IrisCode Gabor الورقة المطاطية ~0.10% (بيئة خاضعة للرقابة)
UniqueNet (2016) Siamese CNN الورقة المطاطية 0.18%
IrisFormer (2023) ViT-B/16 الورقة المطاطية 0.22%
PolyIRIS (2021) CNN متعدد المقاييس الورقة المطاطية (مجموعة بيانات واحدة)
Homsh ViT+ArcFace (هذا الإصدار) ViT-S/16 اقتصاص ROI 0.29% (8 مجموعات بيانات)

آخر أخبار الشركة إنجاز حمص الرائد: ViT+ArcFace يحققان نسبة EER بنسبة 0.29% في التعرف على قزحية العين  2
▲ من 4.65% إلى 0.29% EER: مسار التطور التكنولوجي لأربع جولات من التكرار

سادساً. الخطوات التالية

1. تقييم مستقل عبر مجموعات البيانات
      اختبار أعمى على مجموعة بيانات IIT Delhi التي لم تشارك في التدريب للتحقق من قدرة التعميم في العالم الحقيقي.
2. دمج اكتشاف الحيوية
      دمج استجابة الوميض متعدد الإطارات أو تحليل الأنسجة للدفاع ضد هجمات تشغيل الصور وبناء نظام كامل لمكافحة التزييف.
3. التعرف على قزحية العين من مسافة متوسطة وطويلة
      تقديم بيانات متوسطة المدى (3 أمتار) للتوسع إلى سيناريوهات ذات مسافات التقاط أكبر — المحيط الأزرق التالي للتنفيذ التجاري.
4. تقليص الحجم والنشر على الحافة
      تقطير نموذج ViT-S/16 إلى <5 مليون معلمة للتكيف مع أجهزة الحافة ذات الموارد المحدودة (NPU/FPGA).

الخلاصة: اتفاقية ثلاثين عامًا تستحق إعادة النظر

      كانت الورقة المطاطية لدوجمان الحل الأمثل لعصره. لكن جوهر التكنولوجيا هو هذا: عندما تظهر أدوات أفضل، يجب أن يفسح النموذج القديم المجال.
      لقد غير محول الرؤية المنطق الأساسي للتعرف على الصور. من خلال أربع جولات من التجارب وأربعة أشهر من الاستكشاف، وجدنا الطريقة الصحيحة لـ ViT لإطلاق إمكاناته بالكامل في التعرف على قزحية العين — ليس لجعل ViT يتكيف مع سير العمل القديم، بل لتصميم نموذج معالجة مسبقة جديد مصمم خصيصًا لـ ViT.
      معدل خطأ متساوٍ يبلغ 0.29% هو مجرد رقم، ولكنه أيضًا إعلان:
      لقد دخل التعرف على قزحية العين عصر المحولات، وهومش في خط البداية.

عن هومش

      شركة ووهان هومش للتكنولوجيا المحدودة (HOMSH)، التي تأسست في عام 2011، هي واحدة من الشركات القليلة ذات التقنية العالية في العالم التي تمتلك حقوق الملكية الفكرية المستقلة لخوارزميات وشرائح التعرف على قزحية العين الأساسية. تم استخدام خوارزميتها الأساسية Phaselirs™ وشرائح FPGA/ASIC الذكية من سلسلة Qianxin للتعرف على قزحية العين على نطاق واسع في التحصيل المالي، والتخليص الجمركي، وإصدار الشهادات الحكومية، والأمن العسكري، وغيرها من المجالات.