تأثير منظمة العفو الدولية الأوروبي تعمل على الأجهزة الطبية
يمثل قانون الذكاء الاصطناعي الأوروبي (AIA) علامة بارزة في صناعة الأجهزة الطبية ، حيث يقدم متطلبات امتثال جديدة. يضيف هذا التشريع إلى المشهد التنظيمي المعقد بالفعل ، والذي يتضمن تنظيم الجهاز الطبي الذي تم تنفيذه مؤخرًا (mdr) في مايو 2021.
على الرغم من معارضة الهيئات الصناعية مثل ميدتيك أوروبا ، اتحاد رجال الأعمال الأوروبيين ، وفريق-NB (الرابطة الأوروبية ل أجهزة طبية من الهيئات المبلغة) ، أقر البرلمان الأوروبي مشروع قانون AI على June 14.
تحديات جديدة من AIA
في حين أن هيئات الصناعة تشكك في جدوى قانون منظمة العفو الدولية ، فإنه سيخضع الآن لمناقشات ثلاثية بين المفوضية الأوروبية والبرلمان الأوروبي ومجلس الاتحاد الأوروبي. وبمجرد اعتماده وإنفاذه ، سيكون لقانون الذكاء الإصطناعي فترة انتقالية عامة لمدة ثلاث سنوات ، مما يسمح للشركات وأصحاب المصلحة بتعديل عملياتهم والامتثال لمتطلبات القانون.
يعد تقييم المخاطر والمسؤولية عنصرًا أساسيًا في القواعد الجديدة ، وذلك باتباع نهج قائم على المخاطر. يحظر قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي التي تشكل مخاطر غير مقبولة ، بما في ذلك أولئك الذين يستخدمون تقنيات التلاعب ، أو استغلال نقاط الضعف ، أو تسهيل التسجيل الاجتماعي. أجهزة طبية أو الأجهزة الطبية التشخيصية في المختبر التي تعمل بواسطة AI أو تتضمن AI كمكون أمان تندرج تحت كل من MDR/IVDR و AI Act. وقد أثار بعض المهنيين القانونيين مخاوف بشأن عدم التنسيق بين هذه اللوائح ، مما قد يؤدي إلى تناقضات.
حكم بارز في مشروع النص هو الحيثية 30 ، مشيرا إلى أن أي جهاز طبي يتضمن مكونات AI ويتطلب إشراك هيئة تم إخطارها أثناء تقييم المطابقة بموجب MDR أو IVDR سيتم تصنيفه تلقائيا كجهاز عالي المخاطر بموجب قانون AI.
يقدم AI Act تحولًا في تصنيف المخاطر للأجهزة التي بها مكونات AI. تم تصنيف هذه الأجهزة سابقًا على أنها متوسطة المخاطر تحت نظام MDR (IIb و IIa) ، وسوف تعتبر الآن عالية المخاطر بموجب قانون الذكاء الاصطناعي. سوف تتطلب تقييمات منفصلة لضمان التوافق مع تشريع AI الجديد. الأجهزة أو التشخيصات منخفضة المخاطر التي لا تخضع لتقييم مطابقة الجسم المبلغ عنها بموجب MDR أو IVDR ستكون استثناءً ولا يزال من الممكن وضعها في سوق E.U.
هناك مخاوف بشأن التفاعل بين قانون الذكاء الإصطناعي والتشريعات الأخرى ، مثل التوسع المقترح في مسؤولية المنتج من قبل اللجنة الأوروبية. يمكن أن يخلق هذا التوسع تحديات لمطوري برامج الذكاء الاصطناعي الطبي في دعاوى مسؤولية المنتج بسبب افتراض السببية.
من ناحية أخرى ، يتضمن قانون AI حكمًا بشأن تغييرات خوارزمية التعلم الآلي التي قد تسمح بآلية تنظيمية مماثلة لخطة FDA للتحكم في التغيير المحددة سلفًا (PCCP). هذه الآلية ، التي تمثل تطوير البرمجيات التكرارية ، ستكون موضع ترحيب من قبل الصناعة.
إعداد آيا
للإعداد لنظام AIA ، يجب على شركات medtech إثبات الامتثال لقانون AI ، والذي قد يكون صعبًا. تتطلب إعادة تصنيف الأجهزة بموجب قانون AI تقييمات مطابقة منفصلة للوفاء بقواعد تشريع AI الجديدة. يحتاج مطورو Medtech إلى الحصول على شهادات ذات صلة لضمان تلبية تقنيات AI الخاصة بهم للسلامة والدقة والموثوقية والمعايير الأخلاقية.
يجب على الشركات تقييم مكونات الذكاء الإصطناعي داخل أجهزتها لمعرفة المخاطر المحتملة لسلامة المرضى وأمن البيانات وسلامة العمليات الطبية. وقد تحتاج تدابير الشفافية لأنظمة الذكاء الإصطناعي ، التي تم التأكيد عليها في قانون الذكاء الإصطناعي ، إلى التنفيذ أيضاً.
إن التوافق بين قانون الذكاء الإصطناعي والتشريعات القطاعية أمر بالغ الأهمية للحفاظ على وصول المريض إلى منتجات الرعاية الصحية المبتكرة. على الرغم من أن التنفيذ النهائي لنظام AIA قد يستغرق سنوات ، يجب على الشركات البدء في الاستعداد الآن لضمان استمرار وصول منتجاتها إلى الأسواق في أوروبا.
ملاحظة: إذا كنت تريد أن يقوم فريقي بتصنيع منتجات mdr-ivdrالخاصة بك ، يرجى الاتصال Insights@medasiagroup.com
ونحن نوصي
المنشورات ذات الصلة
- اشترك في MedInsights
- اشترك في MedInsights
- اشترك في MedInsights
- اشترك في MedInsights
- اشترك في MedInsights