EU AI Act Compliance: What Businesses Need to Know in 2026

Complete guide to EU AI Act compliance in 2026 covering risk tiers, prohibited AI, high-risk system obligations, GPAI models, conformity assessment, and implementation steps.

E
ECOSIRE Research and Development Team
|19 مارچ، 202618 منٹ پڑھیں4.0k الفاظ|

ہماری Compliance & Regulation سیریز کا حصہ

مکمل گائیڈ پڑھیں

EU AI ایکٹ کی تعمیل: 2026 میں کاروبار کو کیا جاننے کی ضرورت ہے۔

EU آرٹیفیشل انٹیلی جنس ایکٹ (ریگولیشن (EU) 2024/1689) 1 اگست 2024 کو نافذ ہوا - دنیا کا پہلا جامع AI ضابطہ، جو EU مارکیٹ میں تعینات یا اس کو متاثر کرنے والے AI سسٹمز کے لیے خطرے پر مبنی فریم ورک قائم کرتا ہے۔ 2027 تک کی ذمہ داریوں کے ساتھ، 2026 ہائی رسک AI سسٹم کی تعمیل کی منصوبہ بندی کے لیے اہم سال ہے: ہائی رسک AI کے فراہم کنندگان اور تعینات کنندگان کے پاس 2 اگست 2026 سے پہلے مطابقت کے جائزے، تکنیکی دستاویزات، اور گورننس فریم ورک موجود ہونا چاہیے۔

EU AI ایکٹ کی GDPR کے مقابلے میں بیرونی رسائی ہے: EU مارکیٹ پر رکھا ہوا یا EU میں استعمال کیا جانے والا کوئی بھی AI سسٹم - اس سے قطع نظر کہ فراہم کنندہ کہاں ہے - دائرہ کار میں آتا ہے۔ AI فراہم کنندگان، ڈویلپرز، درآمد کنندگان، تقسیم کاروں، اور EU مارکیٹوں کی خدمت کرنے والے یا EU ڈیٹا پر کارروائی کرنے والے تعینات کرنے والوں کے لیے، تعمیل اختیاری نہیں ہے۔

اہم ٹیک ویز

  • EU AI ایکٹ خطرے کے چار درجات قائم کرتا ہے: ناقابل قبول خطرہ (ممنوعہ)، زیادہ خطرہ، محدود خطرہ، اور کم سے کم خطرہ
  • ممنوعہ AI سسٹمز کو 2 فروری 2025 تک EU مارکیٹ سے واپس لے لیا جانا چاہیے
  • ہائی رسک AI سسٹمز کو انتہائی ضروری ذمہ داریوں کا سامنا کرنا پڑتا ہے — موافقت کی تشخیص، تکنیکی دستاویزات، بنیادی حقوق کے اثرات کی تشخیص، مارکیٹ کے بعد کی نگرانی
  • عمومی مقصد AI (GPAI) ماڈل (جیسے GPT-4، کلاڈ، جیمنی) کو مخصوص ذمہ داریوں کا سامنا کرنا پڑتا ہے۔ سیسٹیمیٹک رسک GPAI ماڈلز کو سخت تقاضوں کا سامنا کرنا پڑتا ہے۔
  • یورپی AI آفس (قائم مارچ 2024) GPAI ماڈل کی ذمہ داریوں کی نگرانی کرتا ہے۔ قومی مارکیٹ کی نگرانی کے حکام اعلی خطرے والے AI کی نگرانی کرتے ہیں۔
  • عدم تعمیل کے جرمانے: ممنوعہ AI کی خلاف ورزیوں پر €35 ملین یا عالمی سالانہ کاروبار کا 7% تک؛ ہائی رسک AI کی خلاف ورزیوں کے لیے €15 ملین یا 3% تک
  • فریق ثالث کی مطابقت کی تشخیص کے لیے مطلع شدہ اداروں کو نامزد کیا جا رہا ہے۔ بہت سے ہائی رسک سسٹم خود اندازہ لگا سکتے ہیں۔
  • پریکٹس کے ضابطے اور ہم آہنگ معیارات تیار کیے جا رہے ہیں - EASA اور متعلقہ اداروں کی نگرانی کریں

EU AI ایکٹ ٹائم لائن اور فیز ان

اے آئی ایکٹ کی ذمہ داریاں تین سالوں میں مرحلہ وار ہیں:

مؤثر تاریخذمہ داریاں قوت میں داخل ہونا
فروری 2، 2025ممنوعہ AI سسٹمز - کو واپس لیا جانا چاہیے یا اس میں ترمیم کی جانی چاہیے۔
اگست 2، 2025GPAI ماڈل کی ذمہ داریاں؛ گورننس فریم ورک کی ضروریات (اندرونی AI خواندگی، نفاذ کرنے والے ادارے)
اگست 2، 2026ضمیمہ I اور III میں اعلی خطرے والے AI سسٹم کی ذمہ داریاں؛ مطلع شدہ جسم کی ضروریات
اگست 2، 2027اعلی خطرے والے AI نظام جو پہلے سے ہی EU ہم آہنگی کے قانون کے تحت مصنوعات کے حفاظتی اجزاء ہیں؛ موجودہ AI سسٹمز کی ذمہ داریاں 2 اگست 2026 سے پہلے سروس میں ڈال دی گئیں

رسک کی درجہ بندی کا فریم ورک

اے آئی ایکٹ اے آئی سسٹمز کو خطرے کے چار درجوں میں درجہ بندی کرتا ہے:

ٹائر 1: ناقابل قبول خطرہ (ممنوعہ AI)

آرٹیکل 5 2 فروری 2025 سے یورپی یونین میں درج ذیل AI سسٹمز کو مکمل طور پر ممنوع قرار دیتا ہے:

  • Subliminal ہیرا پھیری: بیداری یا فریب دینے والی تکنیکوں سے ماوراء اعلیٰ ترین تکنیکوں کو تعینات کرنے والے AI نظام مادی طور پر رویے کو اس انداز میں بگاڑتے ہیں جس سے اہم نقصان کا سبب بنتا ہے یا اس کا معقول امکان ہوتا ہے۔
  • کمزوریوں کا استحصال: AI جو مخصوص گروہوں (عمر، معذوری، سماجی/معاشی صورت حال) کی کمزوریوں کا استحصال کرتا ہے تاکہ رویے کو مادی طور پر بگاڑ سکے۔
  • عوامی حکام کی طرف سے سماجی اسکورنگ: عوامی حکام کی جانب سے یا ان کی جانب سے سماجی رویے یا ذاتی خصوصیات کی بنیاد پر افراد کی درجہ بندی کرنے کے لیے AI نظام استعمال کیے جاتے ہیں جو نقصان دہ سلوک کا باعث بنتے ہیں۔
  • عوامی جگہوں پر ریئل ٹائم بائیو میٹرک شناخت: قانون نافذ کرنے والے مقاصد کے لیے عوامی طور پر قابل رسائی جگہوں پر استعمال ہونے والے ریموٹ ریئل ٹائم بائیو میٹرک شناختی نظام (دہشت گردی، سنگین جرم، لاپتہ بچوں کے لیے تنگ استثنیٰ)
  • محفوظ صفات پر مبنی بائیو میٹرک درجہ بندی: AI جو نسل، نسل، مذہب، سیاسی آراء، جنسی رجحان، ٹریڈ یونین کی رکنیت کا اندازہ لگانے کے لیے بائیو میٹرکس کی بنیاد پر افراد کی درجہ بندی کرتا ہے۔
  • کام کی جگہ اور تعلیم میں جذبات کی پہچان: AI نظام جو کام کی جگہ یا تعلیم میں جذبات کا اندازہ لگاتے ہیں (تنگ استثناء کے ساتھ)
  • ** پروفائلنگ پر مبنی جرم کی پیشین گوئی**: پیش گوئی کرنے والی پولیسنگ AI مکمل طور پر انفرادی تشخیص کے بغیر پروفائلنگ پر مبنی
  • غیر ٹارگٹڈ فیشل ریکوگنیشن ڈیٹابیس سکریپنگ: AI جو بغیر ٹارگٹڈ سکریپنگ کے ذریعے چہرے کی شناخت کے ڈیٹا بیس کو تخلیق یا پھیلاتا ہے

کارروائی درکار ہے: اگر آپ کا AI سسٹم ان میں سے کسی بھی زمرے میں آتا ہے تو EU مارکیٹ سے فوری انخلا ضروری ہے۔ اگر آپ کے AI پروڈکٹ کی کوئی خصوصیت ان تعریفوں تک پہنچتی ہے تو قانونی جائزہ ضروری ہے۔

ٹائر 2: ہائی رسک AI

ہائی رسک AI سسٹمز (آرٹیکلز 6 اور انیکس III) کو سب سے وسیع تعمیل کی ذمہ داریوں کا سامنا ہے۔ اعلی خطرے کی حیثیت کا اطلاق ہوتا ہے:

ریگولیٹڈ پروڈکٹس کے حفاظتی جزو کے طور پر AI (ضمیمہ I): AI سسٹمز جو EU ہم آہنگی کے قانون کے تابع مصنوعات کے حفاظتی اجزاء ہیں (طبی آلات، مشینری، ہوابازی، آٹوموٹو، کھلونے، لفٹیں، دباؤ کا سامان، ذاتی حفاظتی سامان، ریڈیو کا سامان، وٹرو تشخیص، سمندری سامان، کیبل ویز، ریگولیشن سسٹمز، گاڑیوں کے ریگولیشنز اور ریگولیشنز کے لیے۔ دستکاری، دھماکہ خیز مواد)

اسٹینڈلون ہائی رسک AI سسٹمز (ضمیمہ III - 8 زمرے):

  1. بائیو میٹرک شناخت اور قدرتی افراد کی درجہ بندی: ریئل ٹائم اور پوسٹ ریموٹ بائیو میٹرک شناخت؛ بائیو میٹرک تصدیق؛ بائیو میٹرک درجہ بندی
  2. کریٹیکل انفراسٹرکچر: AI اہم ڈیجیٹل انفراسٹرکچر، روڈ ٹریفک، یا یوٹیلیٹیز (پانی، گیس، حرارت، بجلی) کا نظم و نسق یا آپریٹنگ
  3. تعلیم اور پیشہ ورانہ تربیت: AI تعلیم تک رسائی کا تعین کرنا، تعلیمی مواقع مختص کرنا، طلباء کا اندازہ لگانا
  4. ملازمت اور کارکنوں کا انتظام: بھرتی اور انتخاب (سی وی فلٹرنگ، انٹرویو کی تشخیص)، کارکردگی کا جائزہ، پروموشن/برطرفی کے فیصلے، ٹمٹم اکانومی پلیٹ فارمز میں ٹاسک ایلوکیشن
  5. ضروری نجی خدمات اور عوامی خدمات تک رسائی: AI قرض کی اہلیت کا جائزہ لینے والا (چھوٹا حجم/مقصد کریڈٹ اسیسمنٹ کے علاوہ)، انشورنس رسک اسیسمنٹ، میڈیکل انشورنس
  6. قانون کا نفاذ: پولی گرافس، شواہد کی وشوسنییتا کا اندازہ، جرائم کے خطرے کی پروفائلنگ، مجرمانہ تحقیقات کے لیے ریکارڈنگ میں چہرے کی شناخت
  7. ہجرت، پناہ، بارڈر کنٹرول: تارکین وطن/پناہ کے متلاشیوں کے پولی گراف کی تشخیص کے لیے AI، غیر قانونی کراسنگ کے خطرے کی تشخیص، دستاویزات کی تصدیق، معاون درخواستیں
  8. انصاف اور جمہوری عمل کی انتظامیہ: عدالتی فیصلوں میں حقائق اور قانون کی ترجمانی کے لیے، انتخابات/ ووٹنگ کے رویے کو متاثر کرنے کے لیے

ٹائر 3: محدود خطرہ AI

شفافیت کی ذمہ داریوں کے ساتھ AI سسٹمز لیکن مطابقت کی کوئی تشخیص نہیں:

  • چیٹ بوٹس اور AI تعامل: صارفین کو یہ بتانا ضروری ہے کہ وہ AI سسٹم کے ساتھ تعامل کر رہے ہیں (جب تک کہ سیاق و سباق سے واضح نہ ہو)
  • جذبات کی شناخت اور بائیو میٹرک زمرہ بندی: افراد کے سامنے انکشاف کریں جب وہ ان سسٹمز کے تابع ہوں
  • ڈیپ فیکس: AI سے تیار کردہ مواد کو مصنوعی طور پر تیار کردہ یا ہیرا پھیری کے طور پر لیبل کریں (خاص طور پر الیکشن، خبروں، تعلیمی مواد کے لیے اہم)

ٹائر 4: کم سے کم خطرہ AI

کم سے کم خطرہ پیدا کرنے والے AI سسٹمز (سپیم فلٹرز، AI سے چلنے والے ویڈیو گیمز، مینوفیکچرنگ QC میں AI) کو عام پروڈکٹ قانون کے تقاضوں سے ہٹ کر AI ایکٹ کی کوئی خاص ذمہ داریوں کا سامنا نہیں ہے۔ ضابطہ اخلاق کی رضاکارانہ تعمیل کرنے کی ترغیب دی گئی۔


ہائی رسک AI سسٹم کی ذمہ داریاں

اگر آپ کے AI سسٹم کو ہائی رسک کے طور پر درجہ بندی کیا گیا ہے، تو درج ذیل ذمہ داریاں لاگو ہوتی ہیں (باب 3 اور 5):

1. رسک مینجمنٹ سسٹم (آرٹیکل 9)

ایک دستاویزی رسک مینجمنٹ سسٹم قائم کریں اور برقرار رکھیں جس میں AI سسٹم کے پورے لائف سائیکل کا احاطہ کیا جائے:

  • صحت، حفاظت، اور بنیادی حقوق کے لیے معقول حد تک متوقع خطرات کی شناخت اور تجزیہ
  • خطرات کا تخمینہ اور تشخیص
  • پوسٹ مارکیٹ مانیٹرنگ ڈیٹا کے خلاف تشخیص
  • رسک مینجمنٹ کے اقدامات (بقیہ خطرہ قابل قبول، ختم یا کم کیا گیا)

2. ڈیٹا اور ڈیٹا گورننس (آرٹیکل 10)

تربیت، توثیق، اور جانچ کے ڈیٹا کو معیار کے مخصوص معیار پر پورا اترنا چاہیے:

  • متعلقہ، نمائندہ، غلطیوں سے پاک، اور مطلوبہ مقصد کے لیے مکمل
  • ممکنہ تعصبات کا جائزہ لیں اور مناسب تخفیف کے اقدامات کریں۔
  • تعصب کا پتہ لگانا، خاص طور پر محفوظ خصوصیات کے حوالے سے (نسل، جنس، عمر، معذوری)
  • ڈیٹا پرووینس دستاویزات

3. تکنیکی دستاویزات (آرٹیکل 11 اور ضمیمہ IV)

مارکیٹ میں رکھنے سے پہلے جامع تکنیکی دستاویزات تیار کریں:

  • AI نظام کی عمومی وضاحت
  • عناصر اور ترقی کے عمل کی تفصیلی وضاحت
  • نظام کی نگرانی، کام کاج، اور کنٹرول
  • توثیق اور جانچ کے طریقہ کار
  • رسک مینجمنٹ دستاویزات
  • لائف سائیکل کے ذریعے کی گئی تبدیلیاں
  • لاگو کردہ ہم آہنگ معیارات کی فہرست
  • EU کے موافقت کے اعلان کی کاپی

4. ریکارڈ کیپنگ اور لاگنگ (آرٹیکل 12)

ہائی رسک AI سسٹمز میں پورے آپریشن کے دوران خودکار لاگنگ فعال ہونی چاہیے:

  • تعمیل کا اندازہ لگانے سے متعلقہ واقعات کی ریکارڈنگ
  • خطرات اور واقعات کی شناخت کے قابل بنانے والے آپریشنل لاگ
  • استعمال کے معاملے کی بنیاد پر لاگز مناسب مدت کے لیے برقرار رکھے گئے (بائیو میٹرک شناخت کے لیے کم از کم 6 ماہ؛ ملازمت AI کے لیے 3 سال)

5. تعینات کرنے والوں کے لیے شفافیت اور معلومات (آرٹیکل 13)

ہائی رسک AI کو تعینات کرنے والوں کے لیے اتنا شفاف ہونا چاہیے کہ یہ کیا کرتا ہے۔ فراہم کنندگان کو تعینات کرنے والوں کو دینا چاہیے:

  • استعمال کے لیے ہدایات (واضح، مکمل، درست، قابل فہم)
  • صلاحیتوں اور حدود کے بارے میں معلومات
  • مخصوص گروپوں پر کارکردگی کی پیمائش
  • ڈیٹا کی تفصیلات درج کریں۔
  • تعینات کرنے والوں کو ان کے بنیادی حقوق کے اثرات کی تشخیص کی ذمہ داری کو پورا کرنے کے قابل بنانے کے لیے معلومات

6. انسانی نگرانی (آرٹیکل 14)

انسانی نگرانی کو قابل بنانے کے لیے ہائی رسک AI کو ڈیزائن اور تیار کیا جانا چاہیے:

  • صلاحیتوں اور حدود کو مکمل طور پر سمجھنے کی صلاحیت
  • آپریشن کی نگرانی اور بے ضابطگیوں کا پتہ لگانے کی صلاحیت
  • نظام کو اوور رائڈ کرنے، مداخلت کرنے یا روکنے کی صلاحیت
  • آؤٹ پٹ کی تشریح کرنے کی اہلیت (خاص طور پر بائیو میٹرک اور روزگار AI)
  • مکمل طور پر خودکار فیصلوں کے لیے: خطرات کے لیے مناسب نگرانی کے اقدامات

7. درستگی، مضبوطی، اور سائبرسیکیوریٹی (آرٹیکل 15)

ہائی رسک AI کو مناسب درجے حاصل کرنا چاہیے:

  • مطلوبہ مقصد کے لیے موزوں درستگی
  • غلطیوں، غلطیوں، تضادات، اور مخالفانہ حملے کے لیے مضبوطی
  • زندگی بھر سائبرسیکیوریٹی؛ مخالف مضبوطی کی تشخیص

8. کوالٹی مینجمنٹ سسٹم (آرٹیکل 17)

فراہم کنندگان کو کوالٹی مینجمنٹ سسٹم کا احاطہ کرنا چاہیے:

  • ریگولیٹری تعمیل کے لیے حکمت عملی
  • AI سسٹم کے ڈیزائن کے لیے تکنیک اور عمل
  • سسٹم کی توثیق اور جانچ کے طریقہ کار
  • تکنیکی دستاویزات کی دیکھ بھال
  • پوسٹ مارکیٹ کی نگرانی
  • احتساب کا فریم ورک اور سینئر مینجمنٹ سائن آف

9. EU ڈیکلریشن آف کنفارمیٹی (آرٹیکل 47)

فراہم کنندگان کو EU کے موافقت کا ایک تحریری اعلامیہ تیار کرنا چاہیے اور مارکیٹ میں لانے سے پہلے CE مارکنگ لگانا چاہیے۔

10. EU ڈیٹا بیس میں رجسٹریشن (آرٹیکل 49)

ہائی رسک AI سسٹمز (اینیکس III) کو مارکیٹ میں جگہ دینے سے پہلے EU ڈیٹا بیس میں رجسٹرڈ ہونا چاہیے۔ EU AI ایکٹ ڈیٹا بیس یورپی AI آفس کے ذریعے قائم کیا جا رہا ہے۔


عمومی مقصد AI (GPAI) ماڈل کی ذمہ داریاں

باب V (مضامین 51-56) خاص طور پر عام مقصد کے AI ماڈلز کو ایڈریس کرتا ہے — وسیع ڈیٹا پر تربیت یافتہ بڑے AI ماڈلز جو کاموں کی ایک وسیع رینج انجام دے سکتے ہیں (GPT-4، کلاڈ، جیمنی، لاما)۔ ذمہ داریاں GPAI ماڈل فراہم کنندگان پر لاگو ہوتی ہیں، تعینات کرنے والوں پر نہیں۔

تمام GPAI ماڈل فراہم کنندگان (آرٹیکل 53)

  • قومی حکام اور اے آئی آفس کے لیے تکنیکی دستاویزات تیار اور برقرار رکھیں
  • نیچے دھارے فراہم کرنے والوں کو معلومات اور دستاویزات فراہم کریں جو GPAI کو اپنے AI سسٹمز میں ضم کرتے ہیں۔
  • کاپی رائٹ کے ضابطے کی تعمیل کریں (ہدایت 2001/29/EC) - تربیتی ڈیٹا کا خلاصہ فراہم کریں
  • تربیت کے لیے استعمال ہونے والے مواد کا خلاصہ شائع کریں۔

سسٹمک رسک GPAI ماڈلز (آرٹیکل 55)

سسٹمک رسک والے GPAI ماڈلز - 10^25 FLOPs سے زیادہ کل کمپیوٹ کے ساتھ تربیت یافتہ ماڈلز کے طور پر بیان کیا جاتا ہے - زیادہ ذمہ داریوں کا سامنا کرنا پڑتا ہے:

  • مخالفانہ جانچ (ریڈ ٹیمنگ) فی جدید ترین پروٹوکول
  • AI آفس کو سنگین واقعات اور اصلاحی اقدامات کی اطلاع دینا
  • ماڈل وزن، فن تعمیر، اور تربیتی ڈیٹا کے لیے سائبرسیکیوریٹی تحفظ
  • توانائی کی کارکردگی کی رپورٹنگ

یورپی AI آفس سسٹمک رسک GPAI ماڈلز کی فہرست برقرار رکھتا ہے۔ موجودہ نامزد ماڈلز میں GPT-4 اور موازنہ فرنٹیئر ماڈل شامل ہیں۔ جیسا کہ کمپیوٹ کی لاگت کم ہوتی ہے، یہ حد وقت کے ساتھ مزید ماڈلز حاصل کر سکتی ہے۔


مطابقت کی تشخیص کا عمل

مطابقت کا اندازہ اس بات کا تعین کرتا ہے کہ آیا ایک اعلی خطرہ والا AI نظام مارکیٹ کی جگہ سے پہلے AI ایکٹ کے تقاضوں کی تعمیل کرتا ہے۔

خود تشخیص (اندرونی کنٹرول — انیکس VI): زیادہ تر Annex III ہائی رسک AI سسٹمز کے لیے (بائیو میٹرک شناخت کے علاوہ)، فراہم کنندگان مطابقت کا خود اندازہ لگا سکتے ہیں۔ اس میں فراہم کنندہ کا ہر قابل اطلاق تقاضے کے خلاف مکمل تشخیص کا انعقاد اور دستاویز کرنا، موافقت کے اعلامیہ پر دستخط کرنا، اور تکنیکی دستاویزات کو برقرار رکھنا شامل ہے۔

تیسرے فریق کی تشخیص (مطلع شدہ باڈی): بائیو میٹرک شناختی نظام (ضمیمہ III، پوائنٹ 1) اور انیکس I پروڈکٹس میں حفاظتی جزو AI کے لیے ضروری ہے جہاں متعلقہ ہم آہنگی کی قانون سازی کو فریق ثالث کی تشخیص کی ضرورت ہوتی ہے۔

مطلع شدہ باڈیز: یورپی یونین کے رکن ممالک کے ذریعہ نامزد کردہ اور NANDO ڈیٹا بیس میں شائع کردہ۔ AI ایکٹ کے لیے مطلع شدہ باڈی کا عہدہ جاری ہے - تنظیموں کو ممکنہ صلاحیت کی رکاوٹوں کے پیش نظر مطلع شدہ اداروں کو جلد شامل کرنا چاہیے۔


AI گورننس فریم ورک کے تقاضے

آرٹیکل 26 اور 57-63 ان تنظیموں کے لیے گورننس کے تقاضے قائم کرتے ہیں جو ہائی رسک AI کو تعینات کرتی ہیں (نہ صرف فراہم کرتی ہیں):

تعین کار کی ذمہ داریاں:

  • اعلی خطرے والے استعمال کے معاملات میں AI فیصلوں کو اوور رائیڈ کرنے کا اختیار کے ساتھ ایک انسانی جائزہ لینے والے کو تفویض کریں۔
  • یقینی بنائیں کہ اعلی خطرے والے AI کو چلانے والا عملہ تربیت یافتہ اور قابل ہے۔
  • عوامی اداروں کے ذریعہ یا بعض نجی شعبے کے سیاق و سباق میں تعینات بعض اعلی خطرے والے AI کے لئے بنیادی حقوق کے اثرات کی تشخیص (FRIAs) کا انعقاد
  • AI نظام کے آپریشن کی نگرانی؛ فراہم کنندگان کو واقعات کی اطلاع دیں۔
  • کم از کم برقرار رکھنے کی مدت کے لیے آپریشن کے لاگز رکھیں

عمومی AI خواندگی: آرٹیکل 4 فراہم کنندگان اور تعینات کرنے والوں کا تقاضا کرتا ہے کہ وہ اس بات کو یقینی بنائیں کہ ان کے عملے کے پاس کافی AI خواندگی ہے — AI کی صلاحیتوں، حدود اور ان کے کردار سے متعلقہ خطرات کی سمجھ۔


EU AI ایکٹ کی تعمیل چیک لسٹ

  • AI سسٹم کی انوینٹری مکمل ہو گئی — تمام AI سسٹمز استعمال کیے گئے، فراہم کیے گئے، یا تعینات کیے گئے
  • ہر AI نظام کے لیے خطرے کی درجہ بندی کا تعین (ممنوعہ، زیادہ خطرہ، محدود خطرہ، کم سے کم خطرہ)
  • ممنوعہ AI نظام (ضمیمہ I) فروری 2025 تک واپس لے لیا گیا یا اس میں ترمیم کی گئی
  • GPAI ماڈل کی ذمہ داریوں کا اندازہ کیا جاتا ہے اگر LLMs یا فاؤنڈیشن ماڈل فراہم کر رہے ہوں۔
  • ہائی رسک AI سسٹمز کی نشاندہی کی گئی — مطابقت کی تشخیص کا طریقہ طے کیا گیا (خود یا مطلع شدہ باڈی)
  • ہر ایک اعلی خطرے والے AI سسٹم کے لیے تیار کردہ تکنیکی دستاویزات
  • رسک مینجمنٹ سسٹم دستاویزی
  • تربیت/توثیق/ٹیسٹنگ ڈیٹا کے لیے ڈیٹا گورننس کے طریقہ کار
  • ہائی رسک AI سسٹمز میں خودکار لاگنگ کا نفاذ
  • ہائی رسک AI کے لیے انسانی نگرانی کے طریقہ کار کا نفاذ
  • EU ڈیکلریشن آف کنفارمیٹی تیار اور CE مارکنگ لاگو
  • EU ڈیٹا بیس میں رجسٹرڈ ہائی رسک AI سسٹمز
  • AI کی ترقی کے لیے کوالٹی مینجمنٹ سسٹم قائم کیا گیا۔
  • استعمال کی ہدایات تعینات کرنے والوں کے لیے تیار کی گئی ہیں۔
  • پوسٹ مارکیٹ مانیٹرنگ پلان قائم کیا گیا۔
  • متعلقہ عملے کے لیے AI خواندگی کا پروگرام لاگو کیا گیا۔
  • قابل اطلاق تعیناتی سیاق و سباق کے لیے FRIA عمل قائم کیا گیا ہے۔

اکثر پوچھے گئے سوالات

کیا EU AI ایکٹ AI ٹولز پر لاگو ہوتا ہے جو ہم اندرونی طور پر استعمال کرتے ہیں، بیرونی طور پر فروخت نہیں ہوتے؟

ہاں، جہاں وہ ٹولز ہائی رسک کے زمرے میں آتے ہیں۔ AI ایکٹ کا اطلاق دونوں فراہم کنندگان (جو مارکیٹ میں AI تیار کرتے ہیں اور جگہ دیتے ہیں) اور تعینات کرنے والوں (جو پیشہ ورانہ سیاق و سباق میں AI سسٹم استعمال کرتے ہیں) پر ہوتا ہے۔ ایک تنظیم جو تھرڈ پارٹی ہائی رسک AI سسٹم کو تعینات کرتی ہے (مثال کے طور پر، AI سے چلنے والا ریکروٹمنٹ اسکریننگ ٹول) میں تعینات کرنے والوں کی ذمہ داریاں ہوتی ہیں جن میں انسانی نگرانی، عملے کی تربیت، اور بنیادی حقوق کے اثرات کے جائزے شامل ہیں۔ اس ٹول کے فراہم کنندہ پر فراہم کنندہ کی ذمہ داریاں ہوتی ہیں جن میں مطابقت کی تشخیص اور تکنیکی دستاویزات شامل ہیں۔

ہم AI فیچر بنانے کے لیے OpenAI کا API استعمال کرتے ہیں — کیا ہم فراہم کنندہ ہیں یا تعینات کرنے والے؟

آپ ممکنہ طور پر ایک اعلی رسک AI سسٹم کے فراہم کنندہ ہیں اگر آپ کا مجموعی AI سسٹم جو آپ تعینات کرتے ہیں وہ ہائی رسک زمرہ (Anex III) میں آتا ہے۔ OpenAI ایک GPAI ماڈل فراہم کنندہ ہے جس کی اپنی ذمہ داریاں باب V کے تحت ہیں۔ جب آپ ایک GPAI ماڈل کو ایک مخصوص AI ایپلیکیشن میں ریگولیٹڈ استعمال کیس (مثال کے طور پر، CV اسکریننگ، کریڈٹ اسیسمنٹ) کے لیے ضم کرتے ہیں، تو آپ اس مخصوص AI سسٹم کے فراہم کنندہ بن جاتے ہیں اور Annex III ہائی رسک ذمہ داریوں کو برداشت کرتے ہیں۔ OpenAI (جی پی اے آئی ماڈل فراہم کنندہ کے طور پر) آپ کی تعمیل کو فعال کرنے کے لیے آپ کو تکنیکی دستاویزات اور معلومات فراہم کرے۔

بنیادی حقوق کے امپیکٹ اسسمنٹ (FRIA) کیا ہے اور اس کی ضرورت کب ہے؟

FRIA ایک دستاویزی جائزہ ہے کہ کس طرح ایک اعلی خطرے والا AI نظام بنیادی حقوق پر اثر انداز ہو سکتا ہے - رازداری، عدم امتیاز، آزادی اظہار، انصاف تک رسائی وغیرہ۔ آرٹیکل 27 کے تحت، اعلی خطرے والے AI سسٹمز کے تعینات کرنے والے جو کہ عوامی ادارے ہیں، یا نجی آپریٹرز کو ضروری خدمات فراہم کرنے والے (بینکنگ، تعلیم، صحت کی دیکھ بھال کے نظام) سے پہلے FRIA کا انتظام کرنا ضروری ہے۔ تشخیص پر غور کرتا ہے: کون سے حقوق متاثر ہوسکتے ہیں، کون سے خطرات پیدا ہوتے ہیں، خطرات کو کیسے کم کیا جاسکتا ہے، کون ذمہ دار ہے۔ FRIA کا متعلقہ مارکیٹ سرویلنس اتھارٹی کے ساتھ رجسٹر ہونا ضروری ہے۔

EU AI ایکٹ GDPR کے ساتھ کیسے تعامل کرتا ہے؟

دونوں ضابطے ایک دوسرے کے ساتھ ہیں۔ GDPR لاگو ہوتا ہے جب AI سسٹمز ذاتی ڈیٹا پر کارروائی کرتے ہیں۔ AI ایکٹ AI سسٹمز پر لاگو ہوتا ہے قطع نظر اس سے کہ وہ ذاتی ڈیٹا پر کارروائی کرتے ہیں — یہ AI سسٹم کے ڈیزائن، تعیناتی اور نگرانی کا احاطہ کرتا ہے۔ دونوں ایک ساتھ لاگو ہوتے ہیں جب ہائی رسک AI ذاتی ڈیٹا پر کارروائی کرتا ہے: GDPR کی قانونی بنیادوں، ڈیٹا کو کم کرنے، اور DPIA کے تقاضے ڈیٹا پروسیسنگ پر لاگو ہوتے ہیں۔ خطرے کے انتظام، لاگنگ، انسانی نگرانی، اور مطابقت کی تشخیص کے لیے AI ایکٹ کے تقاضے AI سسٹم پر لاگو ہوتے ہیں۔ جہاں اے آئی ایکٹ اور جی ڈی پی آر کے اوور لیپنگ تقاضے ہیں (مثلاً، شفافیت، خودکار فیصلہ سازی)، دونوں کی تعمیل لازمی ہے۔

AI ایکٹ کی خلاف ورزیوں کے لیے کیا سزائیں ہیں؟

جرمانے کی خلاف ورزی کی شدت کے لحاظ سے درجہ بندی کی جاتی ہے: (1) ممنوعہ AI خلاف ورزیاں (آرٹیکل 5): €35 ملین تک یا عالمی سالانہ کاروبار کا 7%، جو بھی زیادہ ہو؛ (2) دیگر اعلی خطرے والی AI ذمہ داریوں کی خلاف ورزیاں: €15 ملین تک یا عالمی سالانہ کاروبار کا 3%؛ (3) حکام کو غلط، نامکمل، یا گمراہ کن معلومات فراہم کرنا: €7.5 ملین یا عالمی سالانہ کاروبار کا 1.5% تک۔ SMEs اور سٹارٹ اپ کے پاس شق (2) اور (3) کے تحت ذمہ داریوں کے لیے زیادہ سے زیادہ رقم کم ہے۔ یورپی AI آفس کے پاس GPAI ماڈلز پر نفاذ کا اختیار ہے۔ قومی مارکیٹ کی نگرانی کے حکام اپنے علاقوں میں نافذ کرتے ہیں۔

ہمیں اپنے AI سسٹم کو EU ڈیٹا بیس میں کب رجسٹر کرنے کی ضرورت ہے؟

انیکس III کے تحت آنے والے ہائی رسک AI سسٹمز کو EU مارکیٹ میں رکھے جانے یا سروس میں ڈالنے سے پہلے رجسٹرڈ ہونا چاہیے۔ EU AI ایکٹ ڈیٹا بیس یورپی AI آفس کے ذریعے قائم کیا جا رہا ہے۔ 2 اگست 2026 کی آخری تاریخ ہے جب رجسٹریشن کی ذمہ داریاں اسٹینڈ لون ہائی رسک AI (Anex III) کے لیے مکمل طور پر لاگو ہوتی ہیں۔ رجسٹریشن کی ضرورت ہے: فراہم کنندہ کی تفصیلات، AI سسٹم کا نام اور ورژن، مطلوبہ مقصد، صارفین کے زمرے، زیادہ خطرہ والے زمرے، مطابقت کی تشخیص کی تفصیلات، اور موافقت کے حوالہ کا اعلان۔


اگلے اقدامات

EU AI ایکٹ ایک بنیادی تبدیلی کی نمائندگی کرتا ہے کہ کس طرح AI سسٹمز کو EU مارکیٹ میں تیار، تشخیص اور تعینات کیا جانا چاہیے۔ AI پروڈکٹس بنانے والی ٹیکنالوجی کمپنیوں کے لیے - چاہے اندرونی ٹولز ہوں یا گاہک کا سامنا کرنے والی ایپلیکیشنز - تعمیل کے لیے AI گورننس کو آپ کے پروڈکٹ ڈویلپمنٹ لائف سائیکل میں ڈیزائن سے لے کر تعیناتی اور پوسٹ مارکیٹ مانیٹرنگ کے ذریعے ضم کرنے کی ضرورت ہوتی ہے۔

ECOSIRE کی OpenClaw AI پلیٹ فارم سروسز EU AI ایکٹ کی تعمیل کو ذہن میں رکھتے ہوئے بنائی گئی ہیں۔ ہماری ٹیم کاروباروں کو ایکٹ کے رسک فریم ورک کے تحت ان کے AI سسٹمز کا اندازہ لگانے، گورننس کے مطلوبہ کنٹرولز کو لاگو کرنے، اور مطابقت کی تشخیص کے لیے تیاری کرنے میں مدد کرتی ہے۔

AI تعمیل کی خدمات کو دریافت کریں: ECOSIRE OpenClaw Services

ڈس کلیمر: یہ گائیڈ صرف معلوماتی مقاصد کے لیے ہے اور قانونی مشورے پر مشتمل نہیں ہے۔ EU AI ایکٹ کے نفاذ کی رہنمائی، ہم آہنگ معیارات، اور ضابطے اب بھی تیار کیے جا رہے ہیں۔ اپنے AI سسٹمز کے لیے مخصوص مشورے کے لیے اہل EU قانونی مشیر سے مشورہ کریں۔

E

تحریر

ECOSIRE Research and Development Team

ECOSIRE میں انٹرپرائز گریڈ ڈیجیٹل مصنوعات بنانا۔ Odoo انٹیگریشنز، ای کامرس آٹومیشن، اور AI سے چلنے والے کاروباری حل پر بصیرت شیئر کرنا۔

Chat on WhatsApp