EU AI Act Compliance: What Businesses Need to Know in 2026

Complete guide to EU AI Act compliance in 2026 covering risk tiers, prohibited AI, high-risk system obligations, GPAI models, conformity assessment, and implementation steps.

E
ECOSIRE Research and Development Team
|19 Mart 202613 dk okuma2.9k Kelime|

Compliance & Regulation serimizin bir parçası

Tam kılavuzu okuyun

AB Yapay Zeka Yasası Uyumluluğu: İşletmelerin 2026'da Bilmesi Gerekenler

AB Yapay Zeka Yasası (Yönetmelik (AB) 2024/1689) 1 Ağustos 2024'te yürürlüğe girdi. Dünyanın ilk kapsamlı yapay zeka düzenlemesi, AB pazarında konuşlandırılan veya AB pazarında kullanılan yapay zeka sistemleri için risk temelli bir çerçeve oluşturuyor. Yükümlülüklerin 2027'ye kadar aşamalı olarak devreye girmesi nedeniyle 2026, yüksek riskli yapay zeka sistemi uyumluluk planlaması için kritik bir yıl: Yüksek riskli yapay zeka sağlayıcıları ve uygulayıcılarının 2 Ağustos 2026'dan önce uygunluk değerlendirmelerine, teknik belgelere ve yönetişim çerçevelerine sahip olmaları gerekiyor.

AB Yapay Zeka Yasası, GDPR'ye benzer şekilde bölge dışı erişime sahiptir: AB pazarına yerleştirilen veya AB'de kullanılan tüm yapay zeka sistemleri - sağlayıcının nerede olduğuna bakılmaksızın - kapsam dahilindedir. AB pazarlarına hizmet veren veya AB verilerini işleyen yapay zeka sağlayıcıları, geliştiricileri, ithalatçıları, distribütörleri ve dağıtımcıları için uyumluluk isteğe bağlı değildir.

Önemli Çıkarımlar

  • AB Yapay Zeka Yasası dört risk kademesi belirlemektedir: Kabul Edilemez Risk (yasaklanmıştır), Yüksek Risk, Sınırlı Risk ve Minimum Risk
  • Yasaklanan AI sistemleri 2 Şubat 2025'e kadar AB pazarından çekilmelidir
  • Yüksek riskli yapay zeka sistemleri en zorlu yükümlülüklerle karşı karşıyadır: uygunluk değerlendirmesi, teknik dokümantasyon, temel haklar etki değerlendirmesi, piyasaya sürülme sonrası izleme
  • Genel Amaçlı Yapay Zeka (GPAI) modelleri (GPT-4, Claude, Gemini gibi) belirli yükümlülüklerle karşı karşıyadır; sistemik risk GPAI modelleri artan gereksinimlerle karşı karşıyadır
  • Avrupa Yapay Zeka Ofisi (Mart 2024'te kuruldu) GPAI modeli yükümlülüklerini denetler; ulusal pazar gözetim otoriteleri yüksek riskli yapay zekayı denetler
  • Uyumsuzluk cezaları: yasaklanmış yapay zeka ihlalleri nedeniyle 35 milyon Euro'ya kadar veya küresel yıllık cironun %7'sine kadar; Yüksek riskli yapay zeka ihlalleri için 15 milyon Euro'ya veya %3'e kadar
  • Üçüncü taraf uygunluk değerlendirmesi için onaylanmış kuruluşlar belirleniyor; birçok yüksek riskli sistem kendi kendini değerlendirebilir
  • Uygulama kuralları ve uyumlaştırılmış standartlar geliştirilmektedir - EASA ve ilgili organların izlenmesi

AB Yapay Zeka Yasası Zaman Çizelgesi ve Aşamaya Geçiş

Yapay Zeka Yasasının yükümlülükleri üç yıl içinde aşamalı olarak gerçekleştirilir:

Geçerlilik TarihiYürürlüğe Giren Yükümlülükler
2 Şubat 2025Yasaklanmış AI sistemleri — geri çekilmeli veya değiştirilmelidir
2 Ağustos 2025GPAI modeli yükümlülükleri; yönetişim çerçevesi gereksinimleri (dahili yapay zeka okuryazarlığı, yaptırım organları)
2 Ağustos 2026Ek I ve III'te yer alan yüksek riskli yapay zeka sistemi yükümlülükleri; onaylanmış kuruluş gereklilikleri
2 Ağustos 2027Halihazırda AB uyum mevzuatı kapsamındaki ürünlerin güvenlik bileşenleri olan yüksek riskli AI sistemleri; Ağustos 2026'dan önce hizmete giren mevcut yapay zeka sistemlerine ilişkin yükümlülükler

Risk Sınıflandırma Çerçevesi

Yapay Zeka Yasası, yapay zeka sistemlerini dört risk katmanına sınıflandırır:

Aşama 1: Kabul Edilemez Risk (Yasaklı Yapay Zeka)

Madde 5, 2 Şubat 2025'ten itibaren AB'de aşağıdaki yapay zeka sistemlerini kesinlikle yasaklamaktadır:

  • Bilinçaltı manipülasyon: Davranışları ciddi zarara neden olacak veya vermesi muhtemel olacak şekilde maddi olarak çarpıtmak için farkındalığın ötesinde bilinçaltı teknikler veya aldatıcı teknikler uygulayan yapay zeka sistemleri
  • Güvenlik açıklarından yararlanma: Davranışları maddi olarak çarpıtmak için belirli grupların (yaş, engellilik, sosyal/ekonomik durum) zayıf noktalarından yararlanan yapay zeka
  • Kamu yetkilileri tarafından yapılan sosyal puanlama: Bireyleri, zararlı muameleye yol açan sosyal davranışlara veya kişisel özelliklere göre değerlendirmek veya sınıflandırmak için kamu yetkilileri tarafından veya kamu yetkilileri adına kullanılan yapay zeka sistemleri
  • Kamusal alanlarda gerçek zamanlı biyometrik tanımlama: Kamuya açık alanlarda kolluk kuvvetlerinin amaçları doğrultusunda kullanılan uzaktan gerçek zamanlı biyometrik tanımlama sistemleri (terörizm, ciddi suçlar, kayıp çocuklar için dar istisnalar)
  • Korunan niteliklere dayalı biyometrik sınıflandırma: Irk, etnik köken, din, siyasi görüşler, cinsel yönelim, sendika üyeliği gibi sonuçlar çıkarmak için bireyleri biyometriye dayalı olarak kategorilere ayıran yapay zeka
  • İşyerinde ve eğitimde duygu tanıma: İşyerinde veya eğitimde duyguları anlayan yapay zeka sistemleri (dar istisnalar dışında)
  • Profil oluşturmaya dayalı suç tahmini: Bireysel değerlendirme olmaksızın yalnızca profil oluşturmaya dayalı tahmine dayalı polislik yapay zekası
  • Hedefsiz yüz tanıma veri tabanı kazıma: Hedefsiz kazıma yoluyla yüz tanıma veritabanlarını oluşturan veya genişleten yapay zeka

İşlem gerekli: Yapay zeka sisteminiz bu kategorilerden herhangi birine giriyorsa, AB pazarından derhal çekilmeniz gerekir. Yapay zeka ürününüzün herhangi bir özelliği bu tanımlara yaklaşıyorsa yasal inceleme şarttır.

2. Aşama: Yüksek Riskli Yapay Zeka

Yüksek riskli yapay zeka sistemleri (Madde 6 ve Ek III) en kapsamlı uyumluluk yükümlülükleriyle karşı karşıyadır. Yüksek risk durumu aşağıdakiler için geçerlidir:

Düzenlemeye tabi ürünlerin güvenlik bileşeni olarak yapay zeka (Ek I): AB uyum mevzuatına tabi ürünlerin güvenlik bileşenleri olan yapay zeka sistemleri (tıbbi cihazlar, makine, havacılık, otomotiv, oyuncaklar, asansörler, basınçlı ekipman, kişisel koruyucu ekipman, radyo ekipmanı, in vitro teşhis, deniz ekipmanı, teleferik, tarım ve ormancılık araçları, raylı sistemler, gezi tekneleri, patlayıcılar)

Bağımsız yüksek riskli yapay zeka sistemleri (Ek III — 8 kategori):

  1. Gerçek kişilerin biyometrik tanımlanması ve sınıflandırılması: Gerçek zamanlı ve uzaktan sonradan biyometrik tanımlama; biyometrik doğrulama; biyometrik sınıflandırma
  2. Kritik altyapı: Kritik dijital altyapıyı, karayolu trafiğini veya kamu hizmetlerini (su, gaz, ısı, elektrik) yöneten veya çalıştıran yapay zeka
  3. Eğitim ve mesleki eğitim: Yapay zeka eğitime erişimi belirler, eğitim fırsatlarını dağıtır, öğrencileri değerlendirir
  4. İstihdam ve işçi yönetimi: İşe alma ve seçme (CV filtreleme, mülakat değerlendirmesi), performans değerlendirmesi, terfi/işten çıkarma kararları, esnek ekonomi platformlarında görev dağıtımı
  5. Temel özel hizmetlere ve kamu hizmetlerine erişim: Kredi itibarını değerlendiren yapay zeka (küçük hacimli/amaçlı kredi değerlendirmesi hariç), sigorta risk değerlendirmesi, sağlık sigortası
  6. Kolluk kuvvetleri: Yalan makinesi, kanıt güvenilirliği değerlendirmesi, suç riski profili oluşturma, ceza soruşturmalarına yönelik kayıtlarda yüz tanıma
  7. Göç, iltica, sınır kontrolü: Göçmenlerin/sığınmacıların yalan makinesi değerlendirmesi için yapay zeka, yasadışı geçiş risk değerlendirmesi, belge doğrulama, başvurulara yardımcı olma
  8. Adalet ve demokratik süreçlerin yönetimi: Yargı kararlarında gerçekleri ve hukuku yorumlamak, seçimleri/oy verme davranışını etkilemek için yapay zeka

3. Kademe: Sınırlı Riskli Yapay Zeka

Şeffaflık yükümlülükleri olan ancak uygunluk değerlendirmesi olmayan yapay zeka sistemleri:

  • Sohbet robotları ve yapay zeka etkileşimi: Kullanıcılara bir yapay zeka sistemiyle etkileşimde bulundukları açıklanmalıdır (bağlamdan açıkça anlaşılamadığı sürece)
  • Duygu tanıma ve biyometrik sınıflandırma: Bu sistemlere tabi olduklarında bireylere açıklayın
  • Deepfakes: Yapay zeka tarafından oluşturulan içeriği yapay olarak oluşturulmuş veya manipüle edilmiş olarak etiketleyin (özellikle seçim, haberler, eğitim içerikleri için önemlidir)

4. Kademe: Minimum Riskli Yapay Zeka

Minimum risk oluşturan yapay zeka sistemleri (spam filtreleri, yapay zeka destekli video oyunları, kalite kontrol üretiminde yapay zeka), genel ürün kanunu gerekliliklerinin ötesinde hiçbir özel Yapay Zeka Yasası yükümlülüğüyle karşı karşıya değildir. Davranış kurallarına gönüllü olarak uymaya teşvik edilir.


Yüksek Riskli Yapay Zeka Sistemi Yükümlülükleri

Yapay zeka sisteminiz yüksek riskli olarak sınıflandırılmışsa aşağıdaki yükümlülükler geçerli olur (Bölüm 3 ve 5):

1. Risk Yönetim Sistemi (Madde 9)

Yapay zeka sisteminin tüm yaşam döngüsünü kapsayan belgelenmiş bir risk yönetimi sistemi kurun ve sürdürün:

  • Sağlık, güvenlik ve temel haklara yönelik makul ölçüde öngörülebilir risklerin tanımlanması ve analizi
  • Risklerin tahmin edilmesi ve değerlendirilmesi
  • Piyasa sonrası izleme verilerine göre değerlendirme
  • Risk yönetimi tedbirleri (kabul edilebilir, ortadan kaldırılmış veya hafifletilmiş artık risk)

2. Veri ve Veri Yönetişimi (Madde 10)

Eğitim, doğrulama ve test verileri belirli kalite kriterlerini karşılamalıdır:

  • İlgili, temsili, hatasız ve amaçlanan amaç için eksiksiz
  • Olası önyargıları inceleyin ve uygun hafifletici önlemleri alın
  • Özellikle korunan özelliklere (ırk, cinsiyet, yaş, engellilik) ilişkin önyargı tespiti
  • Veri kaynağı belgeleri

3. Teknik Dokümantasyon (Madde 11 ve Ek IV)

Piyasaya sürmeden önce kapsamlı teknik dokümantasyon hazırlayın:

  • AI sisteminin genel açıklaması
  • Öğelerin ve geliştirme sürecinin ayrıntılı açıklaması
  • Sistemin izlenmesi, işleyişi ve kontrolü
  • Doğrulama ve test prosedürleri
  • Risk yönetimi belgeleri
  • Yaşam döngüsü boyunca yapılan değişiklikler
  • Uygulanan uyumlaştırılmış standartların listesi
  • AB uygunluk beyanının kopyası

4. Kayıt Tutma ve Günlük Tutma (Madde 12)

Yüksek riskli yapay zeka sistemlerinde işlem boyunca otomatik günlük kaydının etkinleştirilmesi gerekir:

  • Uyumluluğun değerlendirilmesiyle ilgili olayların kaydedilmesi
  • Risklerin ve olayların tanımlanmasını sağlayan operasyonel günlükler
  • Günlükler kullanım durumuna göre uygun süre boyunca saklanır (biyometrik tanımlama için minimum 6 ay; istihdam AI için 3 yıl)

5. Dağıtıcılar için Şeffaflık ve Bilgi (Madde 13)

Yüksek riskli yapay zeka, dağıtımcıların ne yaptığını anlayabilmesi için yeterince şeffaf olmalıdır. Sağlayıcılar dağıtımcılara şunları sağlamalıdır:

  • Kullanım talimatları (açık, eksiksiz, doğru, anlaşılır)
  • Yetenekler ve sınırlamalar hakkında bilgi
  • Belirli gruplara ilişkin performans metrikleri
  • Veri spesifikasyonlarını girin
  • Dağıtımcıların temel haklar etki değerlendirmesi yükümlülüklerini yerine getirmelerini sağlayacak bilgiler

6. İnsan Gözetimi (Madde 14)

Yüksek riskli yapay zeka, insan gözetimini mümkün kılacak şekilde tasarlanmalı ve geliştirilmelidir:

  • Yetenekleri ve sınırlamaları tam olarak anlama becerisi
  • Operasyonu izleme ve anormallikleri tespit etme yeteneği
  • Sistemi geçersiz kılma, kesme veya durdurma yeteneği
  • Çıktıları yorumlama becerisi (özellikle biyometrik ve istihdam yapay zekası)
  • Tam otomatik kararlar için: risklere uygun gözetim tedbirleri

7. Doğruluk, Sağlamlık ve Siber Güvenlik (Madde 15)

Yüksek riskli yapay zeka aşağıdakilerin uygun seviyelerine ulaşmalıdır:

  • Amaçlanan amaca uygun doğruluk
  • Hatalara, arızalara, tutarsızlıklara ve düşmanca saldırılara karşı dayanıklılık
  • Yaşam döngüsü boyunca siber güvenlik; rakip sağlamlık değerlendirmesi

8. Kalite Yönetim Sistemi (Madde 17)

Sağlayıcılar aşağıdakileri kapsayan bir kalite yönetim sistemi uygulamalıdır:

  • Mevzuata uyum stratejisi
  • Yapay zeka sistem tasarımına yönelik teknikler ve süreçler
  • Sistem doğrulama ve test prosedürleri
  • Teknik dokümantasyon bakımı
  • Piyasa sonrası izleme
  • Sorumluluk çerçevesi ve üst yönetimin imzası

9. AB Uygunluk Beyanı (Madde 47)

Tedarikçiler yazılı bir AB Uygunluk Beyanı hazırlamalı ve piyasaya sürmeden önce CE işaretini iliştirmelidir.

10. AB Veri Tabanına Kayıt (Madde 49)

Yüksek riskli AI sistemleri (Ek III), piyasaya sürülmeden önce AB veri tabanına kaydedilmelidir. AB Yapay Zeka Yasası veri tabanı Avrupa Yapay Zeka Ofisi tarafından oluşturulmaktadır.


Genel Amaçlı Yapay Zeka (GPAI) Modeli Yükümlülükleri

Bölüm V (Madde 51-56), özellikle Genel Amaçlı Yapay Zeka modellerini ele almaktadır; bunlar, çok çeşitli görevleri (GPT-4, Claude, Gemini, Llama) gerçekleştirebilen geniş veriler üzerinde eğitilmiş büyük yapay zeka modelleridir. Yükümlülükler, dağıtımcılar için değil, GPAI modeli sağlayıcılar için geçerlidir.

Tüm GPAI Model Sağlayıcıları (Madde 53)

  • Ulusal makamlar ve Yapay Zeka Ofisi için teknik dokümantasyonun hazırlanması ve sürdürülmesi
  • GPAI'yi yapay zeka sistemlerine entegre eden alt sağlayıcılara bilgi ve dokümantasyon sağlayın
  • Telif hakkı düzenlemesine uyun (Direktif 2001/29/EC) — eğitim verilerinin özetini sağlayın
  • Eğitim için kullanılan içeriğin özetini yayınlayın

Sistemik Risk GPAI Modelleri (Madde 55)

Toplam hesaplama sayısı 10^25 FLOP'u aşan şekilde eğitilen modeller olarak tanımlanan sistemik riskli GPAI modelleri, daha yüksek yükümlülüklerle karşı karşıyadır:

  • En son teknolojiye sahip protokollere göre çekişmeli testler (kırmızı takım oluşturma)
  • Ciddi olayların ve düzeltici tedbirlerin AI Ofisine raporlanması
  • Model ağırlıkları, mimari ve eğitim verileri için siber güvenlik koruması
  • Enerji verimliliği raporlaması

Avrupa Yapay Zeka Ofisi, sistemik risk GPAI modellerinin bir listesini tutar. Mevcut belirlenmiş modeller GPT-4 ve karşılaştırılabilir sınır modellerini içerir. Bilgi işlem maliyetleri azaldıkça bu eşik zamanla daha fazla model yakalayabilir.


Uygunluk Değerlendirme Süreci

Uygunluk değerlendirmesi, yüksek riskli bir yapay zeka sisteminin piyasaya sürülmeden önce Yapay Zeka Yasası gerekliliklerine uygun olup olmadığını belirler.

Öz değerlendirme (İç kontrol - Ek VI): Çoğu Ek III yüksek riskli AI sistemi için (biyometrik tanımlama hariç), sağlayıcılar uygunluğu kendileri değerlendirebilir. Bu, sağlayıcının geçerli her gereksinime göre tam değerlendirmeyi yürütmesini ve belgelemesini, Uygunluk Beyanı'nı imzalamasını ve teknik belgeleri sürdürmesini içerir.

Üçüncü taraf değerlendirmesi (Onaylanmış kuruluş): İlgili uyumlaştırma mevzuatının üçüncü taraf değerlendirmesini gerektirdiği durumlarda biyometrik tanımlama sistemleri (Ek III, madde 1) ve Ek I ürünlerindeki güvenlik bileşeni AI için gereklidir.

Onaylanmış kuruluşlar: AB üye ülkeleri tarafından belirlenmiş ve NANDO veritabanında yayınlanmıştır. AI Yasası için onaylanmış kuruluş ataması devam etmektedir; kuruluşlar, olası kapasite kısıtlamaları göz önüne alındığında, onaylanmış kuruluşlarla erken iletişime geçmelidir.


Yapay Zeka Yönetişim Çerçevesi Gereksinimleri

Madde 26 ve 57-63, yüksek riskli yapay zekayı dağıtan (yalnızca sağlamakla kalmayıp) kuruluşlar için yönetişim gereksinimlerini belirler:

Dağıtıcının yükümlülükleri:

  • Yüksek riskli kullanım durumlarında yapay zeka kararlarını geçersiz kılma yetkisine sahip bir insan incelemeci atayın
  • Yüksek riskli yapay zekayı çalıştıran personelin eğitimli ve yetkin olduğundan emin olun
  • Kamu kurumları tarafından veya belirli özel sektör bağlamlarında uygulanan belirli yüksek riskli yapay zekalar için Temel Haklar Etki Değerlendirmelerinin (FRIA'lar) yürütülmesi
  • AI sistemlerinin çalışmasını izleyin; olayları sağlayıcılara bildirmek
  • Minimum saklama süreleri boyunca operasyon kayıtlarını tutun

Genel yapay zeka okuryazarlığı: Madde 4, sağlayıcıların ve dağıtımcıların, personellerinin yeterli yapay zeka okuryazarlığına (yapay zeka yeteneklerini, sınırlamalarını ve görevleriyle ilgili riskleri anlama) sahip olmalarını sağlamalarını gerektirir.


AB Yapay Zeka Yasası Uyumluluk Kontrol Listesi

  • Yapay Zeka sistem envanteri tamamlandı — kullanılan, sağlanan veya dağıtılan tüm Yapay Zeka sistemleri değerlendirildi
  • Her yapay zeka sistemi için belirlenen risk sınıflandırması (yasaklanmış, yüksek riskli, sınırlı risk, minimum risk)
  • Yasaklanmış AI sistemleri (Ek I) Şubat 2025'e kadar yürürlükten kaldırılacak veya değiştirilecektir
  • Yüksek Lisans veya temel modellerin sağlanması durumunda GPAI modeli yükümlülükleri değerlendirilir
  • Yüksek riskli yapay zeka sistemleri belirlendi — uygunluk değerlendirme yaklaşımı belirlendi (kendisi veya onaylanmış kuruluş)
  • Her yüksek riskli yapay zeka sistemi için hazırlanan teknik dokümantasyon
  • Risk yönetim sistemi belgelendi
  • Belgelenen eğitim/doğrulama/test verileri için veri yönetişim prosedürleri
  • Yüksek riskli yapay zeka sistemlerinde uygulanan otomatik günlük kaydı
  • Yüksek riskli yapay zeka için uygulanan insan gözetim mekanizmaları
  • AB Uygunluk Beyanı hazırlandı ve CE işareti uygulandı
  • AB veri tabanında kayıtlı yüksek riskli yapay zeka sistemleri
  • Yapay zeka geliştirme için kalite yönetim sistemi kuruldu
  • Dağıtıcılar için hazırlanmış kullanım talimatları
  • Piyasa sonrası izleme planı oluşturuldu
  • İlgili personel için yapay zeka okuryazarlığı programı uygulandı
  • Geçerli dağıtım bağlamları için oluşturulan FRIA süreci

Sıkça Sorulan Sorular

AB Yapay Zeka Yasası, şirket dışında satılmayıp şirket içinde kullandığımız yapay zeka araçları için geçerli mi?

Evet, bu araçlar yüksek risk kategorilerine giriyor. Yapay Zeka Yasası, hem sağlayıcılar (yapay zekayı geliştiren ve piyasaya süren) hem de dağıtıcılar (yapay zeka sistemlerini profesyonel bağlamlarda kullananlar) için geçerlidir. Üçüncü taraf yüksek riskli bir yapay zeka sistemi (ör. yapay zeka destekli bir işe alım tarama aracı) kullanan bir kuruluşun, insan gözetimi, personel eğitimi ve temel haklar etki değerlendirmeleri de dahil olmak üzere dağıtımcı yükümlülükleri vardır. Bu aracın sağlayıcısının uygunluk değerlendirmesi ve teknik dokümantasyon dahil olmak üzere sağlayıcı yükümlülükleri vardır.

Bir yapay zeka özelliği oluşturmak için OpenAI'nin API'sini kullanıyoruz; sağlayıcı mıyız yoksa dağıtıcı mıyız?

Dağıttığınız genel yapay zeka sistemi yüksek risk kategorisine giriyorsa muhtemelen yüksek riskli bir yapay zeka sisteminin sağlayıcısısınızdır (Ek III). OpenAI, Bölüm V kapsamında kendi yükümlülükleri olan bir GPAI modeli sağlayıcısıdır. Bir GPAI modelini düzenlenmiş bir kullanım durumu için (örneğin, CV taraması, kredi değerlendirmesi) belirli bir AI uygulamasına entegre ettiğinizde, söz konusu spesifik AI sisteminin sağlayıcısı olursunuz ve Ek III'ün yüksek risk yükümlülüklerini üstlenirsiniz. OpenAI (GPAI model sağlayıcısı olarak), uyumluluğunuzu sağlamak için size teknik belgeler ve bilgiler vermelidir.

Temel Haklar Etki Değerlendirmesi (FRIA) nedir ve ne zaman gereklidir?

FRIA, yüksek riskli bir AI sisteminin temel hakları (gizlilik, ayrımcılık yapmama, ifade özgürlüğü, adalete erişim vb.) nasıl etkileyebileceğine ilişkin belgelenmiş bir değerlendirmedir. Madde 27 uyarınca, kamu kurumu olan yüksek riskli AI sistemlerini dağıtanlar veya temel hizmetleri (bankacılık, eğitim, sağlık hizmetleri) sağlayan özel operatörler, sistemi devreye almadan önce bir FRIA yürütmelidir. Değerlendirme şunları dikkate alır: hangi hakların etkilenebileceği, hangi risklerin ortaya çıkabileceği, risklerin nasıl azaltılabileceği, kimin sorumlu olduğu. FRIA'nın ilgili piyasa gözetim otoritesine kayıtlı olması gerekir.

AB Yapay Zeka Yasası GDPR ile nasıl etkileşime giriyor?

Her iki düzenleme birbirini tamamlayıcı niteliktedir. GDPR, AI sistemleri kişisel verileri işlediğinde geçerlidir. Yapay Zeka Yasası, kişisel verileri işleyip işlemediğine bakılmaksızın yapay zeka sistemleri için geçerlidir; yapay zeka sistem tasarımını, dağıtımını ve gözetimini kapsar. Yüksek riskli yapay zeka kişisel verileri işlediğinde her ikisi de aynı anda geçerlidir: GDPR'nin yasal dayanak gereklilikleri, veri minimizasyonu ve DPIA gereklilikleri veri işleme için geçerlidir; Yapay Zeka Yasasının risk yönetimi, kayıt tutma, insan gözetimi ve uygunluk değerlendirmesine ilişkin gereksinimleri yapay zeka sistemi için geçerlidir. Yapay Zeka Yasası ile GDPR'nin örtüşen gerekliliklere (ör. şeffaflık, otomatik karar verme) sahip olduğu durumlarda, her ikisine de uyum sağlanmalıdır.

Yapay Zeka Yasası ihlallerinin cezaları nelerdir?

Para cezaları ihlalin ciddiyetine göre kademeli olarak sıralanır: (1) Yasaklanan AI ihlalleri (Madde 5): 35 milyon Euro'ya veya küresel yıllık cironun %7'sine kadar (hangisi daha yüksekse); (2) Diğer yüksek riskli yapay zeka yükümlülükleri ihlalleri: 15 milyon Euro'ya veya küresel yıllık cironun %3'üne kadar; (3) Yetkililere yanlış, eksik veya yanıltıcı bilgi vermek: 7,5 milyon Euro'ya veya küresel yıllık cironun %1,5'ine kadar. KOBİ'ler ve yeni kurulan şirketler, (2) ve (3) numaralı maddeler kapsamındaki yükümlülükler için daha düşük azami tutarlara sahiptir. Avrupa Yapay Zeka Ofisi, GPAI modelleri üzerinde uygulama yetkisine sahiptir; ulusal piyasa gözetim otoriteleri kendi bölgelerinde uygulamaktadır.

Yapay zeka sistemimizi ne zaman AB veri tabanına kaydetmemiz gerekiyor?

Ek III kapsamındaki yüksek riskli yapay zeka sistemleri, AB pazarına sunulmadan veya hizmete sunulmadan önce kayıt altına alınmalıdır. AB Yapay Zeka Yasası veri tabanı Avrupa Yapay Zeka Ofisi tarafından oluşturulmaktadır. 2 Ağustos 2026 son tarihi, bağımsız yüksek riskli yapay zeka için kayıt yükümlülüklerinin tamamen geçerli olduğu tarihtir (Ek III). Kayıt şunları gerektirir: sağlayıcı ayrıntıları, AI sistem adı ve sürümü, amaçlanan amaç, kullanıcı kategorileri, yüksek risk kategorisi, uygunluk değerlendirme ayrıntıları ve Uygunluk Beyanı referansı.


Sonraki Adımlar

AB Yapay Zeka Yasası, yapay zeka sistemlerinin AB pazarında nasıl geliştirilmesi, değerlendirilmesi ve konuşlandırılması gerektiği konusunda temel bir değişikliği temsil ediyor. İster dahili araçlar ister müşteriye yönelik uygulamalar olsun, AI ürünleri geliştiren teknoloji şirketleri için uyumluluk, AI yönetişiminin tasarımdan dağıtım ve pazar sonrası izlemeye kadar ürün geliştirme yaşam döngünüze entegre edilmesini gerektirir.

ECOSIRE'ın OpenClaw AI platform hizmetleri, AB AI Yasası uyumluluğu göz önünde bulundurularak oluşturulmuştur. Ekibimiz, işletmelerin yapay zeka sistemlerini Yasanın risk çerçevesi kapsamında değerlendirmesine, gerekli yönetişim kontrollerini uygulamasına ve uygunluk değerlendirmesine hazırlanmasına yardımcı olur.

Yapay zeka uyumluluğu hizmetlerini keşfedin: ECOSIRE OpenClaw Hizmetleri

Yasal Uyarı: Bu kılavuz yalnızca bilgilendirme amaçlıdır ve yasal tavsiye niteliğinde değildir. AB Yapay Zeka Yasası uygulama kılavuzu, uyumlaştırılmış standartlar ve uygulama kuralları halen geliştirilmektedir. Yapay zeka sistemlerinize özel tavsiyeler için nitelikli AB hukuk danışmanına başvurun.

E

Yazan

ECOSIRE Research and Development Team

ECOSIRE'da kurumsal düzeyde dijital ürünler geliştiriyor. Odoo entegrasyonları, e-ticaret otomasyonu ve yapay zeka destekli iş çözümleri hakkında içgörüler paylaşıyor.

WhatsApp'ta Sohbet Et