
Hedef kitle: Ürün liderleri, ML/AI ekipleri, bilgi güvenliği, gizlilik/uyum, hukuk ve iç denetim paydaşları.
Son güncelleme: 6 Mart 2026
Önemli not: Bu içerik bir politika taslağı için uygulamaya dönük bir çerçeve sunar; hukuki danışmanlık değildir. Sektörünüz (sağlık/finans vb.), eyalet bazlı yükümlülükler ve sözleşmeler için hukuk ve uyum ekiplerinizle değerlendirme yapın.
Yapay zeka sistemleri; veri toplama, model geliştirme, tedarikçi kullanımı ve üretimde izleme gibi birden çok ekibi ve yaşam döngüsü adımını bir araya getirir. Bu nedenle AI riskleri, klasik bilgi güvenliği veya gizlilik politikalarının içine “ek madde” olarak sıkıştığında sorumluluklar ve kanıt beklentileri belirsizleşebilir. İyi bir kurumsal politika; etik ilkeleri (ör. adillik, şeffaflık), veri korumayı (erişim, saklama, denetim izi) ve operasyonel güvenliği (test, izleme, olay yönetimi) tek bir yönetişim şemasında birleştirir.
Pratikte birçok kuruluş, farklı düzenleyici beklentiler ve hızlı değişen kullanım senaryoları karşısında, iç yönetişimini risk yönetimi çerçeveleri üzerinden standardize etmeyi tercih eder. Bu noktada NIST Artificial Intelligence Risk Management Framework (AI RMF 1.0) risk odaklı, yaşam döngüsü temelli bir temel sunar (S1). Generatif AI kullanımı varsa, NIST’in generatif AI profili ek risk kategorileri ve kanıt/test beklentilerini özetler (S2).
NIST AI RMF, AI risklerini kurumsal risk yönetimiyle bütünleştirmek için Govern, Map, Measure, Manage fonksiyonlarını kullanır (S1). Politikanızın bölümleri bu fonksiyonlara “oturursa”, ekipler arası sorumluluklar netleşir ve denetim izi üretmek kolaylaşır.
ISO/IEC 42001, kuruluş seviyesinde bir AI yönetim sistemi (roller, süreçler, sürekli iyileştirme, iç denetim mantığı) kurmak isteyenler için yönetim sistemi formatında gereksinimler tanımlar (S3). ISO standardı yayımlar; kuruluşlar isterse bu standarda uygunluklarını akredite belgelendirme kuruluşları üzerinden (pazar/pratik gerekliliklerine bağlı olarak) belgelendirmeyi hedefleyebilir. NIST AI RMF ile çelişmek yerine çoğu noktada tamamlayıcı olarak kullanılabilir: NIST “hangi risklere bakacağız?” sorusunu, ISO ise “bunu organizasyona nasıl yerleştiririz?” sorusunu yönetim sistemi diliyle ele alır.
ABD federal kurumlarına yönelik OMB M-24-10, AI kullanımında yönetişim, envanterleme ve risk yönetimi beklentilerini tanımlar (S4). Özel sektör için bağlayıcı bir metin olmasa da, kurum içinde standartlaştırma açısından somut örnekler sunar: kullanım envanteri, kayıt/raporlama ve hesap verebilirlik.
Politika “her şeyi” söylemeye çalıştığında uygulanamaz hale gelir. Kapsamı netleştirmek için aşağıdaki kararları yazılı hale getirin:
Aşağıdaki şablon, NIST/ISO yaklaşımıyla uyumlu olacak şekilde çoğu organizasyonda uygulanabilir bir omurga sunar. Her madde için “sahip” (owner), kanıt (evidence) ve periyot (cadence) belirlemek, politikanın hayata geçmesini sağlar (yaşam döngüsü boyunca yönetişim ve izlenebilirlik yaklaşımı için S1; envanter ve yönetişim pratiği örnekleri için S4).
| Bölüm | İçerik | Minimum kanıt |
|---|---|---|
| Amaç ve ilkeler | Etik ilkeler (adillik, hesap verebilirlik, şeffaflık), veri güvenliği hedefleri, insan denetimi yaklaşımı | Onaylı politika metni, üst yönetim sponsorluğu |
| Roller ve sorumluluklar | AI sahipliği, ürün sahibi, ML mühendisliği, güvenlik, gizlilik/uyum, hukuk, iç denetim, tedarik yönetimi | RACI matrisi, risk komitesi charter’ı |
| Use-case envanteri | Tüm AI kullanım alanlarının kaydı, iş amacı, veri türleri, etkilenen kullanıcı grupları | AI envanter listesi ve güncelleme süreci (envanter ve yönetişim pratikleri için bkz. S4) |
| Risk sınıflandırması | Etki temelli sınıflar (düşük/orta/yüksek gibi) ve hangi sınıfta hangi kontrollerin zorunlu olduğu (haritalama/ölçme/yönetme yaklaşımı için bkz. S1) | Risk değerlendirme formu, onay kayıtları |
| Veri yönetişimi | Veri provenansı, kalite, erişim kontrolü, saklama/silme, üçüncü taraf veri kullanımı | Datasheet, veri sözleşmesi, erişim logları (S8) |
| Model yönetişimi | Model geliştirme standartları, versiyonlama, değerlendirme, üretime alma kriterleri | Model Card, test raporları, değişiklik kayıtları (S7) |
| Güvenlik ve tehdit modeli | Tehdit sınıfları, kontrol seti, red-teaming yaklaşımı | Tehdit modeli dokümanı, red-team raporu (tehdit taksonomisi için bkz. S6) |
| İzleme ve olay yönetimi | Performans/riske yönelik izleme, uyarılar, olay bildirim ve düzeltici eylem (yaşam döngüsü yönetimi için bkz. S1) | İzleme panosu, incident postmortem |
Bu omurga; NIST’in yaşam döngüsü risk yönetimi yaklaşımı (S1), generatif AI’ye özgü ek riskler ve kanıt beklentileri (S2) ve yönetim sistemi mantığı (S3) ile uyumlu bir “asgari uygulanabilir politika” üretmek için kullanılabilir.
“Adil olacağız” gibi niyet cümleleri tek başına denetlenebilir değildir. Bunun yerine her ilkeyi bir veya iki uygulanabilir kuralla destekleyin:
Politikada şu soruların yanıtı açık olmalı: Eğitim/ince ayar (fine-tuning) veya değerlendirme verisi nereden geliyor? Hangi lisans/sözleşme koşulları var? Hangi veri türleri kesinlikle yasak (ör. hassas kişisel veri) veya koşullu (ek onay gerektirir)? “Datasheets” yaklaşımı; veri setinin amacı, bileşimi, toplama ve önerilen kullanım/uyarılar gibi başlıklarla pratik bir şablon sunar (S8).
AI sistemleri için denetim izi yalnızca “kim sisteme girdi” değil, aynı zamanda “hangi veriyi, hangi model sürümüyle, hangi amaçla işledi” sorularına da yanıt üretmelidir. Bu yaklaşım, NIST AI RMF’nin yönetişim ve risk yönetiminin yaşam döngüsü boyunca izlenebilir olmasına dönük çerçevesiyle uyumludur (S1). Kamu tarafında envanter/kayıt ve yönetişim beklentilerine ilişkin pratik örnekler için OMB M-24-10 incelenebilir (S4).
NIST’in generatif AI profili, generatif AI’ye özgü risk kategorilerini ve dağıtımdan önce kanıt/test beklentilerini ele alır (S2). Kurum içi politika için pratik karşılıklar şunlar olabilir:
AI güvenliği yalnızca altyapı güvenliği değildir; modele özel saldırı türleri ve suistimal senaryoları vardır. MITRE ATLAS, AI sistemlerine yönelik saldırı teknikleri ve tehdit manzarası için bir taksonomi sunar; kurumsal tehdit modellemesi ve test planlamasında referans olarak kullanılabilir (S6).
Örnek madde 1 — Prompt’a yasak veri sınıfları (Generatif AI): “Çalışanlar, kurumsal onaylı generatif AI araçları dâhil olmak üzere hiçbir prompt’a (i) kimlik doğrulama bilgileri, (ii) müşteri/çalışan kişisel verileri, (iii) sözleşme ile kısıtlı tedarikçi verileri, (iv) henüz kamuya açıklanmamış finansal sonuçlar ve (v) müşteri hesap ayrıntıları yazamaz. İstisnalar yalnızca risk değerlendirmesi ve yazılı onay ile mümkündür.” (Risk ve kontrol beklentilerini NIST AI 600-1 ile eşleyin: S2)
Örnek madde 2 — Üretime alma için minimum kapılar:
- Use-case envanter kaydı ve risk sınıfı ataması (NIST AI RMF yaşam döngüsü yaklaşımı: S1; envanter pratiği örneği: S4)
- Datasheet + Model Card tamamlanması (S8, S7)
- Tehdit modeli + kötüye kullanım test raporu (MITRE ATLAS referanslı) (S6)
- Üretim izleme planı ve olay yönetimi prosedürü (yaşam döngüsü yönetimi: S1)
Kurumsal politikada dokümantasyon çoğu zaman en hızlı kazanımdır: hem iç denetim hem de tedarikçi yönetimi için standart bir kanıt paketi üretir.
AB AI Act, AB pazarında sunulan veya AB’deki kişileri etkileyen belirli AI sistemleri için yükümlülükler doğurabilir. Bu nedenle ABD merkezli bir kuruluşun AB müşterileri, AB’de iştirakleri veya AB’ye yönelik ürünleri varsa, risk sınıflandırması ve şeffaflık yükümlülükleri açısından etkilenmesi olasıdır (S5). Politikanızda “coğrafi kapsam” ve “pazar bazlı ek gereksinimler” için bir ek (appendix) bulundurmak, düzenleyici farklılıkları yönetmeyi kolaylaştırır.
Ölçütler ve kontrol derinliği, use-case riskine göre kademeli olgunlaştırılmalıdır. Aşağıdaki planı ölçeğinize göre uyarlayın.
Kurumsal “AI etiği ve veri güvenliği” politikası; yalnızca bir doküman değil, ürün geliştirme ve güvenlik pratiklerini bir araya getiren bir işletim sistemidir. NIST AI RMF’yi risk-odaklı omurga olarak alıp (S1), generatif AI risklerini NIST AI 600-1 ile tamamlayarak (S2) ve ISO/IEC 42001’in yönetim sistemi yaklaşımıyla sürdürülebilir hale getirerek (S3) uygulanabilir, denetlenebilir ve geliştirilebilir bir çerçeve kurabilirsiniz.
Yorumlar