Bankacılıkta Yapay Zeka – Hindustan Times

miloya

New member
Avrupa Birliği'nin (AB) yapay zeka (AI) mevzuatı, yapay zekanın dünya çapında tüm sektörlerdeki geniş kapsamlı faaliyetlere artan şekilde benimsenmesini ve entegrasyonunu güçlendirdi. Yapay zekanın teknolojiye özgü bir yasal ve düzenleyici çerçeve içerisinde benimsenmesi ihtiyacını vurguladı. Yapay zekanın finans gibi yüksek riskli sektörlerde yaygınlaşmasıyla bu gelişme daha da önemli hale geliyor. International Data Corporation'a göre bankacılık ve perakende sektörleri, 2022-26 tahmininde en büyük yapay zeka yatırımcıları olacak. Ek olarak Mckinsey Global Institute, GenAI'nin (AI teknolojisinin bir alt kümesi) küresel bankacılık sektörüne yıllık 200 milyar ila 300 milyar dolar arasında değer katabileceğini, bunun da sektörün toplam gelirinin %2,8 ila %4,7'sini temsil edeceğini tahmin ediyor.


Yapay zeka. (Düşünce)

LLM liderliğindeki GenAI'nin ortaya çıkışıyla birlikte, dünya çapındaki bankalar, arka uç operasyonlarındaki uygulamasının yanı sıra ön uç operasyonlarında da yapay zekayı giderek daha fazla benimsiyor. Hindistan bankacılık bağlamında, FS Yapay Zeka Benimseme Araştırması 2021, bankalarda en yaygın olarak uygulanan dört yapay zeka uygulamasını vurguladı: sohbet otomasyonu, dolandırıcılık tespiti, yapay zeka sanal asistanı ve müşteri profili oluşturma ve sınıflandırma. Anket bulguları, Hindistan Merkez Bankası'nın yapay zekayı giderek daha fazla benimsemesiyle destekleniyor. 2023-24 yıllık raporu, yapay zeka ve makine öğrenimini kullanarak mikro veri analizinde “denetleme kapasitesinin genişletilmesi” yönündeki 2024-25 gündemini vurguladı. Ek olarak Hindistan Merkez Bankası (RBI), yapay zekayı risk yönetimine dahil etmenin yollarını araştırıyor.

Yapay zekayı bankacılıkta kullanmanın sayısız faydası olsa da, yapay zekayı bankacılık gibi yüksek riskli ve son derece savunmasız bir sektörde kullanmanın da riskleri var. Yapay zekanın ortaya çıkardığı zorluklar programlama, yönetişim ve siber güvenlik olarak ayrılabilir.

Programlama söz konusu olduğunda en büyük sorunlardan biri “kara kutu” algoritmasıdır. Bu, otomatik karar almada şeffaflığın olmadığı anlamına gelir. Modelin karar verme sürecinde dikkate aldığı süreç ve unsurlar gizlidir. Şeffaflığı model geliştiricilerin kendileri tarafından zayıflatılamaz. Yapay zekanın kredi puanlama, risk yönetimi ve hatta bankacılıktaki dolandırıcılık tespit alanları gibi kritik işlevlerde kullanılabileceği için bu durum endişe verici. Yapay zeka destekli karar almaya güvenmenin bir başka sonucu da algoritmalardaki önyargı eğilimidir. Korunan özelliklere dayalı ayrımcılığın yanı sıra, Avrupa Konseyi tarafından yapılan bir araştırma, yapay zekanın mevcut yasaların kapsamı dışında kalan adil olmayan bir şekilde farklılaştırma yeteneğini de vurguladı. Bu, korunan özelliklere karşı dolaylı olarak ayrımcılık yapan bir veya daha fazla adil olmayan kritere dayalı olabilecek mesaj sınıflarının icat edilmesini içerir. Bu, örneğin belirli bir gruba ait kişilerin kredi başvurularının reddedilmesine yol açabilir. Yapay zeka bu tür hatalar yaptığında hesap verebilirliğe ilişkin bir yönetişim sorunu ortaya çıkar. Özerk yapısı nedeniyle yanlış veya hatalı kararların sorumluluğunu vermek zordur. Modelin şeffaf olmaması nedeniyle, uygun düzenleyici gözetim olmadan bir bankanın veya gayrimenkul geliştiricisinin sorumluluğunu net bir şekilde belirlemek zordur.

Yukarıda belirtilen risklere ek olarak, yapay zekanın denetimsiz benimsenmesinin en belirgin tehdidi bir ülkenin siber güvenliğine yöneliktir. Tehdit, hedefli ve merkezi olmayan saldırılar olarak ikiye ayrılabilir. Yapay zekanın oluşturduğu hedeflenen tehdit bireyseldir. Diğerlerinin yanı sıra derin sahtekarlıklar, dil öykünmesi ve kimlik avını içeren sosyal mühendisliği mümkün kılar. Bu tür sentetik medya, hileli ve neredeyse gerçek iletişim yoluyla bireyleri gizli bilgilerini dolandırıcılara ifşa etmeye yönlendiriyor. Açıklamalar, kötü niyetli aktörlerin mağdurların banka hesaplarına yetkisiz erişim sağlamasına ve dolandırıcılık işlemleri gerçekleştirmesine yardımcı olabilir. Merkezi olmayan yapay zeka kontrollü bir saldırı ise bir finans kurumunu hedef alıyor. Özellikle GenAI, yeni kötü amaçlı yazılım kodları biçiminde daha karmaşık siber saldırıları kolaylaştırabilir, AI modelinin eğitim verilerini bozabilir, AI tabanlı araçlar aracılığıyla bir kurumun ağındaki güvenlik açıklarını tespit edebilir vb. Bankacılık sisteminin karmaşık, birbirine bağımlı dengesiyle Bir kuruma yönelik yapay zeka destekli bir siber saldırı domino etkisine yol açarak ülkenin finansal istikrarına zarar verebilir. Bu nedenle, bireylerin finansal refahını korumak için bankacılık sektöründe yapay zeka kullanımının düzenleyici önlemlerle hafifletilmesi gerekiyor.

Yapay zekanın finans sektörü, özellikle de bankacılık üzerindeki etkisine ilişkin uluslararası araştırmalar artarken, G7 Hiroşima Yapay Zeka Süreci, Yapay Zeka Konvansiyonu ve BM kararı ile çok taraflı gelişmeler ağırlıklı olarak yapay zekanın genel kullanımıyla sınırlı kaldı. ön plan. Ulusal düzeyde Avustralya, Japonya ve Birleşik Krallık gibi ülkeler, bankacılık sektöründeki yapay zeka operasyonlarını düzenlemek için mevcut düzenleyici çerçevelerine güveniyor. Özellikle Amerika Birleşik Devletleri'nde, esas olarak güvenlik, emniyet, tüketicinin korunması ve sivil haklara odaklanan sekiz yol gösterici ilkeye dayalı olarak yapay zekanın gelişimini düzenlemek üzere Başkanlık Kararnamesi çıkarıldı. Karar, yürütme kurumlarına ve departmanlara, genel ilkeler ışığında yapay zeka kullanımını izlemek için politikalar oluşturma veya mevcut düzenlemeleri netleştirme yetkisi verdi. Bu bağlamda Hazine Bakanlığı, finansal kurumların yapay zeka ile ilgili siber güvenlik ve dolandırıcılık risklerini ele almaları için en iyi uygulamaları özetleyen bir rapor yayınladı.

Yapay zekanın finansal düzenleme alanındaki önemli bir gelişme, Avrupa Birliği Yapay Zeka Yasasının kabul edilmesiydi. Kanun, insanların kredibilitesini analiz etmek ve sağlık ve hayat sigortasında risk yönetimini değerlendirmek için kullanılan yapay zeka sistemlerini yüksek riskli olarak sınıflandırıyor. Yüksek riskli yapay zeka sistemlerini şeffaflık, uyumluluk değerlendirmesi, açıklama, insan gözetimi ve veri yönetimi açısından belirli zorunlu gereksinimlere tabi tutar. Her ne kadar yasanın finansal hizmetlerinin kapsamı sınırlı olsa da, Hindistan gibi ülkelerin yapay zeka odaklı bankacılığı düzenlemeye doğru ilerlemesi için bir başlangıç noktası görevi görüyor.

Hindistan'da bu konuda mevzuatta hâlâ bir boşluk var. Kuşkusuz, RBI son yayınlarında yapay zekanın güvenli kullanımına olan ihtiyacı vurguladı, ancak spesifik bir gözetim mekanizması, resmi kılavuz veya kılavuz eksikliği devam ediyor. Dünyanın dört bir yanındaki benzerleri gibi Hindistan da yapay zeka destekli bankacılık hizmetlerinin olumsuz sonuçlarını ele almak için mevcut teknolojiden bağımsız düzenleyici çerçevesine güveniyor. Söz konusu çerçeve, diğerlerinin yanı sıra Bankacılık Düzenleme Yasası, Bilgi Teknolojileri Yasası, BT Düzenlemeleri, Veri Koruma Yasası ve Bharatiya Nyay Sanhita'yı içermektedir.

Yapay zeka hızla daha yeni ve daha iyi bir sürüme geçerken, Hindistan bankacılık sektöründeki entegrasyonu da kat kat artacaktır. Bu çerçevede, Hindistan'ın mevcut yasal ve düzenleyici çerçevesinin, özellikle yapay zekanın Hindistan bankacılık sistemi üzerindeki etkisini ele alacak şekilde revize edilmesi gerekecektir. Teknolojinin gelişimine izin verilmesi gerekirken, bankacılık gibi kamuoyunun büyük güvenine sahip kritik bir sistemin çökmemesi için bunun bilinçli ve sınırsız düzenleyici sınırlar içinde gerçekleşmesi gerekiyor.

Bu makale, Ulusal Kamu Finansmanı ve Politikası Enstitüsü (NIPFP) Araştırma Görevlisi, LAMP Üyesi (Toplu 2018-19) Nikita tarafından yazılmıştır.