Yapay zekanın etik soruları

miloya

New member
Yapay zeka (AI) insanların yerini alacak mı? Yaratıcılarına karşı gelebilir mi? İnsanlık için tehlike oluşturuyor mu?


Yapay zeka, insan zihninin nasıl çalıştığını simüle etmek için makineleri eğiten bir bilgisayar bilimi dalıdır. (DOSYA)

Bunlar, üretken yapay zeka araçlarının kitlesel olarak kullanıma sunulmasından ve kamuoyuna mal olmuş bazı kişilerin sansasyonel açıklamalarından bu yana kamuoyundaki tartışmayı ve medyayı alevlendiren sorulardan sadece birkaçı. Ancak felsefi açıdan bu spekülasyon ilginç olsa da çoğu uzman bunun henüz erken olduğu konusunda hemfikir.

Yapay zekanın insanlığa fayda sağlama konusunda muazzam bir potansiyele sahip olduğu doğrudur. Çok çeşitli görevleri otomatikleştirmeyi, yeni hizmetler oluşturmayı ve sonuçta ekonomiyi daha verimli hale getirmeyi mümkün kılacak bir teknolojidir. Üretken yapay zeka, sayısız uygulamasını yeni keşfetmeye başladığımız bu temel trendde yeni bir aşamaya işaret ediyor.

Ancak, dikkat çekici başarılarına rağmen, yapay zeka sistemlerinin aslında makineler olduğu, büyük miktarda veriyi işleyebilen işlemcilere yerleştirilmiş algoritmalardan başka bir şey olmadığı gerçeğini gözden kaçırmamalıyız.

Bize bu yeni araçların Turing testini geçebileceği söylendi. Bu muhtemelen doğrudur, ancak bir zamanlar insan zekası ile yapay zeka arasındaki çizgiyi çizdiği düşünülen test artık anlamlı değil. Bu makineler, insan zekasını kelimenin tam anlamıyla (yani duyarlılık, bağlamsal adaptasyon, empati), refleksivite ve farkındalığı geliştirme konusunda yetersizdir ve muhtemelen çok uzun bir süre de öyle olmayacaktır. Bu araçları hayal edenlerin, Prometheus ya da Golem gibi bizi her zaman büyüleyen bilim kurgu ve mitolojik karakterlerden fazlasıyla etkilenerek, yakında bu özelliklere sahip olacaklarını düşünmeden edemiyoruz.

Daha sıradan bir bakış açısıyla bakarsak, yapay zekanın artan öneminin ortaya çıkardığı etik sorunların yeni bir şey olmadığını ve ChatGPT ile diğer araçların ortaya çıkışının bunları yalnızca daha acil hale getirdiğini fark ederiz. İstihdam konusunun yanı sıra, bu sorular bir yandan yapay zekanın yarattığı veya pekiştirdiği ayrımcılık ve kullandığı eğitim verileriyle, diğer yandan da yanlış bilginin yayılmasıyla (kasıtlı olarak ya da ” AI halüsinasyonları”). Ancak bu iki konu, algoritma araştırmacılarını, yasa koyucuları ve bu alandaki şirketleri uzun süredir meşgul ediyor ve riskleri ortadan kaldıracak teknik ve hukuki çözümleri şimdiden uygulamaya başladılar.

Öncelikle teknik çözümlere bir göz atalım. Etik ilkeler halihazırda yapay zeka araçlarının geliştirilmesine dahil edilmiştir. Thales olarak bir süredir yapay zeka sistemlerinin geliştirilmesinde “kara kutu” inşa edilmemesinin altını çiziyoruz. Sistemlerin şeffaf ve açıklanabilir olmasını sağlayan yönergeler oluşturduk. Ayrıca algoritmalarımızın tasarımında, kullandığımız eğitim verilerinde ve ekiplerimizin oluşumunda önyargıları (özellikle cinsiyet ve görünüm konusunda) en aza indirmeye çalışıyoruz.

İkincisi hukuki çözümler. Hindistan hükümeti proaktif olarak yapay zeka teknolojisinin çeşitli yönlerini düzenlemek için kapsamlı bir düzenleyici çerçeve düşünüyor. Önerilen 2023 Dijital Hindistan Yasası, yapay zeka alanındaki algoritmik önyargı ve telif hakkı endişelerini ele almanın öneminin altını çiziyor. Ana odak noktası, yüksek riskli yapay zeka sistemlerini düzenlemek ve etik uygulamaları teşvik etmenin yanı sıra yapay zeka aracıları için özel politikalar oluşturmaktır.

Ancak eğitim ve gerçek toplumsal değişim aynı zamanda bizi yapay zekanın kötüye kullanılmasıyla ilişkili risklerden de koruyacaktır. Dijital teknolojinin gelişiyle gelişen ve muhtemelen bu yeni araçların çoğalmasıyla daha da kötüleşecek olan aciliyet kültüründen kopmayı hep birlikte başarmalıyız.

Bildiğimiz gibi üretken yapay zeka, oldukça viral olan ancak pek de güvenilir olmayan içeriklerin kolayca üretilmesine olanak tanıyor. Sosyal medyanın çalışma biçimindeki yaygın olarak kabul edilen kusurları, özellikle de şüpheli ve bölücü içeriği teşvik etme ve anlık tepkiler ve çatışmalara yol açma biçimi açısından, daha da artırma riski taşıyor.

Ek olarak, bu sistemler bizi aramaya, doğrulamaya veya kaynakları çapraz referanslamaya gerek kalmadan “kullanıma hazır” yanıtlar almaya alıştırarak entelektüel açıdan yavaşlamamıza neden olabilir. Eleştirel düşüncemizi zayıflatarak işleri daha da kötüleştirme riskiyle karşı karşıyalar.

Dolayısıyla, insanlığa yönelik varoluşsal bir tehdit konusunda alarm zilleri çalmak mantıksız olsa da, bir uyandırma çağrısı yapmamız gerekiyor. Yaklaşık yirmi yıldır demokrasiyi kirleten ve komplo teorilerini körükleyen bu tehlikeli aciliyet eğilimine son vermenin yollarını bulmalıyız.

“30 Saniye Boyunca Düşünün”, Québec Medya ve Bilgi Eğitimi Merkezi tarafından oluşturulan bir eğitim kursunun muhteşem başlığıdır. İçeriği bağlamsallaştırmak ve ne kadar güvenilir olduğunu değerlendirmek için zaman ayırmak ve hemen tepki vermek yerine yapıcı diyaloga girmek, sağlıklı dijital yaşamın yapı taşlarıdır. Bunları hem teoride hem de pratikte öğretmeyi dünya çapındaki eğitim sistemlerinde en önemli öncelik haline getirmeliyiz.

Bu zorluğun üstesinden gelebilirsek sonunda bilimi, tıbbı, üretkenliği ve eğitimi ilerletmek için yapay zeka teknolojisinin muazzam potansiyelinden yararlanabiliriz.

Bu makale Thales Group Yönetim Kurulu Başkanı ve CEO’su Patrice Caine tarafından yazılmıştır.