Anthropic, yeni programı ile yapay zeka "model refahını" incelemeye odaklanıyor

OpenAI rakibi Anthropic, dün model refahı olarak adlandırdığı kavramı araştırmak ve model refahına hazırlık yapmak için bir araştırma programı başlattığını duyurdu. Anthropic program kapsamında bir yapay zeka modelinin refahının ahlaki olarak dikkate alınmayı hak edip etmediğini belirlemenin yollarını araştıracak. Aynı şekilde şirketin, modelin sıkıntı belirtilerinin potansiyel önemi ve olası düşük maliyetli müdahaleler gibi konuları araştıracağını belirtelim. 

[embedded content]

Anthropic paylaştığı blog göndersinde mevcut veya gelecekteki yapay zeka sistemlerinin bilinçli olup olmayacağı veya etik değerlendirmeyi gerektiren deneyimler yaşayıp yaşamayacağı konusunda bilimsel bir fikir birliği olmadığını ifade ediyor. 

Şirket bu konudaki görüşünü şöyle detaylandırıyor: 

Bu nedenle, konuya alçakgönüllülükle ve mümkün olduğunca az varsayımla yaklaşıyoruz. Bu alan geliştikçe fikirlerimizi düzenli olarak gözden geçirmemiz gerekeceğini biliyoruz.

Anthropic’in de belirttiği gibi konu modellerin insan özelliklerini sergileyip sergilemediği olduğunda yapay zeka topluluğunun büyük bir fikir ayrılığı içinde olduğunu söyleyebiliriz. Pek çok akademisyen, günümüz yapay zekasının bilinç veya insan deneyimine yaklaşamayacağına ve gelecekte de bunu başaramayacağını ifade ediyor. King’s College London’da yapay zeka alanında uzman bir araştırma görevlisi olan Mike Cook, modellerin değerleri olmadığı için bir modelin “değerlerinde” bir değişikliğe “karşı çıkamayacağını” dile getirdi: 

Yapay zeka sistemlerini bu dereceye kadar insanlaştırmak, ya dikkat çekmek için yapılan bir şey ya da yapay zeka ile olan ilişkilerini ciddi şekilde yanlış anlamak demektir. Bir yapay zeka sistemi hedefleri için optimizasyon mu yapıyor, yoksa kendi değerlerini mi ediniyor? Bu, onu nasıl tanımladığınız ve onunla ilgili ne kadar süslü bir dil kullanmak istediğinizle ilgili bir mesele.

MIT’de doktora öğrencisi olan Stephen Casper ise yapay zekanın her türlü uydurmada bulunan ve her türden anlamsız şey söyleyen bir taklitçi olduğunu düşündüğünü ifade ediyor. 

Öte yandan bazı bilim insanları, yapay zekanın değerlere ve ahlaki karar verme konusunda insan benzeri diğer bileşenlere sahip olduğunu ısrarla vurguluyor. Yapay zeka araştırma kuruluşu AI Safety Center’ın yaptığı bir araştırmaya göre yapay zeka, belirli senaryolarda kendi refahını insanlardan daha öncelikli kılan değer sistemlerine sahip. 

Anthropic’in bir süredir model refahı konusunda çalışmaya odaklandığını söyleyebiliriz. Geçen yıl şirket, Anthropic ve diğer şirketlerin bu konuya nasıl yaklaşması gerektiğine dair kılavuzlar geliştirmek üzere ilk özel yapay zeka refah araştırmacısı Kyle Fish’i işe aldı. Fish aynı zamanda Yeni model refah araştırma programını yöneten isim. Kyle Fish’in The New York Times’a yaptığı açıklamaya göre; Claude veya başka bir yapay zekanın bugün bilinçli olma ihtimali yüzde 15 seviyesinde.

Kaynak: webrazzi

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Meta, Facebook’ta spam avına çıktı: Alakasız etiketler ve sahte hesaplara sıkı takip
  • Nisan 25, 2025

Meta, Facebook’taki spam içeriklerle savaş başlattı. Alakasız görseller, etiket bombardımanı ve sahte etkileşimler artık para kazandıramayacak. İşte yeni kurallar ve yaptırımlar… Kaynak chip

Devamı

Devamı
Windows 11’e yeni özellikler geliyor; ama herkes bu özellikleri alamayacak!
  • Nisan 25, 2025

Microsoft, Windows 11 için yeni özellikler üzerinde çalışıyor. Ama ne yazık ki bunları herkes alamayacak; yapay zeka destekli yeni erişilebilirlik ve öğrenme özelliklerinden bazılarını almak için Copilot+ bilgisayara ihtiyacınız olacak. Kaynak chip

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir