OpenAI CEO’su Sam Altman, yapay zekanın regülasyona ihtiyaç duyduğunu düşünüyor

OpenAI CEO’su, yeterli önlemler alınmadığı takdirde yapay zekanın nükleer enerji seviyesinde riskler taşıyabileceğini belirtti.

OpenAI

Geçtiğimiz haftalarda yapay zekanın geleceği hakkında konuşmak üzere ABD senatosuna konuk olan ve hükümetlerin regülasyondaki önemi üzerine açıklamalar yapan OpenAI CEO'su Sam Altman, kısa bir aranın ardından yeniden gündem oldu. "Governance of superintelligence" isimli yeni bir blog yazısı yayınlayan Altman, yapay zekanın büyük kuruluşlar tarafından kontrol edilmesi gerektiği döneme yaklaşıldığını ve yeterli önlemler alınmadığı takdirde teknolojinin nükleer enerji seviyesinde riskler taşıyabileceğini belirtti.

Yazısının başında yapay zekanın önümüzdeki 10 yılı domine edeceğini ve 10 yıl sonra çoğu sektörü kökten değişikliğe uğratacağını söyleyen Altman'ın ilgi çekici önerisi regülasyon tarafında geldi:

"Süper zeka çalışmalarımız için IAEA gibi bir şeye (nükleer çalışmaları denetleyen global bir kuruluş) eninde sonunda ihtiyaç duyacağız. Belirli bir bilgi işlem kaynak eşiğinin üzerindeki herhangi bir çalışmanın sistemleri denetleyebilen, denetim gerektirebilen, güvenlik standartlarına uygunluğu test edebilen, dağıtım dereceleri ve güvenlik seviyelerine kısıtlamalar getirebilen uluslararası bir otoriteye tabi olması gerekir."

Sam Altman, OpenAI CEO

OpenAI'ın global yapay zeka çalışmalarına yön verdiğini göz önünde bulundurursak Altman'ın regülasyon için gerekli adımı tek başına atabileceğini rahatlıkla söyleyebiliriz. Kendisinin blog yazısını kimler ciddiye alacak bilemiyoruz ancak Altman'ın bu denetleyici kuruluşun kurulmasında kilit rol oynamasını bekliyoruz.

Sam Altman'ın blog yazısının tamamına ulaşmak için hemen buraya tıklayabilirsiniz.

İlginizi çekebilir