Büyük AI Deneylerine Ara Verin: Açık Bir Mektup

İnsanların yetenekleriyle yarışan yapay zeka sistemleri, geniş çaplı araştırmalar tarafından gösterildiği gibi, topluma ve insanlığa ciddi riskler taşıyabilir ve önde gelen yapay zeka laboratuvarları tarafından kabul edilmiştir. Yaygın olarak desteklenen Asilomar Yapay Zeka İlkeleri’nde belirtildiği gibi, Gelişmiş Yapay Zeka, Dünya yaşam tarihinde derin bir değişikliği temsil edebilir ve uygun bakım ve kaynaklarla planlanmalı ve yönetilmelidir. Ne yazık ki, bu düzeyde planlama ve yönetim gerçekleşmiyor, son aylarda ise yapay zeka laboratuvarları, yaratıcıları dahil kimse tarafından anlaşılamayan, öngörülemeyen veya güvenilir bir şekilde kontrol edilemeyen giderek daha güçlü dijital zihinleri geliştirmek ve kullanmaya yönelik kontrolden çıkmış bir yarışta yer almaktadır.

Günümüzdeki yapay zeka sistemleri genel görevlerde insanlarla yarışabilir hale geliyorlar ve kendimize şu soruları sormalıyız: Makinelerin propagandayla ve gerçek dışı bilgiyle bilgi kanallarımızı doldurmasına izin mi vermeliyiz? Tatmin edici olanlar dahil tüm işleri otomatikleştirmeli miyiz? Bizden daha fazla sayıda, daha zeki, eskimiş ve yerini alan olabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskini mi almalıyız? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü yapay zeka sistemleri, etkilerinin olumlu olacağına ve risklerinin yönetilebilir olacağına güvendiğimizde geliştirilmelidir. Bu güven, bir sistemin potansiyel etkilerinin büyüklüğüyle artan şekilde iyi gerekçelendirilmelidir. OpenAI’nin yapay genel zeka hakkındaki son açıklamasında, “Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız bir incelemeye ihtiyaç duyulabilir ve yeni modeller oluşturmak için kullanılan hesaplama hızı büyümenin hızını sınırlandırmak için en gelişmiş çabalar için anlaşmalar yapılması önemli olabilir.” dedi. Biz de bu konuda hemfikiriz. O nokta şimdi.

Bu nedenle, tüm yapay zeka laboratuvarlarının, GPT-4’ten daha güçlü olan yapay zeka sistemlerinin eğitimini en az 6 ay süreyle derhal durdurmasını talep ediyoruz.

Ayrıca, AI geliştirme sürecinde etik ve sorumluluk sahibi olmak çok önemlidir. AI sistemleri insanları ayrımcılığa uğratmak, önyargılı kararlar vermeleri, özel hayatın ihlal edilmesi, siber saldırılara zemin hazırlamak gibi birçok risk taşır. Bu nedenle, AI sistemleri geliştirilirken etik ilkeler ve insan haklarına uygunluk konusunda büyük bir özen gösterilmelidir.

Sonuç olarak, AI geliştirme sürecinde ortak bir güvenlik protokolü geliştirme ve uygulama çağrısında bulunuyoruz. Bu, AI’nin insanlık için risk oluşturabilecek birçok potansiyel tehlikesini azaltacaktır. AI labaratuvarlarının en az altı ay boyunca GPT-4’ten daha güçlü AI sistemlerinin eğitimine ara vermesi ve bu süre zarfında bağımsız uzmanlar tarafından yönetilen bir etik çerçeve oluşturulması gerekiyor. Ayrıca, AI’nin insan haklarına uygunluğunu ve sosyal faydasını sağlamak için güçlü bir AI yönetişim sistemine ihtiyaç olduğunu vurguluyoruz.

AI labaratuvarları, hükümetler ve bağımsız uzmanlar, AI sistemlerinin geliştirilmesi sürecinde insanlığın güvenliği ve refahı için çalışmalıdır. Bu çağrıyı destekleyen birçok bilim insanı, iş lideri ve aktivist var. AI labaratuvarlarının bu çağrıya cevap vermesi, insanlığın geleceği için çok önemlidir.

kaynak : Future of Life Institute

Not: Bu yazı ChatGPT-4 ile birebir çevrilmiştir, çeviriye hiçbir müdahale edilmemiştir.

Published by

WordPress.com’da Blog Oluşturun.

%d blogcu bunu beğendi: