ABD ve Çin yapay zekâ güvenliğini ve risklerini ele aldı ABD ve Çin yapay zekâ güvenliğini ve risklerini ele aldı

Sadece birkaç gün önce OpenAI'ın kullanım politikaları sayfasında, şirketin teknolojisinin "askeri ve savaş" amaçlı kullanımını yasakladığı açıkça belirtiliyordu. O zamandan beri bu satır silinmiş durumda. Değişiklik günlüğünde belirtildiği üzere, şirket sayfayı 10 Ocak'ta "daha net olmak ve daha fazla hizmete özel rehberlik sağlamak için" güncelledi.

OpenAI, politikalarında değişikliğe gitti

Şirket hala büyük dil modellerinin (LLM'ler) zarar verebilecek herhangi bir şey için kullanılmasını yasaklıyor ve insanları hizmetlerini "silah geliştirmek ya da kullanmak" için kullanmamaları konusunda uyarıyor. Ancak, şirket "askeri ve savaş" ile ilgili ibareleri kaldırmış durumda. Gerçek hayattaki etkilerini henüz görmemiş olsak da, ifadelerdeki bu değişiklik tam da dünyanın dört bir yanındaki askeri kurumların yapay zekayı kullanmaya ilgi gösterdiği bir döneme denk geliyor. Hatırlarsanız Gazze ve İsrail arasındaki savaşta yapay zekanın çeşitli videolarda ve görsellerde kullanıldığını görmüştük. Öte yandan OpenAI’ın bu değişikliğinin arkasındaki nedenler düşünülenden farklı olabilir. “Askeri ve savaş” kelimelerinin açıkça yasak olarak belirtilmesi, OpenAI'ın genellikle yüklenicilere kazançlı anlaşmalar sunan ABD Savunma Bakanlığı gibi devlet kurumlarıyla çalışamayacağını gösteriyordu. Şirketin şu anda herhangi birini doğrudan öldürebilecek ya da fiziksel zarar verebilecek bir ürünü bulunmuyor. Ancak en nihayetinde şirketin teknolojisinin bu amaçlar için kullanılabilecek şekilde düzenlenmesi mümkün. Politika ifadesindeki değişiklik sorulduğunda OpenAI sözcüsü Niko Felix, şirketin "özellikle araçlarımız artık GPT'ler de oluşturabilen günlük kullanıcılar tarafından küresel olarak kullanıldığından, hem hatırlanması hem de uygulanması kolay bir dizi evrensel ilke oluşturmayı amaçladığını" söylüyor.

Kaynak: DonanımHaber