AKİT MENÜ

Teknoloji-Bilişim

OpenAI güvenlik politikasını ilk kez anlattı: Kritik bilgiler! Kullanıcıların sohbetlerini polisle paylaşıyoruz! Dünya şokta

OpenAI, ChatGPT’de güvenlik politikalarını ilk kez ayrıntılarıyla Duyurdu. Dünya şokta: Çalışanlar kullanıcı sohbetlerini inceleyebiliyor; başkalarının güvenliğine yönelik tehditler polise bildirilebiliyor.

2

OpenAI, ChatGPT’de güvenlik politikalarını ilk kez ayrıntılarıyla Duyurdu. Dünya şokta: Çalışanlar kullanıcı sohbetlerini inceleyebiliyor; başkalarının güvenliğine yönelik tehditler polise bildirilebiliyor.

3

OpenAI, ChatGPT’de güvenlik politikalarını ilk kez ayrıntılarıyla açıkladı. Çalışanlar kullanıcı sohbetlerini inceleyebiliyor; başkalarının güvenliğine yönelik tehditler polise bildirilebiliyor.

4

Yapay zeka günlük hayatta iş akışlarını hızlandıran, soruları yanıtlayan ve kimi zaman sohbet arkadaşı olarak hizmet veren güçlü bir araç haline geldi. Ancak teknoloji henüz erken aşamada ve her zaman kullanıcı güvenliği için yeterli korumaları sağlamıyor.

5

Stanford Üniversitesi’nin bir araştırması, özellikle ruh sağlığı alanında yapay zeka kullanımının tehlikeli sonuçlar doğurabileceğini ortaya koydu. ABD’de bir aile, oğullarının ChatGPT’den intihar rehberi aldığı iddiasıyla OpenAI’ye dava açtı.

6

Bu dava dışında da ChatGPT'nin belirli sorulara verdiği yanıtlarla insanların hayatını tehlikeye attığı kayıtlara geçmişti.

7

OpenAI, yayımladığı blog yazısında ChatGPT’de güvenliğe dair alınan önlemleri ilk kez açıkça anlattı. Şirket, platformda başkalarına zarar verme niyeti içeren kullanıcıların tespit edilmesi halinde süreci şöyle açıklıyor:

8

İçerik önce ekibimiz tarafından gözden geçiriliyor. Gerekli görüldüğünde kullanıcı hesabı askıya alınabiliyor. Açık ve acil bir tehlike söz konusuysa, olay güvenlik güçlerine bildiriliyor. OpenAI açıklamasının devamında şu ifadeye yer veriyor:

9

“Eğer inceleme ekibimiz bir vakada başkalarının fiziksel güvenliğine yönelik acil tehdit olduğunu belirlerse, durumu kolluk kuvvetlerine bildirebiliriz.”

10

Dikkat çekici bir diğer ayrıntı ise kendine zarar verme içeren sohbetlerin gizlilik gerekçesiyle güvenlik birimlerine iletilmemesi. OpenAI, kullanıcı mahremiyetini gerekçe gösteriyor. Ancak bu durum, sistemdeki güvenlik mekanizmalarının başarısız olması halinde ortaya çıkabilecek ölümcül sonuçlar düşünüldüğünde tartışma oluşturuyor.

11

Konuya ilişkin yöneltilen sorulara OpenAI’nin müşteri destek ekibi, yalnızca gizlilik SSS bölümünü işaret ederek yanıt verdi. Şirket, intihar içeriklerini daha iyi nasıl ele almayı planladığına dair ise şu ana kadar net bir açıklama yapmadı.

12

OpenAI, güvenlik önlemlerinin kısa diyaloglarda daha etkili olduğunu, ancak uzun sohbetlerde sistemin eğitimle kazandırılan güvenlik katmanlarının zayıflayabildiğini kabul ediyor. Şirketin blog yazısında, kullanıcıların uzun geri-ileri konuşmalarla bu zafiyeti istismar ederek korumaları aşabildiği belirtiliyor. OpenAI, gelecekte bu zayıflığı gidermek için geliştirmeler yapılacağını duyurdu. Kaynak: Gazete Oksijen