31 Mayıs 2023

Türk Haber 24

Türkçe Haberler

İtalya, veri gizliliği endişeleri nedeniyle ChatGPT’yi geçici olarak engelliyor

İtalya, popüler yapay zeka sohbet robotuna karşı böyle bir önlem alan ilk Batılı ülke oldu.

İtalyan hükümetinin gizlilik gözlemcisi, veri gizliliği endişeleri nedeniyle yapay zeka (AI) yazılımı ChatGPT’yi geçici olarak engelledi.

Cuma günü yapılan duyuru, İtalya’yı popüler AI chatbot’a karşı böyle bir eylemde bulunan ilk Batılı ülke yaptı.

İtalyan Veri Koruma Kurumu, eylemini “ChatGPT gizliliğe saygı duyana kadar” geçici olarak tanımladı. Tedbiri, şirketin İtalyan kullanıcıların verilerini tutmasını geçici olarak sınırlamayı içeriyor.

Gözlemci, ChatGPT geliştiricisi OpenAI’nin “platformun işleyişinin altında yatan algoritmaları ‘eğitmek’ amacıyla kişisel verilerin toplu olarak toplanmasını ve saklanmasını” haklı gösterecek hiçbir yasal dayanağı olmadığını söyledi.

Ayrıca, 20 Mart’ta kullanıcı konuşmalarının ve ödeme bilgilerinin ele geçirildiği bir veri ihlaline atıfta bulunuldu, bu sorun ABD firmasının bir hatayı sorumlu tuttu .

ChatGPT kullanıma sunulduğundan beri çok hızlı bir büyüme kaydetti. Milyonlarca insan, yazılımı mimari tasarımlar geliştirmekten deneme yazmaya ve mesaj, şarkı, roman ve şaka taslağı hazırlamaya kadar uzanan çeşitli etkinlikler için kullanıyor.

Ayrıca, diğer teknoloji firmaları ve risk sermayedarları arasında bir AI yarışını da ateşledi. Google, Bard adlı kendi sohbet robotunu çıkarıyor ve yatırımcılar her türlü AI projesine nakit akıtıyor.

Ancak eleştirmenler, ChatGPT ve rakiplerinin verilerini nereden aldıkları veya nasıl işledikleri konusunda uzun süredir endişeleniyorlar.

İtalya’daki Bologna Üniversitesi’nden bir AI üyesi olan Ruta Liepina Al Jazeera’ya “Aslında verilerin nasıl kullanıldığını bilmiyoruz çünkü halka verilen yeterli bilgi yok” dedi.

“Aynı zamanda Avrupa Birliği’nde pek çok yeni düzenleme öneriliyor, ancak bunların nasıl uygulanacağı ve şirketlerin bu teknolojilerin nasıl daha iyi anlaşılması için gereken bilgileri göstermek için ne kadar işbirliği yaptığı önemli olacak. çalışıyor,” dedi Liepina.

Büyük dil modelleri olarak bilinen bu tür sohbet botlarına güç veren yapay zeka sistemleri, yuttukları devasa dijital kitap hazinesine ve çevrimiçi yazıya dayalı olarak insan yazı stillerini taklit edebiliyor.

Dünyanın dört bir yanındaki bazı devlet okulları ve üniversiteler, öğrenci intihali endişeleri nedeniyle ChatGPT web sitesini yerel ağlarından engelledi, ancak İtalya’nın bunu ülke çapında nasıl engelleyeceği belli değildi.

Hareketin, Microsoft’un Bing arama motoru gibi, sohbet robotunu çalıştıran aynı teknolojiyi kullanmak için halihazırda OpenAI lisansı olan şirketlerin uygulamalarını etkilemesi pek olası değil.

Bu hafta, yüzlerce uzman ve sektör figürü, “toplum ve insanlık için derin riskler” oluşturduklarını öne sürerek, güçlü yapay zeka sistemlerinin geliştirilmesine ara verilmesi çağrısında bulunan açık bir mektuba imza attı.

Mektup , OpenAI’nin veri kaynakları hakkında daha da az şeffaflığa sahip, sohbet robotunun daha güçlü bir versiyonu olan GPT-4’ün bu ay piyasaya sürülmesiyle ortaya çıktı.

İtalyan gözlemci, OpenAI’ye kullanıcı verilerinin gizliliğini sağlamak için aldığı önlemleri 20 gün içinde bildirmesini emretti, aksi takdirde 22 milyon dolara veya yıllık küresel gelirinin yüzde 4’üne varan bir para cezasıyla karşı karşıya kalacak.

AI uzmanları, daha fazla hükümetin davayı takip edeceğini ve benzer düzenlemeler çıkaracağını söyledi.

Liepina, “[özellikle] OpenAI şirketi algoritmanın nasıl eğitildiğine dair daha fazla bilgi sağlamazsa, diğer ülkelerden bazı takipler gelebileceğini düşünüyorum” dedi.

San Francisco merkezli şirketin CEO’su Sam Altman, bu hafta, kullanıcılar ve geliştiricilerle teknoloji hakkında konuşmak için Mayıs ayında altı kıtayı kapsayan bir geziye çıkacağını duyurdu.

Gezisi, Avrupa Birliği milletvekillerinin yüksek riskli AI araçlarını sınırlamak için kapsamlı yeni kuralları müzakere ettiği Brüksel’de bir durak içerecek.

Altman, Avrupa seyahatinin Madrid, Münih, Londra ve Paris’i de kapsayacağını söyledi.