ChatGPT’nin yapay zekası yapay gerçeklik üretebilir

Eda

New member
YENİArtık Haberler yazılarını dinleyebilirsiniz!


ChatGPT, akademik sahtekarlığı alevlendirme, işleri modası geçmiş hale getirme ve siyasi önyargıyı sürdürme potansiyeline sahip, bilim kurgu biliminin süper güçlü yapay zekası olarak lanse ediliyor.

Şaşırtıcı olmayan bir şekilde, hükümetler artık bu algılanan AI sorunuyla mücadele etmek için sert ve sert önlemler alıyor.

İtalya’nın yakın tarihli ChatGPT yasağı, Fransa, İrlanda, Almanya ve Kanada dahil olmak üzere birçok ülkeyi OpenAI’nin popüler yapay zeka programını engelleyen benzer politikalar düşünmeye sevk etti. İtalyan Veri Koruma Kurumu’na göre, ChatGPT’nin “kişisel verilerin büyük çapta toplanmasını ve saklanmasını haklı gösterecek herhangi bir yasal dayanağı” yoktur. Ajans, şirkete değişikliklerle yanıt vermesi veya multimilyon dolarlık ağır bir para cezasıyla karşı karşıya kalması için 20 gün verdi. Bu arada, Elon Musk ve endüstri liderleri bir “AI duraklaması” çağrısında bulunuyor.



9 Mart 2023’te Brooklyn’de düzenlenmiş bir dizüstü bilgisayardaki ChatGPT logosu. (Getty Images aracılığıyla Gabby Jones/Bloomberg)


ChatGPT’nin bu iddiaları gerçekten karşılayıp karşılamayacağını belirlemek için henüz çok erken. Uzun vadeli etki hala belirsiz olduğundan, ulusal yasaklar gibi ani tepkiler çok az toplumsal fayda sağlıyor. Hükümetlerimiz, chatbot’un yanlış bilgilendirme ve iftira gibi acil zararlarını hafifletmeye odaklanmalı.

EVET, AI BİR SİBER GÜVENLİK ‘NÜKLEER’ TEHDİTTİR. BU NEDENLE ŞİRKETLER BUNU YAPMAYA CESARET ETMELİ

OpenAI’nin GPT-4’ü, Google’ın Bard’ı ve Microsoft’un Bing Chat’i gibi büyük dil modellerinde eğitilen sohbet robotları, videolar, ses, resimler, metin ve diğer medya biçimlerini oluşturmak için makine öğrenimi sistemlerini kullanan daha geniş üretken yapay zeka şemsiyesi altına giriyor. ABD düzenleyicileri, genellikle işe alma ve borç verme konusunda yardımcı olan karar verme sistemleri bağlamında algoritmik önyargıyla ilgili sorularla uğraşırken, üretken yapay zeka bir dizi yeni soru ve zorluk ortaya çıkarıyor.


AI beyin


Dall-E 2, 22 Ocak 2023’te Brüksel, Belçika’da AI beyni ile mobil cihazlarda görüldü. (Getty Images aracılığıyla Jonathan Raa/NurPhoto)


Örneğin, Dall-E, kullanıcı istemlerine dayalı olarak gerçekçi görüntüler ve sanat eserleri oluşturabilir. Bir makine öğrenimi modeli olarak Dall-E, zaman zaman sanat eserlerini ve insan görüntülerini kendine mal ederek büyük veri yığınlarından “öğrenerek” yeni içerik üretir. İtalya bu gizlilik endişesini hedefliyor, ancak nihayetinde herhangi bir yasak, ortaya çıkan ve gelişen teknolojiyle ilgili sorunları tam olarak tanımlanmadan önce varsayar. Politikanın etkinliği, bu varsayımların ne ölçüde doğru olduğuna bağlıdır.

Ulusal yasaklar, sıkıcı işleri kolaylaştırarak verimliliği ve üretkenliği artırmak gibi olumlu uygulamaları hesaba katmayı ihmal ediyor. Sağlık uzmanları, üretici yapay zekanın idari amaçlarla kullanılabileceğini ve hasta deneyimini iyileştirebileceğini tahmin ediyor. Yasak başarılı bir şekilde uygulanırsa, İtalya – ve onu takip eden diğer ülkeler – yalnızca kullanıcıların popüler programı kullanmasını engelleyecek ve yerli araştırmacıları üretken yapay zeka sistemleri geliştirmekten caydıracak. Kısıtlamaların, teknolojiyi aldatma ve dolandırıcılık gibi daha hain amaçlarla kullanan kötü aktörleri değil, yasalara uyan vatandaşları etkilediğine dikkat etmek de önemlidir.

AVRUPA’DAKİ HUKUK YAPICILARI YZ’NİN ZARARLI ETKİLERİNİ DÜZENLEMEK İSTİYOR

Yasaklar, gelişmekte olan teknolojiyle mücadele için çözüm olmayabilirken, mantıklı ve hedefe yönelik düzenlemeler mevcut zararları hafifletebilir. ChatGPT ile ilgili olarak, chatbot’un genel algısı ile gerçek yetenekleri ve doğruluğu arasında önemli bir eşitsizlik vardır. Onun “öğrenmesi”, gerçek anlayıştan çok taklit ve taklit etmeye benzer. Program, görünüşte insan benzeri tepkiler üretme eğiliminde olsa da, derinlikten yoksun olabilir ve en kötü ihtimalle, üretilmiş gerçekler olabilir. Bu kusurlara rağmen, birçok kullanıcı ChatGPT’nin yanıtlarının doğruluğunu kontrol etmez ve bunun yerine bunları veriye dayalı gerçek olarak ele alır.

ChatGPT’ye verdiğim şu basit istemi düşünün: AI hakkında kanun yapıcılardan alıntılar. Bir dizi ikna edici, ancak tamamen uydurma alıntıları listelemeye devam etti. Tüm bağlantılar bozuk veya geçersizdi. Benzer şekilde, bir yasal analiz sitesi olan SCOTUSblog, ChatGPT’ye Yüksek Mahkeme hakkında 50 soru sordu ve programın yanıtlarının çoğunda yanlış veya yanıltıcı olduğunu tespit etti. Chatbot için başarı, tahmin etmek ve kullanıcının isteğine uygun yanıtlar üretmektir – doğruluk değil.

GÖRÜŞ BÜLTENİNE ULAŞMAK İÇİN TIKLAYINIZ

Risk yüksek olduğunda yanlış bilgilerin ciddi sonuçları olabilir. AI konuşmacılarından kimin sorumlu olacağı hala belirsiz olsa da, yasal sonuçları olan iftira gibi. Avustralya’da, ChatGPT tarafından haksız yere rüşvetle suçlanan bir belediye başkanı, OpenAI’ye karşı, chatbot’a karşı açılan ilk karalama davası olacak bir dava açmayı düşünüyor.

Amerika Birleşik Devletleri’ndeki ve dünyanın dört bir yanındaki kanun koyucular, ortaya çıkan yapay zeka sistemlerinin yasa ile nasıl bir arayüz oluşturduğunu değerlendirmelidir. Kapsamlı yasaklar, bu bulanık yasal beklentileri açıklığa kavuşturmak için çok az şey yapacak, ancak milyonlarca kişinin yararlı bulduğu bir programın geliştirilmesini engelleyecektir.

HABERLER SUNULDU