Robot Sophia’nın yapılmasına yardım ettim. Bu 5 nedenden dolayı AI’dan korkmamalıyız

Eda

New member
YENİArtık Haberler yazılarını dinleyebilirsiniz!


Future of Life Enstitüsü, GPT-5 ve benzeri Büyük Dil Modellerinin (LLM’ler) gelişimini durdurmak için bir dilekçe yayınladı.

Endişeleri anlaşılabilir, ancak çok abartıldıklarına inanıyorum. 2005 yılında AGI terimini tanıttığımdan beri Yapay Genel Zekanın ortaya çıkışıyla ilgili benzer korkuların ara sıra dile getirildiğini duydum, ancak birkaç nedenden dolayı mevcut durumda bir ara vermenin çok yanlış bir hareket olacağını düşünüyorum.

LLM’ler sınırlıdır ve oluşturdukları tehditler sınırlıdır


Önce panik içinde çoğu zaman unutulan bir şeyi vurgulayayım: Büyük Dil Modelleri, Yapay Genel Zekâya dönüşemez.

LLM’ler, insan düzeyinde AGI’yi desteklemek için gereken bilişsel mimari türünden tamamen yoksundur. AI araştırmacılarının büyük çoğunluğu bunu biliyor. LLM’ler, çoğu dilsel görevde daha geleneksel makine öğrenimi modellerini bile geçemez ve aşağıdakiler de dahil olmak üzere çok sayıda önemli sınırlamadan muzdariptir:

  • Gerçeği ‘halüsinasyondan’ ayırt edememe.
  • Kısıtlanmış yaratıcılık. LLM’ler, önceki dar yapay zekalara göre daha geniş bir yetenek kümesine sahiptir, ancak bu genişlik sınırlıdır. Deneyim tabanlarının ötesinde akıllıca akıl yürütemezler. Eğitim tabanları gerçekten çok büyük olduğu ve insan çabasının neredeyse her yönünü kapsadığı için geniş ölçüde yetenekli görünüyorlar.
  • Uzun muhakeme zincirlerini etkili bir şekilde inşa edememe.
Kendi AGI geliştirme girişimim olan OpenCog Hyperon, örüntü tanıma ve sentez için LLM’leri kullanıyor ve bunları sembolik mantıksal çıkarım ve evrimsel öğrenme gibi diğer AI yöntemleriyle birleştiriyor. Dünyanın dört bir yanındaki diğer birçok ekip, LLM’leri AGI’lerin bileşenleri olarak kullanarak benzer projeler peşinde koşuyor. Ancak tek başına LLM’ler AGI değildir ve olamaz. Bu nedenle, LLM araştırmasını duraklatmak AGI araştırmasını duraklatmak değildir.

ELON MUSK, YZ’NİN ‘BİR TÜR DÜZENLEYİCİ DENETİMİ’ OLMALI OLDUĞUNU SÖYLÜYOR

Yapay Zeka zarar verdiği kadar iyileştirebilir de


Aşağıdaki durumlarda teknoloji geliştirmeye ara vermeliyiz: Olumsuz yönler açık, kesin ve yakınsa; Artılar az veya belirsiz. LLM’ler bu kriterlerden herhangi birini karşılamıyor.

Açık mektup herhangi bir somut risk belirtmiyor, bunun yerine “Medeniyetimizin kontrolünü kaybetme riskini almalı mıyız?” Bu tür belirsiz duygular, potansiyel olarak faydalı araştırmaları kapatmayı haklı çıkarmaz. Evrak çantası nükleer bombaları veya genetiğiyle oynanmış patojenlerden kaynaklanan son derece doğrudan risklerle karşılaştırın.

Bu belirsiz riskler somut faydalarla dengelenir. Kanser gibi, iklim değişikliği gibi, yaşlanma ve ölüm gibi, küresel çocuk avcılığı gibi riskleri düşünün. Bunlar gerçek. Ve insanüstü yeteneklere sahip bir AGI, kanseri ve akıl hastalığını tedavi edebilir, muhtemelen edecek, insan sağlık süresini uzatabilir, iklim değişikliğini çözebilir, uzay yolculuğunu geliştirebilir ve maddi yoksulluğun neden olduğu acıyı sona erdirebilir.

Kıyamet tellalları, AGI’nin insan neslinin tükenmesine neden olduğu varsayımsal senaryolara odaklanmayı sever – ancak bunların gerçekçi veya olası olduğuna inanmak için hiçbir neden yoktur. Bizi yok olmaktan kurtaran eşit derecede dramatik varsayımsal senaryolar üretilebilir. AGI’nin hiçbir yardımı olmadan da yok olabiliriz (örneğin bir nükleer savaş, biyomühendislik ürünü bir salgın veya bir meteor çarpması). Elinizin altında olan gerçek, belirli somut yapay zeka faydaları yerine neden film rekorları kıran yapay zeka felaket senaryolarına takılıp kalalım?

Değişimi duraklatmak, değişimin getirdiği sorunları çözmez


Teknoloji her zaman dünyanın yasal, politik ve ekonomik yönleriyle iç içe geçmiştir. Sadece nadir durumlarda, diğer ayaklar ileri doğru ilerlerken ilerlemenin bir ayağını duraklatmak mümkündür; yapay zeka gibi yaygın bir tanıma ve çok çeşitli, büyük ölçüde etkili anında pratik uygulamalara sahip bir teknoloji, açıkça bu olağandışı örneklerden biri değildir.

İşsizliğe yol açan AI sorununu ele alalım. Tüm işler otomatikleştirilirse, bir tür iş sonrası ekonomi ortaya çıkacaktır. Ancak bu iş sonrası dünya, otomasyon teknolojileri duraklatıldığında bir boşlukta tasarlanamaz. Toplumun buna uyum sağlayabilmesi için teknolojinin gerçekte konuşlandırılmasına ihtiyacımız var.

Bir moratoryum pratik değildir


Dünya çapında bir AI moratoryumuna yüzde 100 uyumu sağlamak imkansız olacak. Bazı oyuncular duraklayacak ve geride kalacaklar. Diğer, belki daha az etik olan oyuncular önde yarışacak.

DTÖ anlaşmaları gibi daha basit şeyleri uygulamak, küresel ölçekte zar zor geçerliliğini kanıtladı. Nükleer testlerin veya biyolojik silah geliştirmenin yasaklanması gibi şeyler işe yarıyor çünkü bu teknolojiler, hükümetlerin ekonomik ve diğer askeri olmayan hedeflere ulaşmasına yardımcı olma açısından acil büyük faydadan yoksun. AI bu konuda zıttır.

Önerilen moratoryumun arkasındaki önde gelen güçlerden biri olan Elon Musk’ın kısa bir süre önce, görünüşe göre bir LLM projesi için çok sayıda GPU satın alması için şirketi Twitter’ı yönlendirmesi ironik. Endişe ve ekonomik fırsat arasındaki gerilim açıktır.

İnşa etmeyi tamamen durdurmaya değil, faydalı bir şekilde nasıl inşa edeceğimize odaklanmalıyız.


Gelişmekte olan AGI’nin açık ve demokratik yönetişimi, Linux veya Wikipedia geleneğinde demokratik, insani değerler geliştirmelerine yardımcı olacaktır. 2017’den beri kurduğum ve yönettiğim bir proje olan SingularityNET’in varoluş nedeni budur.

AGI’nin eğitim verilerine, eğitim, tıbbi bakım, bilim ve yaratıcı sanatlar gibi değer odaklı faaliyetlerde yükseltilerek insani değerlerin aşılanması gerekir.

Uygun yönetim ve eğitimle, hem süper şefkatli hem de süper zeki makineler tasarlayabileceğimize inanıyorum, bu da hayırsever AGI senaryolarını daha olası hale getiriyor. Uygun yönetişimi ve eğitimi bulmak biraz zaman alacaktır, ancak mevcut aşamada yapay zeka geliştirmeye 6 ay ara vermenin bu işi daha iyi hale getireceğine veya daha iyi bir sonuca götüreceğine inanmak için hiçbir neden yok.

GÖRÜŞ BÜLTENİNE ULAŞMAK İÇİN TIKLAYINIZ



Hanson Robotics Inc. tarafından geliştirilen insan benzeri robot Sophia AI, 29 Eylül 2022 Perşembe günü Singapur’daki TOKEN2049’da. Kripto para birimi etkinliği 29 Eylül’e kadar devam edecek. (Fotoğrafçı: Getty Images aracılığıyla Edwin Koo/Bloomberg)


İnsanlar ve AGI’ler bir sonraki çağa birlikte ilerlemelidir. Bunu, bilgileri, pratik yetenekleri ve değerleri ile birbirlerine yardım ederken yapmalıdırlar. İleriye dönük en mantıklı yol, insanlığa hizmet eden açık AGI’ler geliştirmeyi ve ilerledikçe uygun yönetişim ve eğitim metodolojileri oluşturmayı içerir.

HABERLER SUNULDU

Ray Kurzweil, 2005 tarihli The Singularity is Near adlı kitabında, 2029 yılına kadar insan düzeyinde AGI tahmininde bulundu; bu, şu anda çok olası, hatta belki de kötümser görünen bir tahmin. kendi kod tabanına sahiptir ve bir yıl veya daha kısa bir süre içinde kendi kendine yeni donanım tasarlar – kendisini daha da, daha hızlı ve yukarı doğru bir sarmal içinde yükseltecek yeni nesil bir yapay zeka yaratır.

Gerçekten insanüstü zekanın şafağındaysak, dikkat ve özen gösterilmesi gerektiği açıktır. Ancak gelecek garip geliyor ve karmaşık artıları ve eksileri var diye korkmamalıyız. Devrimin doğası budur.



Dr. Ben Goertzel, yapay zekanın insan düzeyinde ve ötesinde genel bilişsel yeteneğe sahip düşünen makineler yaratmaya yönelik bir alt alanı olan Yapay Genel Zeka alanında dünyanın önde gelen uzmanlarından biridir. Ayrıca 2019’un başlarına kadar Hanson Robotics’te Baş Bilim İnsanı olarak görev yaptı ve robot Sophia için yazılım hazırladı.