Görüş | Genel Yapay Zekanın İki Kenarlı Kılıcı: Gelişimi Kontrol Etme ve Krizden Kaçınma

yazar: Hu Yi

Kaynak: Kağıt

Resim kaynağı: Unbounded AI aracı tarafından oluşturulmuştur

Yakın zamanda, Microsoft Redmond Araştırma Enstitüsü'nde Makine Öğrenimi Teorisi Grubu başkanı Sébastien Bubeck ve 2023 Sloan Araştırma Ödülü sahibi Li Yuanzhi, büyük ilgi gören bir makale yayınladılar. "Genel Yapay Zekanın Kıvılcımı: GPT-4 ile Erken Deneyler" başlıklı makale 154 sayfa uzunluğunda. Bazı iyi insanlar, LaTex kaynak kodundan, orijinal başlığın aslında "AGI ile İlk Temas" olduğunu buldu.

Bu makalenin yayınlanması, yapay zeka araştırması alanında önemli bir kilometre taşını işaret ediyor. Yapay genel zekanın (AGI) geliştirilmesi ve uygulanmasına ilişkin derin anlayışımıza dair değerli bilgiler sağlar. Aynı zamanda, makalenin orijinal başlığı olan "AGI ile İlk Temas", genel yapay zekaya yönelik keşfin önemini ve ileriye dönük bakış açısını da vurgulamaktadır.

Bu makalenin çevrilmiş halini sabırla okudum. Dürüst olmak gerekirse, yarı anlıyor, yarı anlamıyorum ve neler olup bittiğini bilmiyorum. Öncelikle bu makalenin temel önermesini tanıtmama izin verin: GPT-4, genel yapay zeka kıvılcımını açan bir genel zeka biçimi sunar. Bu, temel zihinsel yeteneklerinde (akıl yürütme, yaratıcılık ve tümdengelim gibi), uzmanlık kazandığı konu yelpazesinde (edebiyat, tıp ve kodlama gibi) ve gerçekleştirebileceği çeşitli görevlerde (örneğin, oyun oynamak, araçları kullanmak, kendinizi anlatmak vb.).

Bu makaleyi okuduktan sonra "Gelecek Beklenebilir|Yapay Zeka Resim: Herkes Sanatçı Olsun" makalemi tekrar ziyaret ettim. Kendime bir soru sordum: Daha önce ChatGPT gibi büyük modelleri yapay zeka tarafından üretilen içerikte (AIGC) sınıflandırmak biraz dar mı? Microsoft Research makalesinin belirttiği gibi, GPT-4 aslında sadece AIGC değil, daha çok genel yapay zekanın prototipi gibidir.

AGI'nin ne anlama geldiğini açıklamadan önce, The Paper'ın "Beklenen Gelecek" sütununun okuyucularına ANI, AGI ve ASI kelimelerinden bahsetmeme izin verin.

Yapay Zeka (AI) genellikle üç seviyeye ayrılır:

① Zayıf yapay zeka (Yapay Dar Zeka, ANI);

② Yapay Genel Zeka (AGI);

③ Yapay Süper Zekâ (ASI).

Daha sonra, bu üç seviyenin farklılıklarını ve gelişimini kısaca tanıtacağım.

①Zayıf yapay zeka (ANI):

Zayıf AI, AI'nın açık ara en yaygın biçimidir. Tek bir görevi gerçekleştirmeye veya belirli bir alandaki bir sorunu çözmeye odaklanır. Örneğin, görüntü tanıma, konuşma tanıma, makine çevirisi vb. Bu tür akıllı sistemler, belirli görevlerde insanlardan daha iyi olabilir, ancak yalnızca sınırlı bir ölçüde çalışabilirler ve çözmek için tasarlanmadıkları sorunları çözemezler. Bugün piyasada sanal asistanlar (Siri, Microsoft Xiaoice vb.), akıllı hoparlörler (Tmall Genie, Xiaoai Speaker vb.) ve AlphaGo gibi hepsi zayıf kategorisine ait birçok akıllı ürün ve hizmet bulunmaktadır. yapay zeka. Zayıf yapay zekanın sınırlaması, kapsamlı anlama ve muhakeme yeteneğinden yoksun olması ve yalnızca belirli görevlerde iyi performans gösterebilmesidir.

Büyük verinin, algoritmaların ve bilgi işlem gücünün sürekli gelişmesiyle, zayıf yapay zeka yavaş yavaş günlük hayatımızın tüm alanlarına nüfuz ediyor. Finans, tıbbi bakım, eğitim, eğlence vb. alanlarda birçok başarılı uygulama vakasına tanık olduk.

②Genel Yapay Zeka (AGI):

Güçlü yapay zeka olarak da bilinen genel yapay zeka, insanlarla aynı zekaya sahip olan ve normal insanların tüm akıllı davranışlarını gerçekleştirebilen yapay zekayı ifade eder. Bu, AGI'nin tıpkı insanlar gibi çeşitli alanlarda öğrenebileceği, anlayabileceği, uyum sağlayabileceği ve sorunları çözebileceği anlamına gelir. ANI'den farklı olarak AGI, yalnızca belirli bir alanla sınırlı değil, çeşitli görevleri bağımsız olarak tamamlayabilir. Şu anda genel olarak yapay genel zekanın henüz elde edilemediğine inanılıyor, ancak birçok teknoloji şirketi ve bilim insanı bu hedefe yaklaşmak için var gücüyle çalışıyor.

③ Süper Yapay Zeka (ASI):

Süper yapay zeka, çeşitli alanlarda insan zekasını çok geride bırakan bir yapay zeka sistemini ifade eder. Sadece insanların tamamlayabileceği çeşitli görevleri tamamlamakla kalmaz, aynı zamanda yaratıcılık, karar verme yeteneği ve öğrenme hızı açısından da insanları geride bırakır. ASI'nin ortaya çıkışı, benzeri görülmemiş birçok teknolojik atılımı ve sosyal değişimi tetikleyebilir ve insanların çözemeyeceği zor sorunları çözebilir.

Bununla birlikte, ASI beraberinde bir dizi potansiyel risk de getirir. Örneğin, insan değerinin ve onurunun kaybolmasına yol açabilir, yapay zekanın suiistimali ve kötüye kullanılmasını tetikleyebilir ve hatta yapay zekanın başkaldırısına ve diğer sorunlara yol açabilir.

Zayıf yapay zekadan genel yapay zekaya ve süper yapay zekaya kadar yapay zeka teknolojisinin uzun ve karmaşık bir gelişim sürecinden geçeceğine hep inandığımız ortaya çıktı. Bu süreçte yasa ve yönetmeliklerden, her bireyin psikolojik hazırlığına kadar çeşitli hazırlıklar yapmak için yeterli zamanımız var. Ancak son zamanlarda, genel yapay zekaya sahip olmaktan yalnızca birkaç adım uzakta olabileceğimize ve bunun yalnızca 20 yıl veya daha az sürebileceğine dair güçlü bir his var içimde. Bazıları sürecin sadece 5-10 yıl süreceğini söylese, tamamen dışlamazdım.

OpenAI, "Planning and Outlook to AGI" başlıklı makalesinde şundan bahsetmiştir: "AGI, herkese inanılmaz yeni yetenekler getirme potansiyeline sahiptir. Hepimizin bilişsel görevlerde hemen hemen her türlü Yardımı alabildiği ve insan için büyük bir güç çarpanı sağlayan bir dünya hayal edebiliyoruz. zeka ve yaratıcılık."

Ancak bu plan, AGI'nin güçlü yeteneklerini gereğinden fazla vurgulamak yerine "kademeli bir geçiş" sürecini vurgulamaktadır. "İnsanlara, politika yapıcılara ve kurumlara neler olup bittiğini anlamaları, bu sistemlerin iyi ve kötü yanlarını deneyimlemeleri, ekonomimizi ayarlamaları ve düzenlemeleri yürürlüğe koymaları için zaman vermek."

Kanımca, bu pasajın ilettiği temel mesaj, AGI'ye giden teknolojinin zaten orada olduğudur. Bununla birlikte, insan toplumunun bir uyum süreci yaşamasına izin vermek için OpenAI, teknolojik ilerlemenin hızını kasıtlı olarak yavaşlatıyor. Yasal, etik ve sosyal uyum tartışmaları için daha fazla zaman tanıyarak ve ortaya çıkabilecek zorluklarla başa çıkmak için gerekli önlemleri alarak teknolojik ilerleme ile insan toplumunun hazır olma durumunu dengelemeyi amaçlıyorlar.

"The Analects of Confucius·Ji's General's Conquest of Zhuanyu"da şöyle bir cümle var: "Kaplanın ağzı akrepten çıktı" Şimdi, kaplanlar gibi her türden GPT kafeslerinden kaçtı. "Geleceğin Kısa Tarihi" kitabının yazarı Yuval Noah Harari'nin dediği gibi: Yapay zeka, ortalama insan seviyesini aşan bir yetenekle dilde ustalaşmaktır. Dilde uzmanlaşan yapay zeka, şimdiden yüz milyonlarca insanla büyük ölçekte yakın ilişkiler kurma yeteneğine sahip ve insan uygarlık sistemini istila etmenin anahtarını elinde tutuyor. Ayrıca uyardı: Nükleer silahlar ile yapay zeka arasındaki en büyük fark, nükleer silahların daha güçlü nükleer silahlar yaratamamasıdır. Ancak **Yapay zeka daha güçlü bir yapay zeka üretebilir, bu nedenle yapay zeka kontrolden çıkmadan önce hızlı hareket etmemiz gerekiyor. **

22 Mart'ta Future of Life Enstitüsü (Future of Life), tüm topluma "Dev Yapay Zeka Araştırmalarının Askıya Alınması: Açık Mektup" başlıklı bir açık mektup yayınlayarak, tüm yapay zeka laboratuvarlarını GPT- karşılaştırmasını derhal askıya almaya çağırdı. 4 En az 6 aylık bir ara ile daha güçlü AI sistemlerinin eğitimi. Future of Life Enstitüsü'nün ABD politikası direktörü Landon Klein şunları söyledi: "Mevcut anı nükleer çağın başlangıcına yakın görüyoruz..." Bu açık mektup, aralarında Elon'un da bulunduğu binden fazla kişi tarafından desteklendi. Musk (Tesla'nın Kurucusu), Sam Altman (OpenAI CEO'su), Joshua Bengio (2018'de Turing Ödülü sahibi) ve diğer ünlüler.

Pek çok insan "AI nükleer silahlanma" çağına girmek üzere olduğumuzu fark ederse, o zaman gerçekten bir olasılığı keşfetmemiz gerekir. Bu olasılık, amacı tüm yapay zeka şirketlerini kullandıkları GPU sayısı, enerji tüketimi ve diğer göstergelere göre denetlemek olan Uluslararası Atom Enerjisi Ajansı benzeri uluslararası bir organizasyon kurmaktır. Yetenek eşiklerini aşan sistemler denetime tabidir. Bunun gibi uluslararası kuruluşlar aracılığıyla, yapay zeka teknolojilerinin insanlığa potansiyel zararlar yerine faydalar getirmesini sağlamak için birlikte çalışabiliriz.

Bazı bilim adamları, yapay zeka araştırma ve uygulamalarını ilerletirken, yapay zeka sisteminin insan kontrolünü aşma yeteneğinden kaçınmanın gerekli olduğunu savunuyorlar. Ortaya çıkan felaketi anlatmak için "10 yaşındaki bir çocuk Stockfish 15 ile satranç oynamaya çalıştı", "11. yüzyıl 21. yüzyılla savaşmaya çalıştı" ve "Australopithecus Homo ile savaşmaya çalıştı" gibi bir dizi metafor yaptılar. sapiens". Bu bilim adamları, AGI'yi "İnternette yaşayan cansız bir düşünür" olarak hayal etmekten vazgeçmemizi istiyor. Bunun yerine, onları insanlardan bir milyon kat daha hızlı düşünen koca bir uzaylı uygarlığı olarak hayal edin. Sadece başlangıçta bilgisayarlarla sınırlıydılar.

Ancak, bazı bilim adamları iyimser. Onların görüşüne göre, yapay zekanın geliştirilmesi ve araştırılması, bilimsel ilerlemeyi ve teknolojik yeniliği desteklemeye devam etmelidir. Arabanın doğduğu dönemde, bir arabacı sürücünün 6 ay süreyle araç kullanmaktan uzaklaştırılmasını teklif ederse bunu karşılaştırdılar. Şimdi geriye dönüp baktığınızda, bu bir peygamber devesinin davranışının araba gibi davranması mı? Şeffaf ve sorumlu bir araştırma yaklaşımıyla, altta yatan sorunların ele alınabileceğine ve yapay zeka teknolojilerinin kontrol edilebilirliğinin sağlanabileceğine inanıyorlar. Dahası, yapay zekanın getirebileceği zorlukları daha iyi anlayıp bunlara yanıt verebilmemiz, sürekli deney ve uygulama yoluyla olur.

Son zamanlarda, Dünya Sağlık Örgütü (WHO), yapay zeka ve halk sağlığı hizmetlerinin birleşimi hakkında bir uyarı yayınladı. Karar verme için yapay zeka tarafından üretilen verilere güvenmenin önyargı veya kötüye kullanım riski altında olabileceğine dikkat çekiyorlar. DSÖ yaptığı açıklamada, insan refahını korumak ve geliştirmek için ChatGPT gibi üretken büyük dil modellerini (LLM'ler) kullanmanın risklerini değerlendirmenin kritik olduğunu söyledi. Kamu yararını korumak ve tıp alanını ilerletmek için bu teknolojilerin kullanımında doğruluk, güvenilirlik ve tarafsızlığın sağlanması için adımlar atılması gerektiğini vurguluyorlar.

Birçok ülke yapay zeka alanını düzenlemek için şimdiden adımlar attı. 31 Mart'ta İtalyan Kişisel Verileri Koruma Kurumu, ChatGPT kullanımının bundan sonra geçici olarak yasaklanacağını duyurdu. Aynı zamanda AB yetkilileri, belirli yapay zeka hizmetlerinin kullanımını yasaklayan ve ilgili yasal normları formüle eden "Yapay Zeka Yasası (AI Yasası)" adlı yeni bir yasa taslağı üzerinde çalışıyor.

ABD Ticaret Bakanlığı, zarar verme riski taşıyan yeni yapay zeka modellerinin piyasaya sürülmeden önce gözden geçirilmesi gerekip gerekmediği de dahil olmak üzere, kamuoyundan görüş talep etmek için bir bildirim yayınladı. Aynı zamanda Ticaret Bakanlığı, medeni hakları ve tüketiciyi koruma yasalarını ihlal eden zararlı yapay zeka ürünlerine karşı önlem sözü verdi.

OpenAI CEO'su ve kurucu ortağı Sam Altman, 16 Mayıs'ta ilk kez ABD Kongresi'ndeki duruşmaya katılarak yapay zeka teknolojisinin potansiyel tehlikeleri hakkında konuştu. Yapay zeka geliştikçe, yaşam biçimimizi nasıl değiştireceğine dair endişe ve kaygı olduğunu itiraf etti. Bu amaçla, hükümet müdahalesinin yapay zekanın "vahşi kendini kopyalamasını ve kendi kendine sızmasını" engelleyebileceğine inanıyor. Gerekli korumaları uygulayacak ve yapay zeka sistemleri için lisanslar verecek ve bunları iptal etme yetkisine sahip olacak tamamen yeni bir düzenleyici kurum oluşturmayı önerdi.

Duruşmada Altman'a yapay zekanın potansiyeline ilişkin en büyük endişesinin ne olduğu sorulduğunda, ayrıntıya girmeden "bu teknoloji ters giderse çok yanlış olabilir" ve "dünyaya önemli zararlar verebilir" yanıtını verdi. .

Bu duruşma öncesinde Çin'in yapay zeka alanındaki düzenleyici ve kontrol önlemleri de büyük ilgi gördü. 11 Nisan'da, "Çin Halk Cumhuriyeti Ağ Güvenliği Yasası" ve diğer yasa ve yönetmeliklere uygun olarak, üretken yapay zeka teknolojisinin sağlıklı gelişimini ve standartlaştırılmış uygulamasını desteklemek için Çin Siber Uzay İdaresi "Yönetim" taslağını hazırladı. Üretken Yapay Zeka Hizmetlerine Yönelik Tedbirler (Yorum Taslağı)" ". Bu yaklaşım, üretken yapay zeka endüstrisine yönelik destek ve teşvik tutumuna açıklık getirmektedir, örneğin, "Devlet, yapay zeka algoritmaları ve çerçeveleri gibi temel teknolojilerin bağımsız inovasyonunu, tanıtımını ve uygulamasını ve uluslararası işbirliğini destekler ve öncelikli olarak benimsenmesini teşvik eder. güvenli ve güvenilir yazılım ve araçlar, bilgi işlem ve veri kaynakları.”

Görüş taslağı, üretken yapay zeka tarafından üretilen içeriğin sosyalizmin temel değerlerini yansıtmasını ve devlet gücünü yıkma, sosyalist sistemi devirme, ülkeyi bölmeye tahrik, ulusal birliği baltalama, terörü teşvik etme, aşırıcılık, etnik nefreti teşvik, Etnik ayrımcılık, şiddet, müstehcen ve pornografik bilgiler, yanlış bilgiler ve ekonomik ve sosyal düzeni bozabilecek içerik. Görüş taslağı ayrıca tedarikçilerin güvenlik değerlendirmeleri beyan etmelerini, ayrımcılığı önlemek için önlemler almalarını ve mahremiyet haklarına saygı göstermelerini şart koşuyor.

Bu ülkeler tarafından alınan toplu önlemler, yapay zekanın mevcut gelişiminin büyük fırsatlar ve zorluklar getirdiğini bize hatırlatıyor. Yapay zeka teknolojilerinin doğru kullanımını ve şeffaflığını sağlamak için acilen açık etik yönergelere ve düzenlemelere ihtiyacımız var. Bir dizi önemli soruyla karşı karşıya kalacağız: Veri gizliliği ve güvenliği nasıl sağlanır? Algoritmik önyargı ve adaletsizlikle nasıl başa çıkılır? Yapay zeka karar verme sürecinin şeffaflığı ve açıklanabilirliği nasıl sağlanır? Bu soruların net düzenlemeler ve kurumlar aracılığıyla cevaplanması gerekiyor.

Bunu yazarken, son zamanlarda popüler olan yerli dizi “Uzun Mevsim”deki “Uzun Mevsim” başlıklı şiirin ilk paragrafına anlaşılmaz bir şekilde düşüncelerim atlıyor:

parmaklarını şaklat dedi

Hadi parmaklarımızı şıklatalım

uzaktaki şeyler paramparça olacak

Karşımdakiler henüz bilmiyor

Burada cesur bir tahminde bulunmak istiyorum: 2024 geldiğinde ve yılın 2023 kelimesini seçmeye geldiğimizde, ChatGPT en sıcak on kelimeden biri olacak ve hatta yılın kelimesi veya yılın kişisi bile olabilir. .

"AI" kelimesini parçalayalım. A, Melek'i (Melek) temsil ediyorsa, o zaman Şeytan'ı (İblis) temsil edebilirim. Günümüzde yapay zeka teknolojisi hızla gelişiyor ve "melekler ve iblisler" arasında inanılmaz bir simbiyotik ilişki gösteriyor. Bu gerçekle yüzleşerek, tek bir amaç için harekete geçmeliyiz: "Soğuk bir kışa hazırlıksız girmek yerine, yapay zekanın altın ve uzun hasadının tadını çıkaralım."

(Geleceği hayal etmeyi seven bir büyük veri çalışanı olan yazar Hu Yi.)

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin