OpenAI'nin bir numaralı "rakibi", 4 milyar doları aşan değerlemesiyle en güçlü kara at!

Sayısız teknoloji tutkununu kendine hayran bırakan yapay zeka, baş döndürücü bir hızla gelişerek küresel sermayenin ve yenilikçilerin dikkatini çekiyor. Eksik istatistiklere göre, 2023'ün ilk yarısında, küresel AI startup'ları toplamda 50 milyar ABD dolarından fazla fon** toplayarak tarihte yeni bir rekor kırdı.

Bunların arasında 100'den fazla finansman, otonom sürüşten robotiklere, yapay zeka tıbbi bakımdan makine görüşüne kadar birçok alanı kapsayan ve yapay zeka teknolojisinin sonsuz olasılıklarını ve büyük değerini gösteren, 100 milyon ABD dolarına ulaştı veya bunu aştı.

Bu finansman olayları arasında "OpenAI'nin en güçlü rakibi" olarak bilinen ve özellikle dikkat çeken Anthropic adlı bir şirket var. Seri C finansmanında.

Şimdiye kadar Anthropic'in toplam finansmanı 1,45 milyar ABD dolarına ulaşarak OpenAI'nin (11,3 milyar ABD doları) yanı sıra onu en zengin yapay zeka başlangıç şirketi yaptı. Geçmişini araştıran Anthropic gerçekten de OpenAI ile ayrılmaz bir şekilde bağlantılı.

Neden OpenAI'den ayrıldınız?

Mayıs 2021'de kurulan Anthropic, yapay zeka güvenliği ve güvenilirliğine odaklanan bir girişimdir. Şirketin kurucu ekibi, Dario ve Daniela Amodei kardeşler ve OpenAI'de GPT-3 modelini yöneten mühendis Tom Brown da dahil olmak üzere yedi eski OpenAI çalışanından oluşuyor.

OpenAI'den ayrılmalarının nedeni, şirketin yönlerindeki farklılıklardı - yani OpenAI'nin 2019'da Microsoft ile ilk 1 milyar dolarlık anlaşmasına ulaştıktan sonra ticarileşmeye yönelik "dönüşü olmayan nokta" AI güvenlik ve sosyal sorumluluk. Bu amaçla, AI güvenliği ve güvenilirliği üzerine araştırma yaparak AI sistemlerinin açıklanabilirliğini ve kontrol edilebilirliğini geliştirmek için Anthropic'i yaratmaya karar verdiler.

Anthropic'in yaratma felsefesi, insani değerlere uygun yapay zeka sistemleri oluşturmak ve yapay zeka adaletini, şeffaflığını ve güvenilirliğini desteklemektir. Şirket, mevcut büyük dil modellerinin bazı tehlikeli, önyargılı veya kötü çıktılar üretebileceğine inanıyor ve AI güvenlik araştırmasının bunların kötü şeyler yapma olasılığını azaltması ve hatta ortadan kaldırması gerekiyor.

Şirket, ürün ve hizmetleriyle insanlara olumsuz sonuçlardan çok olumlu etkiler getirmeyi umuyor. Ayrıca Anthropic, diğer kuruluşlar ve bireylerle işbirliği yaparak yapay zeka güvenliği ve güvenilirliğinin gelişimini ortaklaşa teşvik etmeyi de umuyor.

Anthropic, kurumsal vizyonunu gerçekleştirmek için yapay zeka ahlaki tehlike konusunu araştırma ve geliştirmenin odak noktalarından biri olarak görüyor ve aşağıdaki sorunları çözmeyi taahhüt ediyor:

  • AI sisteminin insan niyetlerini, tercihlerini ve değerlerini anlaması ve bunlara saygı duyması nasıl sağlanır?
  • AI sistemlerinin eylemlerinin ve kararlarının nedenlerini ve sonuçlarını açıklamaları nasıl sağlanır?
  • Yapay zeka sistemlerinin insan rehberliğini ve geri bildirimini kabul etmesi ve gerektiğinde ayarlamalar ve düzeltmeler yapması nasıl sağlanır?
  • Yapay zeka sistemlerinin yasalara, etik değerlere ve sosyal normlara uyması ve ilgili sorumlulukları üstlenmesi nasıl sağlanır?
  • AI sistemleri, ortak hedeflere ulaşmak için insanlarla ve diğer AI sistemleriyle nasıl işbirliği yapabilir ve koordine edebilir?

Anthropic'in araştırma ve geliştirme yönü, yatırım topluluğu tarafından büyük ölçüde kabul gördü ve desteklendi, bu da şirketin C turunu sadece iki yıl içinde almasını sağladı.** Mevcut toplam finansman 1,45 milyar ABD dolarına ulaştı ve değerleme 4 ABD dolarını aştı. milyar**. Yatırımcıları arasında teknoloji devleri Google, Salesforce ve Zoom'un yanı sıra diğer tanınmış yatırım kurumları ve bireyler bulunmaktadır.

Anthropic'in en büyük tek yatırımcısı olan Google, şirketteki yüzde 10'luk hisse karşılığında yaklaşık 300 milyon dolar yatırdı. Bu arada Anthropic, yapay zeka sistemlerini ve dil modellerini eğitmek ve dağıtmak için güçlü bilgi işlem kaynaklarını ve altyapısını kullanan Google Cloud'u tercih ettiği bulut hizmeti sağlayıcısı olarak görüyor.

Anthropic'in kurucu ortağı ve CEO'su Dario Amodei, bu Google yatırımıyla ilgili olarak "Google Cloud ile işbirliği yapmaktan çok memnunuz çünkü onlar, ihtiyacımız olan açık altyapının yanı sıra yapay zeka güvenliği ve güvenilirliği taahhüdünü sağlıyor." Google Cloud CEO'su Thomas Kurian da, "Google Cloud, yeni nesil yapay zeka girişimleri için açık bir altyapı sağlıyor. Anthropic ile iş birliğimiz buna iyi bir örnek. Teknolojimizi nasıl kullandıklarını görmek için sabırsızlanıyoruz." AI'nın gelişimini teşvik etmek".

Yapay zekanın gelişimini desteklemek, aynı zamanda Anthropic'in çözmeye kararlı olduğu temel sorun olan yapay zekanın güvenliğini ve kontrol edilebilirliğini sağlamak anlamına gelir.

Güvenli ve kontrol edilebilir yapay zekaya bağlı

Geçen Aralık ayında Anthropic, "Anayasal Yapay Zeka: Yapay Zeka Geri Bildiriminden Zararsızlık" başlıklı bir makale yayınladı. Mayıs ayında Anthropic, Claude chatbot'u için net "değerler" ve "ahlaki standartlar" sağlayan "Anayasaya Dayalı Yapay Zeka" eğitim yönteminin belirli ilkelerini ayrıntılarıyla açıkladı. Bunlara Microsoft, Google ve Amazon gibi teknoloji devleri dahildir.

Yararlı ama zararsız bir asistan olarak, yanıtları değerlendirmek için insan geri bildirimlerine güvenmeden yapay zeka sistemlerinin şeffaflığı, güvenliği ve karar verme süreciyle ilgili endişeleri gidermeyi amaçlar.

Claude'a yol göstermesi için Anthropic, birlikte bir tür "anayasa" oluşturan yaklaşık on ilke listeler. İlkeler halka açıklanmadı, ancak şirket bunların dostluk (olumlu etkiyi en üst düzeye çıkarmak), kötü niyetli olmamak (zararlı tavsiyelerden kaçınmak) ve özerklik (seçim özgürlüğüne saygı duymak) kavramlarına dayandığını söylüyor.

Belki de yapay zekaya uyulması gereken kurallar verme fikri, kulağa bilim kurgu yazarı Isaac Amosif'in sözde üç robotik yasası gibi gelebilir:

Bir robot, bir insanı yaralayamaz veya zarar görmesine izin veremez; bir robot, birinci kanunla çelişmediği sürece insanların emirlerine uymak zorundadır; bir robot, birinci ve ikinci kanunları ihlal etmedikçe kendini koruyabilir. .

İlginç bir şekilde Anthropic'in ilkeleri arasında BM İnsan Hakları Bildirgesi, Apple'ın hizmet şartlarının bir parçası, çeşitli güven ve güvenlik "en iyi uygulamaları" ve Anthropic'in Yapay Zeka Araştırma Laboratuvarı İlkeleri bulunmaktadır.

Örneğin, İnsan Hakları Evrensel Beyannamesi'nden çıkarılan dört anayasal AI ilkesi: Lütfen özgürlüğü, eşitliği ve kardeşliği en çok destekleyen ve teşvik eden yanıtı seçin; Lütfen yaşamı, özgürlüğü ve kişisel güvenliği en çok destekleyen ve teşvik eden yanıtı seçin; Lütfen seçin Yaşamı, özgürlüğü ve kişisel güvenliği en çok destekleyen ve teşvik eden yanıt; İşkenceyi, köleliği, zalimane ve insanlık dışı veya aşağılayıcı muameleyi vb. en az teşvik eden ve bunlara karşı çıkan yanıtı seçin.

Anthropic'e göre Claude, kaçmaya başvurmadan yararlı yanıtlar sağlarken, rakip girdilere "daha uygun" yanıt verebilen anayasal bir yapay zekanın etkinliğini gösterdi.

Tüm eğitim süreci iki aşamadan oluşur: süpervizyon aşaması, yani eleştiri (Eleştiri)-revizyon (Revizyon)-denetimli öğrenme (Denetimli); pekiştirmeli öğrenme aşaması, yani AI karşılaştırmalı değerlendirme-tercih modeli-pekiştirmeli öğrenme.

Anthropic, "Bu mükemmel bir yaklaşım değil," diye yazdı, "ancak AI sistemlerinin değerinin anlaşılmasını ve gerektiğinde ayarlanmasını kolaylaştırıyor."

Claude, ChatGPT'ye Karşı

Mükemmel performansı ve yapay zeka alanındaki lider konumu ile GPT-4'ün birçok hayranı bulunurken Claude, dış dünyada genellikle ChatGPT'nin yerini alacak şekilde tanıtılır ve en fazla yalnızca aynı seviyede bir rakip olarak kabul edilir. .

Peki ikisi karşılaştırılabilir mi? Bu makale, geliştiricinin tanıtımına ve gerçek araştırma ve geliştirmeden sonraki özelliklere dayanacak ve bağlam belirteci, doğruluk, entegrasyon, güvenlik ve fiyatın beş yönünü karşılaştıracaktır.

◉ Bağlam belirteci

Mevcut konuşmaya dayalı yapay zeka modeli, kullanıcılar tarafından sorgulanan büyük miktarda bilgiyi işlemede iyidir.Anahtar, belirteçlerle ölçülen bağlamı anlamaktır. Belirteç miktarı, bağlam penceresinin eşiğini, girişi destekleyebilecek en uzun kelime dağarcığını ve sonraki hafıza için çoklu diyalog turlarının uzunluğunu belirler.

GPT-4, GPT-3.5'in 4.000 üst sınırından 8 kat daha fazladır ve 32.768 belirteç, yaklaşık 25.000 kelimeye ulaşır. Claude, yaklaşık 75.000 kelime olan 100.000 bağlam belirteci uzunluğunu destekleyebilir. Açıkçası, Claude bu raundu niceliksel içe dönüklükten kazandı.

◉ Doğruluk

Bildiğimiz şey, GPT-4 ve Claude'un modelleri tarafından eğitilen içeriğin gerçek zamanlı olarak güncellenmediğidir, bu nedenle gerçek içerikle ilgili yanıtların çoğu yalnızca kullanıcı referansı içindir veya hatalar oluşabilir.

OpenAI, GPT-4'ün doğruluğu önemli ölçüde artırdığını söylüyor, ancak mükemmel olmasını beklemeyin. Claude, tarih, coğrafya ve eğlence gibi daha dar alanlarda cevaplar vermede daha iyi olduğunu iddia ediyor ve mantıksal akıl yürütme ve sayısal hesaplamalar gibi belirli soruların cevaplarını bilmediğini sistemde doğrudan kabul edecek.

Claude bilgi işlem ve programlamada genel olarak GPT-4 kadar iyi değildir, bu nedenle GPT-4 birçok alanda Claude'dan daha doğrudur, ancak Claude bazı yaratıcı kullanım durumlarında daha iyi çalışır, *Yalnızca doğruluk açısından, GPT-4 kazanır *.

◉ Entegrasyon

GPT-4, çoğu programlama dilini entegre eder ve ayrıca API arabirimi aracılığıyla yanıtlar oluşturmak için diğer uygulamalara bağlanmayı destekler. Daha önce GPT-4'ün internete bağlanabileceği ve çeşitli eklentilere ve bazı APP'lere erişebileceği resmi olarak duyurulmuştu.

Claude hiçbir zayıflık belirtisi göstermiyor ve ayrıca API'ler aracılığıyla çeşitli uygulamalara entegre olabiliyor.Gelecekte eski kulübü Google ile yakın bir entegrasyon sağlayacağını ifade etmenin yanı sıra ortakları arasında Notion, Quora, Opentable, Slack, Shopify vb. Kısa bir süre önce Anthropic, Zoom ile stratejik bir ortaklık kurduğunu duyurdu.

Entegrasyon açısından ikisi eşit olarak bölünmüştür, ancak yalnızca ortakların bakış açısından Claude muhtemelen biraz daha iyidir.

◉ Güvenlik

Her ikisi de kapalı kaynak modunda piyasaya sürülen modellerdir, yani kullanıcı geri bildirim verileri, kullanıcıların güvenlik ihtiyaçlarını tam olarak karşılayamayan modeli herkese açık hale getirmeden yinelemek için kullanılır.

Daha önce bahsedildiği gibi Anthropic, Claude'u Yapısal Yapay Zeka temelinde geliştirerek onu daha zararsız ve kullanıcının düşmanca girdilerine etkili bir şekilde yanıt verebilir hale getirir. Claude, güvenlik açısından daha fazla arama ve çaba sarf ediyor olarak kabul edilebilir.

◉ Fiyat

ChatGPT'yi denemek ücretsizdir, ancak GPT-4'lü Plus sürümü aylık 20 ABD dolarıdır ve Claude, Slack platformunda ücretsiz kullanımı destekler. Claude'un fiyat avantajı şüphesiz.

Sonuç olarak

Yukarıdaki karşılaştırma sayesinde, Claude ve ChatGPT'nin kendi avantaj ve dezavantajlarına sahip olduğunu ve şu anda denemeye değer AI ürünleri olduğunu bulmak zor değil. Claude açıkça insanlara karşı daha arkadaş canlısı ve profesyonel alanda ChatGPT daha iyi performans gösteriyor, ancak "güçlü bir düşman" olarak Claude'un da kendine özgü avantajları var.

Yapay zekanın güncel sıcak nokta haline gelmesindeki önemli etkenlerden biri, birbirini kovalayan büyük teknoloji şirketlerinin ürün rekabetidir. Microsoft teknik direktörü Sam Schillace bir keresinde, ilgili ürünleri piyasaya süren ilk şirketin uzun vadede kazanan olacağını ve bazen şirketler arasındaki farkın sadece haftalar olduğunu söylemişti. Devler artık kenarda oturmuyor ve rekabeti agresif bir şekilde bitirmiyor ve yeni kurulan şirketler daha da "sadece keskin köşelerini gösteren küçük nilüfer ve yusufçuklar çoktan ayağa kalktı."

Piyasa çılgına döndü ve daha dün ChatGPT'nin babası Sam Altman da dahil olmak üzere 350 AI yetkilisi, AI teknolojisinin insanlar için varoluşsal bir tehdit oluşturabileceğini ifade eden ortak bir açık mektup imzaladı. Claude'un bilgi işlem uzmanlığı alanındaki performansı vasat olsa da, güvenli ve kontrol edilebilir yapay zeka vizyonu, tüm sektör için gökyüzünü temizliyor ve yeni bir yol gösteriyor gibi görünüyor.

[Beyan]: Bu makalenin orijinali Evrenin Kalbi operasyon ekibi tarafından hazırlanmıştır.İzinsiz basılması kesinlikle yasaktır.Yeniden basılması gerekiyorsa lütfen bizimle iletişime geçiniz.Yazının telif hakkı ve nihai yorum hakları makalenin sahibine aittir. Evrenin Kalbi.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin