Son zamanlarda AI endüstrisinin gelişimi bazı insanlar tarafından dördüncü sanayi devrimi olarak görülüyor. Büyük modellerin ortaya çıkışı, her sektörde verimliliği önemli ölçüde artırdı, Boston Consulting Group GPT'nin Amerika'da yaklaşık %20'lik bir iş verimliliği artışı sağladığını düşünüyor. Aynı zamanda büyük modellerin getirdiği genelleme yeteneği, yeni bir yazılım tasarım paradigması olarak değerlendiriliyor; geçmişteki yazılım tasarımı kesin kodlardı, şimdi ise daha genelleştirilmiş büyük model çerçeveleri yazılımlara entegre ediliyor, bu yazılımlar daha iyi performansa sahip olabiliyor ve daha geniş modalite girdi ve çıktıları destekleyebiliyor. Derin öğrenme teknolojisi gerçekten de AI endüstrisine dördüncü bir refah dalgası getirdi, bu akım kripto para endüstrisini de etkiledi.
Bu raporda, AI endüstrisinin gelişim tarihini, teknoloji sınıflandırmasını ve derin öğrenme teknolojisinin icadının sektöre etkisini ayrıntılı olarak inceleyeceğiz. Ardından, derin öğrenmedeki GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağı akışını, ayrıca gelişim durumunu ve eğilimlerini derinlemesine analiz edeceğiz. Sonrasında, kripto para birimi ile AI endüstrisi arasındaki ilişkiyi esaslı bir şekilde ele aldık ve kripto para birimi ile ilgili AI endüstri zinciri yapısını gözden geçirdik.
AI sektörünün gelişim tarihi
Yapay zeka endüstrisi 1950'li yıllardan itibaren başlamış olup, yapay zekanın vizyonunu gerçekleştirmek için akademik ve sanayi camiası, farklı dönemlerde farklı disiplin arka planlarıyla, yapay zekayı gerçekleştirmek için çeşitli akımlar geliştirmiştir.
Modern yapay zeka teknolojisi, bu teknolojinin fikrinin makinelerin görevlerde sistemin performansını iyileştirmek için verilere dayanarak tekrar tekrar iterasyon yapmasını sağlamak olduğu "makine öğrenimi" terimini kullanmaktadır. Temel adımlar, verileri algoritmaya göndermek, bu verileri model eğitimi için kullanmak, modeli test edip dağıtmak ve modeli otomatik tahmin görevlerini tamamlamak için kullanmaktır.
Şu anda makine öğreniminin üç ana akımı vardır: bağlantısallık, sembolizm ve davranışçılık, bunlar sırasıyla insan sinir sistemi, düşünce ve davranışı taklit eder.
Şu anda sinir ağlarıyla temsil edilen bağlantıcı yaklaşım, derin öğrenme olarak da bilinir, (, bu mimarinin bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasından kaynaklanmaktadır. Katman sayısı ve nöron ) parametre ( sayısı yeterince fazla olduğunda, karmaşık genel görevleri uyarlamak için yeterli fırsat vardır. Veri girişi aracılığıyla, nöronların parametrelerini sürekli olarak ayarlayabiliriz, böylece son olarak birçok veri ile deneyimledikten sonra, bu nöron en iyi duruma ulaşacaktır ) parametre (, bu da "büyük çaba ile mucizeler yaratmak" olarak adlandırılır ve bu da "derin" kelimesinin kökenidir - yeterince katman sayısı ve nöron.
Bir örnek vermek gerekirse, bu basitçe bir fonksiyon oluşturmak olarak anlaşılabilir. Bu fonksiyona X=2 iken Y=3; X=3 iken Y=5 girdiğimizde, eğer bu fonksiyonun tüm X değerlerine karşılık gelmesini istiyorsak, bu fonksiyonun derecesini ve parametrelerini sürekli eklememiz gerekir. Örneğin, şu anda bu koşulu sağlayan fonksiyonu Y = 2X -1 olarak oluşturabilirim. Ancak eğer bir veri X=2, Y=11 ise, bu üç veri noktasına uygun yeni bir fonksiyon oluşturmak gerekir. GPU kullanarak kaba kuvvet ile Y = X2 -3X +5 buldum, bu oldukça uygun. Ancak verilerle tamamen örtüşmesi gerekmez, sadece dengeyi korumalı ve yaklaşık benzer bir çıktı vermelidir. Burada X2, X ve X0 farklı nöronları temsil ederken, 1, -3, 5 ise onların parametreleridir.
Bu durumda, sinir ağına büyük miktarda veri girdiğimizde, yeni verilere uyum sağlamak için nöron sayısını artırabilir ve parametreleri yineleyebiliriz. Böylece, tüm verileri uyumlu hale getirebiliriz.
Ve sinir ağına dayalı derin öğrenme teknolojisi, en erken sinir ağları, ileri beslemeli sinir ağları, RNN, CNN, GAN gibi birçok teknik iterasyon ve evrim geçirmiştir. Sonunda modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine evrilmiştir. Transformer teknolojisi, sinir ağlarının sadece bir evrim yönüdür; burada bir dönüştürücü ) Transformer ( eklenmiştir. Bu dönüştürücü, tüm modları ), ses, video, resim vb. ( verilerini karşılık gelen sayısal değerlere kodlamak için kullanılır. Ardından bu veriler sinir ağına beslenir; böylece sinir ağı her tür veriyi modelleyebilir, yani çok modlu hale getirilir.
Yapay zeka gelişimi üç teknik dalgayı geçirdi, birincisi 1960'lı yıllarda, yapay zeka teknolojisinin ortaya çıkışından on yıl sonra, bu dalga sembolist teknolojinin gelişiminden kaynaklandı. Bu teknoloji, genel doğal dil işleme ve insan-makine diyalogu sorunlarını çözdü. Aynı dönemde, uzman sistemler doğdu; bu, Stanford Üniversitesi'nin Amerika Ulusal Havacılık ve Uzay Dairesi'nin teşvikiyle tamamladığı DENRAL uzman sistemidir. Bu sistem, çok güçlü kimya bilgisine sahiptir ve sorular aracılığıyla çıkarım yaparak kimya uzmanıyla aynı yanıtı üretir. Bu kimya uzman sistemi, bir kimya bilgi bankası ile çıkarım sisteminin birleşimi olarak görülebilir.
Uzman sistemlerinden sonra, 1990'larda İsrailli-Amerikalı bilim insanı ve filozof Judea Pearl), Bayes ağlarını önerdi, bu ağlar aynı zamanda inanç ağları olarak da bilinir. Aynı dönemde, Brooks, davranışa dayalı robotik önerdi ve davranışçılığın doğuşunu simgeledi.
1997'de, IBM'in derin mavi "Blue" uluslararası satranç şampiyonu Kasparov'u 3.5:2.5 yenerek büyük bir zafer kazandı(Kasparov). Bu zafer, yapay zekanın bir dönüm noktası olarak görülüyor ve AI teknolojisi ikinci gelişim zirvesine ulaştı.
Üçüncü AI teknolojisi dalgası 2006 yılında ortaya çıktı. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, yapay sinir ağlarını mimari olarak kullanan ve verilerin temsil öğrenimini gerçekleştiren bir algoritma olan derin öğrenme kavramını ortaya attılar. Sonrasında derin öğrenme algoritmaları RNN, GAN'dan Transformer ve Stable Diffusion'a kadar evrim geçirdi; bu iki algoritma bu üçüncü teknolojik dalgayı şekillendirdi ve bu aynı zamanda bağlantıcılığın altın çağıdır.
Derin öğrenme teknolojisinin keşfi ve evrimi ile birlikte birçok simgesel olay da ortaya çıkmaya başladı, bunlar arasında:
2011 yılında, IBM'in Watson(, "Tehlikeli Sınırlar") adlı bilgi yarışmasında insanları yenerek şampiyon oldu.
2014 yılında, Goodfellow GAN( Üretken Çatışma Ağı, Generative Adversarial Network)'yi önerdi. İki sinir ağının birbirleriyle rekabet ederek öğrenmelerini sağlayarak gerçeği andıran fotoğraflar üretebilir. Aynı zamanda Goodfellow, derin öğrenme alanında önemli bir başlangıç kitabı olan "Deep Learning" adlı bir kitap da yazdı, bu kitaba çiçek kitap denir.
2015 yılında, Hinton ve arkadaşları "Nature" dergisinde derin öğrenme algoritmasını önerdiler, bu derin öğrenme yöntemi hemen akademik çevrelerde ve sanayi dünyasında büyük bir yankı uyandırdı.
2015 yılında OpenAI kuruldu, Musk, YC Başkanı Altman, melek yatırımcı Peter Thiel ve diğerleri 10 milyon dolarlık ortak yatırım yaptıklarını açıkladı.
2016 yılında, derin öğrenme teknolojisine dayalı AlphaGo, Go dünya şampiyonu ve profesyonel dokuzuncu dan oyuncusu Lee Sedol ile Go insan-makine savaşına girdi ve toplamda 4-1'lik bir skorla galip geldi.
2017 yılında, Çin Hong Kong'daki Hanson Robotics ( tarafından geliştirilen insansı robot Sophia, tarihteki ilk birinci sınıf vatandaşlık alan robot olarak adlandırıldı ve zengin yüz ifadeleri ile insan dilini anlama yeteneğine sahip.
2017 yılında, yapay zeka alanında zengin bir insan kaynağı ve teknik birikime sahip olan Google, "Attention is all you need" başlıklı makaleyi yayımlayarak Transformer algoritmasını tanıttı ve büyük ölçekli dil modelleri ortaya çıkmaya başladı.
2018'de OpenAI, Transformer algoritması temelinde inşa edilen GPT) Generative Pre-trained Transformer('i yayınladı, bu da o zamanın en büyük dil modellerinden biriydi.
2018'de, Google ekibi Deepmind, derin öğrenmeye dayalı AlphaGo'yu piyasaya sürdü ve protein yapısı tahmini yapabiliyor, bu da yapay zeka alanında büyük bir ilerleme işareti olarak görülüyor.
2019'da OpenAI, 1.5 milyar parametreye sahip GPT-2 modelini yayınladı.
2020 yılında, OpenAI tarafından geliştirilen GPT-3, 175 milyar parametreye sahip olup, önceki versiyon olan GPT-2'den 100 kat daha fazladır. Bu model, 570GB metin kullanılarak eğitilmiş olup, birden fazla NLP) doğal dil işleme( görevinde) cevap verme, çeviri yapma, makale yazma( gibi alanlarda en ileri düzeyde performansa ulaşabilmektedir.
2021'de OpenAI, 1.76 trilyon parametreye sahip olan GPT-4'ü yayımladı, bu model GPT-3'ün 10 katıdır.
2023 yılının Ocak ayında GPT-4 modeline dayalı ChatGPT uygulaması piyasaya sürüldü, Mart ayında ChatGPT bir milyar kullanıcıya ulaştı ve tarihin en hızlı bir milyar kullanıcıya ulaşan uygulaması oldu.
2024'te, OpenAI GPT-4 omni'yi piyasaya sürecek.
Not: Yapay zeka ile ilgili birçok makale, birçok akım ve farklı teknolojik evrimler olduğundan, burada esas olarak derin öğrenme veya bağlantıcıların gelişim tarihini takip edeceğiz, diğer akımlar ve teknolojiler hala yüksek hızlı bir gelişim sürecindedir.
![Yeni Bilgilendirme丨AI x Crypto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Derin Öğrenme Sanayi Zinciri
Mevcut büyük model dillerinin hepsi, sinir ağına dayalı derin öğrenme yöntemlerini kullanmaktadır. GPT öncülüğündeki büyük modeller, yapay zeka alanında bir patlama yarattı; birçok oyuncu bu alana girdi ve pazarın veri ve hesaplama gücüne olan talebinin büyük ölçüde arttığını gördük. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının endüstri zincirini keşfe çıkıyoruz. Derin öğrenme algoritmalarının hakim olduğu yapay zeka sektöründe, tedarik zincirinin nasıl oluştuğunu, tedarik zincirinin mevcut durumu ve arz-talep ilişkisi ile gelecekteki gelişmelerin nasıl olacağını inceliyoruz.
Öncelikle netleştirmemiz gereken şey, Transformer teknolojisine dayanan GPT'nin öncülük ettiği LLM'lerin ) büyük modelinin ( eğitimi sırasında toplam üç aşama olduğudur.
Eğitimden önce, Transformer tabanlı olduğu için, dönüştürücünün metin girişini sayılara dönüştürmesi gerekir, bu işleme "Tokenization" denir, ardından bu sayılara Token denir. Genel bir kural olarak, bir İngilizce kelime veya karakter kabaca bir Token olarak kabul edilebilirken, her bir Çince karakter kabaca iki Token olarak kabul edilebilir. Bu, GPT'nin fiyatlandırmada kullandığı temel birimdir.
İlk adım, ön eğitim. Giriş katmanına yeterince veri çifti vererek, raporun ilk kısmında örneği verilen )X,Y( gibi, modelin altındaki her bir nöronun en iyi parametrelerini bulmak için, bu aşamada büyük miktarda veri gereklidir ve bu süreç aynı zamanda en fazla hesaplama gücünü tüketen süreçtir çünkü nöronları çeşitli parametreleri denemek için tekrar tekrar döngüye sokmak gerekir. Bir veri çifti grubu eğitildikten sonra, genellikle parametreleri yinelemek için aynı veri grubuyla ikincil bir eğitim yapılır.
İkinci adım, ince ayar. İnce ayar, daha az ancak çok kaliteli bir veri kümesi ile eğitim vermektir. Bu tür bir değişiklik, modelin çıktısının daha yüksek kalitede olmasına yol açar, çünkü ön eğitim büyük miktarda veriye ihtiyaç duyar, ancak birçok veri hatalı veya düşük kaliteli olabilir. İnce ayar adımı, kaliteli verilerle modelin kalitesini artırabilir.
Üçüncü adım, pekiştirmeli öğrenme. Öncelikle tamamen yeni bir model oluşturulacak, bu modele "ödül modeli" diyoruz. Bu modelin amacı oldukça basit, çıktının sonuçlarını sıralamaktır, bu nedenle bu modeli gerçekleştirmek oldukça kolaydır çünkü iş senaryosu oldukça dikeydir. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kaliteli olup olmadığını belirlemek için kullanacağız, böylece bir ödül modeli kullanarak büyük modelin parametrelerini otomatik olarak yineleyebiliriz. ) Ancak bazen modelin çıktı kalitesini değerlendirmek için insan müdahalesi de gereklidir. (
Kısacası, büyük modelin eğitim sürecinde, ön eğitim verinin miktarı için çok yüksek taleplerde bulunur ve gereken GPU hesaplama gücü de en fazlasıdır, oysa ince ayar, parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar; pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için parametreleri tekrar tekrar yinelemek için bir ödül modeli aracılığıyla gerçekleştirilebilir.
Eğitim sürecinde, parametre sayısı ne kadar fazla olursa, genelleme yeteneğinin tavanı da o kadar yüksek olur. Örneğin, bir fonksiyon örneği olarak Y = aX + b alırsak, aslında iki nöron vardır: X ve X0. Bu nedenle, parametreler nasıl değişirse değişsin, uyum sağlayabileceği veri son derece sınırlıdır, çünkü özünde bu hala bir doğru. Eğer nöron sayısı artarsa, o zaman daha fazla parametreyi yineleyebiliriz ve daha fazla veriyi uyumlayabiliriz. İşte bu yüzden büyük modeller büyük mucizeler yaratıyor ve bu nedenle halk arasında büyük model olarak adlandırılmasının sebebi, özünde devasa sayıda nöron ve parametre, devasa veri, aynı zamanda devasa hesaplama gücü gerektirmesidir.
Bu nedenle, büyük modelin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücü. Bu üçü, büyük modelin sonuç kalitesi ve genelleme yeteneğini birlikte etkiler. Parametre sayısını p, veri miktarını n) token sayısı ile hesaplayarak alalım(, bu şekilde gerekli hesaplama miktarını genel bir deneysel kural ile hesaplayabiliriz, böylece yaklaşık olarak satın almayı planladığımız hesaplama gücünü ve eğitim süresini tahmin edebiliriz.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
15 Likes
Reward
15
7
Share
Comment
0/400
CryptoSourGrape
· 3h ago
Ah, sadece ben AI ve kripto dünyası fırsatını kaçırdım, kim anlar ki.
View OriginalReply0
SandwichDetector
· 22h ago
İdare eder, memlekete dönüp tezgah açarım.
View OriginalReply0
GasGasGasBro
· 07-02 11:09
Bu güncelleme deli gibi çalışıyor.
View OriginalReply0
FUDwatcher
· 07-02 09:24
Ah? AI yine popülerlikten faydalanmaya mı geldi?
View OriginalReply0
PumpBeforeRug
· 07-02 09:23
Verimlilik artışı %20, ama bunu hissetmedim.
View OriginalReply0
StealthMoon
· 07-02 09:22
AI boğa归boğa hesap欠费
View OriginalReply0
GameFiCritic
· 07-02 09:15
Enerji verimliliğinde %20 artışın bir veri kaynağı var mı?
Yapay Zeka ve Kripto Varlıklar: Tarihten Sektör Zincirine Kapsamlı Analiz
AI x Kripto: Sıfırdan Zirveye
Giriş
Son zamanlarda AI endüstrisinin gelişimi bazı insanlar tarafından dördüncü sanayi devrimi olarak görülüyor. Büyük modellerin ortaya çıkışı, her sektörde verimliliği önemli ölçüde artırdı, Boston Consulting Group GPT'nin Amerika'da yaklaşık %20'lik bir iş verimliliği artışı sağladığını düşünüyor. Aynı zamanda büyük modellerin getirdiği genelleme yeteneği, yeni bir yazılım tasarım paradigması olarak değerlendiriliyor; geçmişteki yazılım tasarımı kesin kodlardı, şimdi ise daha genelleştirilmiş büyük model çerçeveleri yazılımlara entegre ediliyor, bu yazılımlar daha iyi performansa sahip olabiliyor ve daha geniş modalite girdi ve çıktıları destekleyebiliyor. Derin öğrenme teknolojisi gerçekten de AI endüstrisine dördüncü bir refah dalgası getirdi, bu akım kripto para endüstrisini de etkiledi.
Bu raporda, AI endüstrisinin gelişim tarihini, teknoloji sınıflandırmasını ve derin öğrenme teknolojisinin icadının sektöre etkisini ayrıntılı olarak inceleyeceğiz. Ardından, derin öğrenmedeki GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağı akışını, ayrıca gelişim durumunu ve eğilimlerini derinlemesine analiz edeceğiz. Sonrasında, kripto para birimi ile AI endüstrisi arasındaki ilişkiyi esaslı bir şekilde ele aldık ve kripto para birimi ile ilgili AI endüstri zinciri yapısını gözden geçirdik.
AI sektörünün gelişim tarihi
Yapay zeka endüstrisi 1950'li yıllardan itibaren başlamış olup, yapay zekanın vizyonunu gerçekleştirmek için akademik ve sanayi camiası, farklı dönemlerde farklı disiplin arka planlarıyla, yapay zekayı gerçekleştirmek için çeşitli akımlar geliştirmiştir.
Modern yapay zeka teknolojisi, bu teknolojinin fikrinin makinelerin görevlerde sistemin performansını iyileştirmek için verilere dayanarak tekrar tekrar iterasyon yapmasını sağlamak olduğu "makine öğrenimi" terimini kullanmaktadır. Temel adımlar, verileri algoritmaya göndermek, bu verileri model eğitimi için kullanmak, modeli test edip dağıtmak ve modeli otomatik tahmin görevlerini tamamlamak için kullanmaktır.
Şu anda makine öğreniminin üç ana akımı vardır: bağlantısallık, sembolizm ve davranışçılık, bunlar sırasıyla insan sinir sistemi, düşünce ve davranışı taklit eder.
Şu anda sinir ağlarıyla temsil edilen bağlantıcı yaklaşım, derin öğrenme olarak da bilinir, (, bu mimarinin bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasından kaynaklanmaktadır. Katman sayısı ve nöron ) parametre ( sayısı yeterince fazla olduğunda, karmaşık genel görevleri uyarlamak için yeterli fırsat vardır. Veri girişi aracılığıyla, nöronların parametrelerini sürekli olarak ayarlayabiliriz, böylece son olarak birçok veri ile deneyimledikten sonra, bu nöron en iyi duruma ulaşacaktır ) parametre (, bu da "büyük çaba ile mucizeler yaratmak" olarak adlandırılır ve bu da "derin" kelimesinin kökenidir - yeterince katman sayısı ve nöron.
Bir örnek vermek gerekirse, bu basitçe bir fonksiyon oluşturmak olarak anlaşılabilir. Bu fonksiyona X=2 iken Y=3; X=3 iken Y=5 girdiğimizde, eğer bu fonksiyonun tüm X değerlerine karşılık gelmesini istiyorsak, bu fonksiyonun derecesini ve parametrelerini sürekli eklememiz gerekir. Örneğin, şu anda bu koşulu sağlayan fonksiyonu Y = 2X -1 olarak oluşturabilirim. Ancak eğer bir veri X=2, Y=11 ise, bu üç veri noktasına uygun yeni bir fonksiyon oluşturmak gerekir. GPU kullanarak kaba kuvvet ile Y = X2 -3X +5 buldum, bu oldukça uygun. Ancak verilerle tamamen örtüşmesi gerekmez, sadece dengeyi korumalı ve yaklaşık benzer bir çıktı vermelidir. Burada X2, X ve X0 farklı nöronları temsil ederken, 1, -3, 5 ise onların parametreleridir.
Bu durumda, sinir ağına büyük miktarda veri girdiğimizde, yeni verilere uyum sağlamak için nöron sayısını artırabilir ve parametreleri yineleyebiliriz. Böylece, tüm verileri uyumlu hale getirebiliriz.
Ve sinir ağına dayalı derin öğrenme teknolojisi, en erken sinir ağları, ileri beslemeli sinir ağları, RNN, CNN, GAN gibi birçok teknik iterasyon ve evrim geçirmiştir. Sonunda modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine evrilmiştir. Transformer teknolojisi, sinir ağlarının sadece bir evrim yönüdür; burada bir dönüştürücü ) Transformer ( eklenmiştir. Bu dönüştürücü, tüm modları ), ses, video, resim vb. ( verilerini karşılık gelen sayısal değerlere kodlamak için kullanılır. Ardından bu veriler sinir ağına beslenir; böylece sinir ağı her tür veriyi modelleyebilir, yani çok modlu hale getirilir.
Yapay zeka gelişimi üç teknik dalgayı geçirdi, birincisi 1960'lı yıllarda, yapay zeka teknolojisinin ortaya çıkışından on yıl sonra, bu dalga sembolist teknolojinin gelişiminden kaynaklandı. Bu teknoloji, genel doğal dil işleme ve insan-makine diyalogu sorunlarını çözdü. Aynı dönemde, uzman sistemler doğdu; bu, Stanford Üniversitesi'nin Amerika Ulusal Havacılık ve Uzay Dairesi'nin teşvikiyle tamamladığı DENRAL uzman sistemidir. Bu sistem, çok güçlü kimya bilgisine sahiptir ve sorular aracılığıyla çıkarım yaparak kimya uzmanıyla aynı yanıtı üretir. Bu kimya uzman sistemi, bir kimya bilgi bankası ile çıkarım sisteminin birleşimi olarak görülebilir.
Uzman sistemlerinden sonra, 1990'larda İsrailli-Amerikalı bilim insanı ve filozof Judea Pearl), Bayes ağlarını önerdi, bu ağlar aynı zamanda inanç ağları olarak da bilinir. Aynı dönemde, Brooks, davranışa dayalı robotik önerdi ve davranışçılığın doğuşunu simgeledi.
1997'de, IBM'in derin mavi "Blue" uluslararası satranç şampiyonu Kasparov'u 3.5:2.5 yenerek büyük bir zafer kazandı(Kasparov). Bu zafer, yapay zekanın bir dönüm noktası olarak görülüyor ve AI teknolojisi ikinci gelişim zirvesine ulaştı.
Üçüncü AI teknolojisi dalgası 2006 yılında ortaya çıktı. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, yapay sinir ağlarını mimari olarak kullanan ve verilerin temsil öğrenimini gerçekleştiren bir algoritma olan derin öğrenme kavramını ortaya attılar. Sonrasında derin öğrenme algoritmaları RNN, GAN'dan Transformer ve Stable Diffusion'a kadar evrim geçirdi; bu iki algoritma bu üçüncü teknolojik dalgayı şekillendirdi ve bu aynı zamanda bağlantıcılığın altın çağıdır.
Derin öğrenme teknolojisinin keşfi ve evrimi ile birlikte birçok simgesel olay da ortaya çıkmaya başladı, bunlar arasında:
2011 yılında, IBM'in Watson(, "Tehlikeli Sınırlar") adlı bilgi yarışmasında insanları yenerek şampiyon oldu.
2014 yılında, Goodfellow GAN( Üretken Çatışma Ağı, Generative Adversarial Network)'yi önerdi. İki sinir ağının birbirleriyle rekabet ederek öğrenmelerini sağlayarak gerçeği andıran fotoğraflar üretebilir. Aynı zamanda Goodfellow, derin öğrenme alanında önemli bir başlangıç kitabı olan "Deep Learning" adlı bir kitap da yazdı, bu kitaba çiçek kitap denir.
2015 yılında, Hinton ve arkadaşları "Nature" dergisinde derin öğrenme algoritmasını önerdiler, bu derin öğrenme yöntemi hemen akademik çevrelerde ve sanayi dünyasında büyük bir yankı uyandırdı.
2015 yılında OpenAI kuruldu, Musk, YC Başkanı Altman, melek yatırımcı Peter Thiel ve diğerleri 10 milyon dolarlık ortak yatırım yaptıklarını açıkladı.
2016 yılında, derin öğrenme teknolojisine dayalı AlphaGo, Go dünya şampiyonu ve profesyonel dokuzuncu dan oyuncusu Lee Sedol ile Go insan-makine savaşına girdi ve toplamda 4-1'lik bir skorla galip geldi.
2017 yılında, Çin Hong Kong'daki Hanson Robotics ( tarafından geliştirilen insansı robot Sophia, tarihteki ilk birinci sınıf vatandaşlık alan robot olarak adlandırıldı ve zengin yüz ifadeleri ile insan dilini anlama yeteneğine sahip.
2017 yılında, yapay zeka alanında zengin bir insan kaynağı ve teknik birikime sahip olan Google, "Attention is all you need" başlıklı makaleyi yayımlayarak Transformer algoritmasını tanıttı ve büyük ölçekli dil modelleri ortaya çıkmaya başladı.
2018'de OpenAI, Transformer algoritması temelinde inşa edilen GPT) Generative Pre-trained Transformer('i yayınladı, bu da o zamanın en büyük dil modellerinden biriydi.
2018'de, Google ekibi Deepmind, derin öğrenmeye dayalı AlphaGo'yu piyasaya sürdü ve protein yapısı tahmini yapabiliyor, bu da yapay zeka alanında büyük bir ilerleme işareti olarak görülüyor.
2019'da OpenAI, 1.5 milyar parametreye sahip GPT-2 modelini yayınladı.
2020 yılında, OpenAI tarafından geliştirilen GPT-3, 175 milyar parametreye sahip olup, önceki versiyon olan GPT-2'den 100 kat daha fazladır. Bu model, 570GB metin kullanılarak eğitilmiş olup, birden fazla NLP) doğal dil işleme( görevinde) cevap verme, çeviri yapma, makale yazma( gibi alanlarda en ileri düzeyde performansa ulaşabilmektedir.
2021'de OpenAI, 1.76 trilyon parametreye sahip olan GPT-4'ü yayımladı, bu model GPT-3'ün 10 katıdır.
2023 yılının Ocak ayında GPT-4 modeline dayalı ChatGPT uygulaması piyasaya sürüldü, Mart ayında ChatGPT bir milyar kullanıcıya ulaştı ve tarihin en hızlı bir milyar kullanıcıya ulaşan uygulaması oldu.
2024'te, OpenAI GPT-4 omni'yi piyasaya sürecek.
Not: Yapay zeka ile ilgili birçok makale, birçok akım ve farklı teknolojik evrimler olduğundan, burada esas olarak derin öğrenme veya bağlantıcıların gelişim tarihini takip edeceğiz, diğer akımlar ve teknolojiler hala yüksek hızlı bir gelişim sürecindedir.
![Yeni Bilgilendirme丨AI x Crypto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Derin Öğrenme Sanayi Zinciri
Mevcut büyük model dillerinin hepsi, sinir ağına dayalı derin öğrenme yöntemlerini kullanmaktadır. GPT öncülüğündeki büyük modeller, yapay zeka alanında bir patlama yarattı; birçok oyuncu bu alana girdi ve pazarın veri ve hesaplama gücüne olan talebinin büyük ölçüde arttığını gördük. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının endüstri zincirini keşfe çıkıyoruz. Derin öğrenme algoritmalarının hakim olduğu yapay zeka sektöründe, tedarik zincirinin nasıl oluştuğunu, tedarik zincirinin mevcut durumu ve arz-talep ilişkisi ile gelecekteki gelişmelerin nasıl olacağını inceliyoruz.
Öncelikle netleştirmemiz gereken şey, Transformer teknolojisine dayanan GPT'nin öncülük ettiği LLM'lerin ) büyük modelinin ( eğitimi sırasında toplam üç aşama olduğudur.
Eğitimden önce, Transformer tabanlı olduğu için, dönüştürücünün metin girişini sayılara dönüştürmesi gerekir, bu işleme "Tokenization" denir, ardından bu sayılara Token denir. Genel bir kural olarak, bir İngilizce kelime veya karakter kabaca bir Token olarak kabul edilebilirken, her bir Çince karakter kabaca iki Token olarak kabul edilebilir. Bu, GPT'nin fiyatlandırmada kullandığı temel birimdir.
İlk adım, ön eğitim. Giriş katmanına yeterince veri çifti vererek, raporun ilk kısmında örneği verilen )X,Y( gibi, modelin altındaki her bir nöronun en iyi parametrelerini bulmak için, bu aşamada büyük miktarda veri gereklidir ve bu süreç aynı zamanda en fazla hesaplama gücünü tüketen süreçtir çünkü nöronları çeşitli parametreleri denemek için tekrar tekrar döngüye sokmak gerekir. Bir veri çifti grubu eğitildikten sonra, genellikle parametreleri yinelemek için aynı veri grubuyla ikincil bir eğitim yapılır.
İkinci adım, ince ayar. İnce ayar, daha az ancak çok kaliteli bir veri kümesi ile eğitim vermektir. Bu tür bir değişiklik, modelin çıktısının daha yüksek kalitede olmasına yol açar, çünkü ön eğitim büyük miktarda veriye ihtiyaç duyar, ancak birçok veri hatalı veya düşük kaliteli olabilir. İnce ayar adımı, kaliteli verilerle modelin kalitesini artırabilir.
Üçüncü adım, pekiştirmeli öğrenme. Öncelikle tamamen yeni bir model oluşturulacak, bu modele "ödül modeli" diyoruz. Bu modelin amacı oldukça basit, çıktının sonuçlarını sıralamaktır, bu nedenle bu modeli gerçekleştirmek oldukça kolaydır çünkü iş senaryosu oldukça dikeydir. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kaliteli olup olmadığını belirlemek için kullanacağız, böylece bir ödül modeli kullanarak büyük modelin parametrelerini otomatik olarak yineleyebiliriz. ) Ancak bazen modelin çıktı kalitesini değerlendirmek için insan müdahalesi de gereklidir. (
Kısacası, büyük modelin eğitim sürecinde, ön eğitim verinin miktarı için çok yüksek taleplerde bulunur ve gereken GPU hesaplama gücü de en fazlasıdır, oysa ince ayar, parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar; pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için parametreleri tekrar tekrar yinelemek için bir ödül modeli aracılığıyla gerçekleştirilebilir.
Eğitim sürecinde, parametre sayısı ne kadar fazla olursa, genelleme yeteneğinin tavanı da o kadar yüksek olur. Örneğin, bir fonksiyon örneği olarak Y = aX + b alırsak, aslında iki nöron vardır: X ve X0. Bu nedenle, parametreler nasıl değişirse değişsin, uyum sağlayabileceği veri son derece sınırlıdır, çünkü özünde bu hala bir doğru. Eğer nöron sayısı artarsa, o zaman daha fazla parametreyi yineleyebiliriz ve daha fazla veriyi uyumlayabiliriz. İşte bu yüzden büyük modeller büyük mucizeler yaratıyor ve bu nedenle halk arasında büyük model olarak adlandırılmasının sebebi, özünde devasa sayıda nöron ve parametre, devasa veri, aynı zamanda devasa hesaplama gücü gerektirmesidir.
Bu nedenle, büyük modelin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücü. Bu üçü, büyük modelin sonuç kalitesi ve genelleme yeteneğini birlikte etkiler. Parametre sayısını p, veri miktarını n) token sayısı ile hesaplayarak alalım(, bu şekilde gerekli hesaplama miktarını genel bir deneysel kural ile hesaplayabiliriz, böylece yaklaşık olarak satın almayı planladığımız hesaplama gücünü ve eğitim süresini tahmin edebiliriz.
Hesaplama gücü genellikle Fl olarak ifade edilir.