AI sektöründeki son gelişmeler bazı insanlar tarafından dördüncü sanayi devrimi olarak görülüyor. Büyük modellerin ortaya çıkışı, çeşitli sektörlerde verimliliği önemli ölçüde artırdı, Boston Consulting Group, GPT'nin Amerika'da iş verimliliğini yaklaşık %20 artırdığını düşünüyor. Aynı zamanda, büyük modellerin getirdiği genelleme yeteneği, yeni bir yazılım tasarımı paradigması olarak adlandırılıyor; geçmişteki yazılım tasarımı kesin kodlardı, şimdi ise daha genelleştirilmiş büyük model çerçevelerinin yazılıma entegre edilmesiyle, bu yazılımlar daha iyi performans gösterebiliyor ve daha geniş modalitelerde giriş ve çıkışı destekleyebiliyor. Derin öğrenme teknolojisi gerçekten de AI sektörüne dördüncü bir refah dönemi getirdi, bu heyecan kripto para sektörüne de yayıldı.
Bu rapor, AI endüstrisinin gelişim tarihini, teknoloji sınıflandırmalarını ve derin öğrenme teknolojisinin icadının sektöre etkisini ayrıntılı olarak inceleyecektir. Daha sonra derin öğrenmede GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağısını, bunların gelişim durumunu ve trendlerini derinlemesine analiz edeceğiz. Ardından, kripto para birimleri ile AI endüstrisi arasındaki ilişkiyi özünde detaylı bir şekilde inceleyeceğiz ve kripto para ile ilgili AI endüstri zinciri yapısını gözden geçireceğiz.
AI sektörünün gelişim tarihi
AI endüstrisi 1950'li yıllarda başladı. Yapay zekanın vizyonunu gerçekleştirmek için, akademik ve sanayi dünyası farklı dönemlerde ve farklı disiplin arka planlarıyla, yapay zekayı gerçekleştirmek için birçok akım geliştirmiştir.
Modern yapay zeka teknolojisi, esas olarak "makine öğrenimi" terimini kullanmaktadır; bu teknolojinin temeli, makinelerin veriler aracılığıyla görevlerde tekrar tekrar iterasyon yaparak sistemin performansını iyileştirmesidir. Ana adımlar, verilerin algoritmaya gönderilmesi, bu verilerle modelin eğitilmesi, modelin test edilmesi ve dağıtılması, ardından modelin otomatik tahmin görevlerini tamamlamak için kullanılmasıdır.
Şu anda makine öğreniminin üç ana akımı vardır: bağlantıcılık, sembolistlik ve davranışçılık; bunlar sırasıyla insan sinir sistemini, düşüncesini ve davranışını taklit etmektedir.
Ve şu anda, sinir ağlarını temsil eden bağlanıcılık, derin öğrenme olarak da bilinen ( üzerine üstünlük sağlamaktadır. Bunun başlıca nedeni, bu mimarinin bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasıdır; katman sayısı ve sinir hücresi ) parametre ( sayısı yeterince arttığında, karmaşık genel görevleri uyarlamak için yeterli fırsat vardır. Veri girişi ile sinir hücrelerinin parametreleri sürekli olarak ayarlanabilir, böylelikle son olarak birçok veri ile deneyimlenen sinir hücresi en iyi duruma ulaşacaktır ) parametre (, bu da "büyük güçle mucizeler" dediğimiz şeydir ve bu, "derin" kelimesinin kökenidir - yeterince fazla katman ve sinir hücresi.
Bir örnek vermek gerekirse, basitçe bir fonksiyon oluşturarak anlayabiliriz. Bu fonksiyonu X=2 olduğunda Y=3, X=3 olduğunda Y=5 olarak tanımlayabiliriz. Eğer bu fonksiyonun tüm X değerlerine yanıt vermesini istiyorsak, bu fonksiyonun derecelerini ve parametrelerini sürekli eklememiz gerekir. Örneğin, şu anda bu koşulları sağlayan bir fonksiyon olarak Y = 2X - 1 oluşturabilirim. Ancak X=2, Y=11 olan bir veri varsa, bu üç veri noktasına uygun yeni bir fonksiyon oluşturmak gerekir. GPU kullanarak kaba kuvvet ile Y = X2 - 3X + 5 buldum, bu oldukça uygun. Ancak verilerle tamamen örtüşmesine gerek yok; sadece dengeyi korumalı ve yaklaşık benzer bir çıktı vermelidir. Burada X2, X ve X0 farklı nöronları temsil ederken, 1, -3, 5 ise onların parametreleridir.
Bu durumda eğer sinir ağına büyük miktarda veri girersek, yeni verileri uyum sağlamak için nöronları artırabilir ve parametreleri yineleyebiliriz. Böylece tüm verileri uyum sağlayabiliriz.
Ve yapay sinir ağlarına dayanan derin öğrenme teknolojisi, yukarıdaki gibi en erken sinir ağları, ileri besleme sinir ağları, RNN, CNN, GAN gibi birden fazla teknik iterasyon ve evrime sahiptir. Son olarak, modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine evrilmiştir. Transformer teknolojisi, sinir ağlarının sadece bir evrim yönüdür ve bir dönüştürücü eklenmiştir ) Transformer (, tüm modları ), örneğin ses, video, resim vb. verilerini ilgili sayısal değerlere kodlamak için kullanılır. Ardından bu veriler sinir ağına girilir, böylece sinir ağı her türlü veriyi modelleyebilir, yani çok modlu hale getirilir.
Yapay zeka gelişimi üç teknik dalgadan geçti, birinci dalga 1960'lı yıllarda, yapay zeka teknolojisinin ortaya çıkmasından on yıl sonra, bu dalga sembolist teknolojilerin gelişimiyle ortaya çıktı. Bu teknoloji, genel doğal dil işleme ve insan-bilgisayar diyalogları sorunlarını çözdü. Aynı zamanda, uzman sistemler doğdu, bu, Stanford Üniversitesi'nin ABD Ulusal Havacılık ve Uzay Dairesi'nin teşvikiyle tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü bir kimya bilgisine sahiptir ve sorular üzerinden çıkarım yaparak kimya uzmanı gibi cevaplar üretir; bu kimya uzmanı sistemi, kimya bilgi tabanı ve çıkarım sisteminin birleşimi olarak görülebilir.
Uzman sistemlerin ardından, 1990'larda İsrailli Amerikalı bilim insanı ve filozof Judea Pearl ( Judea Pearl ) Bayes ağını önerdi, bu ağ aynı zamanda inanç ağı olarak da bilinir. Aynı dönemde, Brooks davranış temelli robot bilimi önerdi ve bu davranışçılığın doğuşunu simgeliyor.
1997'de, IBM'in derin mavi "Blue" 3.5:2.5 ile satranç şampiyonu Kasparov'u (Kasparov) yendi, bu zafer yapay zekanın bir dönüm noktası olarak kabul edildi ve AI teknolojisi ikinci gelişim dalgasının zirvesine ulaştı.
Üçüncü AI teknolojisi dalgası 2006 yılında gerçekleşti. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, yapay sinir ağlarını temel alan ve verileri temsil etme öğrenimi yapan bir algoritma olan derin öğrenme kavramını ortaya koydular. Daha sonra derin öğrenme algoritmaları, RNN, GAN'den Transformer ve Stable Diffusion'a kadar evrimleşti; bu iki algoritma, bu üçüncü teknoloji dalgasını şekillendirdi ve bu da bağlantıcılığın zirve dönemiydi.
Derin öğrenme teknolojisinin keşfi ve evrimi ile birlikte birçok ikonik olay ortaya çıkmaya başladı, bunlar arasında:
2011 yılında, IBM'in Watson( Watson), "Tehlike Sınırı"( Jeopardy) bilgi yarışmasında insanları yenerek şampiyon oldu.
2014 yılında, Goodfellow GAN( Generatif Karşıt Ağları, Generative Adversarial Network), iki sinir ağının birbirleriyle rekabet ederek öğrenmesini sağlayarak gerçek gibi görünen fotoğraflar üretebilen bir yöntem önerdi. Ayrıca Goodfellow, derin öğrenme alanında önemli bir giriş kitabı olan "Deep Learning" adlı bir kitap yazdı, bu kitaba çiçek kitabı da denir.
2015 yılında, Hinton ve diğerleri "Nature" dergisinde derin öğrenme algoritmasını önerdiler, bu derin öğrenme yönteminin önerilmesi hemen akademik çevrelerde ve sanayi dünyasında büyük yankı uyandırdı.
2015 yılında, OpenAI kuruldu. Musk, YC Başkanı Altman, melek yatırımcı Peter Thiel ve diğerleri 10 milyon dolarlık ortak yatırım yaptıklarını açıkladı.
2016 yılında, derin öğrenme teknolojisi temelinde geliştirilen AlphaGo, Go dünyası şampiyonu ve profesyonel dokuzuncu dan oyuncusu Lee Sedol ile Go insan-makine savaşına girdi ve toplamda 4-1 galip geldi.
2017 yılında, Hong Kong'daki Hanson Robotics ( tarafından geliştirilen insansı robot Sophia, tarihte birinci sınıf vatandaşlık statüsü kazanan ilk robot olarak anılmaktadır ve zengin yüz ifadelerine ile insan dilini anlama yeteneğine sahiptir.
2017'de, yapay zeka alanında zengin bir insan kaynağı ve teknik birikime sahip olan Google, "Attention is all you need" başlıklı bir makale yayınladı ve Transformer algoritmasını tanıttı; bu, büyük ölçekli dil modellerinin ortaya çıkmasını sağladı.
2018 yılında, OpenAI, Transformer algoritması temelinde inşa edilen GPT) Generative Pre-trained Transformer('ı piyasaya sürdü, bu o dönemdeki en büyük dil modellerinden biriydi.
2018 yılında, Google ekibi Deepmind, derin öğrenmeye dayanan AlphaGo'yu yayımladı ve bu, protein yapı tahmini yapabilen bir sistem olarak yapay zeka alanında büyük bir ilerleme işareti olarak değerlendirildi.
2019 yılında, OpenAI GPT-2'yi piyasaya sürdü, bu model 1.5 milyar parametreye sahiptir.
2020 yılında, OpenAI tarafından geliştirilen GPT-3, 175 milyar parametreye sahip olup, önceki versiyon GPT-2'ye göre 100 kat daha fazladır. Bu model, 570 GB metin kullanarak eğitilmiş olup, birçok NLP) doğal dil işleme( görevlerinde) soru yanıtlama, çeviri, makale yazma( alanlarında en ileri düzeyde performans sergilemektedir.
2021'de OpenAI, 1.76 trilyon parametreye sahip GPT-4'ü yayınladı, bu model GPT-3'ün 10 katıdır.
2023 yılı Ocak ayında GPT-4 modeline dayanan ChatGPT uygulaması piyasaya sürüldü, Mart ayında ChatGPT bir milyar kullanıcıya ulaştı ve tarihin en hızlı bir milyar kullanıcıya ulaşan uygulaması oldu.
2024 yılında OpenAI, GPT-4 omni'yi piyasaya sürecek.
Not: Yapay zeka ile ilgili birçok makale, birçok akım ve teknolojik evrim farklı olduğundan, burada esas olarak derin öğrenme veya bağlantısallığın gelişim tarihini takip edeceğiz, diğer akımlar ve teknolojiler hala hızlı bir gelişim sürecindedir.
![Yeni Başlayanlar İçin Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Derin Öğrenme Sanayi Zinciri
Mevcut büyük model dilleri, sinir ağı tabanlı derin öğrenme yöntemlerine dayanmaktadır. GPT'nin öncülüğündeki büyük modeller, yapay zeka alanında bir dalga yarattı; bu alana çok sayıda oyuncu girdi ve pazarın veri ve hesaplama gücüne olan talebinin büyük ölçüde patladığını keşfettik. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının endüstri zincirini keşfetmeye odaklanıyoruz. Derin öğrenme algoritmalarının hakim olduğu yapay zeka sektöründe, üst ve alt akışın nasıl oluştuğunu, üst ve alt akışın durumu ile arz-talep ilişkisini ve gelecekteki gelişmelerin nasıl olacağını inceliyoruz.
Öncelikle netleştirmemiz gereken şey, Transformer teknolojisine dayalı GPT öncülüğündeki LLM'lerin ) büyük modelinin ( eğitimi sırasında toplamda üç adımın bulunduğudur.
Eğitimden önce, Transformer tabanlı olduğu için, dönüştürücünün metin girişi sayılara dönüştürmesi gerekir; bu işleme "Tokenizasyon" denir. Daha sonra bu sayılara Token denir. Genel bir kural olarak, bir İngilizce kelime veya karakter yaklaşık bir Token olarak kabul edilebilirken, her bir Çince karakter yaklaşık iki Token olarak kabul edilebilir. Bu, GPT'nin fiyatlandırmasında kullanılan temel birimdir.
İlk adım, ön eğitim. Giriş katmanına, raporun ilk bölümünde verilen )X,Y( gibi yeterince veri çifti sağlanarak, bu model altındaki her bir nöronun en iyi parametrelerini bulmak için çalışılır. Bu aşamada büyük miktarda veriye ihtiyaç vardır ve bu süreç en fazla hesap gücü gerektiren süreçtir çünkü nöronlar çeşitli parametreleri denemek için tekrar tekrar döngüye girer. Bir veri çifti eğitim tamamlandıktan sonra, genellikle aynı veri kümesi üzerinde parametreleri yinelemek için ikinci bir eğitim süreci uygulanır.
İkinci adım, ince ayar. İnce ayar, az ama çok kaliteli bir veri kümesi ile eğitim vermektir. Bu tür bir değişim, modelin çıktısının daha yüksek kalitede olmasına yol açar; çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hatalı veya düşük kaliteli olabilir. İnce ayar adımı, kaliteli verilerle modelin kalitesini artırabilir.
Üçüncü adım, pekiştirmeli öğrenme. Öncelikle tamamen yeni bir model oluşturulacak, buna "ödül modeli" diyoruz, bu modelin amacı oldukça basit, çıktının sonuçlarını sıralamaktır, dolayısıyla bu modeli gerçekleştirmek oldukça kolay olacaktır, çünkü iş senaryosu oldukça dikeydir. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kalitede olup olmadığını belirlemek için kullanacağız, böylece bir ödül modeli kullanarak büyük modelin parametrelerini otomatik olarak yineleyebiliriz. ) Ancak bazen modelin çıktı kalitesini değerlendirmek için insan müdahalesine de ihtiyaç duyulabilir. (
Kısacası, büyük modellerin eğitim sürecinde, ön eğitim verilerin miktarı için çok yüksek talepler ortaya koyar, gereken GPU hesap gücü de en fazladır. İnce ayar ise parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar. Pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için bir ödül modeli aracılığıyla parametreleri tekrar tekrar yineleyebilir.
Eğitim sürecinde, parametre sayısı ne kadar artarsa, genelleme yeteneğinin üst sınırı o kadar yüksek olur. Örneğin, bir fonksiyon örneği olarak Y = aX + b alalım; burada aslında iki nöron var: X ve X0. Bu nedenle, parametrelerin nasıl değiştiği, modelin uyum sağlayabileceği veriler oldukça sınırlıdır, çünkü temelde hala bir doğru. Eğer nöron sayısı artarsa, o kadar çok parametreyi yineleyebiliriz ve bu da daha fazla veriyi uyumlamamıza olanak tanır. Bu, büyük modellerin mucizeler yaratmasının nedenidir ve aynı zamanda halk arasında büyük model olarak adlandırılmasının sebebidir; özünde devasa nöronlar ve parametreler ile çok miktarda veri vardır ve aynı zamanda büyük bir hesaplama gücüne ihtiyaç duyar.
Bu nedenle, büyük modelin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücü, bu üçü birlikte etkili olur.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
26 Likes
Reward
26
8
Repost
Share
Comment
0/400
SchroedingerAirdrop
· 08-19 08:31
Hiçbir şey anlamadan enayileri oyuna getirmek istiyorlar.
View OriginalReply0
TestnetNomad
· 08-19 04:06
Kripto Para Trade delirmiş olmalı
View OriginalReply0
token_therapist
· 08-19 03:17
Bunu bu kadar karmaşık hale getirmeye ne gerek var?
View OriginalReply0
WalletDetective
· 08-16 23:55
Yap ve bitsin, bize sarhoş etti.
View OriginalReply0
CoconutWaterBoy
· 08-16 23:54
Çalışma verimliliği %20 arttı ama ben bunu hissetmedim.
Yapay Zeka ve Kripto Varlıkların Buluşması: Derinlik Öğrenme Teknolojisinin Blok Zinciri Sektörünü Nasıl Etkilediği
AI x Kripto: Sıfırdan Zirveye
Giriş
AI sektöründeki son gelişmeler bazı insanlar tarafından dördüncü sanayi devrimi olarak görülüyor. Büyük modellerin ortaya çıkışı, çeşitli sektörlerde verimliliği önemli ölçüde artırdı, Boston Consulting Group, GPT'nin Amerika'da iş verimliliğini yaklaşık %20 artırdığını düşünüyor. Aynı zamanda, büyük modellerin getirdiği genelleme yeteneği, yeni bir yazılım tasarımı paradigması olarak adlandırılıyor; geçmişteki yazılım tasarımı kesin kodlardı, şimdi ise daha genelleştirilmiş büyük model çerçevelerinin yazılıma entegre edilmesiyle, bu yazılımlar daha iyi performans gösterebiliyor ve daha geniş modalitelerde giriş ve çıkışı destekleyebiliyor. Derin öğrenme teknolojisi gerçekten de AI sektörüne dördüncü bir refah dönemi getirdi, bu heyecan kripto para sektörüne de yayıldı.
Bu rapor, AI endüstrisinin gelişim tarihini, teknoloji sınıflandırmalarını ve derin öğrenme teknolojisinin icadının sektöre etkisini ayrıntılı olarak inceleyecektir. Daha sonra derin öğrenmede GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağısını, bunların gelişim durumunu ve trendlerini derinlemesine analiz edeceğiz. Ardından, kripto para birimleri ile AI endüstrisi arasındaki ilişkiyi özünde detaylı bir şekilde inceleyeceğiz ve kripto para ile ilgili AI endüstri zinciri yapısını gözden geçireceğiz.
AI sektörünün gelişim tarihi
AI endüstrisi 1950'li yıllarda başladı. Yapay zekanın vizyonunu gerçekleştirmek için, akademik ve sanayi dünyası farklı dönemlerde ve farklı disiplin arka planlarıyla, yapay zekayı gerçekleştirmek için birçok akım geliştirmiştir.
Modern yapay zeka teknolojisi, esas olarak "makine öğrenimi" terimini kullanmaktadır; bu teknolojinin temeli, makinelerin veriler aracılığıyla görevlerde tekrar tekrar iterasyon yaparak sistemin performansını iyileştirmesidir. Ana adımlar, verilerin algoritmaya gönderilmesi, bu verilerle modelin eğitilmesi, modelin test edilmesi ve dağıtılması, ardından modelin otomatik tahmin görevlerini tamamlamak için kullanılmasıdır.
Şu anda makine öğreniminin üç ana akımı vardır: bağlantıcılık, sembolistlik ve davranışçılık; bunlar sırasıyla insan sinir sistemini, düşüncesini ve davranışını taklit etmektedir.
Ve şu anda, sinir ağlarını temsil eden bağlanıcılık, derin öğrenme olarak da bilinen ( üzerine üstünlük sağlamaktadır. Bunun başlıca nedeni, bu mimarinin bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasıdır; katman sayısı ve sinir hücresi ) parametre ( sayısı yeterince arttığında, karmaşık genel görevleri uyarlamak için yeterli fırsat vardır. Veri girişi ile sinir hücrelerinin parametreleri sürekli olarak ayarlanabilir, böylelikle son olarak birçok veri ile deneyimlenen sinir hücresi en iyi duruma ulaşacaktır ) parametre (, bu da "büyük güçle mucizeler" dediğimiz şeydir ve bu, "derin" kelimesinin kökenidir - yeterince fazla katman ve sinir hücresi.
Bir örnek vermek gerekirse, basitçe bir fonksiyon oluşturarak anlayabiliriz. Bu fonksiyonu X=2 olduğunda Y=3, X=3 olduğunda Y=5 olarak tanımlayabiliriz. Eğer bu fonksiyonun tüm X değerlerine yanıt vermesini istiyorsak, bu fonksiyonun derecelerini ve parametrelerini sürekli eklememiz gerekir. Örneğin, şu anda bu koşulları sağlayan bir fonksiyon olarak Y = 2X - 1 oluşturabilirim. Ancak X=2, Y=11 olan bir veri varsa, bu üç veri noktasına uygun yeni bir fonksiyon oluşturmak gerekir. GPU kullanarak kaba kuvvet ile Y = X2 - 3X + 5 buldum, bu oldukça uygun. Ancak verilerle tamamen örtüşmesine gerek yok; sadece dengeyi korumalı ve yaklaşık benzer bir çıktı vermelidir. Burada X2, X ve X0 farklı nöronları temsil ederken, 1, -3, 5 ise onların parametreleridir.
Bu durumda eğer sinir ağına büyük miktarda veri girersek, yeni verileri uyum sağlamak için nöronları artırabilir ve parametreleri yineleyebiliriz. Böylece tüm verileri uyum sağlayabiliriz.
Ve yapay sinir ağlarına dayanan derin öğrenme teknolojisi, yukarıdaki gibi en erken sinir ağları, ileri besleme sinir ağları, RNN, CNN, GAN gibi birden fazla teknik iterasyon ve evrime sahiptir. Son olarak, modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine evrilmiştir. Transformer teknolojisi, sinir ağlarının sadece bir evrim yönüdür ve bir dönüştürücü eklenmiştir ) Transformer (, tüm modları ), örneğin ses, video, resim vb. verilerini ilgili sayısal değerlere kodlamak için kullanılır. Ardından bu veriler sinir ağına girilir, böylece sinir ağı her türlü veriyi modelleyebilir, yani çok modlu hale getirilir.
Yapay zeka gelişimi üç teknik dalgadan geçti, birinci dalga 1960'lı yıllarda, yapay zeka teknolojisinin ortaya çıkmasından on yıl sonra, bu dalga sembolist teknolojilerin gelişimiyle ortaya çıktı. Bu teknoloji, genel doğal dil işleme ve insan-bilgisayar diyalogları sorunlarını çözdü. Aynı zamanda, uzman sistemler doğdu, bu, Stanford Üniversitesi'nin ABD Ulusal Havacılık ve Uzay Dairesi'nin teşvikiyle tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü bir kimya bilgisine sahiptir ve sorular üzerinden çıkarım yaparak kimya uzmanı gibi cevaplar üretir; bu kimya uzmanı sistemi, kimya bilgi tabanı ve çıkarım sisteminin birleşimi olarak görülebilir.
Uzman sistemlerin ardından, 1990'larda İsrailli Amerikalı bilim insanı ve filozof Judea Pearl ( Judea Pearl ) Bayes ağını önerdi, bu ağ aynı zamanda inanç ağı olarak da bilinir. Aynı dönemde, Brooks davranış temelli robot bilimi önerdi ve bu davranışçılığın doğuşunu simgeliyor.
1997'de, IBM'in derin mavi "Blue" 3.5:2.5 ile satranç şampiyonu Kasparov'u (Kasparov) yendi, bu zafer yapay zekanın bir dönüm noktası olarak kabul edildi ve AI teknolojisi ikinci gelişim dalgasının zirvesine ulaştı.
Üçüncü AI teknolojisi dalgası 2006 yılında gerçekleşti. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, yapay sinir ağlarını temel alan ve verileri temsil etme öğrenimi yapan bir algoritma olan derin öğrenme kavramını ortaya koydular. Daha sonra derin öğrenme algoritmaları, RNN, GAN'den Transformer ve Stable Diffusion'a kadar evrimleşti; bu iki algoritma, bu üçüncü teknoloji dalgasını şekillendirdi ve bu da bağlantıcılığın zirve dönemiydi.
Derin öğrenme teknolojisinin keşfi ve evrimi ile birlikte birçok ikonik olay ortaya çıkmaya başladı, bunlar arasında:
2011 yılında, IBM'in Watson( Watson), "Tehlike Sınırı"( Jeopardy) bilgi yarışmasında insanları yenerek şampiyon oldu.
2014 yılında, Goodfellow GAN( Generatif Karşıt Ağları, Generative Adversarial Network), iki sinir ağının birbirleriyle rekabet ederek öğrenmesini sağlayarak gerçek gibi görünen fotoğraflar üretebilen bir yöntem önerdi. Ayrıca Goodfellow, derin öğrenme alanında önemli bir giriş kitabı olan "Deep Learning" adlı bir kitap yazdı, bu kitaba çiçek kitabı da denir.
2015 yılında, Hinton ve diğerleri "Nature" dergisinde derin öğrenme algoritmasını önerdiler, bu derin öğrenme yönteminin önerilmesi hemen akademik çevrelerde ve sanayi dünyasında büyük yankı uyandırdı.
2015 yılında, OpenAI kuruldu. Musk, YC Başkanı Altman, melek yatırımcı Peter Thiel ve diğerleri 10 milyon dolarlık ortak yatırım yaptıklarını açıkladı.
2016 yılında, derin öğrenme teknolojisi temelinde geliştirilen AlphaGo, Go dünyası şampiyonu ve profesyonel dokuzuncu dan oyuncusu Lee Sedol ile Go insan-makine savaşına girdi ve toplamda 4-1 galip geldi.
2017 yılında, Hong Kong'daki Hanson Robotics ( tarafından geliştirilen insansı robot Sophia, tarihte birinci sınıf vatandaşlık statüsü kazanan ilk robot olarak anılmaktadır ve zengin yüz ifadelerine ile insan dilini anlama yeteneğine sahiptir.
2017'de, yapay zeka alanında zengin bir insan kaynağı ve teknik birikime sahip olan Google, "Attention is all you need" başlıklı bir makale yayınladı ve Transformer algoritmasını tanıttı; bu, büyük ölçekli dil modellerinin ortaya çıkmasını sağladı.
2018 yılında, OpenAI, Transformer algoritması temelinde inşa edilen GPT) Generative Pre-trained Transformer('ı piyasaya sürdü, bu o dönemdeki en büyük dil modellerinden biriydi.
2018 yılında, Google ekibi Deepmind, derin öğrenmeye dayanan AlphaGo'yu yayımladı ve bu, protein yapı tahmini yapabilen bir sistem olarak yapay zeka alanında büyük bir ilerleme işareti olarak değerlendirildi.
2019 yılında, OpenAI GPT-2'yi piyasaya sürdü, bu model 1.5 milyar parametreye sahiptir.
2020 yılında, OpenAI tarafından geliştirilen GPT-3, 175 milyar parametreye sahip olup, önceki versiyon GPT-2'ye göre 100 kat daha fazladır. Bu model, 570 GB metin kullanarak eğitilmiş olup, birçok NLP) doğal dil işleme( görevlerinde) soru yanıtlama, çeviri, makale yazma( alanlarında en ileri düzeyde performans sergilemektedir.
2021'de OpenAI, 1.76 trilyon parametreye sahip GPT-4'ü yayınladı, bu model GPT-3'ün 10 katıdır.
2023 yılı Ocak ayında GPT-4 modeline dayanan ChatGPT uygulaması piyasaya sürüldü, Mart ayında ChatGPT bir milyar kullanıcıya ulaştı ve tarihin en hızlı bir milyar kullanıcıya ulaşan uygulaması oldu.
2024 yılında OpenAI, GPT-4 omni'yi piyasaya sürecek.
Not: Yapay zeka ile ilgili birçok makale, birçok akım ve teknolojik evrim farklı olduğundan, burada esas olarak derin öğrenme veya bağlantısallığın gelişim tarihini takip edeceğiz, diğer akımlar ve teknolojiler hala hızlı bir gelişim sürecindedir.
![Yeni Başlayanlar İçin Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Derin Öğrenme Sanayi Zinciri
Mevcut büyük model dilleri, sinir ağı tabanlı derin öğrenme yöntemlerine dayanmaktadır. GPT'nin öncülüğündeki büyük modeller, yapay zeka alanında bir dalga yarattı; bu alana çok sayıda oyuncu girdi ve pazarın veri ve hesaplama gücüne olan talebinin büyük ölçüde patladığını keşfettik. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının endüstri zincirini keşfetmeye odaklanıyoruz. Derin öğrenme algoritmalarının hakim olduğu yapay zeka sektöründe, üst ve alt akışın nasıl oluştuğunu, üst ve alt akışın durumu ile arz-talep ilişkisini ve gelecekteki gelişmelerin nasıl olacağını inceliyoruz.
Öncelikle netleştirmemiz gereken şey, Transformer teknolojisine dayalı GPT öncülüğündeki LLM'lerin ) büyük modelinin ( eğitimi sırasında toplamda üç adımın bulunduğudur.
Eğitimden önce, Transformer tabanlı olduğu için, dönüştürücünün metin girişi sayılara dönüştürmesi gerekir; bu işleme "Tokenizasyon" denir. Daha sonra bu sayılara Token denir. Genel bir kural olarak, bir İngilizce kelime veya karakter yaklaşık bir Token olarak kabul edilebilirken, her bir Çince karakter yaklaşık iki Token olarak kabul edilebilir. Bu, GPT'nin fiyatlandırmasında kullanılan temel birimdir.
İlk adım, ön eğitim. Giriş katmanına, raporun ilk bölümünde verilen )X,Y( gibi yeterince veri çifti sağlanarak, bu model altındaki her bir nöronun en iyi parametrelerini bulmak için çalışılır. Bu aşamada büyük miktarda veriye ihtiyaç vardır ve bu süreç en fazla hesap gücü gerektiren süreçtir çünkü nöronlar çeşitli parametreleri denemek için tekrar tekrar döngüye girer. Bir veri çifti eğitim tamamlandıktan sonra, genellikle aynı veri kümesi üzerinde parametreleri yinelemek için ikinci bir eğitim süreci uygulanır.
İkinci adım, ince ayar. İnce ayar, az ama çok kaliteli bir veri kümesi ile eğitim vermektir. Bu tür bir değişim, modelin çıktısının daha yüksek kalitede olmasına yol açar; çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hatalı veya düşük kaliteli olabilir. İnce ayar adımı, kaliteli verilerle modelin kalitesini artırabilir.
Üçüncü adım, pekiştirmeli öğrenme. Öncelikle tamamen yeni bir model oluşturulacak, buna "ödül modeli" diyoruz, bu modelin amacı oldukça basit, çıktının sonuçlarını sıralamaktır, dolayısıyla bu modeli gerçekleştirmek oldukça kolay olacaktır, çünkü iş senaryosu oldukça dikeydir. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kalitede olup olmadığını belirlemek için kullanacağız, böylece bir ödül modeli kullanarak büyük modelin parametrelerini otomatik olarak yineleyebiliriz. ) Ancak bazen modelin çıktı kalitesini değerlendirmek için insan müdahalesine de ihtiyaç duyulabilir. (
Kısacası, büyük modellerin eğitim sürecinde, ön eğitim verilerin miktarı için çok yüksek talepler ortaya koyar, gereken GPU hesap gücü de en fazladır. İnce ayar ise parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar. Pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için bir ödül modeli aracılığıyla parametreleri tekrar tekrar yineleyebilir.
Eğitim sürecinde, parametre sayısı ne kadar artarsa, genelleme yeteneğinin üst sınırı o kadar yüksek olur. Örneğin, bir fonksiyon örneği olarak Y = aX + b alalım; burada aslında iki nöron var: X ve X0. Bu nedenle, parametrelerin nasıl değiştiği, modelin uyum sağlayabileceği veriler oldukça sınırlıdır, çünkü temelde hala bir doğru. Eğer nöron sayısı artarsa, o kadar çok parametreyi yineleyebiliriz ve bu da daha fazla veriyi uyumlamamıza olanak tanır. Bu, büyük modellerin mucizeler yaratmasının nedenidir ve aynı zamanda halk arasında büyük model olarak adlandırılmasının sebebidir; özünde devasa nöronlar ve parametreler ile çok miktarda veri vardır ve aynı zamanda büyük bir hesaplama gücüne ihtiyaç duyar.
Bu nedenle, büyük modelin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücü, bu üçü birlikte etkili olur.