Yapay Zekada dönüm noktası GPT-3

Generative Pre-trained Transformer 3 (TürkçeÜretken Ön İşlemeli Dönüştürücü 3)[1] kısaca GPT-3, insanların yazdığı metinlere benzer içerik üretmek için derin öğrenmeyi kullanan özbağlanımlı dil modelidir. GPT-n serisindeki üçüncü nesil dil tahmin modeli olan GPT-3, San Francisco merkezli yapay zeka araştırma laboratuvarı OpenAI tarafından geliştirilmiştir.[2] GPT-3'ün tam sürümü, veri işleyecek 175 milyar parametreye sahiptir. Bu rakam GPT-2'nin öğrenme kapasitesinin 2 katıdır. 14 Mayıs 2020'de tanıtılan ve Temmuz 2020 itibarıyla beta aşamasında olan GPT-3,[3] önceden öğretilmiş dil örnekleriyle doğal dil işleme (NLP) sistemini kullanmaktadır. GPT-3'ün piyasaya sürülmesinden önce, en büyük dil modeli Microsoft'un Şubat 2020'de tanıttığı ve GPT-3'ün %10'undan daha az kapasiteye sahip olan (17 milyar parametre) Turing NLG idi.[4]

GPT-3 tarafından üretilen metnin kalitesi o kadar yüksektir ki, bir insan tarafından yazılmadığını anlamak zordur. Bu durumun yaratabileceği avantajlar olabileceği gibi riskler de vardır.[4] 31 OpenAI araştırmacısı ve mühendisi, 28 Mayıs 2020'de GPT-3'ü tanıtan orijinal makaleyi yayımlamıştır. Makalelerinde, GPT-3'ün potansiyel tehlikeleri konusunda insanları uyarmış ve bu riski azaltmak için çalışmalar yapılması gerektiği çağrısında bulunmuşlardır. Avustralyalı filozof David Chalmers, GPT-3'ü "şimdiye kadar üretilmiş en ilginç ve önemli yapay zeka sistemlerinden biri" olarak tanımlamıştır.[5]

Arka planı

The Economist'e göre, geliştirilmiş algoritmalar, güçlü bilgisayarlar ve sayısallaştırılmış verilerdeki artış, makine öğreniminde bir devrimi tetiklemiştir.[6] Yazılım modelleri, bir "yapıda" binlerce veya milyonlarca örnek kullanarak öğrenmek üzere eğitilmektedir. Doğal dil işlemede (NLP) kullanılan mimari, ilk olarak 2017'de tanıtılan derin öğrenme modeline dayanan Transformer adlı yapay sinir ağıdır. GPT-n modellerinin yapısı, Transformer tabanlı derin öğrenme sistemine dayanmaktadır. Veri işleme, veri madenciliği, veri düzenleme, veriler arası bağlantı kurma, verilerde zıtlık oluşturma, verileri anlama ve sorulara yanıt verme becerisine sahip bir dizi NLP sistemi vardır.[7]

Yapabildikleri

OpenAI'de çalışan 31 mühendis ve araştırmacıdan oluşan grup projeyi 28 Mayıs 2020'de tanıttı.[4] Ekip, GPT-3'ün kapasitesinin selefisi GPT-2'ye nazaran iki kat fazla olduğunu ve türünün en gelişmiş örneği olduğunu belirtmiştir.[2] GPT-3'ün parametre sayısı, daha küçük kapasiteli önceki sürümlere kıyasla daha doğru çalışmasını sağlamaktadır.[8] GPT-3'ün kapasitesi, Microsoft'un Turing NLG'sinin on katından fazladır.

GPT-3'e öğrenmesi için verilen veri kümesinin %60'ının kaynağı, 410 milyar veriden oluşan filtrelenmiş Common Crawl sürümüdür. Veri kümesinin %22'si İnternetteki verilerden, %16'sı şimdiye kadar yayımlanmış kitaplardan ve %3'ü Wikipedia'dan gelmektedir. GPT-3, yüz milyarlarca kelimenin yanı sıra CSS, JSX, Python'da kodlama yeteneğine sahiptir.[3] GPT-3'ün eğitim verileri her şeyi kapsadığından, farklı dil görevleri için daha fazla veri öğrenmesi gerekmemektedir.

11 Haziran 2020'de OpenAI, kullanıcıların OpenAI'nin yeni teknolojisinin "güçlü yönlerini ve sınırlarını keşfetmesine" yardımcı olmak için kullanıcı dostu GPT-3 API'sine ("makine öğrenimi araç seti") erişim talep edebileceklerini duyurmuştur.[9][10] Davetiyede, bu API'nin neredeyse "tüm İngilizce komutları" tamamlayabildiğini yazmaktadır. OpenAI GPT-3 API'nin erken sürümüne erişim hakkı olan bir kullanıcıya göre, GPT-3 "inanılmaz derecede tutarlı metinler" yazma konusunda "ürkütücü derecede iyiydi".[11]

GPT-3, insanlar tarafından yazılan makalelerden ayırt etmekte güçlük çekilen haberler üretebildiğinden",[4] GPT-3'ün hem yararlı hem de zararlı uygulamaların geliştirilmesinde kullanılabileceği düşünülmektedir. Araştırmacılar 28 Mayıs 2020 tarihli makalelerinde GPT-3'ün potansiyel zararlı etkilerini detaylıca açıklamışlardır. Yanlış bilgi üretimi, spam, kimlik avı, yasal ve hükümet süreçlerinin kötüye kullanımı, sahte akademik makale yazma ve sosyal mühendislik potansiyel zararlı etkilerden bazılarıdır. Yazarlar, bu risklerin azaltılması konusunda araştırmalar yapılması için bu tehlikelere dikkat çekmektedir.

Kaynakça

  1. ^ "Yapay zekâ: Yeni nesil GPT-3 yüzünden korkmalı mı, sevinmeli mi?"BBC News Türkçe. 10 Ağustos 2020. Erişim tarihi: 16 Ağustos 2020.
  2. ^ a b Shead (23 Temmuz 2020). "Why everyone is talking about the A.I. text generator released by an Elon Musk-backed lab"CNBC. Erişim tarihi: 31 Temmuz 2020. Four preprints were released between May 28 and July 22, 2020.
  3. ^ a b "Will GPT-3 Kill Coding?"Towards Data Science. 21 Temmuz 2020. Erişim tarihi: 1 Ağustos 2020.
  4. ^ a b c d Sagar (3 Haziran 2020). "OpenAI Releases GPT-3, The Largest Model So Far"Analytics India Magazine. Erişim tarihi: 31 Temmuz 2020.
  5. ^ Weinberg, Justin (30 Temmuz 2020). "Philosophers On GPT-3 (updated with replies by GPT-3)"Daily Nous. Erişim tarihi: 4 Ağustos 2020.
  6. ^ "An understanding of AI's limitations is starting to sink in"The Economist. 11 Haziran 2020. ISSN 0013-0613. Erişim tarihi: 31 Temmuz 2020.
  7. ^ "Natural Language Processing". Erişim tarihi: 31 Temmuz 2020.
  8. ^ "OpenAI's gigantic GPT-3 hints at the limits of language models for AI"ZDNet. 1 Haziran 2020. Erişim tarihi: 31 Temmuz 2020.
  9. ^ "OpenAI API"OpenAI. 11 Haziran 2020.
  10. ^ "TechCrunch – Startup and Technology News"TechCrunch. 11 Haziran 2020. Erişim tarihi: 31 Temmuz 2020If you’ve ever wanted to try out OpenAI’s vaunted machine learning toolset, it just got a lot easier. The company has released an API that lets developers call its AI tools in on “virtually any English language task.”
  11. ^ "GPT-3: An AI that's eerily good at writing almost anything"Arram Sabeti. 9 Temmuz 2020. Erişim tarihi: 31 Temmuz 2020.
Kaynak: Wikipedia
Tarih:
Hit: 1973
Yazar: ehlikeyif

Taglar: yapay zeka gpt3


Yorumlar


Yorum yapabilmek için üye girişi yapmalısınız.

Yorumlar

zalimadam tarafından yazıldı. Tarih: 23/Eyl/20 15:23
belirli bölümünü beleş kullanıma açsalarda kullansak