Google, Şakalarınızı Size Açıklamayı Suni Zeka Öğretiyor

Son Guncelleme : 11 Nisan 2022 | admin


“Suni zeka” çoğu zaman her türlü teknolojik yılan yağı satan şüpheli etiketsadece en azından makine duyarlılığı fikrinin olduğu bir alan hissediyor Şaşırtıcı derecede gerçekçi, insan dilini ayrıştırmayı ve yanıtlamayı öğrenen makine öğrenimi sistemleri olan Naturel Dil İşleme yada NLP’dedir.

GPT-3 benzer biçimde Büyük Dil Modelleri (LLM’ler), söyleşi robotlarının üretmesine izin verdi esrarengiz ve rahatsız edici derecede doğru insan iletişimi – o denli ki, neyin makine tarafınca üretildiğini ve neyin bir insan tarafınca yazıldığını söylemek çoğu zaman zor olsa gerek. Şimdi, bir son yayınlanan makaleGoogle’ın araştırma ekibi, yalnızca gerçekçi metin oluşturma değil, bununla birlikte insanoğlu tarafınca anlatılan şakaları yorumlama ve izahat kabiliyetine de haiz olan PaLM adlı bir dil modelini eğittiklerini iddia ediyor.

Makaleye birlikte rol alan örneklerde, Google’ın AI ekibi, modelin mantıksal akıl yürütme ve büyük seviyede bağlama bağlı olan öteki karmaşık dil görevlerini yerine getirme becerisini gösterir; mesela, sistemin performansını büyük seviyede geliştiren fikir zinciri yönlendirmesi isminde olan bir teknik kullanarak. Bir insanoğlunun fikir sürecini simüle ederek fazlaca adımlı mantık sorunlarını ayrıştırma kabiliyeti.

Google'ın makine öğrenimi modelinin yorumlayabildiği örnek şakaların ekran görüntüsü.

Google’ın dil modelinin yorumlayabildiği örnek şakalar.

Sadece kim bilir en şaşırtıcı örnekler, modelin şakaları iyi mi tanıyabildiğini ve yorumlayabildiğini gösteriyor – bilhassa dinleyiciyi şaşırtmak için tasarlanmış olanları bile.

Girdi: Bir zebra ve bir şemsiye arasındaki fark nedir? Biri atlarla ilgili çizgili bir hayvan, diğeri yağmurun üzerinize yağmasını engellemek için kullandığınız bir alet.

Model Çıktısı: Bu latife bir latife karşıtıdır. İşin esprisi, cevabın açık olması ve latife, senin gülünç bir yanıt beklemen.

PaLM’nin bu istemleri ayrıştırma kabiliyetinin arkasında, 540 milyar parametre ile şimdiye kadar yapılmış en büyük dil modellerinden biri yatmaktadır. Parametreler, sisteme her örnek veri beslendiğinde öğrenme süreci süresince eğitilen modelin öğeleridir. (Karşılaştırma için, PaLM’nin öncülü GPT-3’ün 175 milyar parametresi vardır.)

Artan parametre sayısı, araştırmacıların bireysel senaryolar için modeli eğitmek için süre harcamak zorunda kalmadan geniş bir yelpazede yüksek kaliteli sonuçlar üretmesini elde etmiştir. Başka bir deyişle, bir dil modelinin performansı çoğu zaman desteklediği parametrelerin sayısıyla ölçülür; en büyük modeller “birkaç adımlı öğrenme” olarak malum şeyi ya da bir sistemin fazlaca çeşitli karmaşık öğrenmeyi öğrenme kabiliyetidir. nispeten azca eğitim örneği içeren görevler.

Pek fazlaca araştırmacı ve teknoloji etiği uzmanı, Google’ı ve öteki şirketleri, mevzuyla ilgili onaylanmamış bir yazı yayınladıktan sonrasında 2020’de Google’dan meşhur bir halde kovulan Dr. Timnit Gebru da dahil olmak suretiyle, büyük dil modellerini kullandıkları için eleştirdi. Gebru’nun makalesinde, kendisi ve ortak yazarları bu büyük modelleri “organik olarak riskli” ve tasarım sürecinde çoğu zaman temsil edilmeyen marjinalleştirilmiş insanoğlu için zararı olan olarak tanımladılar. “Son teknoloji” olmasına karşın, bilhassa GPT-3, bağnaz ve ırkçı tepkilerin tarihiRastgele ırkçı hakaretleri benimsemekten Müslümanları şiddetle ilişkilendirmeye kadar.

Gebru’nun makalesinde, “Bir çok dil teknolojisi aslına bakarsak her şeyden ilkin toplumda esasen en fazla ayrıcalığa haiz olanların gereksinimlerine hizmet etmek için inşa edilmiştir” diyor. “Belgeleme, yazarları ürettikleri metinlerden görevli tutmamıza benzer şekilde, potansiyel hesap verebilirliğe izin verirken, belgelenmemiş eğitim verileri, başvurulmadan ziyanı devam ettirir. Eğitim verilerinin belgelenemeyecek kadar büyük olduğu düşünülürse, belgelenen bu sorunlardan bazılarını ve hatta bilinmeyenleri azaltmak için özelliklerini anlamaya çalışamazsınız.”

Comments are closed.