
Investing.com — Intel (NASDAQ:INTC) Labs ve Weizmann Bilim Enstitüsü, büyük dil modellerinin (LLM) çıktı kalitesinden ödün vermeden 2,8 kata kadar daha hızlı çalışmasını sağlayan yeni bir yöntem geliştirdi. Şirket bu gelişmeyi duyurdu.
“Spekülatif kod çözme” alanındaki bu atılım, Kanada’nın Vancouver kentinde düzenlenen Uluslararası Makine Öğrenimi Konferansı’nda sunuldu. Bu teknik, farklı kelime dağarcıkları kullansalar bile, herhangi bir küçük “taslak” modelin herhangi bir büyük dil modelini hızlandırmasına olanak tanıyor.
Intel Labs’ın Doğal Dil İşleme Grubu’nun kıdemli araştırmacısı Oren Pereg şöyle konuştu: “Üretken yapay zekadaki temel bir verimsizliği çözdük. Araştırmamız, spekülatif hızlandırmayı evrensel bir araca dönüştürmenin yolunu gösteriyor. Bu sadece teorik bir iyileştirme değil; bunlar halihazırda geliştiricilerin daha hızlı ve daha akıllı uygulamalar oluşturmasına yardımcı olan pratik araçlar.”
Spekülatif kod çözme, küçük ve hızlı bir modeli daha büyük ve daha doğru bir modelle eşleştirerek çalışır. “Fransa’nın başkenti nedir” gibi bir istem verildiğinde, geleneksel bir LLM her kelimeyi adım adım oluşturur. Bu da her adımda önemli kaynaklar tüketir. Spekülatif kod çözme ile küçük yardımcı model hızla “Paris, ünlü bir şehir” gibi tam bir cümle taslağı oluşturur. Büyük model daha sonra bunu doğrulayarak hesaplama döngülerini azaltır.
Yeni yöntem, daha önce paylaşılan kelime dağarcıkları veya birlikte eğitilmiş model ailelerini gerektiren sınırlamaları ortadan kaldırarak farklı model türleri arasında pratik hale getiriyor. Bu teknik satıcıdan bağımsızdır ve farklı geliştiricilerin ve ekosistemlerin modelleriyle çalışır.
Weizmann Enstitüsü’nde Prof. David Harel’in araştırma grubunda doktora öğrencisi olan Nadav Timor şunları söyledi: “Bu çalışma, üretken yapay zekayı daha hızlı ve daha ucuz hale getirmenin önündeki büyük bir teknik engeli ortadan kaldırıyor. Algoritmalarımız, daha önce sadece kendi küçük taslak modellerini eğiten kuruluşlara sunulan en son teknoloji hızlandırmaların kilidini açıyor.”
Araştırma, spekülatif kodlamayı kelime dağarcığı hizalamasından ayıran üç yeni algoritma sunuyor. Bu algoritmalar halihazırda Hugging Face Transformers açık kaynak kütüphanesine entegre edilmiş durumda. Böylece gelişmiş LLM hızlandırma, özel kod gerektirmeden milyonlarca geliştiricinin kullanımına sunuluyor.
Bu makale yapay zekanın desteğiyle oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Şart ve Koşullar bölümümüze bakın.