Training and Fine-Tuning OpenClaw Skills

A technical guide to training and fine-tuning OpenClaw Skills for domain-specific accuracy. Covers data preparation, fine-tuning approaches, evaluation, and iteration.

E
ECOSIRE Research and Development Team
|19 Mart 202611 dk okuma2.4k Kelime|

OpenClaw Becerilerinin Eğitimi ve İnce Ayarı

Genel temel modellerle birlikte uygulanan OpenClaw Becerileri, belge özetleme, yapılandırılmış veri çıkarma, iş akışı koordinasyonu gibi standart iş görevleri için iyi performans gösterir. Ancak alana özgü görevler (tıbbi kodlama, yasal madde analizi, özel teknik sınıflandırma, sektöre özgü risk değerlendirmesi), üretim kalitesinde doğruluk elde etmek için belirli alana göre ayarlanmış modeller ve istemler gerektirir.

Bu kılavuz, OpenClaw Becerilerinin eğitimi ve ince ayarının yapılmasına yönelik iş akışının tamamını kapsar: ince ayarın ne zaman gerekli olduğunun belirlenmesinden veri hazırlığına, ince ayarın yürütülmesine, değerlendirmeye ve devam eden yinelemeye kadar.

Önemli Çıkarımlar

  • İnce ayar, genel temel modellerle karşılaştırıldığında alana özgü görevlerde doğruluğu %15-40 artırır
  • İnce ayara yatırım yapmadan önce hızlı mühendislik ve birkaç adımda öğrenme tüketilmelidir
  • İnce ayar çoğu iş görevi için 500-5.000 yüksek kaliteli eğitim örneği gerektirir
  • Veri kalitesi nicelikten daha önemlidir — 500 mükemmel örnek, 5.000 vasat örnekten daha iyi performans gösterir
  • İnce ayarlı modellerin üretime dağıtılmasından önce uzun bir test setine göre değerlendirme yapılması gerekir
  • İnce ayarlı modeller, iş kuralları değiştiğinde veya model sapması tespit edildiğinde yeniden eğitim gerektirir
  • LoRA gibi PEFT (Parametre Açısından Verimli İnce Ayar) yöntemleri, çok fazla işlem gerektirmeden ince ayarın erişilebilir olmasını sağlar
  • 4-8 haftalık yineleme döngüleri, model performansının zaman içinde sürekli olarak iyileştirilmesini sağlar

İnce Ayar Gerektiğinde (ve Gerekmediğinde)

İnce ayar, aracı doğruluğunu artırmak için ilk çare değildir; daha basit yaklaşımlar tükendikten sonra başvurulacak son çaredir. Yatırım belirli koşullar altında haklı çıkar.

Buradan başlayın: Hızlı mühendislik. Herhangi bir eğitim yatırımından önce istemi optimize edin. Aynı görev için vasat ve mükemmel bir istem arasındaki fark genellikle %20-30 oranında doğruluk artışıdır. Teknikler: Açık görev tanımı, açık çıktı formatı belirtimi, düşünce zinciri talimatları, komut isteminde bir veya iki örnek (birkaç çekim). Çoğu ekip, daha iyi bir anlık mühendislik sorunu çözebilecekken ince ayara yatırım yapar.

Sonra: RAG (Geri Alma Artırılmış Üretim). Belirli bilgilere (ürün kataloğu ayrıntıları, düzenleyici kurallar, şirkete özel bilgiler) erişim gerektiren görevler için, ilgili bilgiyi bağlamda sağlamak genellikle modelde bilgiyi "bilecek" şekilde ince ayar yapmaktan daha etkilidir. RAG'nin bakımı daha kolaydır; bilgi değiştiğinde modeli değil, bilgi tabanını güncelleyin.

Sonra: Bilgi isteminde birkaç örnek. Bilgi istemine 3-10 yüksek kaliteli giriş/çıkış örneği eklemek (bağlam içi öğrenme), yapılandırılmış görevlerdeki performansı önemli ölçüde artırır. Bu, çıktı biçimini, ayrıntı düzeyini ve stil beklentilerini göstermenin en hızlı yoludur.

İnce ayar şu durumlarda haklıdır:

  • Görev, bağlama uymayan içselleştirilmiş bilgi gerektirir (kapsamlı düzenleyici kural kitapları, geniş ürün sınıflandırma hiyerarşileri)
  • Çıktı formatı son derece spesifiktir ve bağlam içindeki örnekler tutarlı bir uyumluluk sağlamamıştır
  • Görev, genel modellerin doğru şekilde işlemediği özel terminoloji kullanıyor
  • Gecikme kısıtlamaları büyük bağlam pencerelerini yasaklar (ince ayarlı modeller eşdeğer doğrulukla daha hızlıdır)
  • Hızlı mühendislik ve RAG yaklaşımları tüketildikten sonra doğruluk eşiğin altında kalır

OpenClaw Beceri Mimarisini Anlamak

İnce ayarlara dalmadan önce Beceri çalışmasının eğitim yaklaşımını nasıl şekillendirdiğini anlayın.

Beceri, dört bileşenden oluşan yapılandırılmış bir aracı yeteneğidir:

Sistem istemi: Becerinin rolünü, görevini, çıktı biçimini ve kısıtlamalarını tanımlayan talimatlar. Bu, ince ayar gerektirmeyen iyileştirmenin birincil kaldıracıdır.

Giriş şeması: Becerinin kabul ettiği yapılandırılmış girişi, yani hangi veri alanlarını beklediğini, türlerini ve hangilerinin gerekli olduğunu tanımlar.

Model yapılandırması: Bu Beceri için kullanılan temel model ve çıkarım parametreleri (sıcaklık, maksimum belirteçler, üst-p). Farklı görevler farklı ayarlardan yararlanır.

Çıktı şeması: Yapılandırılmış çıktı biçimini tanımlar. Güçlü çıktı şemalarına sahip beceriler, serbest biçimli çıktılara sahip Becerilere göre daha tutarlı, ayrıştırılabilir sonuçlar üretir.

İnce ayar, model bileşenini hedefler; model ağırlıklarını, belirli Beceri görevinizde ve etki alanınızda daha iyi performans gösterecek şekilde uyarlar. Bilgi istemi optimizasyonu sistem istemini hedefler. Her ikisi de tamamlayıcıdır.


İnce Ayar Yaklaşımları

Tam ince ayar: Tüm model parametreleri eğitim sırasında güncellenir. En büyük doğruluk kazanımlarını sağlar ancak önemli düzeyde hesaplama gerektirir ve pahalıdır. Yalnızca makine öğrenimi mühendislik kaynaklarına ve büyük eğitim veri kümelerine (10.000'den fazla örnek) sahip kuruluşlar için pratiktir.

PEFT (Parametre Açısından Verimli İnce Ayar): Yalnızca küçük bir parametre alt kümesi güncellenir ve bilgi işlem gereksinimleri önemli ölçüde azalır. En yaygın PEFT yöntemi, 10-100 kat daha az bilgi işlem ve bellek kullanarak tam ince ayar ile karşılaştırılabilir sonuçlar elde eden LoRA'dır (Düşük Sıralı Adaptasyon).

LoRA ince ayarı çoğu OpenClaw Beceri ince ayarı ihtiyacı için önerilen yaklaşımdır çünkü:

  • Özel makine öğrenimi altyapısı olmadan bulut GPU örneklerinde uygulanabilir
  • 500-5.000 örnekten oluşan eğitim veri setleri yeterlidir
  • Eğitim çalışmaları günler değil saatler içinde tamamlanır
  • Beceri başına bir tane olmak üzere birden fazla LoRA adaptörünün bakımı aynı anda yapılabilir
  • LoRA adaptörleri temel modeli yeniden yüklemeden değiştirilebilir

İstem ayarı: Yalnızca az sayıda "geçici istem" jetonunun eğitildiği daha yumuşak bir yaklaşım. LoRA'ya göre daha az bilgi işlem yoğunluğuna sahiptir ancak genellikle daha küçük doğruluk kazanımları sağlar. Küçük stil ve format kalibrasyonu için uygundur.

RLHF (İnsan Geri Bildiriminden Takviyeli Öğrenme): İnsanların tercih derecelendirmelerine ilişkin bir ödül modelinin eğitilmesini ve ardından modelin ince ayarının yapılmasına rehberlik etmek için kullanılmasını içerir. Öznel kalite iyileştirmesi (yazma stili, uygunluk, yardımseverlik) için en iyi sonuçları üretir ancak önemli düzeyde insan etiketleme çabası ve makine öğrenimi uzmanlığı gerektirir.


Veri Hazırlama

Veri kalitesi, ince ayar başarısının en önemli belirleyicisidir. Model, eğitim verilerinde bulunanları kopyalamayı öğrenir; eğitim verileri tutarsız, yanlış veya düşük kaliteli ise ince ayarlı model de öyle olacaktır.

Veri Toplama Stratejileri

Üretim trafiği örneklemesi: Beceri zaten dağıtılmışsa (muhtemelen daha düşük doğrulukla), üretim girdilerini örnekleyin ve alan uzmanlarının her biri için doğru çıktıya açıklama eklemesini sağlayın. Bu, Becerinin üretimde göreceği girdilerin gerçek dağılımını yansıttığı için maksimum düzeyde temsili eğitim verileri üretir.

Uzman yapısı: Etki alanı uzmanları, Becerinin ele alması gereken tüm vakaları kapsayan girdi/çıktı çiftlerini manuel olarak oluşturur. Bu daha kalitelidir ancak daha pahalıdır ve üretimde görünen kasaları kaçırabilir.

Genişletme: Veri kümesini genişletmek için mevcut örneklerin sistematik olarak çeşitlendirilmesi. Bir sözleşme maddesi sınıflandırma görevi için: Tutarlı etiketleri korurken madde dilini, sözleşme yargı yetkisini ve sektörü değiştirin.

Sentetik nesil: Spesifikasyonlardan eğitim örnekleri oluşturmak için güçlü bir temel modeli kullanın. Bu hızlı ve ölçeklenebilirdir ancak üretim koşullarını tam olarak temsil etmeyebilecek sentetik veriler üretir. Gerçek verilere destek olarak kullanın, yedek olarak değil.

Veri Kalitesi Gereksinimleri

Doğruluk: Her eğitim örneği doğru olmalıdır. 100'de bir yanlış etiket, örnek olmamasından daha kötüdür; model, yanlış davranışı açıkça öğrenir. Her örneğin nitelikli bir incelemeci tarafından doğrulandığı bir inceleme süreci oluşturun.

Tutarlılık: Benzer girdiler benzer çıktılar üretmelidir. Neredeyse aynı olan iki sözleşme maddesi farklı risk derecelendirmeleri alırsa, model sinyal yerine gürültüyü öğrenir. Eğitim setine eklemeden önce net etiketleme yönergeleri oluşturun ve anlaşmazlıkları çözün.

Kapsam: Eğitim seti, Becerinin üretimde karşılaşacağı tüm girdileri kapsamalıdır. Kapsamdaki boşluklar, gördüğü vakalarda mükemmel, görmediği vakalarda ise kötü performans gösteren bir model üretir. Üretim dağıtımınızı analiz edin ve eğitim verilerinin bunu yansıttığından emin olun.

Biçim: Eğitim veri biçimi, Skill'in üretimde göreceği şeyle tam olarak eşleşmelidir; aynı bilgi istemi şablonu, aynı giriş yapısı, aynı çıktı biçimi. Eğitim ve çıkarım arasındaki format uyumsuzlukları, zayıf ince ayar sonuçlarının yaygın bir kaynağıdır.

Veri Kümesi Boyutu Yönergeleri

Görev KarmaşıklığıAsgari Eğitim ÖrnekleriÖnerilen
Basit sınıflandırma (5-10 kategori)2001.000+
Çok sınıflı sınıflandırma (20-50 kategori)5002.000+
Yapılandırılmış ekstraksiyon3001.500+
Sıra sınıflandırması (belge düzeyinde)5002.000+
Karmaşık akıl yürütme / puanlama1.0005.000+
Açık uçlu nesil1.0005.000+

Bunlar kabul edilebilir sonuçlar için minimum değerlerdir. Daha fazla veri, performansı azalan getiri noktasına kadar sürekli olarak artırır.

Eğitim/Doğrulama/Test Bölünmesi

Etiketli veri kümenizi üç bölüme ayırın:

  • Eğitim seti (%70-80): İnce ayar sırasında model ağırlıklarını güncellemek için kullanılır
  • Doğrulama seti (%10-15): Eğitim ilerlemesini izlemek ve aşırı uyumu önlemek için kullanılır
  • Test seti (%10-15): Son değerlendirmeye kadar tamamen bekletildi — eğitim sırasında hiç kullanılmadı

Test seti, ince ayarlı modelin üretim verileri üzerinde nasıl performans göstereceğine dair tarafsız bir tahmin sağlar. Eğitim kararları vermek için asla test seti performansını kullanmayın; bu, veri sızıntısına ve abartılı doğruluk tahminlerine neden olur.


İnce Ayar Uygulaması

Ortam Kurulumu

Tipik Beceri görevleri için LoRA adaptörlerinde ince ayar yapılması şunları gerektirir:

  • GPU örneği: 7B-13B parametre modelleri için A10G (24 GB VRAM) veya eşdeğeri; Daha büyük modeller için A100 (80GB)
  • Bulut sağlayıcı: AWS SageMaker, Google Vertex AI, Azure ML veya Lambda Cloud GPU örnekleri
  • Çerçeve: Hugging Face Transformers + PEFT kitaplığı (LoRA ince ayarı için standart)
  • İzleme: Eğitim çalışmasının takibi için Ağırlıklar ve Önyargılar veya MLflow

ECOSIRE, eğitim danışmanlığı hizmetinin bir parçası olarak önceden yapılandırılmış bir ince ayar ortamı sağlar; ML altyapısını bağımsız olarak kurmanıza gerek yoktur.

Hiperparametre Yapılandırması

LoRA ince ayarı için temel hiper parametreler:

LoRA sıralaması (r): LoRA adaptöründeki parametre sayısını kontrol eder. Daha yüksek sıralama = daha fazla parametre = daha iyi kapasite ancak daha yüksek aşırı uyum riski. r=16 ile başlayın, r=8 ve r=32 ile deneyin.

LoRA alfa: LoRA güncellemeleri için ölçeklendirme faktörü. Tipik olarak sıralama değerinin 2 katı olarak ayarlanır (r=16 ise alfa=32).

Öğrenme oranı: Çok yüksekse model birbirinden uzaklaşıyor; çok düşük ve eğitim yavaş. Çoğu Beceri ince ayarı için 2e-4 ila 5e-4 makul bir başlangıç ​​aralığıdır.

Dönemler: Eğitim verilerinden geçen geçiş sayısı. Optimum dönem sayısını belirlemek için doğrulama kaybını izleyin; doğrulama kaybının iyileşmesi durduğunda durun (erken durdurma).

Grup boyutu: Daha büyük gruplar daha hızlı eğitilir ancak doğruluğu azaltabilir. Toplu iş boyutunu kullanılabilir GPU belleğiyle dengeleyin.

Eğitim İzleme

Eğitim sırasında şunları izleyin:

  • Eğitim kaybı: Sürekli olarak azalmalı. Yaylalar veya sivri uçlar sorunları gösterir.
  • Doğrulama kaybı: Eğitim kaybına paralel olarak azalmalıdır. Farklılık (doğrulama kaybı artarken eğitim kaybının azalması) aşırı uyumu gösterir; eğitim süresini azaltın veya düzenli hale getirin.
  • Örnek çıktılar: Doğru davranışı öğrendiğini doğrulamak için modeli eğitim boyunca örnek girdilerle düzenli olarak değerlendirin.

Değerlendirme ve Kabul Testi

İnce ayar bir model üretir. Bu modelin taban çizgisinden daha iyi olup olmadığı, uzun süredir devam eden test setine göre sistematik değerlendirmeyi gerektirir.

Görev türüne göre standart ölçümler:

  • Sınıflandırma: Doğruluk, sınıf başına F1 puanı, karışıklık matrisi
  • Çıkarma: Çıkarılan her alan için hassasiyet, geri çağırma, F1
  • Puanlama/derecelendirme: Ortalama mutlak hata, insan derecelendirmeleriyle korelasyon
  • Oluşturma: Göreve özel değerlendirme listesi değerlendirmesi (ölçek için değerlendirme aracı olarak Yüksek Lisans'ı kullanın)

Kabul eşikleri: Eğitim başlamadan önce minimum doğruluk eşiklerini belirleyin. İnce ayarlı modelin konuşlandırılabilmesi için bu eşikleri aşması gerekir. Ortak eşikler:

  • İnce ayar doğruluğu temel çizgiyi yüzde 5'ten fazla aşarsa genel modeli değiştirin
  • İnce ayar doğruluğu tanımlanan minimum değeri aşarsa devreye alın (örn. test setinde %92)

Hata analizi: Yalnızca toplam doğruluğa bakmayın, hataları analiz edin. Model hangi girdi türlerinde sürekli olarak hata veriyor? Hata modeli bir veri kalitesi sorununu, kapsam boşluğunu veya temel bir model sınırlamasını mı işaret ediyor?

Regresyon testi: İnce ayarlı model, temel modelin iyi bir şekilde yerine getirdiği görevlerde gerileme yapmamalıdır. Onaylamak için altın veri kümesi değerlendirmesini çalıştırın.


Dağıtım ve Yineleme

Dağıtım: İnce ayarlı LoRA adaptörü, OpenClaw hizmet altyapısındaki temel modelin yanında yüklenir. İnce ayarlı Beceriye yönelik istekler bağdaştırıcıyla artırılmış modele yönlendirilir. Farklı Becerilere yönelik birden fazla bağdaştırıcı aynı sunum ortamında bir arada bulunabilir.

Dağıtım sonrası izleme: Test ve izleme kılavuzunda açıklanan izleme yaklaşımının aynısını uygulayın. İnce ayarlı model, sapmayı tespit etmek için düzenli bir tempoda yeniden değerlendirilmelidir.

Iteration triggers:

  • Üretim izlemede doğruluk eşiğin altına düşer
  • Modelin yeni davranışları öğrenmesini gerektiren iş kuralları değişikliği
  • Eğitimde ele alınmayan yeni girdi türleri üretimde ortaya çıkıyor
  • İnce ayar tamamlandı ve sonuçlar, ele alınması gereken belirli boşluklar olduğunu gösteriyor

Yineleme süreci:

  1. Belirlenen boşluğu kapsayan üretim girdilerinden yeni eğitim örnekleri toplayın
  2. Mevcut eğitim veri setine ekleyin
  3. Modele ince ayar yapın (temel modelden değil, mevcut ince ayarlı ağırlıklardan başlayarak)
  4. Genişletilmiş test setine göre değerlendirme yapın
  5. İyileştirme onaylanırsa konuşlandırın

Olgun Beceriler, her biri performansı kademeli olarak artıran, yılda 4-8 yineleme döngüsünden geçer.


Sıkça Sorulan Sorular

Bir modele OpenClaw Becerisi için ince ayar yapmak ne kadar pahalıdır?

7B-13B parametre modelinde tipik bir Beceri görevi için LoRA ince ayarının yapılması, veri kümesi boyutuna ve model boyutuna bağlı olarak eğitim çalıştırması başına bulut GPU hesaplamasında 50 ila 300 ABD Doları tutarında bir maliyete sahiptir. Veri hazırlama (etiketleme) daha büyük maliyettir; alan uzmanlarından alınan 1.000 örnekten oluşan iyi etiketlenmiş bir veri kümesinin maliyeti genellikle uzman zamanı açısından 2.000 ila 8.000 ABD Doları arasındadır. ECOSIRE'ın eğitim danışmanlığı hizmeti hem teknik uygulamayı hem de veri hazırlama metodolojisini kapsar.

OpenAI'nin veya Anthropic'in modellerine ince ayar yapabilir miyiz?

OpenAI, ince ayar API'leri aracılığıyla GPT-4o mini ve GPT-3.5 Turbo için ince ayarı destekler. Anthropic şu anda Claude modelleri için halka açık ince ayar sunmamaktadır. Google, Gemini modelleri için Vertex AI aracılığıyla ince ayar olanağı sunuyor. İnce ayarın gerekli olduğu ve sınır modellerini kullanmak istediğiniz görevler için OpenAI'nin ince ayar API'si en erişilebilir yoldur. İnce ayarın gerekli olduğu ve veri gizliliğinin şirket içi işleme gerektirdiği görevler için LoRA ince ayarına sahip açık kaynaklı modeller (Llama, Mistral, Qwen) uygundur.

Temel model değiştikçe ince ayarlı modellerin bakımını nasıl yaparız?

Temel model güncellendiğinde (Llama'nın yeni sürümü, GPT-4o vb.), eski sürümde eğitilen LoRA adaptörlerinin genellikle yeni sürümde yeniden eğitilmesi gerekir. Bu önemli bir bakım meselesidir; ana model versiyonları piyasaya sürüldüğünde yeniden eğitim döngülerine yönelik plan. ECOSIRE'ın bakım hizmeti, ince ayarlı Becerilere sahip müşteriler için kapalı bir hizmet olarak modelin yeniden eğitimini içerir.

Birkaç adımlık yönlendirme nedir ve ne zaman ince ayarın yerini alır?

Birkaç adımlık yönlendirme, örnek giriş/çıkış çiftlerini doğrudan komut isteminde sağlayarak, model ağırlıklarını değiştirmeden doğru yanıtların nasıl göründüğünü modele gösterir. 5-10 adet yüksek kaliteli örneğiniz olduğunda, çıktı formatı tutarlı olduğunda ve görev modelin genel kapasitesi dahilinde olduğunda iyi çalışır. Düzinelerce örneğe ihtiyacınız olduğunda (bağlam penceresi sınırları), performansın yüksek hacimde tutarlı olması gerektiğinde (bağlam içi örnekler gecikme ve maliyet ekler) veya görev, modelin sahip olmadığı özel bilgi gerektirdiğinde bozulur.

Düşük performansın anlık bir sorun mu yoksa model sorunu mu olduğunu nasıl bileceğiz?

Sistematik ablasyon testi: bir değişkeni sabit tutarken diğerini değiştirin. Temel modelle birden fazla istem formülasyonunu test edin. En iyi istem hala eşiğin altında performans gösteriyorsa sorun, modelin temel yeteneğindedir; ince ayar yapılması veya daha yetenekli bir temel modele geçiş yapılması gerekir. Hızlı değişkenler önemli ölçüde farklı sonuçlar üretiyorsa sorun hızlı kalitedir; ince ayar yapmadan önce hızlı mühendisliğe yatırım yapın.

Ekibimizde ince ayar yapmak için makine öğrenimi mühendislerine ihtiyacımız var mı?

ECOSIRE ile çalışıyorsanız hayır. İnce ayar, kurulum, yürütme ve değerlendirme için makine öğrenimi mühendisliği uzmanlığı gerektiren özel bir disiplindir. ECOSIRE'ın eğitim danışmanlığı hizmeti, bu uzmanlığı makine öğrenimi mühendislerini işe almanıza gerek kalmadan sağlar. Ekibinizin sağlaması gereken şey, veri etiketleme ve değerlendirme için alan uzmanlığıdır; teknik uygulama ECOSIRE tarafından gerçekleştirilir.


Sonraki Adımlar

OpenClaw Becerilerinde ince ayar yapmak, alana özgü görevlerde en yüksek doğruluğa giden yoldur, ancak kalıcı değer sağlamak için dikkatli veri hazırlığı, teknik uygulama ve sürekli bakım gerektirir. ECOSIRE'ın eğitim ve danışmanlık ekibi, tüm ince ayar yaşam döngüsünü yöneterek ekibinizin yalnızca kendilerinin sağlayabileceği alan uzmanlığına odaklanmasını sağlar.

Beceri doğruluğu gereksinimlerinizi tartışmak ve özel kullanım durumlarınıza yönelik ince ayarlı bir yol haritası tasarlamak için OpenClaw Eğitim ve Danışmanlık Hizmetlerini Keşfedin.

E

Yazan

ECOSIRE Research and Development Team

ECOSIRE'da kurumsal düzeyde dijital ürünler geliştiriyor. Odoo entegrasyonları, e-ticaret otomasyonu ve yapay zeka destekli iş çözümleri hakkında içgörüler paylaşıyor.

WhatsApp'ta Sohbet Et