Hugging Face nedir ?
Herkese merhaba arkadaşlar bu yazım da hugging faceden ve çok kullanışlı bir ortam olduğundan bahsedeceğim.
Öncelikle Transformersdan bahsedeyim;
NLP’deki Transformers, uzun menzilli bağımlılıkları kolaylıkla ele alırken diziden diziye görevleri çözmeyi amaçlayan yeni bir mimaridir. Transformers paketi, 30'dan fazla önceden eğitilmiş model ve 100 dilin yanı sıra doğal dil anlama (NLU) ve doğal dil oluşturma (NLG) için sekiz ana mimari içerir. Bunlar BERT ,GPT ,GPT-2 ,TransformerXL ,XLNet ,XLM ,RoBERTa ,DistilBERT oluşturmaktadır.
Transformers’ın hızlı gelişimi, doğal dil işlemeye yeni bir güçlü araç dalgası getirdi. Hugging Face, makine öğrenimi için GitHub olmayı hedeflemektedir. Hugging Face, NLP alanındaki önde gelen girişimlerden biridir. Apple, Monzo ve Bing gibi büyük teknoloji şirketleri, kütüphanesini üretimde kullanıyor.
Hugging Face, en iyi yanlarından birisi Transformers kütüphanesi ile büyük bir açık kaynak topluluğuna sahiptir. Transformers Kitaplığı, derin öğrenme kitaplıkları olan PyTorch ve TensorFlow tarafından desteklenir. Metin sınıflandırma, bilgi alma, soru-cevap, çeviri, metin oluşturma ve özetleme gerçekleştirmek için önceden eğitilmiş binlerce model sağlar. Transformers, hızlı bir şekilde indirilebilen ve kullanıcıların veri kümelerinde ince ayar yapmak için bir metin üzerinde önceden eğitilmiş modelleri kullanan API’ler sağlar.
Transformers, bir milyondan fazla kez indirildi ve GitHub’da 42.000'den fazla yıldız topladı. Google, Facebook ve Microsoft’taki araştırmacılar, projelerinde Transformers kitaplığını yoğun bir şekilde kullandılar.
Kullanılan modeller büyük ve eğitilmesi çok pahalıdır, bu nedenle önceden eğitilmiş sürümler araştırmacılar ve uygulayıcılar tarafından Hugging Face üzerinde paylaşılır ve kullanılır.
Hugging Face ücretsiz mi?
Modellerin kullanımı ve dağıtımı ücretsizdir.
Hugging Face nasıl kullanılır? adlı bu yazı serisinin ikinci bölümünü okumak için bu link üzerinden ulaşabilirsiniz.
Takip ✅ edip alkışlarsanız 👏 sevinirim. Okuduğunuz için Teşekkürler.