SmolLM2: открытая компактная LLM от Hugging Face превосходит Llama-1B и Qwen2.5-1.5B

6 ноября 2024
SmolLM v2

SmolLM2: открытая компактная LLM от Hugging Face превосходит Llama-1B и Qwen2.5-1.5B

Компания Hugging Face представила SmolLM2 — новое семейство компактных языковых моделей, которое преводсходит существующие state-of-the-art модели. Так версия с 1.7B параметров опережает Llama-1B и Qwen2.5-1.5B на нескольких ключевых бенчмарках: 68.7%…

NLP модели на TensorFlow 2.0 в 10 строк кода

1 ноября 2019

NLP модели на TensorFlow 2.0 в 10 строк кода

Transformers — это библиотека на Python для обучения state-of-the-art моделей в обработке естественного языка. Разработкой библиотеки занимается компания HuggingFace. Transformers предоставляет API для использования таких архитектур трансформеров, как BERT, RoBERTa,…

HuggingFace опубликовали библиотеку с трансформерами для TF

29 сентября 2019

HuggingFace опубликовали библиотеку с трансформерами для TF

Transformers 2.0 — это библиотека со всеми state-of-the-art моделями для предобработки естественного языка на TensorFlow. Использование библиотеки позволяет сократить количество строк кода для обучения модели до 3-х. Разработчиками библиотеки являются…

Как конвертировать модель из TensorFlow в PyTorch

13 августа 2019

Как конвертировать модель из TensorFlow в PyTorch

Разработчики из HuggingFace опубликовали тьюториал по конвертированию предобученных моделей из TensorFlow в PyTorch. Это может пригодиться при попытке внедрить предобученную модель на TF в пайплайн на PyTorch. В качестве примера…