⚜️ Обучил
модель Zehedz на архитектуре
BERT для классификации текстов на три языка: русский, черкесский и карачаево-балкарский. Модель предсказывает язык с точностью
99,8% (от 4 слов в предложении), что является отличным результатом. Среднее время предсказания составляет
0,008 секунд.
Для обучения использовалась
база данных, состоящая из 36К предложений, по 12 тысяч на каждый язык.
🏮 Модель будет полезна для определения исходного языка в переводчиках, что позволяет автоматически выбирать целевой язык. Также модель хорошо подходит для задач, связанных с классификацией большого объёма перемешанных данных. Её размер составляет
47 МБ, что позволяет запускать модель почти мгновенно и не занимать оперативную память.
Пример кода для работы с моделью через API платформы Hugging Face:
from gradio_client import Client
client = Client("alimboff/zehedz")
result = client.predict(
text="Добрый день!",
api_name="/predict")
print(result)
⚜️ Ссылки ⚜️
🏮 Попробовать модель
🏮 База данных
🏮 Исходный файл модели