Что почитать сегодня – NOTA AI/ML Daily Digest.
1. Архитектура ПО: разница между архитектурой и проктированием
Статья затрагивает важность разделения понятий архитектуры и проектирования в разработке ПО. Автор объясняет, как характеристики ПО, такие как гибкость и масштабируемость, влияют на структуру решений, соответствующих техническим и бизнес требованиям. Рассматриваются различные архитектурные шаблоны, включая микросервисы и бессерверную архитектуру, и их применение в реальных проектах. Также поднимается вопрос о важности знания принципов SOLID и шаблонов проектирования для разработчиков.
https://medium.com/@nuancesprog/%D0%B0%D1%80%D1%85%D0%B8%D1%82%D0%B5%D0%BA%D1%82%D1%83%D1%80%D0%B0-%D0%BF%D0%BE-%D1%80%D0%B0%D0%B7%D0%BD%D0%B8%D1%86%D0%B0-%D0%BC%D0%B5%D0%B6%D0%B4%D1%83-%D0%B0%D1%80%D1%85%D0%B8%D1%82%D0%B5%D0%BA%D1%82%D1%83%D1%80%D0%BE%D0%B9-%D0%B8-%D0%BF%D1%80%D0%BE%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5%D0%BC-45ab308a233e
————————————————————
2. Latent Semantic Analysis: intuition, math, implementation
Статья подробно разбирает тему Латентного Семантического Анализа (LSA), его интуицию, математические основы и реализацию. LSA помогает выявлять темы и топики в тексте с помощью методов машинного обучения без учителя, основываясь на гипотезе дистрибутивности и Сингулярном Значении Декомпозиции (SVD). Автор описывает, как LSA сокращает высокую размерность текстовых данных, представляя их в терминах скрытых особенностей. Реализация LSA на Python с использованием Scikit-Learn и набора данных 20 newsgroups показывает, как техника может быть применена на практике для анализа текста и его классификации.
https://towardsdatascience.com/latent-semantic-analysis-intuition-math-implementation-a194aff870f8
————————————————————
3. Hosting ML Models on Amazon SageMaker using Triton: XGBoost, LightGBM, and Treelite Models
В этой статье подробно рассматривается развертывание моделей XGBoost, LightGBM и других древовидных моделей на Amazon SageMaker с использованием NVIDIA Triton Inference Server. Описывается архитектура Triton, включая Forest Inference Library (FIL) backend для оптимизации производительности. Предоставляются инструкции по настройке конфигурационных файлов моделей, предварительной обработке данных с помощью Python backend и созданию конвейера с использованием функции ensemble в Triton. Также приводится пример ноутбука для разворачивания модели XGBoost с предобработкой на SageMaker.
https://aws.amazon.com/ru/blogs/machine-learning/hosting-ml-models-on-amazon-sagemaker-using-triton-xgboost-lightgbm-and-treelite-models/
————————————————————
Теги:
#architecture #nlp #devops