Турбина
Администратор
Складчина: [ДМК] DeepSeek в действии
DeepSeek – это генеративная модель искусственного интеллекта с открытым исходным кодом, основанная на архитектуре Transformer и объединяющая передовые технологии, такие как архитектура MoE, обучение с переменной разрядностью и распределенная оптимизация. Она хорошо зарекомендовала себя в области генерации текста, мультимодальной обработки и адаптации под конкретные прикладные задачи. В книге описаны особенности глубоко оптимизированной архитектуры DeepSeek-V3 и способы применения модели на практике.
Рассматриваемые темы:
Теоретические основы – базовая архитектура и технологии обучения моделей типа Transformer, механизм внимания DeepSeek, законы масштабирования и их применение в оптимизации моделей.
Основные приемы работы – начало работы с моделью, знакомство с API, реализация диалога, функции обратного вывода, кеширование на диске и оптимизация кеша.
Расширенное применение – реализация чат-клиентов, интеллектуальных помощников, плагинов VS Code и т. д.
Книга будет полезна исследователям технологий генеративного ИИ, инженерам-разработчикам программного обеспечения, специалистам по обработке данных, а также всем желающим быстро освоить практическое применение больших языковых моделей.
Издание подготовлено «Лабораторией искусственного интеллекта будущего» (Китай). Коллектив лаборатории состоит из докторов и магистров ведущих китайских университетов, специализирующихся на разработке и инновациях в области обработки естественного языка, глубокого обучения, компьютерного зрения и мультимодальных моделей.
Издание: Черно-белое
Оригинальное название: DeepSeek in Action: LLM Deployment, Fine-Tuning, and Real-World Projects
Оригинальный правообладатель: "Лаборатория искусственного интеллекта будущего" (Китай)
Объем, стр: 404
ISBN: 978-5-93700-396-6
Формат: PDF
Стоимость: 1600
СКАЧАТЬ СКЛАДЧИНЫ
DeepSeek – это генеративная модель искусственного интеллекта с открытым исходным кодом, основанная на архитектуре Transformer и объединяющая передовые технологии, такие как архитектура MoE, обучение с переменной разрядностью и распределенная оптимизация. Она хорошо зарекомендовала себя в области генерации текста, мультимодальной обработки и адаптации под конкретные прикладные задачи. В книге описаны особенности глубоко оптимизированной архитектуры DeepSeek-V3 и способы применения модели на практике.
Рассматриваемые темы:
Теоретические основы – базовая архитектура и технологии обучения моделей типа Transformer, механизм внимания DeepSeek, законы масштабирования и их применение в оптимизации моделей.
Основные приемы работы – начало работы с моделью, знакомство с API, реализация диалога, функции обратного вывода, кеширование на диске и оптимизация кеша.
Расширенное применение – реализация чат-клиентов, интеллектуальных помощников, плагинов VS Code и т. д.
Книга будет полезна исследователям технологий генеративного ИИ, инженерам-разработчикам программного обеспечения, специалистам по обработке данных, а также всем желающим быстро освоить практическое применение больших языковых моделей.
Издание подготовлено «Лабораторией искусственного интеллекта будущего» (Китай). Коллектив лаборатории состоит из докторов и магистров ведущих китайских университетов, специализирующихся на разработке и инновациях в области обработки естественного языка, глубокого обучения, компьютерного зрения и мультимодальных моделей.
Издание: Черно-белое
Оригинальное название: DeepSeek in Action: LLM Deployment, Fine-Tuning, and Real-World Projects
Оригинальный правообладатель: "Лаборатория искусственного интеллекта будущего" (Китай)
Объем, стр: 404
ISBN: 978-5-93700-396-6
Формат: PDF
Стоимость: 1600
СКАЧАТЬ СКЛАДЧИНЫ
Для просмотра скрытого содержимого вы должны зарегистрироваться
Возможно, Вас ещё заинтересует:
- Платформа Woman Insight 2025 [Светлана Керимова]
- Астрология, психология и трансовый метод [Юлия Ерёменко]
- Анатомия визуала 5.0 [Тариф Я сама] [Елена Палажчук]
- Текстильный проект под ключ [Татьяна Погребная]
- Сообщество умных ИИ помощников (июль 2025) [Игорь Зуевич]
- Фитнес-канал My body - Base (июль 2025) [Оксана Килина]