Skip to content

Local LLMs via Ollama & LM Studio - The Practical Guide

  • 01. Введение

001 - Добро пожаловать на курс
002 - Что такое открытые LLM
003 - Зачем запускать открытые LLM локально
004 - Популярные открытые LLM
005 - Где найти открытые LLM
006 - Локальный запуск LLM
007 - Проверка лицензий моделей
  • 02. Требования к оборудованию

008 - Введение в модуль
009 - Аппаратные требования для LLM
010 - Определение аппаратных требований
011 - Квантизация спешит на помощь
012 - Запустится ли это на вашем компьютере
  • 03. LM Studio

013 - Введение в модуль
014 - Локальный и удалённый запуск
015 - Установка и использование LM Studio
016 - Поиск, загрузка и активация открытых LLM
017 - Использование интерфейса чата LM Studio
018 - Работа с системными промптами и пресетами
019 - Управление чатами
020 - Продвинутые функции для управления моделями и чатами
021 - Использование мультимодальных моделей
022 - Анализ и суммаризация PDF-документов
023 - Переход к более продвинутым настройкам
024 - Параметры Temperature, top_k и top_p
025 - Управление параметрами Temperature, top_k и top_p
026 - Управление средой выполнения и аппаратной конфигурацией
027 - Управление длиной контекста
028 - Использование Flash Attention
029 - Работа со структурированными выводами
030 - Использование локальных LLM для генерации кода
031 - Генерация контента и few-shot промптинг (промпт-инжиниринг)
032 - Переход к программному использованию
033 - LM Studio и его совместимость с OpenAI
034 - Дополнительные примеры кода
035 - Более глубокое изучение API LM Studio