Открытые модели Gemma (Google Gemma)
Gemma представляет собой коллекцию легких, современных открытых моделей, построенных на основе тех же исследований и технологий, что и Gemini 2.0 от Google, предназначенных для работы с несколькими фреймворками и целями развертывания. Он подчеркивает многоязычные возможности, большую обработку контекста и мультимодальное понимание (текст, изображение и видео), чтобы обеспечить передовые, глобально доступные приложения ИИ.
Ключевые возможности включают в себя окно контекста 128K для обработки обширной информации, многоязычную поддержку на более чем 140 языках и возможность анализа слов и изображений для поддержки интерактивных и интеллектуальных приложений. Модели Gemma предназначены для исследований, экспериментов и производства в сочетании с экосистемой Gemmaverse и вариантами развертывания.
Как использовать Gemma
- Доступ через Google AI Studio, Colab, Hugging Face, Keras, Ollama и библиотеки Python.
- Настройка и развертывание с использованием LoRA и модельного параллелизма на бэкэндах TPU или локально, в зависимости от выбранного рабочего процесса.
- Исследуйте растущий каталог специализированных моделей для зрения, языка и мультимодальных задач (например, ShieldGemma, PaliGemma, DataGemma, Gemma Scope).
Геммаверс и экосистема
Gemmaverse предоставляет экосистему, управляемую сообществом, моделей и инструментов Gemma, готовых к использованию и внедрению инноваций. Он поддерживает несколько целей развертывания и упрощает эксперименты, исследования и развертывание в масштабе.
- Модели Gemma охватывают исследовательские ориентиры и практические развертывания в многоязычных, мультимодальных и логических задачах.
- Визуализируйте бенчмарки и сравнивайте производительность модели в различных наборах данных и наборах оценки.
- Растущее семейство сопутствующих инструментов данных, безопасности и мультимодальной интеграции (например, маркировка безопасности и соединители данных).
Цели развертывания
- Mobile: развертывание на устройстве с Google AI Edge для автономной функциональности с низкой задержкой (например, мобильные приложения, IoT, встроенные системы).
- Веб: Интеграции для богатого веб-опыта и интерактивных функций ИИ.
- Облако: масштабируемые облачные развертывания для обработки больших рабочих нагрузок.
- Hybrid/Experimental: локальный вывод через библиотеки Ollama или Python для экспериментов и исследований.
Известные модели и роли
- Gemma 3: 128K контекст, многоязычная поддержка, мультимодальные возможности. Отличается различными задачами с обширным контекстным управлением.
- DataGemma: соединяет LLM с реальными данными от Google Data Commons.
- ShieldGemma 2: Модель, ориентированная на безопасность изображения, с обозначенными категориями безопасности.
- PaliGemma 2: Visual-совместимое расширение для задач языка зрения.
- Gemma Scope: обеспечивает прозрачность в принятии решений для исследований.
Как получить доступ и развернуть
- Использование моделей Gemma с экосистемой Трансформеров.
- Keras (JAX backend): Finetune Gemma с LoRA и модельным параллелизмом на TPU.
- Олама: Проведите локальные выводы с моделями Джеммы.
- Библиотека Gemma Python: программный доступ и инструменты для чата и тонкой настройки.
- Google AI Studio / Colab: Попробуйте, протестируйте и протестируйте модели Gemma в совместной среде.
Безопасность и ответственный ИИ
- Gemma обеспечивает основу для исследований и производства с акцентом на ответственные практики ИИ. Посетите документацию Gemma для руководства по безопасности, политики использования и передовой практики при интеграции с системами реального мира.
Основные характеристики
- 128K-токен окно контекста для понимания длинного контекста
- Многоязычная поддержка на более чем 140 языках
- Понимание текста, изображения и видео (мультимодальный)
- Легкая семья с открытой моделью, подходящая для исследований и развертывания
- Несколько целей развертывания: мобильные, веб, облачные и локальные
- Интеграция с Hugging Face, Keras, Ollama, Colab и Google AI Studio
- Специализированные варианты моделей для безопасности, интеграции данных и аналитики