Bigdata

Google Embedding Gemma: 최고의 임베딩 모델

올엠 2025. 9. 10. 14:18
반응형

빠르게 진화하는 AI 세계에서는 인터넷에 끊임없이 연결되지 않고도 로컬에서 정보를 처리할 수 있는 능력이 점점 더 중요해지고 있다.

Google의 새로운 EmbeddingGemma는 이러한 방향으로 나아가는 중요한 흐름으로 로컬/오프라인 오픈소스 AI 임베딩 모델을 제공한다.

1. EmbeddingGemma란 무엇인가?

  • EmbeddingGemma는 Google의 Gemini 아키텍처 기반으로 개발된 오픈소스 모델로 기본적으로 텍스트에 대한 고품질 수치적 표현(임베딩)을 제공하는데 목적이 있다.
  • 임베딩(Embedding) 생성에 특화되어 있으며, 검색, 추천, 의미 기반 매칭 을 위한 임베딩 작업에 활용이 가능하다.
  • 모델 크기:  300M의 파라메터로 메모리 200MB 정도를 사용하는 소형 모델로 온디바이스 특히 IoT등 소형 디바이스에서 사용하기 용이한 모델 

2. 주요 특징

  • 고품질 임베딩: 적은 용량으로 의미적 유사성, 문서 검색, 추천 시스템에서 높은 성능을 제공한다.
  • 오픈 다국어 텍스트 임베딩 모델: Massive Text Embedding Benchmark 에서 5억 개의 매개변수를 기반으로 가장 높은 순위를 기록하였다.
  • 안전성 강화: RLHF(인간 피드백 강화학습) + SFT(지도학습) 적용이 가능하다.

4. 장점

  • 마트료시카 표현 학습(MRL): 이 기능을 사용하면 768에서 128까지의 사용자 정의 가능한 출력 차원을 지원하여 내장 품질과 추론 속도 간의 균형을 미세하게 조정가능. https://arxiv.org/abs/2205.13147
  • 2K 토큰 컨텍스트 창: 일반적인 일상 사용에 적합한 실용적인 컨텍스트 창을 제공
  • 양자화 인식 학습(QAT): QAT는 눈에 띄는 성능 저하 없이 모델의 메모리 사용량을 크게 줄이는 핵심 기술
  • 원활한 통합: Sentence-Transformers, Hugging Face, Ollama, LlamaIndex, LangChain 등과 원활하게 사용가능

5. 시작 방법

 

google/embeddinggemma-300m · Hugging Face

This repository is publicly accessible, but you have to accept the conditions to access its files and content. To access EmbeddingGemma on Hugging Face, you’re required to review and agree to Google’s usage license. To do this, please ensure you’re l

huggingface.co

 

반응형