LLMs gratuits,
chez toi.

FreeIA Gateway agrège 6 LLMs gratuits (Gemini, Groq, Cerebras, Sambanova, Mistral, HuggingFace) derrière une seule API compatible OpenAI. Fallback automatique, mémoire longue durée, RAG. Aucun abonnement.

Open source · MIT Gratuit Compatible OpenAI Python · FastAPI Local · Privé
Routing

Fallback automatique

Cerebras → Groq → Sambanova → Gemini → HuggingFace → Mistral. Erreur 429 ou panne ? Le suivant prend le relais en silence.

API

Compatible OpenAI

Endpoint /v1/chat/completions avec streaming SSE. Plug-and-play avec AnythingLLM, LibreChat, OpenCode.

Mémoire

MemPalace intégré

170 tokens au démarrage, 96.6% de précision, zéro appel API supplémentaire. Mémoire persistante entre sessions.

Quotas

Quota manager

Suivi SQLite des requêtes et tokens par provider. Reset daily automatique. Tu ne dépasses jamais les limites gratuites.

Documents

RAG via AnythingLLM

Upload tes docs, interroge-les avec tes LLMs gratuits. Aucun abonnement cloud requis.

Vie privée

100% local

Rien ne passe par nos serveurs. Seules les requêtes vers les APIs publiques gratuites sortent de ton réseau.


Crée un compte sur chaque plateforme et génère ta clé API. Aucune carte bancaire requise.

Priorité 1 · ~2 000 tok/s

Cerebras — Llama 3.3 70B

5 000 req/jour · 1 000 000 tokens
Priorité 2 · ~700 tok/s

Groq — Llama 3.3 70B

14 400 req/jour · 500 000 tokens
Priorité 3 · ~400 tok/s

Sambanova — Llama 3.3 70B

1 000 req/jour · 1 000 000 tokens
Priorité 4

Gemini Flash

1 500 req/jour · 1 000 000 tokens
Priorité 5

HuggingFace — Llama 3.1 70B

1 000 req/jour · 500 000 tokens
Priorité 6 · réserve

Mistral Large

100 req/jour · 200 000 tokens

Prérequis : Python 3.12, AnythingLLM installé.

1
Cloner le repo
Télécharge le code et installe les dépendances Python.
git clone https://github.com/MAXIAWORLD/freeaiagregator
cd freeaiagregator
pip install -r requirements.txt
2
Configurer les clés API
Copie le fichier exemple et remplis tes 4 clés gratuites.
cp .env.example .env
# Édite .env :
GEMINI_API_KEY=ta_clé       # aistudio.google.com
GROQ_API_KEY=ta_clé         # console.groq.com
CEREBRAS_API_KEY=ta_clé     # cloud.cerebras.ai
SAMBANOVA_API_KEY=ta_clé    # cloud.sambanova.ai
MISTRAL_API_KEY=ta_clé      # console.mistral.ai
HUGGINGFACE_API_KEY=ta_clé  # huggingface.co/settings/tokens
3
Lancer l'API
L'API démarre sur http://localhost:8000.
python -m uvicorn api:app --port 8000
4
Connecter AnythingLLM
Settings → Préférence LLM → Generic OpenAI
Base URL  : http://localhost:8000/v1
API Key   : freeai
Model     : freeai-gateway
5
Mémoire longue durée (optionnel)
MemPalace donne une mémoire persistante entre les conversations.
pip install mempalace
mempalace init .
mempalace mine .

Code open source, aucune inscription, aucun abonnement.
Tu gardes le contrôle total de tes données.