Stockez, compressez et récupérez des mémoires à long terme grâce à la compression sémantique sans perte. Compatible avec Claude, Cursor, LM Studio et bien d'autres.
Fonctionne avec toute plateforme d'IA supportant MCP ou l'intégration Python
|
Claude Desktop |
Cursor |
LM Studio |
Cherry Studio |
Paquet PyPI |
+ Tout Client MCP |
🇨🇳 中文 •
🇯🇵 日本語 •
🇰🇷 한국어 •
🇪🇸 Español •
🇫🇷 Français •
🇩🇪 Deutsch •
🇧🇷 Português
🇷🇺 Русский •
🇸🇦 العربية •
🇮🇹 Italiano •
🇻🇳 Tiếng Việt •
🇹🇷 Türkçe
Aperçu • Démarrage Rapide • Serveur MCP • Évaluation • Citation
- [02/09/2026] 🚀 Mémoire Cross-Session disponible - 64% plus performant que Claude-Mem ! SimpleMem prend désormais en charge la mémoire persistante entre les conversations. Sur le benchmark LoCoMo, SimpleMem atteint une amélioration de 64% par rapport à Claude-Mem. Vos agents peuvent maintenant se souvenir automatiquement du contexte, des décisions et des apprentissages des sessions précédentes. Voir Documentation Cross-Session →
- [01/20/2026] SimpleMem est maintenant disponible sur PyPI ! 📦 Installez directement via
pip install simplemem. Voir le Guide d'Utilisation → - [01/19/2026] Stockage de mémoire locale ajouté à SimpleMem Skill ! 💾
- [01/18/2026] SimpleMem supporte maintenant Claude Skills ! 🚀 Utilisez SimpleMem dans claude.ai pour une mémoire à long terme entre les conversations.
- [01/14/2026] Le serveur MCP SimpleMem est EN LIGNE et Open Source ! 🎉 Service de mémoire cloud sur mcp.simplemem.cloud. Voir la Documentation MCP →
- [01/08/2026] 🔥 Rejoignez notre Discord et groupe WeChat !
- [01/05/2026] L'article SimpleMem a été publié sur arXiv !
SimpleMem est un cadre de mémoire efficace basé sur la compression sémantique sans perte qui répond au défi fondamental de la mémoire à long terme efficace pour les agents LLM. Contrairement aux systèmes existants, SimpleMem maximise la densité d'information et l'utilisation des tokens à travers un pipeline en trois étapes :
|
Compression Structurée Sémantique Distille les interactions non structurées en unités de mémoire compactes avec indexation multi-vue |
Synthèse Sémantique en Ligne Intègre instantanément le contexte connexe en représentations abstraites unifiées pour éliminer la redondance |
Planification de Récupération Consciente de l'Intention Infère l'intention de recherche pour déterminer dynamiquement la portée de récupération |
| Modèle | ⏱️ Construction | 🔎 Récupération | ⚡ Total | 🎯 F1 Moyen |
|---|---|---|---|---|
| A-Mem | 5140.5s | 796.7s | 5937.2s | 32.58% |
| LightMem | 97.8s | 577.1s | 675.9s | 24.63% |
| Mem0 | 1350.9s | 583.4s | 1934.3s | 34.20% |
| SimpleMem ⭐ | 92.6s | 388.3s | 480.9s | 43.24% |
git clone https://github.com/aiming-lab/SimpleMem.git
cd SimpleMem
pip install -r requirements.txt
cp config.py.example config.pyfrom main import SimpleMemSystem
system = SimpleMemSystem(clear_db=True)
system.add_dialogue("Alice", "Bob, let's meet at Starbucks tomorrow at 2pm", "2025-11-15T14:30:00")
system.add_dialogue("Bob", "Sure, I'll bring the market analysis report", "2025-11-15T14:31:00")
system.finalize()
answer = system.ask("When and where will Alice and Bob meet?")
print(answer)🌐 Service Cloud : mcp.simplemem.cloud
{
"mcpServers": {
"simplemem": {
"url": "https://mcp.simplemem.cloud/mcp",
"headers": {
"Authorization": "Bearer YOUR_TOKEN"
}
}
}
}python test_locomo10.py
python test_locomo10.py --num-samples 5@article{simplemem2025,
title={SimpleMem: Efficient Lifelong Memory for LLM Agents},
author={Liu, Jiaqi and Su, Yaofeng and Xia, Peng and Zhou, Yiyang and Han, Siwei and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
journal={arXiv preprint arXiv:2601.02553},
year={2025},
url={https://github.com/aiming-lab/SimpleMem}
}Ce projet est sous Licence MIT - voir le fichier LICENSE.
- 🔍 Modèle d'Embeddings : Qwen3-Embedding
- 🗄️ Base de Données Vectorielle : LanceDB
- 📊 Benchmark : LoCoMo

