Minima是一个开源的RAG(Retrieval-Augmented Generation,检索增强生成)本地部署容器,能够与ChatGPT和MCP(Model Configuration Protocol)集成,可以作为完全本地的RAG使用。
隔离安装:完全在本地运行,不依赖外部服务如ChatGPT或Claude,所有神经网络(LLM、重排序模型、嵌入模型)都在本地云或PC上运行,确保数据安全。
自定义GPT:使用ChatGPT应用或网页查询本地文档,索引器在本地云或PC上运行,主要的LLM仍然是ChatGPT。
Anthropic Claude:使用Anthropic Claude应用查询本地文档,索引器在本地PC上运行,Anthropic Claude作为主要的LLM。
创建环境文件:在项目根目录下创建一个.env文件,将env.sample中的所有环境变量复制到.env中。
配置环境变量:确保.env文件包含以下变量:
LOCAL_FILES_PATH:指定索引的根文件夹路径。
EMBEDDING_MODEL_ID:指定使用的嵌入模型。
EMBEDDING_SIZE:定义模型提供的嵌入维度。
OLLAMA_MODEL:设置Ollama模型。
RERANKER_MODEL:指定重排序模型。
USER_ID和PASSWORD:用于ChatGPT集成的用户邮箱和密码。
完全本地安装:docker compose -f docker-compose-ollama.yml --env-file .env up --build
启用ChatGPT:docker compose -f docker-compose-chatgpt.yml --env-file .env up --build
MCP集成(Anthropic Desktop应用):docker compose -f docker-compose-mcp.yml --env-file .env up --build
使用ChatGPT集成:从终端复制OTP并使用Minima GPT。
使用Anthropic Claude:在claude_desktop_config.json文件中添加配置。
本地安装:进入electron目录,运行npm install和npm start启动Minima电子应用。
查询本地文件:在指定的LOCAL_FILES_PATH文件夹中查询本地文件。
安装方式:还可以通过Smithery自动安装Minima,用于Claude Desktop。