Minima是一个开源的RAG(Retrieval-Augmented Generation,检索增强生成)本地部署容器,能够与ChatGPT和MCP(Model Configuration Protocol)集成,可以作为完全本地的RAG使用。

Minima目前支持三种模式

隔离安装:完全在本地运行,不依赖外部服务如ChatGPT或Claude,所有神经网络(LLM、重排序模型、嵌入模型)都在本地云或PC上运行,确保数据安全。

自定义GPT:使用ChatGPT应用或网页查询本地文档,索引器在本地云或PC上运行,主要的LLM仍然是ChatGPT。

Anthropic Claude:使用Anthropic Claude应用查询本地文档,索引器在本地PC上运行,Anthropic Claude作为主要的LLM。

部署和运行

创建环境文件:在项目根目录下创建一个.env文件,将env.sample中的所有环境变量复制到.env中。

配置环境变量:确保.env文件包含以下变量:

LOCAL_FILES_PATH:指定索引的根文件夹路径。

EMBEDDING_MODEL_ID:指定使用的嵌入模型。

EMBEDDING_SIZE:定义模型提供的嵌入维度。

OLLAMA_MODEL:设置Ollama模型。

RERANKER_MODEL:指定重排序模型。

USER_ID和PASSWORD:用于ChatGPT集成的用户邮箱和密码。

运行容器:

完全本地安装:docker compose -f docker-compose-ollama.yml --env-file .env up --build

启用ChatGPT:docker compose -f docker-compose-chatgpt.yml --env-file .env up --build

MCP集成(Anthropic Desktop应用):docker compose -f docker-compose-mcp.yml --env-file .env up --build

使用ChatGPT集成:从终端复制OTP并使用Minima GPT。

使用Anthropic Claude:在claude_desktop_config.json文件中添加配置。

本地安装:进入electron目录,运行npm install和npm start启动Minima电子应用。

查询本地文件:在指定的LOCAL_FILES_PATH文件夹中查询本地文件。

安装方式:还可以通过Smithery自动安装Minima,用于Claude Desktop。