MCP ExplorerExplorer

Tizamcprag

@jaimertsuchiyaon 10 months ago
1 Unlicense
FreeCommunity
AI Systems
TizaMcpRag integrates MCP execution and RAG document queries with local AI via Ollama.

Overview

What is Tizamcprag

TizaMcpRag is a project that integrates the execution of MCPs (procedures) and RAG (documents) queries using local AI via Ollama.

Use cases

Use cases include automating data workflows, querying documents with AI assistance, executing complex SQL procedures, and integrating local AI into business processes.

How to use

To use TizaMcpRag, set up the environment by copying the example configuration file, editing it with your SQL Server credentials, and running the SQL script to create procedures. Then, start the project using Docker Compose and configure n8n for workflow orchestration.

Key features

Key features include orchestration of workflows with n8n, document querying via api_rag, execution of SQL procedures through api_mcp, and local LLM server support via Ollama.

Where to use

TizaMcpRag can be used in various fields such as data processing, document management, and automation of SQL procedures in environments requiring local AI capabilities.

Content

TizaMcpRag

Projeto que integra execução de MCPs (procedures) e consulta RAG (documentos) com IA local via Ollama.


🔥 Fluxograma de Comunicação

Fluxograma TizaMcpRag


Serviços Disponíveis

  • n8n: Orquestração de fluxos
  • api_rag: Consulta a documentos (RAG)
  • api_mcp: Execução de procedures SQL
  • ollama: Servidor de LLMs local

Pré-requisitos

Suporte a GPU (Recomendado)

Para melhor performance dos modelos, é recomendado usar GPU. Instale:

  1. NVIDIA Container Toolkit
  2. Driver NVIDIA atualizado

Configuração do Banco de Dados

  1. Copie o arquivo de exemplo de configuração:
cp .env.example .env
  1. Edite o arquivo .env com as credenciais do seu banco SQL Server:
DB_SERVER=seu_servidor
DB_DATABASE=seu_banco
DB_USERNAME=seu_usuario
DB_PASSWORD=sua_senha
  1. Execute o script de criação das procedures:
# Use seu cliente SQL Server favorito para executar:
sql_server/scripts/create_procedures.sql

Como rodar o projeto

docker-compose up -d

Após iniciar os containers, aguarde alguns minutos para que os modelos do Ollama sejam baixados automaticamente.

Configuração do n8n

Instalação do Node MCP

  1. Acesse o n8n em http://localhost:5678
  2. Vá em Settings > Community Nodes
  3. Clique em “Add node by providing npm package name”
  4. Insira n8n-nodes-mcp
  5. Se a instalação automática falhar, siga os passos para instalação manual:
    • Copie a pasta n8n-nodes-mcp para .n8n/custom
    • Reinicie o container do n8n

Importação do Fluxo

  1. No n8n, clique em “Import from File”
  2. Selecione o arquivo scripts/TizaChatBot.json
  3. Ajuste as credenciais e endpoints conforme necessário

Atualizando documentos RAG

  1. Crie a pasta documentos dentro de api_rag (caso ainda não exista):
mkdir -p api_rag/documentos
  1. Copie os arquivos que deseja indexar para a pasta api_rag/documentos.

  2. Execute o comando abaixo para processar os documentos:

docker-compose exec tizamcprag-api-rag python preprocess_docs.py

Modelos do Ollama

O sistema requer os seguintes modelos do Ollama:

  • nomic-embed-text: para geração de embeddings dos documentos
  • gemma3:latest: para geração de respostas da API RAG
  • mistral: para o agente de chat no n8n (requer suporte a tools)

Para baixar os modelos manualmente, execute os comandos abaixo:

# Baixar modelo de embeddings
docker-compose exec ollama ollama pull nomic-embed-text

# Baixar modelo para respostas RAG
docker-compose exec ollama ollama pull gemma3:latest

# Baixar modelo para agente n8n
docker-compose exec ollama ollama pull mistral

Aguarde o download de cada modelo ser concluído antes de prosseguir. Você pode verificar os modelos instalados com:

docker-compose exec ollama ollama list

Configuração do Agente n8n

Ao importar o fluxo no n8n, configure o nó AI Agent para usar o Ollama:

  1. Selecione o nó AI Agent
  2. Em “Service”, escolha “Ollama”
  3. Configure o endpoint: http://ollama:11434
  4. Selecione o modelo mistral

Observações

  • Todos os serviços são gerenciados via docker-compose.

Tools

No tools

Comments

Recommend MCP Servers

View All MCP Servers