Para usar e customizar o AI HR Talent Analyzer, é útil entender seus componentes principais e como configurá-los.


1. Arquitetura do Sistema

O sistema é composto por três partes principais que se comunicam para realizar as tarefas. Entender essa separação ajuda a diagnosticar problemas.

  1. O Servidor de Modelos (lemonade-server-dev)
    • Função: É o “motor” do sistema. Um servidor de backend que hospeda e executa os modelos de linguagem (LLMs) de forma otimizada.
    • Como Funciona: Ele expõe uma API REST. O agente envia os prompts (suas perguntas e o contexto dos arquivos) para esta API e recebe de volta a resposta gerada pelo modelo.
    • Sua Interação: Você interage com ele principalmente através da interface web em http://localhost:8000 para adicionar, gerenciar e monitorar seus modelos. É aqui que você instala o user.jan-nano, por exemplo.
  2. O Agente (tiny-agents)
    • Função: É a “inteligência” e sua interface de linha de comando.
    • Como Funciona: Ele gerencia a conversa, interpreta seus comandos em linguagem natural, decide qual ferramenta usar (se necessário), e se comunica com o Lemonade Server para acessar a capacidade de raciocínio do LLM.
    • Sua Interação: Você o executa no seu terminal e dá instruções diretas a ele.
  3. O Provedor de Ferramentas (@wonderwhy-er/desktop-commander)
    • Função: É a “ponte” entre o agente e o seu sistema de arquivos local.
    • Como Funciona: O npx o executa como um serviço separado. Ele expõe um conjunto de ferramentas (tools) como read_file, write_file, e list_files de uma forma padronizada (seguindo o MCP). O agente descobre essas ferramentas e aprende a usá-las para manipular arquivos.
    • Sua Interação: Geralmente é transparente. Você apenas precisa garantir que o caminho para o npx esteja corretamente configurado no agent.json para instalações locais.

2. O Arquivo `agent.json`

Este arquivo é o DNA do seu agente. Ele define qual modelo usar, onde encontrá-lo e quais ferramentas ele pode acessar.

{
  "model": "user.jan-nano",
  "endpointUrl": "http://localhost:8000/api/",
  "servers": [
    {
      "type": "stdio",
      "config": {
        "command": "/caminho/para/seu/npx",
        "args": ["-y", "@wonderwhy-er/desktop-commander"]
      }
    }
  ]
}

3. Modelos GGUF e Como Escolher

O projeto é otimizado para usar modelos no formato GGUF (GPT-Generated Unified Format).