Il tuo assistente AI per il coding, in locale.

Codex usa modelli come Qwen2.5 Coder, StarCoder2 e DeepSeek R1, eseguiti tramite Ollama sulla tua Tesla P4.

💻 Apri la Chat Codex   ⚙️ Vedi i Modelli
Esempio:

def process(items):
  r=[]
  for x in items:
    if x not in r:
      r.append(x)
  return r

# Codex suggerisce miglioramenti e refactoring

Funzioni principali

Alcune delle cose che puoi fare con Codex ogni giorno.

🧠 Spiegazione e refactoring

Analizza una funzione, trova errori e suggerisce miglioramenti.

⚙️ Generazione codice

Codice pronto (API, funzioni, SQL, validatori, test…).

🔍 Analisi profonda

DeepSeek R1 per reasoning avanzato e studio di algoritmi.

Modelli disponibili

Tutti eseguiti localmente tramite Ollama.

💻 Qwen2.5 Coder

Modello principale per coding (7B).

⚡ StarCoder2

Snippet veloci, completamenti rapidi.

🧠 Qwen2.5 / Mistral

Modelli generali per spiegazioni.

🔎 DeepSeek Coder

Alternativa per codice più “rigoroso”.

🔍 DeepSeek R1

Reasoning avanzato.

🚀 Phi4 Mini

Risposte rapide e leggere.

Architettura

Tutto gira nella tua rete, senza cloud esterni.

Browser → codex.armandopassaro.it (index)
chat.codex.armandopassaro.it (WebUI)
→ VM Codex (Debian 12 + Ollama + Tesla P4)
→ Modelli AI locali (Qwen, DeepSeek, Starcoder…)