Salta al contenuto
OrizzontiWeb

Servizio

AI applicata

Integrazioni LLM che risolvono problemi reali, non demo per fiere.

Cosa intendo per "AI applicata"

La differenza fra un progetto AI che funziona e uno che muore in produzione sta quasi sempre nei dati: come si preparano, come si indicizzano, come si recuperano al momento giusto. Il modello LLM è l'ultimo tassello, non il primo.

Su cosa lavoro

  • Sistemi RAG su dati proprietari. L'utente interroga documenti aziendali, procedure, knowledge base storiche, e ottiene risposte citate con fonti.
  • Assistenti che "ragionano come te". Partendo da contenuti approvati dal cliente, costruisco assistenti AI che mantengono coerenza di pensiero su decisioni ricorrenti.
  • Automazioni documentali. Estrazione strutturata da PDF, classificazione, generazione automatica di bozze documento.
  • Classificazione e enrichment. Trigger che etichettano automaticamente ticket, lead, transazioni.
  • Copiloti per back-office. Suggerimenti contestuali dentro i pannelli amministrativi, con human-in-the-loop.

Stack AI

OpenAI, Anthropic, Ollama per provider LLM. pgvector o Pinecone come vector store. Pipeline di ingestion custom in Laravel/Python. Sempre con valutazioni automatiche della qualità (golden dataset, eval pipeline) perché in produzione un LLM che allucina costa reputazione.

Casi di studio

UltraMind è un sistema RAG personalizzato dove il cliente valida contenuti e l'assistente mantiene coerenza con il suo modo di pensare. Exsafe usa LLM per analisi di rischio nel mondo assicurativo.