Vou implantar um modelo de IA privado hospedado por você no seu servidor
Sobre este Serviço
Todo mundo quer rodar IA. A maioria fica presa na infraestrutura.
Sou um Engenheiro DevOps baseado na Alemanha. Vou implantar um LLM totalmente funcional, hospedado por você, no seu servidor, de forma rápida e sob seu controle. Sem contas de API, sem dados saindo da sua infraestrutura. E em conformidade com a GDPR.
Com o que trabalho:
- Ollama serviço rápido de modelos locais, inferência de GPU de alto desempenho para produção
- Open WebUI interface limpa semelhante ao ChatGPT para sua equipe
- LocalAI API compatível com OpenAI para aplicativos existentes
- Docker + passthrough de GPU em VPS ou bare metal
O que você recebe:
- LLM em funcionamento acessível via navegador ou API
- Proxy reverso NGINX + certificado SSL
- Autenticação para que nem todo mundo possa acessar
- Sua escolha de modelo: Llama, Mistral, Gemma, Phi e outros
- Documentação para que você possa gerenciar depois
Seja você um desenvolvedor que quer um assistente de codificação privado, uma startup que precisa de uma ferramenta de IA interna ou uma empresa que não pode enviar dados para a OpenAI por motivos de conformidade, não hesite em ligar o sinal!
Trabalho em inglês, alemão, francês e árabe.
Outros serviços de Engenharia de DevOps que eu ofereço
Perguntas frequentes
Tradução automática
Preciso de uma GPU?
Não necessariamente. Modelos menores (3B–7B) funcionam bem em CPU com RAM suficiente. Vou te aconselhar sobre o modelo certo para seu hardware antes de começarmos.
Meus dados ficarão privados?
Sim — esse é o objetivo. Tudo roda no seu servidor, nada é enviado para a OpenAI ou terceiros.
Posso conectar ao meu aplicativo existente?
Sim. Posso expor um endpoint de API compatível com OpenAI para que seu app possa trocar da OpenAI para seu modelo hospedado por você com mudanças mínimas no código.
Que servidor eu preciso?
Me envie detalhes sobre sua configuração atual e te direi exatamente o que é necessário. Um VPS básico de €10/mês funciona para modelos menores.
