Ollama, intelligenza artificiale in locale sui propri sistemi | IlSoftware.it
Ollama, intelligenza artificiale in locale sui propri sistemi | IlSoftware.it
www.ilsoftware.it Ollama, intelligenza artificiale in locale sui propri sistemi | IlSoftware.it
Ollama porta i migliori modelli linguistici in locale: Llama 2, Mistral, Orca Mini, Vicuna tutti utilizzabili sui propri sistemi.
Questa implementazione di llama è molto veloce anche con la sola CPU
1 comments
L’ho provato un paio di giorni fa, non è malaccio. Mistral non l’ho ancora provato, solo llama2. Dovrebbe avere qualche vantaggio?
1 0 Reply