AI Ollama

Run LLM local on debian

  1. docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  2. docker exec -it ollama ollama run llama2

Models