@llama-cpp
直接访问 llama.cpp 以实现更快的推理、LoRA 适配器加载以及 Apple Silicon 上的基准测试。 Ollama 仍然是 RLAMA 和一般用途的主要用途; llama.cpp 是强大的工具。