Hướng Dẫn Sử Dụng Ollama: Quản Lý và Chạy Các Mô Hình AI
1. Bắt Đầu Nhanh (Quickstart)
Tạo một mô hình mới
Bạn có thể tạo một mô hình tùy chỉnh từ một tệp Modelfile
:
ollama create mario -f ./Modelfile
Chạy mô hình
Sau khi tạo, chạy mô hình bằng lệnh:
ollama run mario
Ví dụ tương tác:
>>> hi
Hello! It's your friend Mario.
2. Quản Lý Mô Hình
Tải một mô hình
Tải mô hình từ kho lưu trữ của Ollama (ví dụ: llama3.2
):
ollama pull llama3.2
Xóa một mô hình
Xóa mô hình khỏi máy tính khi không cần nữa:
ollama rm llama3.2
Xem thông tin mô hình
Kiểm tra chi tiết về một mô hình cụ thể:
ollama show llama3.2
Liệt kê các mô hình đã cài
Xem tất cả các mô hình hiện có trên máy:
ollama list
Xem các mô hình đang chạy
Kiểm tra mô hình nào đang hoạt động:
ollama ps
Dừng mô hình đang chạy
Tắt một mô hình cụ thể:
ollama stop llama3.2
3. Mô Hình Đa Phương Thức (Multimodal Models)
Ollama hỗ trợ các mô hình như llava
(~4.7GB), có khả năng xử lý cả văn bản và hình ảnh.
Ví dụ: Phân tích hình ảnh
Chạy mô hình llava
và yêu cầu mô tả nội dung hình ảnh:
ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"
Kết quả:
The image features a yellow smiley face, which is likely the central focus of the picture.
4. Giao Diện Web với Open WebUI
Cài đặt Open WebUI
Open WebUI cung cấp giao diện web thân thiện để tương tác với Ollama. Cách cài đặt:
pip install open-webui
Lưu ý: Để đơn giản, bạn có thể dùng thử giao diện tại msty.app thay vì cài đặt cục bộ.
Tham khảo thêm: Open WebUI GitHub
5. Sử Dụng REST API
Ollama cung cấp REST API để điều khiển mô hình từ xa hoặc tích hợp vào ứng dụng.
Tạo phản hồi (Generate Response)
Gửi yêu cầu và nhận phản hồi từng từ (streaming):
curl <http://localhost:11434/api/generate> -d '{
"model": "llama3.2",
"prompt": "Why is the sky blue?"
}'
Nhận kết quả đầy đủ (không stream)
Thêm "stream": false
để lấy toàn bộ phản hồi:
curl <http://localhost:11434/api/generate> -d '{
"model": "llama3.2",
"prompt": "Tell me a fun fact about Portugal",
"stream": false
}'
Trò chuyện với mô hình (Chat)
Gửi tin nhắn và nhận phản hồi:
curl <http://localhost:11434/api/chat> -d '{
"model": "llama3.2",
"messages": [
{ "role": "user", "content": "Tell me a fun fact about Mozambique" }
],
"stream": false
}'
Yêu cầu phản hồi dạng JSON
Nhận kết quả định dạng JSON:
curl <http://localhost:11434/api/generate> -d '{
"model": "llama3.2",
"prompt": "What color is the sky at different times of the day? Respond using JSON",
"format": "json",
"stream": false
}'
Tài liệu API chi tiết: Ollama API Docs
6. Mẹo Sử Dụng
- Kiểm tra yêu cầu tài nguyên: Đảm bảo máy tính có đủ RAM và dung lượng để chạy mô hình (ví dụ:
llava
cần ~4.7GB). - Cập nhật thường xuyên: Ollama liên tục cải tiến, hãy kiểm tra phiên bản mới trên GitHub.
- Tùy chỉnh: Sử dụng
Modelfile
để tạo mô hình phù hợp với nhu cầu cá nhân.
All rights reserved