0

Hướng Dẫn Sử Dụng Ollama: Quản Lý và Chạy Các Mô Hình AI

1. Bắt Đầu Nhanh (Quickstart)

Tạo một mô hình mới

Bạn có thể tạo một mô hình tùy chỉnh từ một tệp Modelfile:

ollama create mario -f ./Modelfile

Chạy mô hình

Sau khi tạo, chạy mô hình bằng lệnh:

ollama run mario

Ví dụ tương tác:

>>> hi
Hello! It's your friend Mario.

2. Quản Lý Mô Hình

Tải một mô hình

Tải mô hình từ kho lưu trữ của Ollama (ví dụ: llama3.2):

ollama pull llama3.2

Xóa một mô hình

Xóa mô hình khỏi máy tính khi không cần nữa:

ollama rm llama3.2

Xem thông tin mô hình

Kiểm tra chi tiết về một mô hình cụ thể:

ollama show llama3.2

Liệt kê các mô hình đã cài

Xem tất cả các mô hình hiện có trên máy:

ollama list

Xem các mô hình đang chạy

Kiểm tra mô hình nào đang hoạt động:

ollama ps

Dừng mô hình đang chạy

Tắt một mô hình cụ thể:

ollama stop llama3.2

3. Mô Hình Đa Phương Thức (Multimodal Models)

Ollama hỗ trợ các mô hình như llava (~4.7GB), có khả năng xử lý cả văn bản và hình ảnh.

Ví dụ: Phân tích hình ảnh

Chạy mô hình llava và yêu cầu mô tả nội dung hình ảnh:

ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"

Kết quả:

The image features a yellow smiley face, which is likely the central focus of the picture.

4. Giao Diện Web với Open WebUI

Cài đặt Open WebUI

Open WebUI cung cấp giao diện web thân thiện để tương tác với Ollama. Cách cài đặt:

pip install open-webui

Lưu ý: Để đơn giản, bạn có thể dùng thử giao diện tại msty.app thay vì cài đặt cục bộ.

Tham khảo thêm: Open WebUI GitHub


5. Sử Dụng REST API

Ollama cung cấp REST API để điều khiển mô hình từ xa hoặc tích hợp vào ứng dụng.

Tạo phản hồi (Generate Response)

Gửi yêu cầu và nhận phản hồi từng từ (streaming):

curl <http://localhost:11434/api/generate> -d '{
  "model": "llama3.2",
  "prompt": "Why is the sky blue?"
}'

Nhận kết quả đầy đủ (không stream)

Thêm "stream": false để lấy toàn bộ phản hồi:

curl <http://localhost:11434/api/generate> -d '{
  "model": "llama3.2",
  "prompt": "Tell me a fun fact about Portugal",
  "stream": false
}'

Trò chuyện với mô hình (Chat)

Gửi tin nhắn và nhận phản hồi:

curl <http://localhost:11434/api/chat> -d '{
  "model": "llama3.2",
  "messages": [
    { "role": "user", "content": "Tell me a fun fact about Mozambique" }
  ],
  "stream": false
}'

Yêu cầu phản hồi dạng JSON

Nhận kết quả định dạng JSON:

curl <http://localhost:11434/api/generate> -d '{
  "model": "llama3.2",
  "prompt": "What color is the sky at different times of the day? Respond using JSON",
  "format": "json",
  "stream": false
}'

Tài liệu API chi tiết: Ollama API Docs


6. Mẹo Sử Dụng

  • Kiểm tra yêu cầu tài nguyên: Đảm bảo máy tính có đủ RAM và dung lượng để chạy mô hình (ví dụ: llava cần ~4.7GB).
  • Cập nhật thường xuyên: Ollama liên tục cải tiến, hãy kiểm tra phiên bản mới trên GitHub.
  • Tùy chỉnh: Sử dụng Modelfile để tạo mô hình phù hợp với nhu cầu cá nhân.

All rights reserved

Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí