+1

Hướng Dẫn Tối Thượng để Triển Khai DeepSeek Cục Bộ

DeepSeek đang làm mưa làm gió trong thế giới công nghệ, phát triển từ một công cụ AI нише thành một cái tên quen thuộc. Mặc dù phiên bản đám mây của nó hoạt động rất tốt, nhưng những người dùng thực sự am hiểu sức mạnh đều biết rằng việc triển khai cục bộ sẽ mở ra các quy trình làm việc tùy chỉnh và tránh được các sự cố "Quá tải máy chủ DeepSeek". Mang sức mạnh nhận thức của DeepSeek R1 trực tiếp đến máy tính của bạn.

Mô tả ảnh

Tại sao lại chọn Ollama cho Triển khai DeepSeek Cục bộ?

Ollama - framework mã nguồn mở dựa trên Go - cho phép bạn chạy LLM cục bộ một cách đơn giản qua CLI. Không cần bằng Tiến sĩ DevOps: tương tác trực tiếp thông qua API rõ ràng của nó trong khi vẫn duy trì khả năng mở rộng cấp doanh nghiệp.

Mô tả ảnh

Chúng tôi đã chọn Ollama thay vì các lựa chọn thay thế như LM Studio vì một lý do: khả năng mở rộng. Độ phức tạp ban đầu khi thiết lập của nó tan biến khi kết hợp với...

ServBay: Trình Hướng Dẫn Thiết Lập Còn Thiếu của Ollama

Cài đặt Ollama thông qua ServBay

  1. Tải xuống ServBay (https://www.servbay.com)
  2. Điều hướng đến Services > AI > Ollama trong bảng điều khiển bên trái
  3. Nhấn vào nút tải xuống màu xanh lục

Mô tả ảnh

⚠️ Mẹo Chuyên Nghiệp: Nhấp vào nút bật/tắt kích hoạt sau khi quá trình tải xuống hoàn tất.

Mô tả ảnh

Cài đặt Mô hình

  1. Trong AI, tìm deepseek-r1 hoặc các LLM khác trong thư viện mô hình
  2. Chọn kích thước mô hình bạn yêu cầu và tải xuống

Mô tả ảnh

Sau khi quá trình tải xuống hoàn tất, bạn phải sử dụng terminal để đối thoại, điều này khá bất tiện khi sử dụng.

Mô tả ảnh

Do đó, giải pháp là sử dụng GUI để gọi API Ollama và tạo giao diện trò chuyện GUI hoàn chỉnh. Và lựa chọn của tôi cho việc này là Chatbox.

GUI-hóa Ollama với Chatbox

Chatbox (https://chatboxai.app) - ứng dụng khách LLM đa nền tảng - mang giao diện người dùng bóng bẩy theo phong cách ChatGPT đến các mô hình cục bộ của bạn:

  1. Đặt Model Provider thành OLLAMA API
  2. Nhập máy chủ API: https://ollama.servbay.host
  3. Chọn deepseek-r1 từ menu thả xuống mô hình
  4. Lưu

Mô tả ảnh

Bùm! Chúng ta có thể trò chuyện thông qua GUI.

Tại Sao Điều Này Quan Trọng

Cho dù đó là Ollama hay ServBay, với tư cách là công cụ năng suất tiên tiến, việc sử dụng chúng một cách hiệu quả và phù hợp có thể mang lại lợi ích to lớn cho công việc và học tập của chúng ta. Chúng không chỉ tăng cường hiệu quả công việc và giảm các tác vụ lặp đi lặp lại, mà còn hỗ trợ chúng ta giải quyết vấn đề tốt hơn, mở rộng tư duy và nâng cao khả năng sáng tạo. Trong lĩnh vực phát triển nhanh chóng của chúng ta, việc làm chủ các công cụ này không phải là tùy chọn - đó là dưỡng khí sự nghiệp.



All rights reserved

Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí