Hướng dẫn cách chạy GPT-OSS trên Ollama & LM Studio miễn phí

GPT-OSS là gì?

GPT-OSS (Generative Pre-trained Transformer Open-Source Software) là một bước tiến quan trọng trong lĩnh vực trí tuệ nhân tạo (AI), đánh dấu sự tham gia của OpenAI vào hệ sinh thái mã nguồn mở. Vào ngày 5 tháng 8 năm 2025, OpenAI đã công bố hai mô hình ngôn ngữ trọng số mở: gpt-oss-120bgpt-oss-20b.

Đây là những mô hình tiên tiến được thiết kế để cung cấp hiệu suất suy luận mạnh mẽ, khả năng sử dụng công cụ vượt trội, và triển khai hiệu quả trên phần cứng cá nhân hoặc doanh nghiệp. Được phát hành dưới giấy phép Apache 2.0, các mô hình này cho phép nhà phát triển, nhà nghiên cứu và tổ chức tùy chỉnh, triển khai và mở rộng AI một cách minh bạch và tiết kiệm chi phí.

Trong bài viết này, chúng ta sẽ khám phá chi tiết về GPT-OSS, các đặc điểm nổi bật của hai mô hình gpt-oss-120bgpt-oss-20b, cũng như hướng dẫn từng bước để chạy các mô hình này trên máy tính cá nhân một cách đơn giản, không yêu cầu kỹ thuật cao. Bài viết được tối ưu hóa chuẩn SEO Semantic, đảm bảo nội dung dễ hiểu, cung cấp giá trị thực tế và đáp ứng các tiêu chí tìm kiếm phổ biến liên quan đến GPT mã nguồn mở.

GPT-OSS kỷ nguyên mới của OpenAI
GPT-OSS kỷ nguyên mới của OpenAI

Các ưu điểm vượt trội của GPT-OSS

Mô hình trọng số mở tiên tiến hơn so với OpenAI 03-mini ,04-mini

  • gpt-oss-120b: Với 117 tỷ tham số (5,1 tỷ tham số hoạt động trên mỗi token), mô hình này đạt hiệu suất gần tương đương với OpenAI o4-mini trong các bài kiểm tra về tư duy cốt lõi. Nó có thể chạy trên một GPU 80 GB duy nhất, phù hợp cho các ứng dụng yêu cầu suy luận phức tạp.
gpt-oss-120b
gpt-oss-120b
  • gpt-oss-20b: Có 21 tỷ tham số (3,6 tỷ tham số hoạt động trên mỗi token), mô hình này tương đương với OpenAI o3-mini và chỉ cần 16 GB bộ nhớ, lý tưởng cho các thiết bị biên hoặc máy tính cá nhân cao cấp.
gpt-oss-20b
gpt-oss-20b

Cả hai mô hình đều sử dụng kiến trúc Mixture of Experts (MoE), giúp giảm số lượng tham số hoạt động, tối ưu hóa hiệu suất và tiết kiệm tài nguyên tính toán. Chúng hỗ trợ độ dài ngữ cảnh lên tới 128.000 token, cho phép xử lý các cuộc hội thoại dài hoặc tài liệu phức tạp.

Hiệu suất suy luận cho kết quả vượt trội

  • Suy luận (Reasoning): Các mô hình GPT-OSS được huấn luyện với trọng tâm vào khả năng suy luận, sử dụng kỹ thuật Chuỗi tư duy (Chain-of-Thought – CoT) để giải quyết các vấn đề phức tạp. Chúng hỗ trợ ba mức độ suy luận (thấp, trung bình, cao), cho phép nhà phát triển điều chỉnh độ trễ và hiệu suất theo nhu cầu.
  • Sử dụng công cụ: Cả hai mô hình đều có khả năng tương tác với các công cụ như tìm kiếm web, thực thi mã Python, và xử lý dữ liệu đầu ra có cấu trúc. Theo đánh giá trên Tau-BenchHealthBench, chúng thậm chí vượt trội hơn các mô hình độc quyền như GPT-4o trong một số tác vụ.
  • Hiệu quả triển khai: Được lượng tử hóa ở định dạng MXFP4, các mô hình này có thể chạy trên phần cứng phổ thông, từ GPU cao cấp đến thiết bị biên.
Xem thêm:  Vì sao eSIM không gửi được tin nhắn?

Áp dụng biện pháp an toàn và có tính minh bạch

OpenAI đã áp dụng các biện pháp an toàn nghiêm ngặt cho GPT-OSS:

  • Huấn luyện an toàn: Dữ liệu có hại liên quan đến Hóa học, Sinh học, Phóng xạ và Hạt nhân (CBRN) đã được lọc trong giai đoạn huấn luyện trước. Giai đoạn huấn luyện hậu kỳ sử dụng kỹ thuật điều chỉnh có chủ đích và phân cấp hướng dẫn để từ chối các yêu cầu không an toàn.
  • Đánh giá rủi ro: OpenAI đã thử nghiệm tinh chỉnh mô hình với dữ liệu độc hại để đánh giá rủi ro. Kết quả cho thấy, ngay cả khi bị tinh chỉnh, các mô hình này vẫn không đạt mức nguy hiểm theo Khung Chuẩn bị sẵn sàng của OpenAI.
  • Thử thách an toàn: OpenAI tổ chức chương trình Thử thách mô phỏng tấn công với quỹ giải thưởng 500.000 USD để khuyến khích cộng đồng phát hiện các vấn đề an toàn mới, từ đó nâng cao tiêu chuẩn an toàn cho các mô hình mã nguồn mở.

Mô hinh có tính linh hoạt và khả năng tùy chỉnh tốt

  • Các mô hình GPT-OSS tương thích với API Phản hồi của OpenAI, hỗ trợ tích hợp vào các quy trình công việc độc lập.
  • Nhà phát triển có thể tinh chỉnh mô hình cho các tập dữ liệu chuyên biệt hoặc triển khai tại chỗ để đảm bảo an toàn dữ liệu.
  • Hỗ trợ Dữ liệu đầu ra được Cấu trúc, giúp dễ dàng tích hợp vào các ứng dụng doanh nghiệp.

Vì sao sự ra đời của GPT OSS là bước ngoặt quan trọng?

Việc phát hành gpt-oss-120bgpt-oss-20b không chỉ là một bước tiến kỹ thuật mà còn là một nỗ lực để dân chủ hóa AI. Các mô hình trọng số mở này giúp:

  • Giảm rào cản tiếp cận: Các tổ chức nhỏ, nhà phát triển cá nhân, và các thị trường mới nổi có thể sử dụng AI mạnh mẽ mà không cần phụ thuộc vào các API độc quyền tốn kém.
  • Thúc đẩy đổi mới: Cộng đồng mã nguồn mở có thể nghiên cứu, cải tiến và xây dựng các ứng dụng mới dựa trên các mô hình này.
  • Tăng cường minh bạch: Trọng số mở cho phép cộng đồng kiểm tra và cải thiện mô hình, đảm bảo tính công bằng và an toàn.

OpenAI cũng nhấn mạnh rằng phản hồi từ cộng đồng sẽ định hình chiến lược phát triển các mô hình mã nguồn mở trong tương lai, giúp xây dựng một hệ sinh thái AI lành mạnh và dễ tiếp cận hơn.

Hướng dẫn chi tiết chạy GPT-OSS trên Ollama

Yêu cầu phần cứng

  • Đối với gpt-oss-20b:
    • Tối thiểu 16GB RAM (lý tưởng có GPU, ví dụ: NVIDIA GTX 1060 4GB hoặc Apple M3 Max với 64GB RAM).
    • Khoảng 20-50GB dung lượng lưu trữ trống cho trọng số mô hình và các phụ thuộc.
  • Đối với gpt-oss-120b:
    • Yêu cầu 80GB bộ nhớ GPU (ví dụ: một GPU duy nhất như NVIDIA A100 hoặc thiết lập trung tâm dữ liệu cao cấp).
    • Dung lượng lưu trữ tương tự 20-50GB.
Xem thêm:  Thủ tục chuyển sim trả trước sang trả sau MobiFone

Yêu cầu phần mềm

Hệ điều hành: Linux hoặc macOS được khuyến nghị; Windows được hỗ trợ nhưng có thể cần thiết lập bổ sung.

Tùy chọn bổ sung:

  • Docker để chạy giao diện Open WebUI, cung cấp trải nghiệm người dùng thân thiện.
  • Apidog để kiểm thử và gỡ lỗi API.

Kết nối Internet: Cần kết nối ổn định để tải xuống mô hình ban đầu (20-50GB).

Phụ thuộc phần cứng:

  • Trình điều khiển GPU NVIDIA/AMD nếu sử dụng tăng tốc GPU.
  • Chế độ chỉ CPU được hỗ trợ nhưng hiệu suất chậm hơn đáng kể.
Chạy GPT-OSS trên Ollama
Chạy GPT-OSS trên Ollama

Dưới đây là các bước cụ thể để cài đặt và chạy GPT-OSS trên Ollama, các mã lệnh được đóng gói trong “[…]”, lưu ý khi copy& paster nên bỏ “[” và “]”.

Bước 1: Cài đặt Ollama trên hệ thống

Ollama là một công cụ mã nguồn mở đơn giản, hỗ trợ macOS, Linux, và Windows, giúp triển khai các mô hình AI như GPT-OSS một cách dễ dàng.

Tải xuống Ollama:

  • Truy cập ollama.com và tải trình cài đặt phù hợp với hệ điều hành của bạn.
  • Đối với Linux/macOS, mở terminal và chạy lệnh: [curl -fsSL https://ollama.com/install.sh | sh]
  • Script này tự động tải và cài đặt Ollama, giảm thiểu thao tác thủ công.
  • Đối với Windows, tải tệp cài đặt từ trang web và làm theo hướng dẫn trên màn hình.

Xác minh cài đặt:

  • Trong terminal (hoặc Command Prompt trên Windows), chạy: [ollama –version]
  • Bạn sẽ thấy số phiên bản (ví dụ: 0.1.44). Nếu lệnh báo lỗi, kiểm tra hướng dẫn khắc phục sự cố trên Ollama GitHub.

Khởi động máy chủ Ollama:

  • Chạy lệnh: [ollama serve]
  • Lệnh này khởi chạy máy chủ Ollama, lắng nghe trên http://localhost:11434. Giữ terminal này mở hoặc cấu hình Ollama chạy như dịch vụ nền để sử dụng liên tục.

Bước 2: Tải xuống mô hình GPT-OSS

Các mô hình gpt-oss-120bgpt-oss-20b được lưu trữ trên Hugging Face và tối ưu hóa với định dạng lượng tử hóa MXFP4, giúp giảm yêu cầu bộ nhớ.

Chọn mô hình phù hợp:

  • gpt-oss-20b: Phù hợp cho máy tính cá nhân hoặc laptop với 16GB RAM, kích hoạt 3,6 tỷ tham số trên mỗi token, lý tưởng cho các thiết bị biên hoặc ứng dụng cục bộ.
  • gpt-oss-120b: Dành cho hệ thống cao cấp với 80GB bộ nhớ GPU, kích hoạt 5,1 tỷ tham số trên mỗi token, phù hợp cho các tác vụ nặng hoặc triển khai trung tâm dữ liệu.

Tải xuống mô hình qua Ollama:

  • Trong terminal, chạy lệnh: [ollama pull gpt-oss-20b] Hoặc, nếu bạn có phần cứng mạnh: [ollama pull gpt-oss-120b]
  • Tùy thuộc vào tốc độ internet, quá trình tải xuống (20-50GB) có thể mất từ vài phút đến vài giờ. Đảm bảo kết nối ổn định.

Xác minh mô hình đã tải:

  • Kiểm tra danh sách mô hình đã cài đặt: [ollama list]
  • Tìm gpt-oss-20b:latest hoặc gpt-oss-120b:latest trong danh sách.

Bước 3: Chạy GPT-OSS với giao diện dòng lệnh (CLI)

Ollama cung cấp giao diện dòng lệnh (CLI) đơn giản để tương tác với GPT-OSS. Đây là cách sử dụng:

Khởi chạy phiên tương tác:

  • Chạy: [ollama run gpt-oss-20b]
  • Lệnh này mở một phiên trò chuyện thời gian thực. Nhập câu lệnh (ví dụ: “Viết hàm Python tìm kiếm nhị phân”) và nhấn Enter. Sử dụng lệnh /help để xem các tùy chọn bổ sung.

Truy vấn nhanh một lần:

  • Nếu bạn chỉ cần phản hồi nhanh mà không cần chế độ tương tác, sử dụng: [ollama run gpt-oss-20b “Giải thích điện toán lượng tử một cách đơn giản”]
  • Phản hồi sẽ hiển thị ngay trong terminal.
Xem thêm:  Cách lưu danh bạ trên mạng MobiFone không sợ mất

Điều chỉnh thông số mô hình:

  • Tùy chỉnh hành vi của mô hình với các tham số như nhiệt độ (temperature, điều chỉnh mức sáng tạo) và top-p (điều chỉnh độ đa dạng của phản hồi). Ví dụ: [ollama run gpt-oss-20b –temperature 0.1 –top-p 1.0 “Viết tóm tắt về blockchain]
  • Nhiệt độ thấp (ví dụ: 0.1) tạo ra phản hồi thực tế, chính xác, phù hợp cho các tác vụ kỹ thuật.

Bước 4: Tùy chỉnh GPT-OSS với Modelfiles

Modelfiles của Ollama cho phép bạn tùy chỉnh hành vi của GPT-OSS mà không cần huấn luyện lại, giúp tối ưu hóa mô hình cho các trường hợp sử dụng cụ thể.

1. Tạo Modelfile:

  • Tạo một tệp văn bản có tên Modelfile với nội dung:

[FROM gpt-oss-20b

SYSTEM “Bạn là trợ lý kỹ thuật chuyên về lập trình Python. Cung cấp mã ngắn gọn, chính xác với các bình luận.”

PARAMETER temperature 0.5

PARAMETER num_ctx 4096]

  • Cấu hình này biến gpt-oss-20b thành trợ lý Python với cửa sổ ngữ cảnh 4.096 token và mức sáng tạo vừa phải.

2. Xây dựng mô hình tùy chỉnh:

  • Trong thư mục chứa Modelfile, chạy: [ollama create python-gpt-oss -f Modelfile]

3. Chạy mô hình tùy chỉnh:

  • Khởi chạy mô hình:[ollama run python-gpt-oss]
  • Mô hình giờ đây ưu tiên các phản hồi liên quan đến Python, phù hợp với các tác vụ lập trình.

Bước 5: Tích hợp GPT-OSS qua API của Ollama

API của Ollama cho phép tích hợp GPT-OSS vào các ứng dụng, lý tưởng cho các nhà phát triển xây dựng chatbot, công cụ phân tích dữ liệu hoặc ứng dụng AI tùy chỉnh.

1. Sử dụng điểm cuối API:

  • POST /api/generate: Tạo văn bản cho một câu lệnh: [curl http://localhost:11434/api/generate -H “Content-Type: application/json” -d ‘{“model”: “gpt-oss-20b”, “prompt”: “Viết script Python cho REST API”}’]
  • POST /api/chat: Hỗ trợ hội thoại với lịch sử tin nhắn: [curl http://localhost:11434/v1/chat/completions -H “Content-Type: application/json” -d ‘{“model”: “gpt-oss-20b”, “messages”: [{“role”: “user”, “content”: “Giải thích mạng nơ-ron”}]}’]
  • POST /api/embeddings: Tạo nhúng vector cho các tác vụ như tìm kiếm ngữ nghĩa.

2. Tích hợp với Python:

  • Sử dụng thư viện OpenAI để tương tác với API của Ollama:

[from openai import OpenAI

client = OpenAI(base_url=”http://localhost:11434/v1″, api_key=”ollama”)

response = client.chat.completions.create(

model=”gpt-oss-20b”,

messages=[{“role”: “user”, “content”: “Học máy là gì?”}]

)

print(response.choices[0].message.content)]

Bước 6: Gỡ lỗi với Apidog

Apidog là công cụ kiểm thử API giúp gỡ lỗi phản hồi từ GPT-OSS, đặc biệt với các đầu ra dạng luồng.

1. Cài đặt Apidog:

  • Tải xuống từ apidog.com và cài đặt.

2. Cấu hình API Ollama:

  • Tạo yêu cầu API mới trong Apidog với URL http://localhost:11434/api/generate.
  • Sử dụng phần thân JSON:

[{

“model”: “gpt-oss-20b”,

“prompt”: “Tạo hàm Python để sắp xếp”,

“stream”: true

}]

3. Trực quan hóa và phân tích:

  • Apidog hợp nhất các token dạng luồng thành định dạng dễ đọc, giúp xác định lỗi logic hoặc định dạng.
  • Sử dụng phân tích suy luận của Apidog để kiểm tra Chuỗi tư duy (CoT) của mô hình, đặc biệt hữu ích cho các tác vụ phức tạp.

Bước 7: Sử dụng Open WebUI để có giao diện thân thiện

Open WebUI cung cấp giao diện trình duyệt thân thiện để tương tác với GPT-OSS, lý tưởng cho người dùng không chuyên về kỹ thuật.

1. Cài đặt Open WebUI:

  • Sử dụng Docker: [docker run -d -p 3000:8080 –name open-webui ghcr.io/open-webui/open-webui:main]

2. Truy cập giao diện:

  • Mở http://localhost:3000 trong trình duyệt.
  • Chọn gpt-oss-20b và bắt đầu trò chuyện. Giao diện hỗ trợ lưu lịch sử trò chuyện và chuyển đổi mô hình.

3. Tính năng bổ sung:

  • Tải lên tài liệu để phân tích ngữ cảnh (ví dụ: đánh giá mã hoặc phân tích dữ liệu) với Tạo sinh tăng cường truy xuất (RAG).
Xem thêm:  Vì sao 4G rớt xuống 3G và cách lên lại

Bước 8: Khắc phục sự cố thường gặp

Dưới đây là các giải pháp cho các vấn đề phổ biến khi chạy GPT-OSS:

1. Lỗi bộ nhớ GPU:

  • Vấn đề: gpt-oss-120b không chạy do thiếu bộ nhớ GPU.
  • Giải pháp: Chuyển sang gpt-oss-20b hoặc nâng cấp lên GPU 80GB. Kiểm tra bộ nhớ với: [nvidia-smi]

2. Mô hình không khởi động:

  • Vấn đề: Lệnh ollama run thất bại.
  • Giải pháp: Kiểm tra mô hình đã tải (ollama list) và máy chủ đang chạy (ollama serve). Xem nhật ký tại ~/.ollama/logs.

3. API không phản hồi:

  • Vấn đề: Yêu cầu API tới localhost:11434 thất bại.
  • Giải pháp: Đảm bảo máy chủ Ollama hoạt động và cổng 11434 mở: [netstat -tuln | grep 11434]

4. Hiệu suất chậm:

  • Vấn đề: Suy luận CPU chậm.
  • Giải pháp: Bật tăng tốc GPU hoặc sử dụng gpt-oss-20b cho hiệu suất tốt hơn.

Chạy các mô hình GPT-OSS trên PC/Laptop giờ đây dễ dàng hơn bao giờ hết, đặc biệt với mô hình gpt-oss-20b, được tối ưu hóa để chạy trên các thiết bị có bộ nhớ 16 GB. Dưới đây là hướng dẫn từng bước để cài đặt và chạy mô hình này một cách đơn giản, không yêu cầu kỹ thuật cao, dựa trên thông tin từ OpenAI và hướng dẫn thực tế.

Hướng dẫn chạy GPT-OSS trên LM Studio

Dưới đây là các bước chi tiết để cài đặt và chạy gpt-oss-20b trên LM Studio. Quy trình này được tối ưu hóa để đơn giản, phù hợp cho cả người dùng không chuyên và nhà phát triển.

Yêu cầu phần cứng

  • gpt-oss-20b: Cần tối thiểu 13 GB RAM và khoảng 12-13 GB dung lượng lưu trữ. Phù hợp với laptop cao cấp (ví dụ: Apple M3 Max với 64 GB RAM) hoặc PC có GPU 16 GB.
  • gpt-oss-120b: Yêu cầu GPU mạnh với 80 GB bộ nhớ, chẳng hạn NVIDIA H100, phù hợp cho các hệ thống chuyên dụng.
  • Hệ điều hành: Mac, Windows hoặc Linux.
Chạy GPT-OSS trên LM Studio
Chạy GPT-OSS trên LM Studio

Bước 1: Tải xuống và cài đặt LM Studio

Truy cập trang web LM Studio:

  • Vào trang chủ của LM Studio tại lmstudio.ai hoặc tìm liên kết tải xuống từ cộng đồng Discord chính thức .
  • Tải phiên bản LM Studio 0.3.21 (hoặc mới hơn) phù hợp với hệ điều hành của bạn (Mac, Windows, Linux).

Cài đặt LM Studio:

  • Chạy tệp cài đặt và làm theo hướng dẫn trên màn hình. Quá trình này rất đơn giản, tương tự như cài đặt bất kỳ ứng dụng nào khác.
  • Sau khi cài đặt, mở LM Studio để bắt đầu.

Bước 2: Tải mô hình GPT-OSS

Mở LM Studio:

  • Sau khi cài đặt, mở ứng dụng LM Studio. Giao diện sẽ hiển thị danh sách các mô hình có sẵn trong mục Discover (Khám phá).

Chọn mô hình GPT-OSS:

  • Tìm gpt-oss-20b trong danh sách (nó thường xuất hiện ở đầu do là mô hình mới ra mắt).
  • Nếu bạn có phần cứng đủ mạnh, bạn cũng có thể chọn gpt-oss-120b.

Tải xuống mô hình:

  • Nhấn nút Download bên cạnh gpt-oss-20b. LM Studio sẽ tự động tải trọng số mô hình (khoảng 12-13 GB cho gpt-oss-20b).
  • Quá trình tải có thể mất vài phút tùy thuộc vào tốc độ internet.

Bước 3: Chạy mô hình GPT-OSS

Khởi động mô hình:

  • Sau khi tải xuống, chọn gpt-oss-20b từ danh sách mô hình trong LM Studio.
  • Nếu lần đầu chạy, LM Studio có thể yêu cầu bạn mở Terminal (trên Mac) hoặc PowerShell (trên Windows) để khởi tạo mô hình.

Chạy lệnh khởi tạo (nếu cần):

  • Mở Terminal hoặc PowerShell.
  • Sao chép và dán lệnh được cung cấp trong tài liệu của LM Studio (thường có sẵn trong phần hướng dẫn trên trang web hoặc giao diện ứng dụng). Ví dụ lệnh trên Mac: [lms run gpt-oss-20b]
  • Nhấn Enter để chạy lệnh. Lệnh này sẽ khởi tạo mô hình và chuẩn bị cho việc sử dụng.
Xem thêm:  Hướng dẫn cách bắn tiền điện thoại Mobi qua 9494

Sử dụng mô hình:

  • Quay lại giao diện LM Studio, vào mục Chat hoặc Prompt.
  • Nhập câu lệnh (prompt) của bạn, ví dụ: “Giải thích cách hoạt động của mô hình GPT-OSS” hoặc “Đếm số chữ R trong từ ‘strawberry’”.
  • Mô hình sẽ phản hồi nhanh chóng, hiển thị kết quả ngay trong giao diện. Bạn có thể chọn hiển thị hoặc ẩn Chuỗi tư duy (CoT) để xem quá trình suy luận của mô hình.

Bước 4: Tùy chỉnh và tối ưu hóa

  • Cài đặt mức độ suy luận: GPT-OSS hỗ trợ ba mức suy luận (thấp, trung bình, cao). Trong LM Studio, bạn có thể thêm một câu trong thông báo hệ thống (system prompt) để chọn mức suy luận phù hợp, ví dụ: “Sử dụng suy luận mức thấp để phản hồi nhanh.”
  • Tích hợp công cụ: Mô hình hỗ trợ các công cụ như tìm kiếm web hoặc thực thi mã Python, nhưng bạn có thể cần cấu hình thêm trong LM Studio hoặc sử dụng các plugin hỗ trợ.
  • Cập nhật thường xuyên: Theo dõi các bản cập nhật từ LM Studio (qua Discord hoặc trang web) để nhận các cải tiến mới, đặc biệt là bản triển khai MLX cho macOS.

Chạy GPT-OSS qua Hugging Face (Dành cho người dùng kỹ thuật)

Nếu bạn là nhà phát triển hoặc có kiến thức kỹ thuật, bạn có thể tải trọng số của gpt-oss-20b hoặc gpt-oss-120b trực tiếp từ Hugging Face:

  • Truy cập Hugging Face và tìm kiếm gpt-oss-120b hoặc gpt-oss-20b.
  • Tải xuống trọng số đã được lượng tử hóa (MXFP4) và sử dụng các công cụ như PyTorch, vLLM, hoặc llama.cpp để triển khai mô hình.
  • OpenAI cũng cung cấp các phương pháp triển khai tham chiếu bằng PythonRust, cùng với hỗ trợ cho Metal của Apple để tối ưu hóa hiệu suất trên macOS.
Chạy GPT-OSS trên Hugging Face
Chạy GPT-OSS trên Hugging Face

Kết luận

GPT-OSS từ OpenAI là một bước tiến lớn trong việc dân chủ hóa AI, mang đến các mô hình ngôn ngữ mạnh mẽ, an toàn và dễ tiếp cận cho cộng đồng mã nguồn mở. Với gpt-oss-120bgpt-oss-20b, nhà phát triển và doanh nghiệp có thể tận dụng sức mạnh của AI để đổi mới, nghiên cứu và triển khai các ứng dụng thực tế mà không bị ràng buộc bởi các hệ thống độc quyền.

Việc chạy gpt-oss-20b trên máy tính cá nhân giờ đây trở nên dễ dàng hơn bao giờ hết nhờ các công cụ như OllamaLM Studio. Chỉ với vài bước đơn giản, bạn có thể triển khai mô hình AI mạnh mẽ ngay trên laptop hoặc desktop của mình. Đối với các nhà phát triển kỹ thuật, Hugging Face và các công cụ như PyTorch cung cấp sự linh hoạt để tùy chỉnh và mở rộng mô hình.

Hãy bắt đầu khám phá GPT-OSS ngay hôm nay bằng cách truy cập sân chơi mô hình mở của OpenAI hoặc tải xuống từ Hugging Face. Đừng quên follow Dichvumobi.net để cập nhật và đóng góp vào việc xây dựng một hệ sinh thái AI an toàn và minh bạch hơn!

Nguồn: OpenAI

Thông tin gói cước được dichvumobi.net tổng hợp đầy đủ, xin cảm ơn Quý Khách đã sử dụng dịch vụ của MobiFone
Bài viết liên quan:

Để lại một bình luận