• Vietnamleads
  • Liên hệ
14/01/2026
Vietnamleads
Không có kết quả
Xem tất cả kết quả
  • Thị trường
  • Doanh nghiệp
  • Đầu tư
  • Hạ tầng
  • Tài chính
    • Ngân hàng
    • Bảo hiểm
  • Chuyển đổi số
    • Số hóa
  • Chính sách
  • To Foreigner
    • Opportunities
    • Policy & Regulation
  • Thị trường
  • Doanh nghiệp
  • Đầu tư
  • Hạ tầng
  • Tài chính
    • Ngân hàng
    • Bảo hiểm
  • Chuyển đổi số
    • Số hóa
  • Chính sách
  • To Foreigner
    • Opportunities
    • Policy & Regulation
VNL
Không có kết quả
Xem tất cả kết quả
VNL Chuyển đổi số

Cha đẻ DeepSeek hé lộ phương pháp huấn luyện AI giảm phụ thuộc vào GPU

14/01/2026
0 0
A A
0
Cha đẻ DeepSeek hé lộ phương pháp huấn luyện AI giảm phụ thuộc vào GPU
0
Chia sẻ
Share on FacebookShare on Twitter

Nhóm nghiên cứu đã thử nghiệm kỹ thuật Engram trên một mô hình 27 tỷ tham số. Kết quả cho thấy mô hình hoạt dộng tốt hơn trong các nhiệm vụ suy luận phức tạp, đòi hỏi cường độ tính toán cao…

Liang Wenfeng, nhà sáng lập công ty khởi nghiệp trí tuệ nhân tạo DeepSeek của Trung Quốc, cùng nhóm nghiên cứu đến từ Đại học Bắc Kinh, mới đây đã đề xuất một phương pháp huấn luyện mô hình AI mới.

Nhóm tác giả cho rằng kỹ thuật này sẽ giúp “mở rộng tham số” để xây dựng các mô hình AI mạnh mẽ hơn, thông qua tối ưu bộ nhớ của bộ xử lý đồ họa (GPU), trong bối cảnh năng lực tính toán của Trung Quốc vẫn còn hạn chế so với các tập đoàn công nghệ hàng đầu của Mỹ.

Theo đó, bài báo nghiên cứu này vừa được công bố hôm qua, giới thiệu kỹ thuật “bộ nhớ có điều kiện” mang tên “Engram”. Mục tiêu của Engram là giải quyết hạn chế đồng thời tối ưu dung lượng của bộ nhớ băng thông cao (HBM) trên GPU để tăng cường mở rộng quy mô các mô hình AI. 

Bằng cách đưa các chuỗi dữ liệu vào bộ nhớ tĩnh, mô hình có thể truy xuất thông tin nhanh hơn, giảm gánh nặng tính toán. Nhờ đó, GPU được giải phóng khỏi các tác vụ ghi nhớ đơn giản để tập trung vào những bài toán phức tạp hơn, đồng thời hạn chế sự phụ thuộc vào các loại bộ nhớ băng thông cao (HBM) vốn đắt đỏ và khan hiếm.

HBM lâu nay luôn là một trong những điểm yếu lớn nhất của Trung Quốc khi so sánh về phần cứng AI với Mỹ. Ray Wang, nhà phân tích tại SemiAnalysis, nhận định rằng ChangXin Memory Technologies (CXMT), doanh nghiệp bộ nhớ hàng đầu của Trung Quốc, vẫn chậm hơn vài năm so với các hãng dẫn đầu thế giới như Samsung Electronics, SK Hynix của Hàn Quốc hay Micron Technology của Mỹ, dù đã có những bước tiến đều đặn trong thời gian gần đây.

Trong bối cảnh đó, nhóm nghiên cứu DeepSeek và Đại học Bắc Kinh cho rằng giải pháp nằm ở việc tách riêng vai trò của tính toán và bộ nhớ. Với Engram, mô hình có thể trực tiếp tra cứu thông tin nền, thay vì phải liên tục tính toán lại từ đầu.

Không chỉ giải quyết bài toán bộ nhớ, kỹ thuật này còn được cho là giúp mô hình xử lý tốt hơn đầu vào có dung lượng lớn. Đây hiện là một trong những thách thức lớn nhất để biến chatbot AI thành các trợ lý thông minh có thể vận hành hiệu quả trong đời sống và sản xuất thực tế.

Nhóm nghiên cứu đã thử nghiệm Engram trên một mô hình có quy mô 27 tỷ tham số. Kết quả cho thấy hiệu suất của mô hình được cải thiện thêm vài phần trăm khi đánh giá trên các bộ tiêu chuẩn của ngành. Quan trọng hơn, mô hình cũng hoạt động tốt hơn trong các nhiệm vụ suy luận phức tạp, đòi hỏi cường độ tính toán cao.

Engram được kỳ vọng sẽ tiềm năng tương tự kỹ thuật “Mixture-of-Experts technique” mà DeepSeek phát triển trước đây – cho phép mở rộng quy mô mô hình mà không làm tăng chi phí tính toán. Sau đó, kỹ thuật này đã được nhiều doanh nghiệp AI Trung Quốc nhanh chóng học hỏi.

Hiện nay, những mô hình AI lớn nhất trong ngành đã đạt quy mô lên tới hàng nghìn tỷ tham số, khiến bài toán bộ nhớ và hiệu quả xử lý ngày càng trở nên cấp bách.

Bình luận về nghiên cứu này, kỹ sư nghiên cứu tại nền tảng mã nguồn mở Hugging Face Elie Bakouch đánh giá cao việc nhóm tác giả đã kiểm chứng kỹ thuật mới trên phần cứng thực tế, cả trong giai đoạn huấn luyện lẫn suy luận.

Bài báo có tổng cộng 14 đồng tác giả, trong đó đáng chú ý có Huishuai Zhang,  từng là nghiên cứu viên tại Microsoft Research Asia nay là trợ lý giáo sư khoa học máy tính tại Đại học Bắc Kinh. Tác giả chính là Cheng Xin, nghiên cứu sinh Đại học Bắc Kinh, người trước đây từng tham gia phát triển các mô hình V3 và R1 của DeepSeek.

-Hạ Chi

(Nguồn tin)

Chia sẻTweetChia sẻ

Đăng ký nhận cập nhật mới nhất về các bài viết cùng chủ đề.

Hủy đăng ký
Bài viết trước

LA Home kết nối thị trường miền Bắc, đón đầu hạ tầng khu Tây TP.HCM

Bài viết sau

Bellroy Launches Year of Horse Collection

Bài viết liên quan

Sản phẩm điện tử đầu tiên của OpenAI có khả năng là tai nghe được hỗ trợ ChatGPT
Chuyển đổi số

Sản phẩm điện tử đầu tiên của OpenAI có khả năng là tai nghe được hỗ trợ ChatGPT

14/01/2026
0
Hơn 50% cơ quan, doanh nghiệp Việt chịu thiệt hại do tấn công mạng năm 2025
Chuyển đổi số

Hơn 50% cơ quan, doanh nghiệp Việt chịu thiệt hại do tấn công mạng năm 2025

14/01/2026
0
Apple chính thức “vượt mặt” Samsung về thị phần sau 14 năm - Ảnh 1
Chuyển đổi số

Apple chính thức “vượt mặt” Samsung về thị phần sau 14 năm

13/01/2026
1
Bài viết sau
Bellroy Launches Year of Horse Collection

Bellroy Launches Year of Horse Collection

Để lại một bình luận Hủy

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Bài viết mới

  • Đóng loạt tài khoản “ngủ đông”, số dư dưới 20.000 đồng
  • BIDV SCFast 2026 – Giải pháp toàn diện hỗ trợ doanh nghiệp trong chuỗi cung ứng
  • Bellroy Launches Year of Horse Collection
  • Cha đẻ DeepSeek hé lộ phương pháp huấn luyện AI giảm phụ thuộc vào GPU
  • LA Home kết nối thị trường miền Bắc, đón đầu hạ tầng khu Tây TP.HCM

Bình luận gần đây

    Bài viết lưu trữ

    • Tháng Một 2026
    • Tháng mười hai 2025
    • Tháng mười một 2025
    • Tháng mười 2025
    • Tháng chín 2025
    • Tháng sáu 2025
    • Tháng năm 2025
    • Tháng tư 2025
    • Tháng ba 2025
    • Tháng hai 2025
    • Tháng Một 2025
    • Tháng mười hai 2024
    • Tháng mười một 2024
    • Tháng mười 2024
    • Tháng chín 2024
    • Tháng tám 2024
    • Tháng bảy 2024
    • Tháng sáu 2024
    • Tháng năm 2024
    • Tháng tư 2024
    • Tháng ba 2024
    • Tháng hai 2024
    • Tháng Một 2024
    • Tháng mười hai 2023
    • Tháng mười một 2023
    • Tháng mười 2023
    • Tháng chín 2023
    • Tháng tám 2023
    • Tháng bảy 2023
    • Tháng sáu 2023
    • Tháng năm 2023
    • Tháng tư 2023
    • Tháng ba 2023
    • Tháng hai 2023
    • Tháng Một 2023
    • Tháng mười hai 2022
    • Tháng chín 2022
    • Tháng bảy 2022
    • Tháng sáu 2022
    • Tháng năm 2022
    • Tháng tư 2022
    • Tháng ba 2022
    • Tháng hai 2022
    • Tháng mười hai 2021
    • Tháng mười một 2021
    • Tháng mười 2021
    • Vietnamleads
    • Liên hệ
    Email us: us@vietnamleads.com

    © 2021 | Vietnamleads

    Không có kết quả
    Xem tất cả kết quả
    • Thị trường
    • Doanh nghiệp
    • Đầu tư
    • Hạ tầng
    • Tài chính
      • Ngân hàng
      • Bảo hiểm
    • Chuyển đổi số
      • Số hóa
    • Chính sách
    • To Foreigner
      • Opportunities
      • Policy & Regulation
    • Đăng nhập

    © 2021 | Vietnamleads

    Chào mừng bạn trở lại!

    Đăng nhập với Facebook
    Đăng nhập với Google
    Hoặc

    Đăng nhập vào Tài khoản bên dưới

    Quên Mật khẩu?

    Lấy lại Mật khẩu

    Vui lòng nhập Tên đăng nhập hoặc Email để đặt lại Mật khẩu.

    Đăng nhập
    Trang web này sử dụng cookie. Bằng cách tiếp tục sử dụng trang web này, bạn đồng ý với việc sử dụng cookie.