Google bị chỉ trích vì thiếu minh bạch trong báo cáo an toàn AI Gemini 2.5 Pro

Phụ Lục

Theo trang TechCrunch, báo cáo kỹ thuật của Google về mô hình AI mới nhất – Gemini 2.5 Pro – đang vấp phải nhiều chỉ trích từ giới chuyên gia do thiếu vắng các thông tin an toàn quan trọng. Việc này khiến cho quá trình đánh giá các rủi ro tiềm tàng của mô hình trở nên khó khăn, đồng thời dấy lên lo ngại về cam kết minh bạch của Google trong quá trình phát triển AI.

gemini2
Google bị chỉ trích vì thiếu minh bạch trong báo cáo an toàn AI Gemini 2.5 Pro 2

⚠️ Thiếu thông tin về Khung An Toàn Frontier (Frontier Safety Framework)

Một trong những điểm đáng quan ngại nhất là báo cáo không đề cập đến “Frontier Safety Framework” (FSF) – bộ khung an toàn do chính Google giới thiệu năm 2024 nhằm xác định các rủi ro nghiêm trọng từ các mô hình AI thế hệ tiếp theo. FSF từng được cập nhật vào tháng 2/2025 để bổ sung các giao thức bảo mật mạnh hơn, chuẩn bị cho giai đoạn phát triển AGI (Trí tuệ nhân tạo tổng quát).

Tuy nhiên, trong báo cáo kỹ thuật phát hành sau khi Gemini 2.5 Pro ra mắt vài tuần, hoàn toàn không có nhắc đến FSF. Các chuyên gia về quản trị rủi ro cảnh báo rằng một khung an toàn hiệu quả cần có:

  • Quy trình xác thực độc lập
  • Tài liệu minh bạch
  • Cơ chế phản ứng rõ ràng khi rủi ro vượt ngưỡng

Thiếu các yếu tố này sẽ dẫn đến tình trạng thiếu liên kết, không rõ trách nhiệm, và mơ hồ trong việc ra quyết định — qua đó làm tăng khả năng các mô hình nguy hiểm được phát hành công khai mà không được kiểm soát đầy đủ.

Thực trạng này không chỉ xảy ra ở Google. Meta và OpenAI cũng đang có xu hướng công bố mô hình trước, rồi mới cập nhật dần các thông tin an toàn – một xu hướng bị xem là “triển khai trước, an toàn tính sau” trong ngành công nghệ AI.


📉 Minh bạch là cam kết… nhưng chưa được thực hiện

Việc phát hành Gemini 2.5 Pro mà không kèm theo tài liệu đánh giá an toàn khiến Google bị cho là vi phạm các cam kết công khai với chính phủ Mỹ và các tổ chức quốc tế.
Cụ thể:

  • Tại cuộc họp Nhà Trắng tháng 7/2023, Google từng hứa sẽ công bố báo cáo an toàn chi tiết cho mỗi lần ra mắt mô hình AI lớn.
  • Cam kết tương tự cũng được Google ký tại Hội nghị Thượng đỉnh An toàn AI ở Seoul, yêu cầu công khai việc triển khai các đánh giá an toàn.

Tuy vậy, Gemini 2.5 Pro ra mắt trước, báo cáo an toàn đến sau nhiều tuần. Đáng lo hơn, phiên bản Gemini 2.5 Flash vẫn chưa có bất kỳ tài liệu an toàn nào, dù đã được tung ra thị trường.

Thomas Woodside (Dự án Secure AI) nhận định: “Báo cáo cuối cùng về kiểm tra khả năng nguy hiểm mà Google công bố là vào tháng 6/2024 – cho một mô hình đã phát hành trước đó 4 tháng. Điều này cho thấy xu hướng ưu tiên triển khai hơn là minh bạch.”

Peter Wildeford (Viện Chính sách & Chiến lược AI) cũng chia sẻ:

“Chúng ta không thể xác minh liệu Google có thực hiện đúng các cam kết công khai hay không — cũng đồng nghĩa với việc không thể đánh giá độ an toàn thực sự của mô hình này.”


⏱️ Cuộc đua ra mắt AI: Nhanh hơn, rủi ro hơn?

Ngành AI đang dần rơi vào cuộc “chạy đua xuống đáy” (race to the bottom), khi các công ty đẩy nhanh việc phát hành mô hình mà cắt giảm nghiêm trọng quy trình đánh giá an toàn.
Ví dụ:

  • OpenAI đã rút ngắn thời gian kiểm tra an toàn cho mô hình sắp ra mắt “o3” chỉ còn vài ngày, thay vì hàng tháng như trước.
  • Google thì đưa Gemini 2.5 Pro ra thị trường với chiến lược giá cạnh tranh mạnh, làm dấy lên lo ngại về “chiến tranh giá AI” – nơi an toàn có thể bị đánh đổi.

Dù các công ty cho rằng họ đang tối ưu hóa hiệu quả đánh giá mô hình, giới chuyên gia vẫn hoài nghi về việc liệu các khung thời gian ngắn ngủi đó có thể thực sự phát hiện và kiểm soát những rủi ro phức tạp từ các mô hình ngày càng thông minh và đa năng.


🔍 Tạm kết

Gemini 2.5 Pro là một cột mốc quan trọng trong lộ trình phát triển AI của Google, nhưng cách thức triển khai của công ty đang đặt ra nhiều câu hỏi lớn:

  • Google có còn thực sự đặt an toàn và minh bạch lên hàng đầu?
  • Các mô hình AI ngày nay liệu có được kiểm soát đúng mức trước khi đến tay người dùng?

Khi các mô hình như Gemini đang ngày càng tiến gần đến khả năng lý luận phức tạp, việc đánh đổi an toàn để ra mắt sớm có thể là một canh bạc nguy hiểm không chỉ cho người dùng, mà cho cả tương lai ngành AI.


📌 Cần hỗ trợ AI?
Từ GPT, Gemini, Claude đến Grok,… – nếu bạn muốn AI trở thành trợ lý thực sự trong công việc, đừng ngại liên hệ.

💼 Ngoài ra, mình cũng cung cấp các phần mềm bản quyền giá tốt như:
ChatGPT Plus, Super Grok, Canva Pro, CapCut, Google Drive,… và nhiều công cụ khác.

📩 Inbox trực tiếp hoặc nhắn qua Facebook: Steven Dinh – Hoặc vào nhóm Chat Zalo để được hỗ trợ

🧠 Hỗ trợ đúng – dùng hiệu quả – tiết kiệm lâu dài.

Share

Tham gia cộng đồng nhóm Zalo giao lưu học hỏi, cũng như săn các deal tài khoản & phần mềm bản quyền giá rẻ.