G.I.C - GREEN INTERNATIONAL INFORMATION TECHNOLOGY SOLUTIONS COMPANY LIMITED
page-banner-shape-1
page-banner-shape-2

Làn sóng tẩy chay ChatGPT

  • Tháng 1 29, 2025

Theo Luật Trí tuệ nhân tạo có hiệu lực từ tháng 3, AI cần phân loại theo mức độ rủi ro, nhưng cũng được tạo điều kiện phát triển ở mức cao nhất về khoa học công nghệ.

Thông báo rõ ràng khi cung cấp ra công cộng văn bản, âm thanh, hình ảnh, video được tạo ra hoặc chỉnh sửa bằng trí tuệ nhân tạo". Tôi thắc mắc nếu dùng AI để tạo ra email, content thì có cần gắn nhãn do AI tạo ra không. Nếu văn bản là do tôi viết, và dùng AI để chỉnh sửa câu chữ thì có cần gắn nhãn AI không?
John Doe
Designer
blog_review
AI phải được phân loại mức độ rủi ro

 

Theo luật, hệ thống trí tuệ nhân tạo được phân loại theo ba mức rủi ro: cao, trung bình, thấp. Nhà cung cấp tự phân loại trước khi đưa vào sử dụng, dựa trên hướng dẫn kỹ thuật sẽ được ban hành. Trường hợp không xác định được mức độ, họ có thể đề nghị Bộ Khoa học và Công nghệ hỗ trợ.

Từ việc phân loại, luật cũng đưa ra các điều khoản để thúc đẩy phát triển và quản lý, đặc biệt với các hệ thống trí tuệ nhân tạo rủi ro cao. Nhà cung cấp cần có trách nhiệm thiết kế hệ thống bảo đảm khả năng giám sát và can thiệp của con người. Họ cũng cần lập, cập nhật và lưu giữ hồ sơ kỹ thuật và nhật ký hoạt động ở mức cần thiết cho việc đánh giá sự phù hợp và kiểm tra sau khi đưa vào sử dụng. Luật nhấn mạnh việc cung cấp thông tin "tương xứng với mục đích kiểm tra" và "không làm lộ bí mật kinh doanh".

Với người sử dụng, việc sử dụng AI rủi ro cao đi kèm trách nhiệm tuân thủ quy trình vận hành, hướng dẫn kỹ thuật và biện pháp bảo đảm an toàn, không can thiệp trái phép làm thay đổi tính năng của hệ thống.

Việc kiểm tra, giám sát sẽ được thực hiện theo mức rủi ro. AI rủi ro cao được kiểm tra định kỳ hoặc khi có dấu hiệu vi phạm; rủi ro trung bình được giám sát thông qua báo cáo, kiểm tra chọn mẫu hoặc đánh giá của tổ chức độc lập; trong khi đó AI có rủi ro thấp chỉ được theo dõi, kiểm tra khi có sự cố, phản ánh hoặc khi cần bảo đảm an toàn, để không làm phát sinh nghĩa vụ không cần thiết.

Đối với hệ thống AI đã được đưa vào hoạt động trước ngày luật này có hiệu lực, nhà cung cấp và bên triển khai sẽ thực hiện các nghĩa vụ tuân thủ trong vòng 18 tháng với lĩnh vực y tế, giáo dục, tài chính và trong 12 tháng với những lĩnh vực còn lại.

blog_sing01
blog_sing02

Nội dung AI phải có dấu hiệu nhận biết

Các hệ thống trí tuệ nhân tạo tương tác trực tiếp với con người phải được thiết kế và vận hành để người sử dụng nhận biết, trừ trường hợp pháp luật có quy định khác. Đây là một phần trong trách nhiệm minh bạch được đề cập trong luật mới.

Ngoài ra, nhà cung cấp cần bảo đảm nội dung âm thanh, hình ảnh, video do hệ thống AI tạo ra được đánh dấu ở định dạng máy đọc theo quy định của Chính phủ. Với bên triển khai, luật yêu cầu có trách nhiệm "thông báo rõ ràng khi cung cấp ra công cộng văn bản, âm thanh, hình ảnh, video được tạo ra hoặc chỉnh sửa bằng trí tuệ nhân tạo", nếu nội dung đó có khả năng gây nhầm lẫn về tính xác thực của sự kiện, nhân vật.

Với nội dung âm thanh, hình ảnh, video tạo hoặc chỉnh sửa bằng AI nhằm mô phỏng, giả lập ngoại hình, giọng nói của người thật hoặc tái hiện sự kiện thực tế, bên triển khai phải gắn nhãn dễ nhận biết nhằm phân biệt với nội dung thật. Đối với sản phẩm là tác phẩm điện ảnh, nghệ thuật hoặc sáng tạo, việc gắn nhãn quy định tại khoản này được thực hiện theo phương thức phù hợp, bảo đảm không làm cản trở việc hiển thị, trình diễn hoặc thưởng thức tác phẩm.

 

01

"Nhà cung cấp và bên triển khai có trách nhiệm duy trì thông tin minh bạch theo quy định tại Điều này trong suốt quá trình cung cấp hệ thống, sản phẩm hoặc nội dung cho người sử dụng", luật nêu.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *