Quốc hội vừa thông qua Luật Trí tuệ nhân tạo (AI), đánh dấu bước tiến quan trọng trong việc xây dựng hành lang pháp lý cho hoạt động nghiên cứu, phát triển, ứng dụng và quản lý AI tại Việt Nam.
Luật AI tạo gồm 8 chương, 35 điều, điều chỉnh toàn diện các loại hệ thống AI, từ khâu nghiên cứu, phát triển, cung cấp dịch vụ đến triển khai và sử dụng. Luật sẽ có hiệu lực từ ngày 1-3-2026.
Luật AI đặt nền móng cho một khung pháp lý đầy đủ nhằm thúc đẩy đổi mới sáng tạo nhưng vẫn bảo đảm an toàn, quyền lợi người dân và lợi ích xã hội. Trong đó, nhiều quy định nổi bật được chú ý như: Buộc gắn nhãn, cảnh báo đối với nội dung do AI tạo ra, xác định rõ các hành vi bị nghiêm cấm, phân loại hệ thống AI theo mức rủi ro, xử lý trách nhiệm và bồi thường thiệt hại.
Các hành vi bị nghiêm cấm trong hoạt động trí tuệ nhân tạo
Điều 7 Luật AI quy định các hành vi bị cấm nhằm bảo vệ an ninh, quyền con người và lợi ích chung. Cụ thể:
Thứ nhất, nghiêm cấm lợi dụng, chiếm đoạt hệ thống AI để thực hiện hành vi vi phạm pháp luật, xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.
Thứ hai, phát triển, cung cấp, triển khai hoặc sử dụng các hệ thống AI nhằm mục đích thực hiện các hành vi bị nghiêm cấm theo quy định của luật; sử dụng yếu tố giả mạo hoặc mô phỏng người, sự kiện thật để lừa dối hoặc thao túng nhận thức, hành vi của con người một cách có chủ đích và có hệ thống, gây tổn hại nghiêm trọng đến quyền, lợi ích hợp pháp của con người;
Lấy con người làm trung tâm
Theo khoản 1 Điều 4 Luật AI, AI phải lấy con người làm trung tâm; bảo đảm quyền con người, quyền riêng tư, lợi ích quốc gia, lợi ích công cộng và an ninh quốc gia; tuân thủ Hiến pháp và pháp luật.
Lợi dụng điểm yếu của nhóm người dễ bị tổn thương, gồm trẻ em, người cao tuổi, người khuyết tật, người dân tộc thiểu số hoặc người mất năng lực hành vi dân sự, người bị hạn chế năng lực hành vi dân sự, người có khó khăn trong nhận thức, làm chủ hành vi, để gây tổn hại cho chính họ hoặc người khác; Tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội.
Thứ ba, thu thập, xử lý hoặc sử dụng dữ liệu để phát triển, huấn luyện, kiểm thử hoặc vận hành hệ thống AI với quy định của pháp luật về dữ liệu, bảo vệ dữ liệu cá nhân, sở hữu trí tuệ và an ninh mạng.
Thứ tư, cản trở, vô hiệu hóa hoặc làm sai lệch cơ chế giám sát, can thiệp và kiểm soát của con người đối với hệ thống AI theo quy định của Luật này.
Thứ năm, che giấu thông tin bắt buộc phải công khai, minh bạch hoặc giải trình; tẩy xóa, làm sai lệch các thông tin, nhãn, cảnh báo bắt buộc trong hoạt động AI.
Thứ sáu, lợi dụng hoạt động nghiên cứu, thử nghiệm, đánh giá hoặc kiểm định hệ thống AI để thực hiện hành vi trái quy định của luật.
Bắt buộc gắn dấu hiệu nhận biết
Về trách nhiệm minh bạch, Điều 11 Luật AI nêu rõ bên triển khai có trách nhiệm bảo đảm âm thanh, hình ảnh, video được tạo ra hoặc chỉnh sửa bằng hệ thống AI nhằm mô phỏng, giả lập ngoại hình, giọng nói của người thật hoặc tái hiện sự kiện thực tế phải được gắn nhãn dễ nhận biết để phân biệt với nội dung thật.
Đối với sản phẩm là tác phẩm điện ảnh, nghệ thuật hoặc sáng tạo, việc gắn nhãn quy định tại khoản này được thực hiện theo phương thức phù hợp, bảo đảm không làm cản trở việc hiển thị, trình diễn hoặc thưởng thức tác phẩm.

3 mức độ rủi ro của hệ thống AI
Theo Điều 9, hệ thống AI được phân loại theo ba mức rủi ro (thấp, trung bình và cao) nhằm áp dụng nghĩa vụ quản lý tương ứng.
– AI rủi ro thấp là những hệ thống không thuộc hai loại trên, thường là công cụ hỗ trợ đơn giản hoặc có phạm vi tác động nhỏ.
– AI rủi ro trung bình là các hệ thống có khả năng gây nhầm lẫn hoặc thao túng người sử dụng, đặc biệt khi người dùng không nhận biết được rằng họ đang tương tác với AI. Các ứng dụng có nguy cơ tác động đến hành vi hoặc nhận thức nằm trong nhóm này.
– AI rủi ro cao là các hệ thống có khả năng gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền con người, an ninh quốc gia hoặc lợi ích công cộng. Đây là nhóm phải chịu cơ chế giám sát và đánh giá nghiêm ngặt nhất.
Tiêu chí phân loại dựa trên mức độ ảnh hưởng đến quyền con người, an toàn, an ninh, lĩnh vực sử dụng và quy mô tác động. Chính phủ sẽ hướng dẫn chi tiết cách phân loại và xây dựng danh mục hệ thống cụ thể.
Bồi thường thiệt hại dù không có lỗi
Theo Điều 29 Luật AI, về xử lý vi phạm và trách nhiệm bồi thường thiệt hại được nêu rõ như sau:
Tổ chức, cá nhân có hành vi vi phạm quy định của Luật này và quy định khác của pháp luật có liên quan đến AI thì tùy theo tính chất, mức độ, hậu quả của hành vi vi phạm thì bị xử phạt vi phạm hành chính hoặc bị truy cứu trách nhiệm hình sự, nếu gây thiệt hại thì phải bồi thường theo quy định của pháp luật dân sự.
Trường hợp hệ thống AI có rủi ro cao được quản lý, vận hành và sử dụng đúng quy định nhưng vẫn phát sinh thiệt hại thì bên triển khai phải chịu trách nhiệm bồi thường cho người bị thiệt hại. Sau khi bồi thường, bên triển khai yêu cầu nhà cung cấp, nhà phát triển hoặc các bên liên quan hoàn trả khoản tiền bồi thường nếu có thỏa thuận giữa các bên.
Trách nhiệm bồi thường thiệt hại quy định tại khoản 2 Điều này được miễn trừ trong các trường hợp sau: Thiệt hại xảy ra hoàn toàn do lỗi cố ý của người bị thiệt hại; thiệt hại xảy ra trong trường hợp bất khả kháng hoặc tình thế cấp thiết, trừ trường hợp pháp luật có quy định khác.
Trường hợp hệ thống AI bị bên thứ ba xâm nhập, chiếm quyền điều khiển hoặc can thiệp trái pháp luật thì bên thứ ba phải chịu trách nhiệm bồi thường thiệt hại. Trường hợp bên triển khai, nhà cung cấp có lỗi trong việc để hệ thống bị xâm nhập, chiếm quyền điều khiển hoặc can thiệp trái pháp luật thì phải liên đới bồi thường thiệt hại theo quy định của pháp luật dân sự.
Chính phủ quy định chi tiết về xử phạt vi phạm hành chính đối với hành vi vi phạm do hệ thống AI gây ra.


