
Đại biểu nói gì về kiểm soát rủi ro AI trong Luật Trí tuệ nhân tạo?
Làm rõ cơ chế kiểm soát sự cố
Ngày 21/11, tiếp tục Kỳ họp thứ 10, Quốc hội thảo luận tại tổ về dự án Luật Trí tuệ nhân tạo. Nhiều ý kiến tập trung vào phạm vi áp dụng của Luật, chính sách của Nhà nước, phân loại rủi ro, xử lý sự cố và yêu cầu về đạo đức, dữ liệu khi triển khai hệ thống AI.
Đại biểu Nguyễn Hữu Toàn (đoàn Lai Châu) bày tỏ sự quan tâm đến phạm vi không áp dụng của Luật. Theo dự thảo, Luật áp dụng đối với cơ quan, tổ chức, cá nhân Việt Nam và nước ngoài có hoạt động phát triển, cung cấp, sử dụng hệ thống AI tại Việt Nam. Tuy nhiên, dự thảo lại không áp dụng đối với hệ thống AI được phát triển, cung cấp, triển khai, sử dụng riêng cho mục đích quốc phòng, an ninh, tình báo, cơ yếu.

Đại biểu Nguyễn Hữu Toàn - đoàn Lai Châu. Ảnh: VPQH
Đại biểu cho rằng việc loại trừ này chỉ nên giới hạn trong nội bộ các hệ thống đó. Với các sản phẩm AI từ bên ngoài biên giới có tính chất tương tự, Việt Nam cần có cách ứng xử phù hợp trong môi trường mạng. Đại biểu kiến nghị việc nghiên cứu, phát triển, cung cấp, triển khai, sử dụng AI cho mục đích quốc phòng, an ninh, tình báo, cơ yếu nên giao Bộ Quốc phòng hoặc Bộ Công an hướng dẫn chứ không loại trừ hoàn toàn, để bảo đảm yêu cầu quốc phòng an ninh trong quá trình thực hiện.
Về quy định hệ thống AI phát triển cho phạm vi nội bộ cơ sở nghiên cứu, đại biểu Nguyễn Hữu Toàn lo ngại quy định này có thể khiến một số đơn vị lợi dụng để thực hiện hành vi vi phạm pháp luật trong nội bộ mà cơ quan quản lý không kiểm soát được, nhất là khi quy mô nội bộ có thể rất lớn. Đại biểu nhấn mạnh, nếu vi phạm pháp luật thì phải xử lý dù trong nội bộ và hoạt động nghiên cứu vẫn phải tuân thủ đầy đủ các điều kiện và quy định.
Đối với chính sách của Nhà nước về AI, đại biểu cơ bản đồng tình nhưng đề nghị làm rõ quy định Nhà nước bảo đảm quyền tiếp cận, học tập và thụ hưởng lợi ích từ AI của tổ chức, cá nhân. Đại biểu cho rằng Nhà nước tạo điều kiện là đúng, nhưng không có nhiệm vụ bảo đảm toàn bộ việc học tập, thụ hưởng lợi ích; người dùng phải tự đầu tư để phục vụ ứng dụng sản xuất, kinh doanh. Đại biểu cũng cho rằng không nên quy định về Ủy ban quốc gia về trí tuệ nhân tạo trong Luật mà nên để Chính phủ điều hành cho phù hợp thực tiễn.

Quang cảnh phiên thảo luận tổ. Ảnh: VPQH
Về phân loại rủi ro, đại biểu thống nhất với các mức độ rủi ro nhưng nhấn mạnh việc phân loại phải gắn với nhóm đối tượng sử dụng vì rủi ro trung bình của người lớn có thể là rủi ro cao đối với trẻ em. Bên cạnh đó, đại biểu cảnh báo nguy cơ lừa đảo lợi dụng công nghệ cao hoặc AI, chủ yếu nhắm vào người ít hiểu biết.
Đối với hệ thống AI rủi ro cao, đại biểu Nguyễn Hữu Toàn cho rằng việc chấp nhận đưa vào ứng dụng phải có ý kiến của cơ quan có thẩm quyền. Đại biểu đề nghị áp dụng công nghệ cao để kiểm soát liên tục, không chỉ theo định kỳ vì khi xảy ra sự cố sẽ rất khó xử lý. Về trách nhiệm xử lý sự cố, đại biểu không đồng tình khi dự thảo chỉ quy định trách nhiệm của nhà phát triển hoặc cung cấp khi sự cố AI ở mức nghiêm trọng. Đại biểu đặt vấn đề khi sự cố ở mức thấp hơn thì sao và đề nghị bổ sung quy định cảnh báo sớm vì tốc độ lan truyền của sự cố là rất nhanh.
Định nghĩa cụ thể các dạng sự cố AI
Đại biểu Nguyễn Thị Lan Anh (đoàn Lào Cai) nhất trí về sự cần thiết ban hành Luật trong bối cảnh Việt Nam là một trong số ít quốc gia có luật về trí tuệ nhân tạo ngoài EU, dẫn tới việc tham chiếu còn hạn chế. Đại biểu đề nghị Luật cần bảo đảm tính mở vì công nghệ thay đổi theo ngày, theo giờ tránh việc đóng khung gây cản trở đổi mới sáng tạo.
Đối với sự cố AI, đại biểu đề nghị làm rõ định nghĩa sự cố liên quan tới y tế, sức khỏe, an ninh; thang bậc sự cố; quy trình đánh giá và cơ chế thông báo. Đại biểu cho rằng cần có quy trình xử lý rõ ràng, xác định rõ chủ thể xử lý và thiết lập hệ thống giám sát cảnh báo sớm.

Đại biểu Nguyễn Thị Lan Anh - đoàn Lào Cai. Ảnh: VPQH
Đại biểu cũng kiến nghị phân loại và định nghĩa cụ thể các dạng sự cố AI; xây dựng hệ thống giám sát, cảnh báo; cụ thể hóa quy trình xử lý theo mức độ rủi ro và làm rõ trách nhiệm pháp lý cũng như cơ chế bồi thường của nhà phát triển mô hình, cơ quan quản lý và người dùng cuối. Đại biểu lưu ý sự cố có thể xuất phát từ việc nhà phát triển không bảo đảm dữ liệu hoặc để lộ lỗ hổng, tương tự các phần mềm khác.
Về rủi ro AI, đại biểu cảnh báo những nguy cơ không gắn với sản phẩm cụ thể nên người dùng không thể nhận biết. Ví dụ như bắt cóc online hay lừa đảo bằng hình ảnh người thân để yêu cầu chuyển tiền. Đây là rủi ro lớn cần được Luật quan tâm với các cảnh báo rõ ràng.
Một vấn đề quan trọng là dữ liệu. Đại biểu Nguyễn Thị Lan Anh cho rằng người dùng phải qua nhiều bước kiểm chứng khi sử dụng các công cụ AI. Đại biểu đồng ý với cơ quan thẩm tra về việc cần xây dựng cơ sở dữ liệu sạch, sống và đủ, có khả năng liên thông giữa các ngành để hỗ trợ xây dựng quy hoạch, chính sách. Các dữ liệu này phải được giám sát, cảnh báo.
Về đạo đức trong trí tuệ nhân tạo, đại biểu cho rằng các quy định tại Điều 27 và Điều 28 mới dừng ở nguyên tắc chung, chưa cụ thể về hành vi, đánh giá tác động hoặc cơ chế giải trình. Đại biểu đặt vấn đề với khu vực tư nhân hoặc các lĩnh vực có tác động rộng thì trách nhiệm đạo đức cần được tính như thế nào. Điều này đòi hỏi sự phân định rõ ràng giữa nguyên tắc đạo đức và nghĩa vụ pháp lý để bảo đảm tính khả thi. Đại biểu kiến nghị bổ sung nguyên tắc tôn trọng con người, công bằng, minh bạch, yêu cầu đánh giá tác động bắt buộc đối với hệ thống AI rủi ro cao và mở rộng trách nhiệm đạo đức sang khu vực tư nhân.
Đại biểu Đỗ Đức Hiển - đoàn TP. Hồ Chí Minh đề nghị rà soát kỹ lưỡng dự thảo Luật để bảo đảm tính thống nhất với các luật khác có liên quan như Bộ luật Dân sự (về trách nhiệm bồi thường), Luật Chất lượng sản phẩm, hàng hóa, Luật Tiêu chuẩn, quy chuẩn kỹ thuật và Luật Ngân sách Nhà nước.
Đại biểu Đỗ Đức Hiển cũng đề nghị cân nhắc không quy định lại những nội dung đã có trong các luật chung khác mà không có sự khác biệt đối với AI, nhằm tránh trùng lặp. Đơn cử, đối với nội dung về thu hút đầu tư vào các dự án phát triển AI nên đưa vào Luật Đầu tư thay vì quy định riêng trong dự thảo Luật Trí tuệ nhân tạo.
Dự thảo Luật quy định về việc thành lập Ủy ban Quốc gia về trí tuệ nhân tạo là cơ quan liên ngành chỉ đạo, điều phối chiến lược. Quan tâm đến nội dung này, đại biểu Đỗ Đức Hiển chỉ ra sự chưa thống nhất giữa chức năng của Ủy ban trong dự thảo Luật (về quản lý, điều hành) với sáng kiến số 26 của Ban Chỉ đạo Trung ương yêu cầu hình thành trung tâm đầu não về nghiên cứu, đào tạo và thử nghiệm AI. Đại biểu đề nghị, cần làm rõ cơ cấu tổ chức, chức năng, nhiệm vụ cụ thể của Ủy ban.
Luật Trí tuệ nhân tạo gồm 8 Chương với 36 điều nhằm thể chế hóa chủ trương của Đảng và Nhà nước, tạo hành lang pháp lý đột phá cho trí tuệ nhân tạo; kiến tạo môi trường pháp lý thuận lợi để thúc đẩy đổi mới sáng tạo, nâng cao năng lực cạnh tranh quốc gia; đồng thời quản lý rủi ro, bảo vệ lợi ích quốc gia, quyền con người và chủ quyền số.

