Đại biểu Quốc hội: Nuôi dưỡng trí tuệ nhân tạo bằng những giá trị Việt Nam

Đại biểu quốc hội cho rằng, Luật Trí tuệ nhân tạo hôm nay không chỉ là một đạo luật công nghệ mà là một đạo luật của tương lai.

Cần thiết lập một khung pháp lý đủ mạnh

Chiều 27/11, tiếp tục Kỳ họp thứ 10, Quốc hội khóa XV, Quốc hội thảo luận ở hội trường về dự án Luật Trí tuệ nhân tạo.

Đại biểu Trần Văn Lâm - đoàn Bắc Ninh

Đại biểu Trần Văn Lâm - đoàn Bắc Ninh

Đại biểu Trần Văn Lâm - đoàn Bắc Ninh cho rằng, giờ đây trí tuệ nhân tạo (AI) với sức ảnh hưởng sâu rộng không kém bất kỳ phát minh nào trong lịch sử, đem lại năng suất vượt trội, hỗ trợ y tế - giáo dục, nâng cao năng lực dự báo và mở ra không gian đổi mới chưa từng thấy. Nhưng đồng thời cũng đặt ra những thách thức lớn đối với mọi quốc gia.

Theo ông Lâm có những rủi ro rất thực tế, hiện hữu như: AI đang bị lợi dụng để giả mạo, thao túng thông tin, lừa đảo và gây chia rẽ xã hội; thay thế lao động và làm gia tăng bất bình đẳng; làm biến dạng giá trị văn hóa và tri thức; đồng thời đe dọa an ninh, quốc phòng và cả chủ quyền số của quốc gia.

Điều đáng lo nhất, ông Lâm lo ngại không phải là những gì AI làm theo lệnh con người, mà là những gì AI có thể làm khi ở ngoài vòng kiểm soát của con người. Với viễn cảnh khoa học nếu một ngày AI hình thành mục tiêu riêng, tự diễn giải nhiệm vụ theo cách không phù hợp với lợi ích con người, hoặc thậm chí coi con người là “rủi ro”, điều gì sẽ xảy ra? Liệu có thể xuất hiện một hệ thống siêu trí tuệ xem con người chỉ là “biến số” trong thuật toán tối ưu của nó?

“Những câu chuyện viễn tưởng về AI thống trị con người không phải để hù dọa, mà để nhắc nhở chúng ta rằng mọi tiến bộ nhân tạo đều có thể phản bội mục tiêu ban đầu nếu không được thiết kế trên nền tảng giá trị đạo đức đúng đắn từ đầu. Và lịch sử đã chứng minh bất kỳ công nghệ nào, khi vượt khỏi tầm kiểm soát, đều có thể gây ra những hậu quả mà loài người phải trả giá đắt” - ông Lâm nói.

Những nguy cơ này cho thấy sự cấp thiết của việc thiết lập một khung pháp lý đủ mạnh để AI phát triển đúng hướng và an toàn cho xã hội. Vì thế, để Luật thực sự hoàn chỉnh và có tầm nhìn xa, ông Lâm đề xuất một bổ sung then chốt đó là hãy coi AI như một “con người mới sinh”.

"Nếu coi AI là một thực thể đang hình thành, thì trách nhiệm của chúng ta không chỉ là kiểm soát, mà còn là dạy AI ngay từ đầu giống như dạy một đứa trẻ về những giá trị làm người chuẩn mực. Đây nên phải là quy định bắt buộc trong Luật này, không chỉ khuyến cáo" - đại biểu đoàn Bắc Ninh nhấn mạnh. 

Từ đó, ông Lâm kiến nghị Quốc hội bổ sung nguyên tắc pháp lý trong Luật này là mọi phần mềm AI hoạt động tại Việt Nam dù do tổ chức trong hay ngoài nước phát triển, đều phải được trang bị một cơ sở dữ liệu nền tảng làm người chuẩn mực.

Cơ sở dữ liệu này phải chứa đựng đầy đủ thông tin để dạy AI hiểu về pháp luật Việt Nam; dạy AI chuẩn mực đạo đức, văn hóa, truyền thống tốt đẹp của dân tộc; dạy AI khả năng nhận diện đúng - sai, hợp chuẩn - trái chuẩn.

Các giới hạn hành vi không được vượt qua các quy tắc nhận diện rủi ro đối với con người. Quan trọng nhất, bảo đảm kho dữ liệu nền tảng này phải luôn chiếm vị trí ưu tiên tuyệt đối trong việc chi phối hành vi của AI; không được phép bị ghi đè, thay thế hoặc bị vô hiệu hóa bởi bất kỳ thuật toán hoặc dữ liệu huấn luyện nào khác. Đây chính là “vòng kim cô” pháp lý và kỹ thuật bảo đảm AI không đi chệch hướng.

2 yếu tố sống còn của môi trường trí tuệ nhân tạo

Đại biểu Nguyễn Hoàng Bảo Trân - đoàn TP Hồ Chí Minh cho rằng, điều 20 cần nhấn mạnh yêu cầu phát triển các nhóm công nghệ trí tuệ nhân tạo đặc thù của Việt Nam. Dự thảo đã gợi mở các nhóm công nghệ mang bản sắc Việt Nam như trí tuệ nhân tạo tiết kiệm tài nguyên, trí tuệ nhân tạo ngôn ngữ và tri thức Việt Nam.

Đại biểu Nguyễn Hoàng Bảo Trân - đoàn TP. Hồ Chí Minh

Đại biểu Nguyễn Hoàng Bảo Trân - đoàn TP. Hồ Chí Minh

“Tôi đề nghị giữ nguyên hướng này nhưng bổ sung tiêu chí lựa chọn các nhóm công nghệ ưu tiên mức độ phù hợp với điều kiện quốc gia, khả năng ứng dụng rộng rãi, và mức độ đóng góp vào chủ quyền số” - bà Trân nói.

Liên quan đến Điều 21 về chính sách phát triển hệ sinh thái và thị trường trí tuệ nhân tạo, bà Trân đề nghị một số điểm cần làm rõ ngay trong luật để bảo đảm tính hiệu lực khi áp dụng.

Cụ thể, Luật nên có cơ chế ưu đãi đặc thù cho lĩnh vực trí tuệ nhân tạo. Hiện dự thảo chỉ quy định chung rằng “được hưởng ưu đãi theo các luật liên quan”. Trí tuệ nhân tạo là lĩnh vực không giống khoa học công nghệ thông thường; chi phí điện toán, chi phí dữ liệu, chi phí huấn luyện mô hình đều rất lớn.

Vì vậy, kiến nghị quy định ngay trong luật 3 nhóm ưu đãi đặc thù: Hỗ trợ chi phí điện toán trong nước; hỗ trợ chi phí huấn luyện mô hình; ưu đãi thuế dựa trên mức độ làm chủ công nghệ.

Bà Trân cũng đánh giá, dự thảo có nêu việc phát triển sàn giao dịch công nghệ, nhưng chưa nêu chuẩn tối thiểu. Nếu sàn giao dịch không có bộ chuẩn mô tả công nghệ, không có cơ chế kiểm định thuật toán trước khi chào bán, sàn sẽ chỉ tồn tại về hình thức.

“Tôi đề nghị luật phải đặt ra các yêu cầu tối thiểu và giao Chính phủ hướng dẫn phần kỹ thuật triển khai. Về hạ tầng dữ liệu và môi trường thử nghiệm có kiểm soát, luật cần định hình rõ mô hình thử nghiệm quốc gia, bao gồm: Cơ quan cấp phép thử nghiệm, phạm vi thử nghiệm, cơ chế giám sát, thời hạn và giới hạn trách nhiệm pháp lý khi doanh nghiệp thực hiện thử nghiệm trong khuôn khổ được cho phép. Đây là nội dung quan trọng vì rủi ro trong thử nghiệm trí tuệ nhân tạo là rủi ro thật” - bà Trân kiến nghị.

Cho rằng tại Điều 21 đã khuyến khích doanh nghiệp khai thác dữ liệu từ cơ sở dữ liệu quốc gia về trí tuệ nhân tạo. Song, bà Trân đề nghị phải có các nguyên tắc quản lý dữ liệu rõ ràng: Danh mục dữ liệu được khai thác; quyền và nghĩa vụ của đơn vị truy cập; quy trình cấp quyền; cơ chế lưu vết hoạt động truy cập.

Điều này nhằm bảo đảm an toàn dữ liệu và trách nhiệm giải trình - 2 yếu tố sống còn của môi trường trí tuệ nhân tạo. Như vậy, Điều 21 cần được hoàn thiện để trở thành “trụ cột chính sách” chứ không phải điều khoản chung chung.

Đáng chú ý, liên quan đến cơ chế thử nghiệm có kiểm soát, bà Trân nhìn nhận cơ chế thử nghiệm có kiểm soát là công cụ pháp lý rất quan trọng cho đổi mới sáng tạo. Tuy nhiên, dự thảo hiện dừng lại ở mức quy định về nguyên tắc, chưa mô tả rõ mô hình vận hành.

Để cơ chế này hiệu quả, bà Trân kiến nghị phải xác định rõ phạm vi hoạt động được đưa vào thử nghiệm. Không phải mọi giải pháp trí tuệ nhân tạo đều cần đưa vào thử nghiệm. Chỉ nên áp dụng đối với các mô hình có nguy cơ cao, tác động lớn đến người dân và doanh nghiệp. Nếu không rõ phạm vi, cơ chế thử nghiệm sẽ bị quá tải và mất đi tính trọng tâm.

Cần quy định rõ trách nhiệm của doanh nghiệp khi xảy ra rủi ro trong quá trình thử nghiệm. Cơ chế thử nghiệm không phải là “miễn trừ trách nhiệm”. Luật phải khẳng định doanh nghiệp có trách nhiệm cung cấp đầy đủ thông tin, cảnh báo rủi ro, báo cáo định kỳ và xử lý hậu quả khi có sự cố.

Mặt khác, phải có thời hạn thử nghiệm cụ thể, tránh tình trạng thử nghiệm kéo dài rồi mặc nhiên trở thành hoạt động chính thức mà không được thẩm định. Luật nên quy định rõ cơ chế đánh giá kết thúc thử nghiệm, tiêu chí chuyển từ thử nghiệm sang chính thức và cơ quan có thẩm quyền quyết định. Việc làm rõ những nội dung này sẽ giúp cơ chế thử nghiệm trở thành động lực đổi mới sáng tạo thay vì tạo ra khoảng trống pháp lý.

Đại biểu Trần Văn Lâm - đoàn Bắc Ninh cho rằng, Luật Trí tuệ nhân tạo hôm nay không chỉ là một đạo luật công nghệ mà là một đạo luật của tương lai; một lời cam kết của Quốc hội trước nhân dân: Chúng ta phát triển công nghệ nhưng không đánh mất quyền kiểm soát; thúc đẩy đổi mới nhưng không để rủi ro vượt tầm và nuôi dưỡng trí tuệ nhân tạo bằng những giá trị Việt Nam để phục vụ con người Việt Nam. 

Quỳnh Nga
Bình luận

Có thể bạn quan tâm