Đạo luật Trí tuệ nhân tạo đầu tiên trên thế giới

23/03/2024 | Xã hội số
Vào ngày 13-3-2024, Đạo luật Trí tuệ nhân tạo (AI Act) đầu tiên trên thế giới đã được thông qua bởi Nghị viện Liên minh châu Âu (EU). Đạo luật này đặt ra cả ranh giới “cứng” và cơ chế “mềm” mà Việt Nam có thể tham khảo để xây dựng chính sách đối với công nghệ AI.
  • Đạo luật Trí tuệ nhân tạo đầu tiên trên thế giới đã được thông qua bởi Nghị viện Liên minh châu Âu (EU) vào ngày 13-3-2024.

  • Đạo luật đặt ra một ranh giới giữa sự phát triển AI với sự phát triển của con người.

  • Từ đây, kinh nghiệm rút ra được cho Việt Nam là việc điều chỉnh chiến lược, hoạch định chính sách, xây dựng các giải pháp cần cụ thể và kịp thời.


Đạo luật Trí tuệ nhân tạo đầu tiên trên thế giới

Chia sẻ

AI Act – một đạo luật, hai mục tiêu và ba điểm đáng chú ý
AI Act đã được thông qua trong bối cảnh thế giới đang không ngừng tranh luận về vai trò cũng như tác động thực sự của AI và cách thức phù hợp để quản lý công nghệ này.
AI Act dường như chứa đựng nhiều kỳ vọng của các nhà hoạch định chính sách EU – khu vực vẫn luôn tiên phong trong việc xác lập các tiêu chuẩn pháp lý mới đối với công nghệ số. Đạo luật được thông qua gồm 113 điều, dài 459 trang (kể cả giới thiệu, phụ lục), nhằm giải quyết đồng thời hai mục tiêu: (1) đảm bảo an toàn cho con người bao gồm bảo vệ các quyền cơ bản của công dân, giá trị dân chủ và pháp quyền cùng sự bền vững của môi trường trước các thách thức do AI tạo ra, và (2) thúc đẩy đổi mới sáng tạo, đưa EU trở thành khu vực dẫn đầu trong lĩnh vực này.
Để thực hiện mục tiêu kép này, các nhà lập pháp EU đã thiết kế cơ chế quản lý AI dựa trên đánh giá mức độ rủi ro của công nghệ này đối với con người. Trong đó, có ba điểm đáng chú ý.
Thứ nhất, AI Act đặt ra ranh giới “cứng” cho sự phát triển của AI trong mối liên hệ với sự phát triển của loài người. Sự tồn tại, sự tự do, an toàn và phẩm giá của con người là đối tượng được bảo vệ cao nhất. Do đó, các ứng dụng AI xâm phạm đến các giá trị này đều bị cấm tại EU, ngoại trừ một số trường hợp đặc biệt đi kèm với các yêu cầu nghiêm ngặt. Các nhà lập pháp không quan tâm công nghệ AI đó được gọi tên là gì hay được phát triển dựa trên thuật toán như thế nào mà nhấn mạnh vào mục đích của công nghệ đó được ứng dụng trong đời sống.
Chẳng hạn, các ứng dụng AI bị cấm dùng để nhận diện cảm xúc ở nơi làm việc và trường học, chấm điểm xã hội, tạo dựng hoặc mở rộng cơ sở dữ liệu nhận diện gương mặt, hoặc nhằm khai thác điểm yếu của con người (như tuổi tác, tình trạng kinh tế, địa vị xã hội, tình trạng khuyết tật) để thao túng hành vi của họ, hoặc sử dụng hệ thống phân loại sinh trắc học để suy đoán về chủng tộc, quan điểm chính trị, tôn giáo, xu hướng tính dục của con người.
Ngoại lệ, các cơ quan thực thi pháp luật được sử dụng hệ thống nhận dạng sinh trắc học theo thời gian thực ở khu vực công cộng với ba điều kiện:
(1) tình huống xảy ra thuộc các trường hợp cụ thể đã được quy định trong đạo luật chẳng hạn như tìm kiếm có chủ đích nạn nhân của vụ mua bán người, người mất tích hoặc ngăn chặn một cuộc tấn công khủng bố.
(2) phải cân nhắc giữa bản chất của tình huống với hậu quả xảy ra nếu sử dụng hoặc không sử dụng hệ thống nhận dạng sinh trắc học và đảm bảo biện pháp an toàn cần thiết theo pháp luật quốc gia nếu sử dụng.
(3) phải được chấp thuận từ cơ quan tư pháp hoặc cơ quan hành chính độc lập trước khi sử dụng, trong trường hợp khẩn cấp cơ quan thực thi pháp luật có thể sử dụng hệ thống trước và xin chấp thuận trong vòng 24 giờ sau đó, nếu không được sự chấp thuận, mọi dữ liệu phải được xóa ngay lập tức.
Ngoài ra, đối với các ứng dụng AI khác, không thuộc loại bị cấm, AI Act đặt ra hàng loạt nghĩa vụ mới yêu cầu sự minh bạch và kiểm soát rủi ro từ các nhà phát triển, ứng dụng AI. Chẳng hạn, ứng dụng AI vào quản lý và vận hành các hệ thống cơ sở hạ tầng quan trọng, đường xá, cung cấp dịch vụ thiết yếu (điện, nước, khí đốt) thuộc loại gây ra rủi ro cao, phải có sự giám sát của con người.
Các hệ thống AI mục đích chung (General-Purpose AI) như ứng dụng Chat GPT phải tuân thủ quy định về bản quyền và công khai dữ liệu đào tạo. Các mô hình AI mục đích chung có khả năng gây ra rủi ro hệ thống cần đáp ứng một số yêu cầu bổ sung như đánh giá mô hình, đánh giá rủi ro hệ thống và báo cáo sự cố.
Thứ hai, AI Act cung cấp cơ chế “mềm” để hỗ trợ quá trình đổi mới, phát triển AI. Trước hết là cơ chế thử nghiệm, so với bản dự thảo năm 2021, các quy định về cơ chế thử nghiệm trong văn bản chính thức đã được bổ sung thêm bốn điều, nâng tổng số điều luật từ ba lên bảy điều và dung lượng của mỗi điều đều tăng lên đáng kể, nhằm tạo ra môi trường pháp lý an toàn, ổn định cho các nhà phát triển, ứng dụng AI.
Cơ chế thử nghiệm AI được chia thành hai loại: (1) cơ chế quản lý thử nghiệm (regulatory sandbox) cho phép các nhà phát triển AI đào tạo, thử nghiệm AI trong khoảng thời gian, không gian nhất định dưới sự kiểm soát của cơ quan nhà nước có thẩm quyền, trước khi đưa sản phẩm, dịch vụ ra thị trường và (2) cơ chế thử nghiệm AI có rủi ro cao trong thực tế (real-world testing outside sandbox) cho phép các nhà cung cấp thử nghiệm AI bất cứ khi nào trước khi đưa dịch vụ, sản phẩm vào thị trường với điều kiện được sự chấp thuận và chịu giám sát từ cơ quan giám sát thị trường.
Bên cạnh đó, các nhà lập pháp EU khuyến khích các nhà phát triển AI, các tổ chức hiệp hội nghề nghiệp, tổ chức xã hội, khu vực nghiên cứu hàn lâm tham gia phát triển các bộ quy tắc ứng xử (codes of conduct) đối với AI không thuộc loại rủi ro cao. Đồng thời, Ủy ban EU sẽ xây dựng hướng dẫn thực thi AI Act, trong đó chú ý đặc biệt đến nhu cầu của các doanh nghiệp nhỏ và vừa, doanh nghiệp khởi nghiệp.
Thứ ba, AI Act là cơ sở pháp lý hình thành các tổ chức đảm bảo hoặc hỗ trợ thực thi đạo luật. Ở cấp độ khu vực, EU thành lập bốn tổ chức: Ủy ban Trí tuệ nhân tạo (Artificial Intelligence Board) để giám sát thực thi AI Act, Văn phòng AI (AI Office) để phụ trách phát triển chuyên môn trong lĩnh vực AI, Diễn đàn tư vấn (Advisory Forum) gồm các bên liên quan (doanh nghiệp, tổ chức xã hội và khối nghiên cứu hàn lâm) để cung cấp chuyên môn kỹ thuật và tư vấn cho Hội đồng và Ủy ban EU, và hội đồng khoa học gồm các chuyên gia độc lập (Scientific Panel) nhằm hỗ trợ các hoạt động thực thi đạo luật.
Ở cấp độ quốc gia, mỗi quốc gia thành viên EU phải thành lập hoặc chỉ định hai cơ quan: cơ quan giám sát thị trường (market surveillance authority) để đảm bảo các dịch vụ, sản phẩm AI được đưa vào sử dụng phải tuân thủ quy định pháp luật và cơ quan thông báo (notifying authority) để đánh giá, chỉ định, thông báo và giám sát hoạt động của các tổ chức đánh giá sự phù hợp.
Kinh nghiệm cho Việt Nam
Trong gần 30 năm qua, từ khi Việt Nam chính thức kết nối Internet vào năm 1997, công nghệ số đã thâm nhập, tạo ra thay đổi trong các quan hệ xã hội được pháp luật điều chỉnh.
Phải đến khoảng năm 2020 trở đi, Việt Nam mới sửa đổi, ban hành hàng loạt văn bản pháp luật như Luật Điện ảnh 2022, Luật Sở hữu trí tuệ (sửa đổi) 2022, Luật Viễn thông 2023, Luật Giao dịch điện tử 2023, Nghị định 85/2021/NĐ-CP sửa đổi, bổ sung Nghị định 52/2013/NĐ-CP về thương mại điện tử, Nghị định 13/2023/NĐ-CP về bảo vệ dữ liệu cá nhân và dự kiến tiếp tục sửa đổi, ban hành các văn bản mới như Luật Quảng cáo (sửa đổi) 2024, Nghị định thay thế Nghị định 72/2013/NĐ-CP về quản lý, cung cấp, sử dụng dịch vụ Internet và thông tin trên mạng, Luật Bảo vệ dữ liệu cá nhân, để giải quyết các thay đổi trong quan hệ pháp luật do sự xuất hiện của công nghệ số.
Nếu tiếp tục duy trì độ trễ của chính sách pháp luật rơi vào khoảng 20 năm so với sự ra đời, phát triển của công nghệ, thì đến khoảng những năm 2030-2040, Việt Nam mới tính đến việc cập nhật chính sách pháp luật do thay đổi của AI. Khi đó, liệu chính sách có còn phát huy được vai trò kiến tạo phát triển và quản trị rủi ro?
Trong tương quan giữa tốc độ phát triển của AI và mức độ sẵn sàng của con người, các nhà hoạch định chính sách Việt Nam nên cân nhắc điều chỉnh chiến lược quốc gia về AI năm 2021, xây dựng các giải pháp cụ thể để tận dụng sự phát triển AI cho kinh tế và quản lý rủi ro của AI đối với xã hội. Trong đó, cơ chế “mềm” như cơ chế quản lý thử nghiệm (regulatory sandbox), cơ chế thử nghiệm sản phẩm và các bộ quy tắc ứng xử, hướng dẫn phát triển AI an toàn cần được xem xét áp dụng.
Trong các hướng dẫn phát triển AI an toàn, có thể đưa ra các khuyến nghị không ứng dụng AI cho một số mục đích cụ thể nhất định, tương tự ranh giới “cứng” của AI Act, do ứng dụng đó sẽ dẫn đến vi phạm các quy định về pháp luật hình sự, dân sự, hành chính hiện hành.
Các chuyển động về công nghệ AI đang tạo ra một tương lai không chắc chắn đối với mỗi người. Vì vậy, sự tham gia điều tiết của nhà nước ở mức độ phù hợp, với định hướng chính sách rõ ràng sẽ đóng vai trò quan trọng trong việc định hình tương lai của quốc gia.

Author

Nguyễn Quang Đồng

Nguyễn Quang Đồng