Đạo luật RISE của Lummis: Một bước đi kịp thời nhưng thiếu chi tiết
Đạo luật RISE do Thượng nghị sĩ Lummis đề xuất nhằm bảo vệ các nhà phát triển AI khỏi các vụ kiện dân sự, nhưng nó có thể đặt quá nhiều trách nhiệm lên các chuyên gia như bác sĩ và kỹ sư trong khi cung cấp quyền miễn trừ cho các nhà phát triển.
Luật trách nhiệm dân sự có thể không phải là chủ đề hấp dẫn nhất tại các bữa tiệc tối, nhưng ảnh hưởng của nó đối với sự phát triển của các công nghệ mới nổi như trí tuệ nhân tạo là rất sâu sắc.
Các quy tắc trách nhiệm được thiết kế không đúng cách có thể kìm hãm sự đổi mới bằng cách áp đặt rủi ro pháp lý không cần thiết lên các nhà phát triển AI. Đây là lập luận được đưa ra bởi Thượng nghị sĩ Mỹ Cynthia Lummis, người gần đây đã giới thiệu Đạo luật Đổi mới Có Trách Nhiệm và Chuyên Môn An Toàn (RISE) năm 2025.
Đạo luật RISE nhằm bảo vệ các nhà phát triển AI khỏi các vụ kiện dân sự, đảm bảo rằng các chuyên gia như bác sĩ, luật sư và kỹ sư có thể đánh giá khả năng và giới hạn của AI trước khi phụ thuộc vào nó.
Các phản hồi ban đầu về Đạo luật RISE chủ yếu là tích cực, mặc dù một số đã chỉ ra phạm vi hẹp của nó, thiếu minh bạch và sự bảo vệ mà nó cung cấp cho các nhà phát triển AI.
Nhiều người coi Đạo luật RISE như một dự thảo ban đầu hơn là một văn bản pháp luật đã hoàn thiện.
Đạo luật RISE có ưu ái các nhà phát triển AI không?
Hamid Ekbia, giáo sư tại Trường Maxwell về Công Dân và Các Vấn Đề Công Cộng của Đại học Syracuse, thừa nhận Đạo luật RISE là 'kịp thời và cần thiết.' Thượng nghị sĩ Lummis mô tả nó là cải cách trách nhiệm đầu tiên nhắm vào AI cấp chuyên nghiệp.
Tuy nhiên, Ekbia lập luận rằng Đạo luật nghiêng quá nhiều về phía các nhà phát triển AI. Nó yêu cầu minh bạch thông qua việc công khai thông số mô hình, nhưng lại đặt rủi ro đáng kể lên các chuyên gia và cấp quyền miễn trừ rộng rãi cho các nhà phát triển.
“Nó đặt gánh nặng rủi ro lớn nhất lên ‘các chuyên gia học thuật,’ yêu cầu các nhà phát triển chỉ cần ‘minh bạch’ dưới dạng thông số kỹ thuật — thẻ mô hình và thông số — và cung cấp cho họ quyền miễn trừ rộng rãi khác.”
Một số đã chỉ trích Đạo luật RISE là một 'món quà' cho các công ty AI, cho rằng nó sẽ ngăn các công ty AI bị kiện vì sự thất bại của các công cụ của họ. Tuy nhiên, không phải ai cũng đồng ý với cách nhìn nhận này.
Felix Shipkevich, luật sư chính tại Shipkevich Attorneys at Law, không đồng ý với nhãn 'món quà,' cho rằng điều khoản miễn trừ trong Đạo luật RISE nhằm bảo vệ các nhà phát triển khỏi trách nhiệm nghiêm ngặt đối với hành vi AI không thể đoán trước, đặc biệt khi không có sự cẩu thả hoặc ý định gây hại.
“Nếu không có một hình thức bảo vệ nào đó, các nhà phát triển có thể đối mặt với sự phơi bày không giới hạn đối với các đầu ra mà họ không có cách nào kiểm soát thực tế.”
Đạo luật đề xuất tập trung hẹp vào các tình huống mà các chuyên gia sử dụng các công cụ AI trong tương tác với khách hàng hoặc bệnh nhân, chẳng hạn như một cố vấn tài chính sử dụng AI cho các chiến lược đầu tư hoặc một bác sĩ chuyên khoa X-quang sử dụng AI để giải thích X-quang.
Đạo luật RISE không bao gồm các trường hợp không có trung gian chuyên nghiệp giữa nhà phát triển AI và người dùng cuối, chẳng hạn như khi chatbot phục vụ như người bạn đồng hành kỹ thuật số cho trẻ vị thành niên.
Một vụ kiện trách nhiệm dân sự gần đây ở Florida đã nêu bật vấn đề này, nơi một thiếu niên tự tử sau khi tương tác với một chatbot AI. Gia đình cho rằng phần mềm không được thiết kế an toàn cho trẻ vị thành niên, đặt câu hỏi về trách nhiệm trong những kết quả bi thảm như vậy.
Ryan Abbott, giáo sư luật và khoa học y tế tại Trường Luật Đại học Surrey, nhấn mạnh sự cần thiết của các tiêu chuẩn rõ ràng và thống nhất để đảm bảo tất cả các bên hiểu rõ nghĩa vụ pháp lý của họ trong cảnh quan AI.
Sự phức tạp và tự chủ của AI có thể dẫn đến các loại hại mới, đặc biệt trong lĩnh vực y tế, nơi sự tích hợp của AI đặt ra những thách thức độc đáo cho trách nhiệm dân sự.
Ví dụ, trong một số thực hành y tế, AI có thể vượt trội hơn bác sĩ, dẫn đến các tình huống mà sự giám sát của con người có thể dẫn đến kết quả tồi tệ hơn so với hệ thống AI hoàn toàn tự chủ.
Các câu hỏi về bồi thường và trách nhiệm phát sinh khi lỗi y tế xảy ra mà không có sự giám sát của con người, và liệu bảo hiểm sai sót y tế có bao phủ các tình huống như vậy hay không.
Dự án Tương Lai AI, một tổ chức nghiên cứu phi lợi nhuận, đã ủng hộ tạm thời dự luật nhưng chỉ trích các tiết lộ minh bạch yêu cầu từ các nhà phát triển AI là không đủ.
Daniel Kokotajlo, giám đốc điều hành, lập luận rằng công chúng xứng đáng biết các mục tiêu, giá trị, thiên kiến và hướng dẫn được cung cấp cho các hệ thống AI, điều mà dự luật hiện tại không yêu cầu.
Kokotajlo cũng chỉ ra rằng các công ty có thể lựa chọn chịu trách nhiệm thay vì minh bạch, có thể cho phép họ tránh sự giám sát của công chúng hoặc cơ quan quản lý.
Cách tiếp cận “Dựa trên Quyền” của EU
So với Đạo luật RISE, Đạo luật AI của EU năm 2023 áp dụng một cách tiếp cận khác đối với trách nhiệm AI. Lập trường của EU về trách nhiệm AI đã phát triển, với một chỉ thị ban đầu bị rút lại vào năm 2025 giữa những lo ngại về sự vận động của ngành công nghiệp.
Khung pháp lý của EU nói chung ưu tiên một cách tiếp cận dựa trên quyền con người, trao quyền cho cá nhân, đặc biệt là người dùng cuối như bệnh nhân và người tiêu dùng.
Ngược lại, cách tiếp cận dựa trên rủi ro của Đạo luật RISE tập trung vào các quy trình và công cụ như phát hiện và giảm thiểu thiên kiến, thay vì cấp quyền cụ thể cho các cá nhân bị ảnh hưởng.
Kokotajlo gợi ý rằng một cách tiếp cận dựa trên rủi ro phù hợp hơn cho Mỹ, nhấn mạnh vai trò của những người tạo ra và triển khai công nghệ.
Theo Shipkevich, EU áp dụng một lập trường chủ động hơn, yêu cầu các nhà phát triển AI chứng minh tuân thủ các tiêu chuẩn an toàn và minh bạch từ đầu.
Các Tiêu Chuẩn Rõ Ràng Là Cần Thiết
Đạo luật RISE có thể trải qua các sửa đổi trước khi trở thành luật, nếu điều đó xảy ra.
Shipkevich nhìn nhận Đạo luật RISE một cách tích cực như một điểm khởi đầu, gợi ý rằng các yêu cầu minh bạch và quản lý rủi ro bổ sung có thể dẫn đến một cách tiếp cận cân bằng hơn.
“Nếu dự luật này phát triển để bao gồm các yêu cầu minh bạch thực sự và nghĩa vụ quản lý rủi ro, nó có thể đặt nền móng cho một cách tiếp cận cân bằng.”
Justin Bullock, phó chủ tịch chính sách tại Americans for Responsible Innovation (ARI), thừa nhận các ý tưởng mạnh mẽ của Đạo luật RISE, chẳng hạn như hướng dẫn minh bạch liên bang và các quy tắc trách nhiệm hạn chế cho các chuyên gia sử dụng AI.
Bullock bày tỏ lo ngại về hiệu quả của các đánh giá minh bạch, gợi ý rằng việc công bố thẻ mô hình mà không có kiểm toán và đánh giá rủi ro mạnh mẽ từ bên thứ ba có thể tạo ra một cảm giác an toàn giả tạo.
“Việc công bố thẻ mô hình mà không có kiểm toán và đánh giá rủi ro mạnh mẽ từ bên thứ ba có thể tạo ra một cảm giác an toàn giả tạo.”
Nhìn chung, Đạo luật RISE được coi là một bước đi khởi đầu mang tính xây dựng trong việc thảo luận về các yêu cầu minh bạch AI liên bang.
Nếu được thông qua và ký thành luật, dự luật sẽ có hiệu lực từ ngày 1 tháng 12 năm 2025.
Theo Cointelegraph