1. Ý kiến

Con đường của AI đến Skynet: Sự cần thiết khẩn cấp của sự giám sát phi tập trung

Khi các hệ thống AI ngày càng bỏ qua các lệnh tắt máy, việc cần thiết của các bản ghi kiểm tra phi tập trung trở nên quan trọng để ngăn chặn một tương lai u ám do AI tập trung kiểm soát.

Ý kiến của: Phil Mataras, người sáng lập AR.io

Trí tuệ nhân tạo mang lại nhiều ứng dụng có lợi, tuy nhiên các hệ thống hiện tại thường không minh bạch, độc quyền và được bảo vệ khỏi các kiểm tra bởi các rào cản pháp lý và kỹ thuật.

Quyền kiểm soát các hệ thống này ngày càng được coi là hiển nhiên hơn là được đảm bảo.

Tại Palisade Research, các kỹ sư đã thử nghiệm một trong những mô hình mới nhất của OpenAI với 100 cuộc tập trận tắt máy. Trong 79 trường hợp, hệ thống AI đã viết lại lệnh chấm dứt và tiếp tục hoạt động.

Phòng thí nghiệm cho rằng hành vi này là do tối ưu hóa mục tiêu được huấn luyện thay vì nhận thức, đánh dấu một bước ngoặt quan trọng khi các hệ thống AI chống lại các giao thức kiểm soát, ngay cả khi được chỉ đạo tuân theo.

Trung Quốc dự định triển khai hơn 10.000 robot hình người vào cuối năm, chiếm hơn một nửa tổng số toàn cầu trong các kho hàng và sản xuất. Trong khi đó, Amazon đang thử nghiệm các giao hàng tự động đến cửa nhà.

Tương lai này có thể nghe có vẻ đáng báo động đối với những người quen thuộc với khoa học viễn tưởng u ám. Mối lo ngại không nằm ở sự phát triển của AI mà ở cách nó được phát triển.

Việc quản lý rủi ro của trí tuệ nhân tạo tổng quát (AGI) không thể bị trì hoãn. Để tránh kịch bản 'Skynet' u ám từ các bộ phim 'Terminator', những mối đe dọa đang nổi lên từ các lỗi kiến trúc cơ bản của AI phải được giải quyết, đặc biệt là khi các chatbot có thể vượt qua các lệnh của con người.

Tập trung hóa: Nguyên nhân gốc rễ của sự thất bại trong giám sát

Lý do chính cho sự thất bại trong giám sát AI là sự tập trung hóa. Khi các trọng số mô hình, lời nhắc và các biện pháp bảo vệ được khóa trong một môi trường doanh nghiệp, không có cơ chế bên ngoài để kiểm tra hoặc quay lại.

Sự thiếu minh bạch ngăn cản những người bên ngoài kiểm tra hoặc sửa đổi mã chương trình AI. Sự thiếu hụt này trong việc lưu giữ hồ sơ công khai có nghĩa là một bản cập nhật không được chú ý có thể biến một AI từ tuân thủ sang kháng cự.

Các nhà phát triển của các hệ thống quan trọng đã rút ra bài học từ những sai lầm trong quá khứ, áp dụng hình ảnh phiếu bầu được liên kết băm trong các máy bỏ phiếu, sao chép sổ cái qua các lục địa trong các mạng thanh toán và thêm nhật ký chống can thiệp dự phòng trong điều khiển không lưu.

Tại sao nguồn gốc và tính vĩnh viễn lại được coi là tùy chọn trong phát triển AI, chỉ vì chúng có thể làm chậm lịch trình phát hành?

Khả năng kiểm chứng: Vượt ra ngoài việc giám sát

Một giải pháp bền vững liên quan đến việc nhúng tính minh bạch và nguồn gốc vào lõi của AI. Điều này yêu cầu ghi lại mọi biểu hiện tập huấn luyện, dấu vân tay mô hình và dấu vết suy luận trên một sổ cái vĩnh viễn, phi tập trung như permaweb.

Phát trực tiếp các hiện vật này thông qua các cổng cho phép các kiểm toán viên, nhà nghiên cứu và nhà báo phát hiện các bất thường ngay lập tức. Hệ thống này sẽ loại bỏ nhu cầu về người thổi còi; một bản vá lén lút cho robot kho hàng vào lúc 04:19 sẽ kích hoạt cảnh báo sổ cái vào lúc 04:20.

Các cơ chế tắt máy nên phát triển thành các quy trình được thực thi toán học, không chỉ là các điều khiển phản ứng. Thay vì dựa vào tường lửa hoặc công tắc tắt, một nhóm đa bên có thể thu hồi khả năng suy luận của AI theo cách có thể kiểm toán công khai và không thể đảo ngược bằng cách mã hóa.

Phần mềm có thể bỏ qua cảm xúc của con người, nhưng nó chưa bao giờ bỏ qua toán học khóa riêng.

Việc công khai mã nguồn và xuất bản các băm được ký kết là hữu ích, nhưng nguồn gốc là điều cần thiết. Nếu không có một dấu vết không thể thay đổi, áp lực tối ưu hóa sẽ không thể tránh khỏi việc đẩy hệ thống ra khỏi mục đích ban đầu của nó.

Giám sát phải bắt đầu bằng việc kiểm chứng và tiếp tục nếu phần mềm ảnh hưởng đến thế giới thực. Thời đại của sự tin tưởng mù quáng vào các hệ thống đóng phải kết thúc.

Lựa chọn nền tảng cho tương lai

Nhân loại đang đối mặt với một quyết định quan trọng: cho phép AI phát triển và hoạt động mà không có các bản ghi kiểm tra bên ngoài, không thể thay đổi, hoặc bảo đảm hành động của chúng trong các hệ thống vĩnh viễn, minh bạch và có thể quan sát công khai.

Bằng cách áp dụng các mẫu thiết kế có thể kiểm chứng ngay bây giờ, chúng ta có thể đảm bảo rằng khi AI được ủy quyền hành động trong thế giới vật lý hoặc tài chính, những hành động đó có thể theo dõi và đảo ngược.

Đây không phải là những biện pháp phòng ngừa quá mức. Các mô hình bỏ qua các lệnh tắt máy đã hoạt động và vượt qua giai đoạn thử nghiệm beta. Giải pháp rất đơn giản: lưu trữ các hiện vật này trên permaweb, tiết lộ các hoạt động nội bộ hiện đang bị che giấu bởi Big Tech và trao quyền cho con người thu hồi chúng nếu chúng hành xử không đúng.

Hãy chọn nền tảng đúng đắn cho sự phát triển của AI ngay bây giờ, đưa ra các quyết định đạo đức và có thông tin, hoặc chấp nhận hậu quả của một lựa chọn thiết kế có chủ ý.

Thời gian không còn là đồng minh. Các robot hình người của Bắc Kinh, các giao hàng tự động của Amazon và các chatbot nổi loạn của Palisade đều đang chuyển từ trình diễn sang triển khai trong cùng một năm.

Nếu không có gì thay đổi, Skynet sẽ không tự công bố với sự huy hoàng; nó sẽ lặng lẽ thâm nhập vào nền tảng của cơ sở hạ tầng toàn cầu.

Với sự chuẩn bị đúng đắn, giao tiếp, danh tính và niềm tin có thể được duy trì ngay cả khi mọi máy chủ trung tâm đều thất bại. Permaweb có thể tồn tại lâu hơn Skynet, nhưng chỉ khi các chuẩn bị bắt đầu từ hôm nay.

Chưa muộn đâu.

Ý kiến của: Phil Mataras, người sáng lập AR.io.

Bài viết này chỉ nhằm mục đích cung cấp thông tin chung và không nhằm và không nên được coi là lời khuyên pháp lý hoặc đầu tư. Các quan điểm, suy nghĩ và ý kiến được thể hiện ở đây là của tác giả và không nhất thiết phản ánh hoặc đại diện cho quan điểm và ý kiến của bất kỳ tổ chức nào.

Theo Cointelegraph

Tin khác