1. Tin mới nhất

Giới hạn của Trí tuệ Nhân tạo: Quan điểm của Sentient về Ý thức AI

Mặc dù trí tuệ nhân tạo được kỳ vọng sẽ có tác động lớn đến xã hội, đồng sáng lập của Sentient lập luận rằng nó sẽ không bao giờ đạt được ý thức thực sự do thiếu tính cố ý cơ bản.

Sandeep Nailwal, đồng sáng lập của Polygon và công ty AI nguồn mở Sentient, khẳng định rằng trí tuệ nhân tạo sẽ không bao giờ trở thành một sinh vật có ý thức do thiếu ý định, một đặc điểm vốn có của con người và các thực thể sinh học khác.

Trong một cuộc phỏng vấn, Nailwal đã bày tỏ sự hoài nghi về việc AI đạt được các mức độ ý thức đáng kể, bác bỏ ý tưởng về việc AI trở nên tự nhận thức và đe dọa loài người như một kịch bản ngày tận thế không thể xảy ra.

Nailwal thách thức lý thuyết rằng ý thức phát sinh ngẫu nhiên từ các tương tác hóa học phức tạp, khẳng định rằng mặc dù các quá trình như vậy có thể tạo ra các tế bào phức tạp, chúng không đủ để tạo ra ý thức.

Anh ta bày tỏ lo ngại về việc các tổ chức tập trung có thể lạm dụng AI cho mục đích giám sát, ủng hộ sự minh bạch và dân chủ hóa AI để bảo vệ quyền tự do cá nhân. Tầm nhìn của Nailwal cho Sentient dựa trên niềm tin rằng một AI toàn cầu nên được quản lý bởi mọi con người để thúc đẩy một thế giới không biên giới.

"Đó là ý tưởng cốt lõi của tôi về cách tôi nghĩ ra ý tưởng về Sentient, rằng cuối cùng thì AI toàn cầu, có thể thực sự tạo ra một thế giới không biên giới, nên là một AI được kiểm soát bởi mọi con người."

Anh ta còn nhấn mạnh nhu cầu về các AI cá nhân hóa mà hoạt động vì lợi ích của cá nhân và trung thành với họ, như một phương tiện phòng thủ chống lại các AI khác có thể được triển khai bởi các thực thể quyền lực.

Supercomputer

Cách tiếp cận mô hình mở của Sentient đối với AI so với cách tiếp cận mờ ám của các nền tảng tập trung. Nguồn: Sentient Whitepaper

AI Phi tập trung như một Biện pháp Phòng ngừa Chống lại Các Thảm họa Tiềm ẩn

Trong một bài báo được công bố vào tháng 10 năm 2024 bởi công ty AI Anthropic, các kịch bản khác nhau mà AI có thể phá hoại loài người đã được trình bày cùng với các giải pháp được đề xuất.

Bài báo kết luận rằng mặc dù hiện tại AI không gây ra mối đe dọa trực tiếp cho loài người, rủi ro có thể gia tăng khi các mô hình AI tiến bộ.

Supercomputer

Các kịch bản phá hoại AI tiềm năng khác nhau được mô tả trong bài báo của Anthropic. Nguồn: Anthropic

David Holtzman, một chuyên gia tình báo quân sự trước đây và giám đốc chiến lược của giao thức bảo mật phi tập trung Naoris, đã nhấn mạnh rủi ro đáng kể mà AI gây ra cho quyền riêng tư trong tương lai gần.

Phù hợp với mối quan ngại của Nailwal, Holtzman cảnh báo rằng các tổ chức tập trung, bao gồm cả các cơ quan chính phủ, có thể lợi dụng AI cho mục đích giám sát, gợi ý rằng phi tập trung hóa có thể đóng vai trò như một biện pháp bảo vệ chống lại các mối đe dọa liên quan đến AI.

Theo Cointelegraph

Tin khác