/ / Nhân loại đang đứng trước “Nguy cơ tuyệt chủng” từ AI—Làm thế nào để ngăn chặn nó?

Nhân loại đang đứng trước “Nguy cơ tuyệt chủng” từ AI—Làm thế nào để ngăn chặn nó?

ai robot with red eyes with other robots feature

Tuy nhiên, một lần nữa, một nhóm các nhà nghiên cứu AI hàng đầu và các công ty công nghệ đã cảnh báo rằng sự phát triển nhanh chóng của trí tuệ nhân tạo hiện nay có thể gây ra thảm họa cho loài người.


Các rủi ro bao gồm xung đột hạt nhân, bệnh tật, thông tin sai lệch và AI chạy trốn thiếu sự giám sát, tất cả đều là mối đe dọa trực tiếp đối với sự sống còn của con người.

Nhưng sẽ không mất mát khi nhiều cảnh báo trong số đó đến từ chính những người dẫn đầu sự phát triển AI và thúc đẩy các công cụ và chương trình trí tuệ nhân tạo tại các công ty tương ứng của họ.


Tại sao các công ty công nghệ và nhà khoa học AI cảnh báo về rủi ro AI?

Vào ngày 30 tháng 5 năm 2023, hơn 350 nhà nghiên cứu, nhà phát triển và kỹ sư AI đã đưa ra một tuyên bố đồng ký tên cảnh báo về mối đe dọa của AI đối với nhân loại.

Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.

Những người ký tuyên bố Safe.ai bao gồm Sam Altman của OpenAI, Demis Hassabis của Google DeepMind và Dario Amodei của Anthropic, cùng với những người đoạt giải Turing là Geoffrey Hinton và Yoshua Bengio (mặc dù Yann LeCun, người cũng giành được giải thưởng tương tự, đã không ký ). Danh sách này gần như là ai của thế giới phát triển AI — những người dẫn đầu với AI — nhưng tất cả họ đều ở đây, cảnh báo rằng AI có thể gây ra thảm họa cho loài người.

Đó là một tuyên bố ngắn làm rõ các mối đe dọa, đặc biệt trích dẫn hai lĩnh vực chính có thể gây nguy hiểm cho thế giới như chúng ta biết: chiến tranh hạt nhân và các vấn đề sức khỏe toàn cầu. Trong khi nguy cơ xung đột hạt nhân là một mối lo ngại, thì nguy cơ xảy ra đại dịch mới là mối đe dọa rõ ràng hơn đối với hầu hết mọi người.

Tuy nhiên, nó không chỉ là một đại dịch toàn cầu có thể gây ra các vấn đề sức khỏe liên quan đến AI. The Guardian báo cáo một số vấn đề về sức khỏe AI khác có thể ảnh hưởng đến con người nếu không được kiểm tra trước khi sử dụng rộng rãi. Một ví dụ liên quan đến việc sử dụng máy đo oxy do AI cung cấp đã “đánh giá quá cao nồng độ oxy trong máu ở những bệnh nhân có làn da sẫm màu, dẫn đến việc điều trị thiếu oxy cho họ.”

Hơn nữa, đây không phải là lần đầu tiên một nhóm các nhà lãnh đạo công nghệ kêu gọi tạm dừng hoặc đánh giá lại nghiêm túc việc phát triển AI. Vào tháng 3 năm 2023, Elon Musk và các nhà nghiên cứu AI khác đã ký một lời kêu gọi hành động tương tự yêu cầu tạm dừng phát triển AI cho đến khi có thể thực hiện nhiều quy định hơn để giúp hướng dẫn quy trình.

Rủi ro của AI là gì?

Hầu hết các rủi ro liên quan đến AI, ít nhất là trong bối cảnh này, liên quan đến sự phát triển của công nghệ AI chạy trốn vượt quá khả năng của con người, trong đó cuối cùng nó tấn công người tạo ra nó và xóa sổ sự sống như chúng ta biết. Đó là một câu chuyện được đề cập vô số lần trong các tác phẩm khoa học viễn tưởng, nhưng thực tế bây giờ gần hơn chúng ta nghĩ.

Các mô hình ngôn ngữ lớn (làm nền tảng cho các công cụ như ChatGPT) đang tăng mạnh về khả năng. Tuy nhiên, các công cụ như ChatGPT có nhiều vấn đề, chẳng hạn như thiên vị cố hữu, lo ngại về quyền riêng tư và ảo giác AI, chưa nói đến khả năng bẻ khóa để hành động bên ngoài ranh giới của các điều khoản và điều kiện được lập trình.

Khi các mô hình ngôn ngữ lớn tăng lên và có nhiều điểm dữ liệu hơn để gọi, cùng với khả năng truy cập internet và hiểu rõ hơn về các sự kiện hiện tại, các nhà nghiên cứu AI lo sợ một ngày nào đó, theo lời của Giám đốc điều hành OpenAI Sam Altman, “hoàn toàn sai lầm.”

Chính phủ đang điều chỉnh sự phát triển AI như thế nào để ngăn chặn rủi ro?

Quy định AI là chìa khóa để ngăn ngừa rủi ro. Vào đầu tháng 5 năm 2023, Sam Altman đã kêu gọi thêm quy định về AI, nói rằng “sự can thiệp theo quy định của chính phủ sẽ rất quan trọng để giảm thiểu rủi ro của các mô hình ngày càng mạnh mẽ.”

Sau đó, Liên minh Châu Âu đã công bố Đạo luật AI, một quy định được thiết kế để cung cấp một khuôn khổ mạnh mẽ hơn nhiều cho sự phát triển của AI trên toàn EU (với nhiều quy định áp dụng cho các khu vực pháp lý khác). Altman ban đầu đe dọa sẽ rút OpenAI ra khỏi EU, nhưng sau đó rút lại lời đe dọa và đồng ý rằng công ty sẽ tuân thủ quy định về AI mà ông đã yêu cầu trước đó.

Bất chấp điều đó, rõ ràng là quy định về phát triển và sử dụng AI là rất quan trọng.

AI sẽ kết thúc loài người?

Vì phần lớn cuộc tranh luận xung quanh chủ đề này được xây dựng dựa trên các giả thuyết về sức mạnh của các phiên bản AI trong tương lai, nên có những vấn đề xung quanh tuổi thọ và sức mạnh mà bất kỳ quy định nào về AI có thể có. Làm thế nào tốt nhất để điều chỉnh một ngành công nghiệp đã di chuyển với tốc độ hàng nghìn dặm một phút và những bước đột phá trong phát triển diễn ra hàng ngày?

Hơn nữa, vẫn còn một số nghi ngờ về khả năng của AI nói chung và nó sẽ kết thúc ở đâu. Trong khi những người lo sợ điểm tồi tệ nhất là trí thông minh nhân tạo nói chung sẽ trở thành chúa tể của con người, những người khác chỉ ra thực tế là các phiên bản AI hiện tại thậm chí không thể thực hiện các câu hỏi toán học cơ bản và những chiếc ô tô tự lái hoàn toàn vẫn còn là một lối thoát.

Thật khó để không đồng ý với những người nhìn về tương lai. Nhiều người trong số những người hét to nhất về các vấn đề mà AI có thể đặt ra đang ngồi ở ghế lái, nhìn xem chúng ta có thể đang hướng tới đâu. Nếu họ là những người yêu cầu quy định về AI để bảo vệ chúng ta khỏi một tương lai khủng khiếp có thể xảy ra, thì có lẽ đã đến lúc bạn nên lắng nghe.

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *