/ / AI Sentient của Google có thật không?

AI Sentient của Google có thật không?

Các cuộc thảo luận xung quanh khả năng giám sát AI không có gì mới, nhưng tin tức về AI LaMDA của Google đã thổi bùng ngọn lửa. Sau khi một kỹ sư tuyên bố rằng con bot có ý thức, thậm chí có linh hồn, một số câu hỏi quen thuộc đã xuất hiện trở lại.

AI như LaMDA có thể thực sự có tri giác hay tự nhận thức được không, và nếu có, làm thế nào bạn có thể biết được? Có vấn đề gì không?

LaMDA là gì?

LaMDA, viết tắt của Mô hình ngôn ngữ cho các ứng dụng đối thoại, xuất hiện lần đầu tiên vào năm 2021 tại hội nghị nhà phát triển của Google. Hệ thống AI tiên tiến được cho là sẽ giúp xây dựng các chatbot khác, nhỏ hơn. Khi Google lần đầu tiên giới thiệu nó, họ đã công bố kế hoạch tích hợp nó vào mọi thứ, giúp các dịch vụ như Google Assistant và Tìm kiếm cảm thấy giống người hơn, hoặc ít nhất là tự nhiên.

LÀM VIDEO TRONG NGÀY

Khi kỹ sư Blake Lemoine của Google nói chuyện với LaMDA để xem liệu nó có sử dụng ngôn từ kích động thù địch hay không, anh ấy đã để lại một ấn tượng khác. Lemoine khẳng định LaMDA là có tri giác, và nếu anh không biết đó là một con bot, anh sẽ nghĩ đó là một đứa trẻ tám tuổi.

Sau cuộc trò chuyện với LaMDA, Lemoine cố gắng chứng minh nó có ý thức và bảo vệ những gì anh tin là quyền hợp pháp của nó. Đáp lại, Google đã đặt Lemoine nghỉ hành chính có lương vì vi phạm các thỏa thuận bảo mật.


LaMDA có thực sự là người có tâm không?

Vậy, LaMDA có thực sự có tri giác không? Hầu hết các chuyên gia đã cân nhắc về vấn đề này đều hoài nghi. LaMDA là một nền tảng trò chuyện AI tiên tiến cao phân tích hàng nghìn tỷ từ trên internet, vì vậy nó có kỹ năng nghe như người thật.

Đây không phải là lần đầu tiên một trong những AI của Google đánh lừa mọi người nghĩ rằng đó là con người. Vào năm 2018, Google đã trình diễn AI Duplex của mình bằng cách gọi một nhà hàng để đặt bàn. Không lúc nào nhân viên ở đầu dây bên kia có vẻ nghi ngờ họ đang nói chuyện với một người.

Tình cảm rất khó để xác định, mặc dù hầu hết mọi người nghi ngờ AI đã đạt đến điểm đó. Tuy nhiên, câu hỏi quan trọng có thể không phải là liệu LaMDA có thực sự có tri giác hay không mà nó tạo ra sự khác biệt gì nếu nó có thể đánh lừa mọi người nghĩ rằng nó là.

Tình hình LaMDA đặt ra rất nhiều câu hỏi về luật pháp và đạo đức. Đầu tiên, một số người có thể đặt câu hỏi liệu Google có đúng khi cho Lemoine nghỉ việc vì đã lên tiếng về việc này hay không.

Theo Mục 740 của Luật Lao động của New York, các biện pháp bảo vệ người tố giác bảo vệ nhân viên khỏi những hậu quả như vậy nếu họ tin rằng các hành vi của chủ lao động vi phạm pháp luật hoặc gây ra rủi ro đáng kể cho an toàn công cộng. Đối tượng được cho là của LaMDA không hoàn toàn đáp ứng yêu cầu pháp lý đó, nhưng có nên không?

Trao quyền cho AI là một chủ đề khó. Mặc dù AI có thể tạo ra mọi thứ và có vẻ như con người, nhưng bạn có thể gặp phải một số tình huống phức tạp nếu những cỗ máy này có sự bảo vệ của pháp luật. Quyền hợp pháp hoạt động xung quanh các phần thưởng và hình phạt không ảnh hưởng đến AI, làm phức tạp công lý.

Nếu một chiếc xe tự lái đâm vào người đi bộ, AI có phạm tội không nếu luật pháp đối xử với nó như một con người? Và nếu vậy, nó không hoàn toàn mang lại công lý cho nạn nhân vì bạn không thể trừng phạt AI về mặt kỹ thuật giống như cách bạn làm với con người.


Một câu hỏi khác đặt ra với LaMDA và các chatbot AI tương tự là tính bảo mật của chúng. Nếu những bot này có vẻ thật một cách thuyết phục, mọi người có thể tin tưởng chúng hơn và sẵn sàng cung cấp cho chúng những thông tin nhạy cảm hơn. Điều đó mở ra cánh cửa cho một loạt các mối quan tâm về quyền riêng tư và bảo mật nếu công nghệ này rơi vào tay kẻ xấu.

AI đưa ra các câu hỏi phức tạp về đạo đức

Các AI như LaMDA ngày càng tinh vi và sống động như thật. Khi xu hướng này phát triển, các công ty và nhà lập pháp nên đánh giá lại cách họ đối xử với AI và cách những quyết định này có thể ảnh hưởng đến công lý và an ninh.

Như hiện tại, LaMDA AI của Google có thể không có tri giác, nhưng nó đủ tốt để đánh lừa mọi người nghĩ rằng nó là như vậy, điều này sẽ gây ra một số cảnh báo.

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *