4 cách chính phủ có thể điều chỉnh các công cụ AI
Ý tưởng rằng các công nghệ AI phải được quy định là một quan điểm phổ biến. Hầu hết các chính phủ, nhà phát triển sản phẩm AI và thậm chí cả người dùng thông thường của các sản phẩm AI đều đồng ý về điều này. Thật không may, cách tốt nhất để điều chỉnh lĩnh vực đang phát triển nhanh chóng này là một câu đố chưa có lời giải.
Nếu không được kiểm soát, các công nghệ AI có thể phá vỡ lối sống của chúng ta một cách tiêu cực và đe dọa sự tồn tại của chúng ta. Nhưng làm thế nào các chính phủ có thể vượt qua mê cung của những thách thức đi kèm với lĩnh vực đang phát triển nhanh chóng này?
Mục Lục
1. Quy định về quyền riêng tư và bảo vệ dữ liệu
Một trong những mối quan tâm chính với công nghệ AI là quyền riêng tư và bảo mật dữ liệu. Hệ thống trí tuệ nhân tạo là những cỗ máy đói dữ liệu. Họ cần dữ liệu để hoạt động, nhiều dữ liệu hơn để hoạt động hiệu quả và thậm chí nhiều dữ liệu hơn để cải thiện. Mặc dù đây không phải là vấn đề, nhưng cách dữ liệu này được lấy, bản chất của dữ liệu cũng như cách dữ liệu được xử lý và lưu trữ là một trong những điểm đáng nói nhất xung quanh các quy định về AI.
Xem xét điều này, con đường hợp lý cần thực hiện là đưa ra các quy định nghiêm ngặt về quyền riêng tư dữ liệu chi phối việc thu thập, lưu trữ và xử lý dữ liệu, cũng như quyền của các cá nhân—có dữ liệu đang được sử dụng—để truy cập và kiểm soát dữ liệu của họ. Các câu hỏi mà các quy định này có thể sẽ giải quyết là:
- Những loại dữ liệu có thể được thu thập?
- Một số dữ liệu riêng tư có nên được coi là điều cấm kỵ trong AI không?
- Các công ty AI nên xử lý dữ liệu cá nhân nhạy cảm như hồ sơ sức khỏe hoặc thông tin sinh trắc học như thế nào?
- Các công ty AI có nên được yêu cầu triển khai các cơ chế để các cá nhân yêu cầu xóa hoặc chỉnh sửa dữ liệu cá nhân của họ một cách dễ dàng không?
- Hậu quả đối với các công ty AI không tuân thủ các quy định về quyền riêng tư dữ liệu là gì? Làm thế nào để giám sát việc tuân thủ và làm thế nào để đảm bảo việc thực thi?
- Có lẽ quan trọng nhất, các công ty AI nên thực hiện tiêu chuẩn nào để đảm bảo an toàn cho tính chất nhạy cảm của thông tin mà họ sở hữu?
Những câu hỏi này và một số câu hỏi khác đã tạo nên mấu chốt giải thích tại sao ChatGPT tạm thời bị cấm ở Ý. Trừ khi những lo ngại này được giải quyết, không gian trí tuệ nhân tạo có thể là một miền tây hoang dã đối với quyền riêng tư dữ liệu và lệnh cấm của Ý có thể trở thành khuôn mẫu cho các lệnh cấm của các quốc gia khác trên toàn thế giới.
2. Phát triển Khung AI đạo đức
Các công ty AI thường khoe khoang về cam kết tuân thủ các nguyên tắc đạo đức trong việc phát triển các hệ thống AI. Ít nhất là trên giấy tờ, họ đều là những người ủng hộ việc phát triển AI có trách nhiệm. Trên các phương tiện truyền thông, các giám đốc điều hành của Google đã nhấn mạnh cách công ty coi trọng vấn đề an toàn và đạo đức của AI. Tương tự, “AI an toàn và có đạo đức” là câu thần chú của Giám đốc điều hành OpenAI, Sam Altman. Đây là khá hoan nghênh.
Nhưng ai là người đưa ra các quy tắc? Ai quyết định hướng dẫn đạo đức AI nào là đủ tốt? Ai quyết định sự phát triển AI an toàn sẽ như thế nào? Ngay bây giờ, mọi công ty AI dường như đều có xu hướng phát triển AI có trách nhiệm và đạo đức. OpenAI, Anthropic, Google, Meta, Microsoft, mọi người. Chỉ dựa vào các công ty AI để làm điều đúng đắn là nguy hiểm.
Hậu quả của một không gian AI không được kiểm soát có thể rất thảm khốc. Để các công ty riêng lẻ quyết định nên áp dụng nguyên tắc đạo đức nào và loại bỏ nguyên tắc đạo đức nào giống như việc chúng ta đang mộng du bước vào ngày tận thế của AI. Giải pháp? Một khuôn khổ đạo đức AI rõ ràng đảm bảo:
- Các hệ thống AI không gây bất lợi hoặc phân biệt đối xử một cách bất công đối với các cá nhân hoặc một số nhóm nhất định dựa trên chủng tộc, giới tính hoặc tình trạng kinh tế xã hội.
- Các hệ thống AI an toàn, bảo mật và đáng tin cậy, đồng thời giảm thiểu rủi ro về hậu quả không lường trước hoặc hành vi có hại.
- Các hệ thống AI được xây dựng có tính đến tác động xã hội rộng lớn hơn của các công nghệ AI.
- Rằng con người giữ quyền kiểm soát cuối cùng đối với các hệ thống AI và việc ra quyết định của họ một cách minh bạch.
- Các hệ thống AI được cố ý giới hạn theo những cách có lợi cho con người.
3. Cơ quan quản lý chuyên dụng
Do tác động tiềm tàng của nó đối với nền văn minh nhân loại, cuộc thảo luận về sự an toàn của AI thường diễn ra song song với nguy cơ khủng hoảng sức khỏe hoặc thảm họa hạt nhân. Để tránh các sự cố hạt nhân tiềm ẩn cần có một cơ quan chuyên trách như NRC (Ủy ban Điều tiết Hạt nhân) của Hoa Kỳ. Để tránh nguy cơ khủng hoảng sức khỏe nguy hiểm, cần phải thành lập FDA (Cục quản lý Thực phẩm và Dược phẩm)
Tương tự như vậy, để đảm bảo rằng mọi thứ không xảy ra sai sót trong không gian AI, một cơ quan chuyên trách như FDA và NRC là cần thiết khi AI tiếp tục xâm nhập mạnh mẽ vào mọi lĩnh vực trong cuộc sống của chúng ta. Thật không may, vấn đề quản lý AI trong nước là một vấn đề phức tạp. Công việc của bất kỳ cơ quan quản lý chuyên dụng nào có thể sẽ rất khó khăn nếu không có sự hợp tác xuyên biên giới. Giống như NRC (Ủy ban điều tiết hạt nhân) của Hoa Kỳ cần hợp tác chặt chẽ với Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) để hoạt động tốt nhất, bất kỳ cơ quan quản lý AI chuyên dụng nào trong nước cũng sẽ cần một cơ quan tương tự quốc tế.
Một cơ quan như vậy sẽ chịu trách nhiệm về những điều sau đây:
- Phát triển các quy định về AI
- Đảm bảo tuân thủ và thực thi
- Giám sát quá trình xem xét đạo đức của các dự án AI
- Hợp tác và hợp tác xuyên quốc gia về an toàn và đạo đức AI
4. Giải quyết các vấn đề về bản quyền và sở hữu trí tuệ
Luật bản quyền và khung pháp lý hiện tại sụp đổ khi đối mặt với Trí tuệ nhân tạo. Cách các công cụ AI, đặc biệt là các công cụ AI tổng quát, được thiết kế khiến chúng giống như một cỗ máy vi phạm bản quyền được chứng thực công khai mà bạn không thể làm gì được.
Làm sao? Chà, nhiều hệ thống AI ngày nay được đào tạo bằng các tài liệu có bản quyền. Bạn biết đấy, các bài viết có bản quyền, bài hát có bản quyền, hình ảnh có bản quyền, v.v. Đó là cách các công cụ như ChatGPT, Bing AI và Google Bard có thể làm được những điều tuyệt vời mà chúng có thể làm.
Mặc dù các hệ thống này rõ ràng đang tận dụng tài sản trí tuệ của con người, nhưng cách mà các hệ thống AI này thực hiện không khác gì con người đọc một cuốn sách có bản quyền, nghe các bài hát có bản quyền hoặc xem các hình ảnh có bản quyền.
Bạn có thể đọc một cuốn sách có bản quyền, tìm hiểu những sự thật mới từ nó và sử dụng những sự thật đó làm nền tảng cho cuốn sách của riêng bạn. Bạn cũng có thể nghe một bài hát có bản quyền để lấy cảm hứng sáng tác nhạc của riêng mình. Trong cả hai trường hợp, bạn đã sử dụng tài liệu có bản quyền, nhưng điều đó không nhất thiết có nghĩa là sản phẩm phái sinh vi phạm bản quyền của bản gốc.
Mặc dù đây là một lời giải thích hợp lý để giải thích mớ hỗn độn mà AI tạo ra về luật bản quyền, nhưng nó vẫn gây tổn hại cho chủ sở hữu bản quyền và tài sản trí tuệ. Xem xét điều này, các quy định là cần thiết để:
- Xác định rõ trách nhiệm pháp lý và trách nhiệm của tất cả các bên tham gia vào vòng đời của một hệ thống AI. Điều này bao gồm làm rõ vai trò của mọi bên, từ nhà phát triển AI đến người dùng cuối, để đảm bảo rằng các bên chịu trách nhiệm phải chịu trách nhiệm về mọi vi phạm bản quyền hoặc vi phạm sở hữu trí tuệ do các hệ thống AI gây ra.
- Củng cố các khuôn khổ bản quyền hiện có và có thể đưa ra các luật bản quyền dành riêng cho AI.
- Để đảm bảo sự đổi mới trong không gian AI đồng thời bảo vệ quyền của những người sáng tạo ban đầu, các quy định về AI nên xác định lại các khái niệm về sử dụng hợp lý và tác phẩm chuyển đổi trong bối cảnh nội dung do AI tạo ra. Cần có các định nghĩa và hướng dẫn rõ ràng hơn để đảm bảo rằng không gian AI có thể tiếp tục cải thiện trong khi vẫn tôn trọng ranh giới bản quyền. Điều cần thiết là đạt được sự cân bằng giữa đổi mới và bảo vệ quyền của người tạo nội dung.
- Lộ trình hợp tác rõ ràng với những người nắm giữ quyền. Nếu các hệ thống AI vẫn sẽ sử dụng tài sản trí tuệ của mọi người, thì cần có các lộ trình hoặc khuôn khổ rõ ràng để các nhà phát triển AI và chủ sở hữu quyền hợp tác, đặc biệt là về mặt đền bù tài chính, nếu sản phẩm phái sinh của các tài sản trí tuệ đó được thương mại hóa.
Quy định AI là một bản sửa lỗi cực kỳ cần thiết
Trong khi trí tuệ nhân tạo đã nổi lên như một giải pháp đầy hứa hẹn cho nhiều vấn đề xã hội của chúng ta, thì bản thân AI đang nhanh chóng trở thành một vấn đề cần được giải quyết khẩn cấp. Đã đến lúc lùi lại một bước, suy ngẫm và thực hiện các sửa chữa cần thiết để đảm bảo tác động tích cực của AI đối với xã hội. Chúng tôi rất cần hiệu chỉnh lại cách tiếp cận của chúng tôi để xây dựng và sử dụng các hệ thống AI.