Tự động hóa dịch vụ công có xâm phạm quyền riêng tư của bạn không?
Trí tuệ nhân tạo (AI) gây nhiều tranh cãi vì nó gây ấn tượng mạnh. Nó có thể làm cho nhiều phần của công việc và cuộc sống hàng ngày trở nên dễ dàng hơn, nhưng nó cũng đặt ra một số câu hỏi về đạo đức. Đặc biệt, việc sử dụng AI của chính phủ Hoa Kỳ khiến một số người cảm thấy không thoải mái.
Ngày nay, có rất nhiều dự án AI của chính phủ đang được sử dụng hoặc đang phát triển và một số đã làm được rất nhiều điều tốt. Đồng thời, họ đặt ra nhiều lo ngại về quyền riêng tư của trí tuệ nhân tạo. Dưới đây là một cái nhìn sâu hơn về các dự án này và ý nghĩa của chúng đối với quyền riêng tư công cộng.
Mục Lục
Ví dụ về các dự án tự động hóa và AI của Chính phủ
Các ví dụ cơ bản nhất về trí tuệ nhân tạo được chính phủ Hoa Kỳ sử dụng liên quan đến việc tự động hóa công việc văn phòng thường ngày. Vào năm 2019, Seattle đã sử dụng Tự động hóa quy trình bằng rô bốt (RPA) để xử lý các ứng dụng nhập và xử lý dữ liệu. Kể từ đó, thành phố đã xử lý hơn 6.000 ứng dụng tồn đọng và tiết kiệm hàng trăm giờ làm việc.
Các dự án AI khác của chính phủ bắt mắt hơn. Sở Cứu hỏa New York đang thử nghiệm những chú chó robot từ Boston Dynamics để đo mức độ hư hỏng cấu trúc và khói độc trước khi lính cứu hỏa vào cuộc. Trước khi có dự án robot chữa cháy, Sở cảnh sát New York đã lên kế hoạch thực hiện những robot tương tự.
Các sở cảnh sát và các cơ quan chính phủ khác trên toàn quốc đang xem xét sử dụng các công nghệ tương tự. Tuy nhiên, khi các dự án AI của chính phủ này thành công, những thiếu sót về quyền riêng tư tiềm ẩn của chúng đã trở nên rõ ràng hơn.
Trí tuệ nhân tạo có phải là mối đe dọa đối với quyền riêng tư và bảo mật không?
Liệu bạn có thấy robot cảnh sát trong tương lai hay không vẫn chưa chắc chắn, nhưng mọi thứ dường như đang đi theo hướng đó. Những dự án này có rất nhiều lợi ích, nhưng những lo ngại về quyền riêng tư của trí tuệ nhân tạo trở nên nghiêm trọng hơn khi giao dịch với chính phủ. Dưới đây là một số vấn đề lớn nhất với những công nghệ này.
Giám sát ẩn
Trí tuệ nhân tạo dựa vào việc thu thập và phân tích dữ liệu. Do đó, nhiều dự án AI của chính phủ hơn có nghĩa là các cơ quan này sẽ thu thập và lưu trữ thêm thông tin về công dân của họ. Một số người cảm thấy như tất cả thông tin thu thập này vi phạm quyền riêng tư của họ và vi phạm quyền của họ.
Các công nghệ như dự án chó chữa cháy đang được đặc biệt quan tâm vì chúng có thể làm cho hoạt động giám sát của chính phủ bị sai lệch. Các cơ quan cho biết robot ở đó để kiểm tra các mối lo ngại về an toàn, nhưng không có cách nào để mọi người biết nó đang thu thập dữ liệu nào. Nó có thể có camera và cảm biến quét khuôn mặt của họ hoặc theo dõi điện thoại di động của họ mà họ không biết.
Một số người lo lắng rằng “yếu tố tuyệt vời” của robot sẽ che giấu tiềm năng giám sát của chúng. Robot cảnh sát trong tương lai có thể do thám công dân mà không làm dấy lên nhiều nghi ngờ vì mọi người chỉ nhìn thấy công nghệ mới thay vì xâm phạm quyền riêng tư của họ.
Trách nhiệm không rõ ràng
Các dự án AI và tự động hóa này cũng đặt ra câu hỏi về trách nhiệm giải trình. Nếu một người máy mắc lỗi dẫn đến tổn hại, ai sẽ chịu trách nhiệm về điều đó? Khi một nhân viên chính phủ vượt qua ranh giới của họ và xâm phạm quyền của ai đó, tòa án có thể buộc họ phải chịu trách nhiệm, nhưng đối với một người máy thì sao?
Bạn có thể thấy vấn đề này trong xe ô tô tự lái. Mọi người đã buộc tội nhà sản xuất theo yêu cầu trách nhiệm sản phẩm trong một số trường hợp tai nạn lái tự động, trong khi những người khác đổ lỗi cho người lái xe. Trong một trường hợp, Ủy ban An toàn Giao thông Vận tải Quốc gia đặt trách nhiệm cho cả nhà sản xuất và tài xế, nhưng cuối cùng việc này phải được quyết định theo từng trường hợp cụ thể. Robot cảnh sát làm bùn nước theo cách tương tự. Nếu họ xâm phạm quyền riêng tư của bạn, không rõ nên đổ lỗi cho nhà sản xuất, sở cảnh sát hay nhân viên giám sát.
Sự nhầm lẫn này có thể làm chậm và phức tạp các thủ tục pháp lý. Có thể mất một lúc để nạn nhân của các vụ vi phạm quyền riêng tư hoặc xâm phạm quyền của họ mới có được công lý mà họ đáng được nhận. Luật mới và tiền lệ pháp có thể làm rõ mọi thứ và giải quyết vấn đề này, nhưng hiện tại, điều đó là không chắc chắn.
Rủi ro vi phạm dữ liệu
Trí tuệ nhân tạo được chính phủ Hoa Kỳ sử dụng cũng có thể mở rộng mối quan tâm về quyền riêng tư của AI mà bạn thấy trong khu vực tư nhân. Việc thu thập một số dữ liệu có thể hoàn toàn hợp pháp, nhưng càng nhiều tổ chức thu thập thì càng có nhiều rủi ro. Công ty hoặc chính phủ có thể không sử dụng thông tin cho bất kỳ mục đích bất hợp pháp nào, nhưng nó có thể khiến mọi người dễ bị tấn công bởi tội phạm mạng.
Chỉ tính riêng trong năm 2019, đã có hơn 28.000 cuộc tấn công mạng chống lại chính phủ Hoa Kỳ. Nếu các cơ quan nắm giữ nhiều thông tin cá nhân của công dân hơn, những cuộc tấn công này có thể ảnh hưởng nhiều hơn đến chính phủ. Một vụ vi phạm dữ liệu thành công có thể gây nguy hiểm cho nhiều người mà họ không hề hay biết. Các vi phạm thường không được chú ý, vì vậy bạn cần kiểm tra xem dữ liệu của mình đã không được bán chưa.
Ví dụ, nếu một robot cảnh sát trong tương lai sử dụng nhận dạng khuôn mặt để tìm kiếm tội phạm bị truy nã, nó có thể lưu trữ nhiều dữ liệu sinh trắc học của công dân. Tin tặc xâm nhập vào hệ thống có thể đánh cắp thông tin đó và sử dụng nó để đột nhập vào tài khoản ngân hàng của mọi người. Các dự án AI của chính phủ phải có các biện pháp an ninh mạng mạnh mẽ nếu không muốn gây nguy hiểm cho dữ liệu của mọi người.
AI của chính phủ có lợi ích nhưng làm dấy lên lo ngại
Vẫn chưa rõ chính phủ Mỹ sẽ sử dụng trí tuệ nhân tạo như thế nào trong tương lai. Các biện pháp bảo vệ và luật mới có thể giải quyết những vấn đề này và mang lại tất cả các lợi ích của AI mà không có rủi ro. Tuy nhiên, hiện tại, những lo ngại này làm dấy lên một số cảnh báo.
Có rất nhiều lo ngại về quyền riêng tư ở bất cứ nơi nào AI hoạt động. Những câu hỏi này trở nên nghiêm trọng hơn vì nó đóng một vai trò lớn hơn trong chính phủ. Các dự án AI của nhà nước có thể mang lại nhiều lợi ích, nhưng chúng cũng tiềm ẩn nguy cơ gây hại đáng kể.
Đọc tiếp
Giới thiệu về tác giả