/ / 6 bài học Microsoft rút ra từ thảm họa Chatbot AI của Tay

6 bài học Microsoft rút ra từ thảm họa Chatbot AI của Tay

Các chatbot AI như ChatGPT đang ngày càng trở thành một phần không thể thiếu của công nghệ hiện đại, nhưng nhiều người không biết rằng AI tổng hợp không phải lúc nào cũng tốt như ngày nay. Trên thực tế, vào năm 2016, chatbot Tay do Microsoft sản xuất đã cho chúng ta thấy AI có thể phản tác dụng nhanh như thế nào.


Hãy cùng khám phá AI chatbot Tay của Microsoft là gì, tại sao nó thất bại, những tranh cãi của nó và bài học mà công ty rút ra được sau thất bại thảm hại.


Tay của Microsoft là gì?

Tay là một chatbot AI do Microsoft phát triển và được cung cấp qua Twitter vào ngày 23 tháng 3 năm 2016. Chatbot này được phát triển cho những người từ 18 đến 24 tuổi ở Hoa Kỳ với “mục đích giải trí” và để “thử nghiệm và tiến hành nghiên cứu về hiểu đàm thoại.”

Tay không phải là một chatbot tinh vi như ChatGPT mà là một bot AI thân thiện trên Twitter, người mà bạn có thể trò chuyện cùng—giống như My AI trên Snapchat, nhưng để giao lưu.

Tại sao Microsoft lại đóng cửa Tay?

Microsoft đã hạ gục Tay trong vòng 24 giờ sau khi hoạt động—vì một lý do chính đáng. Gần như ngay lập tức sau khi Tay được giới thiệu, người dùng Twitter bắt đầu lạm dụng dịch vụ bằng cách cung cấp thông tin sai lệch cho chatbot, dạy nó những điều khoản xúc phạm và khiến nó ngày càng gây khó chịu hơn chỉ để xem nó sẽ đi được bao xa.

Và nó đã đi xa thực sự. Trong vòng vài giờ sau khi ra mắt, Tay đã tweet một số lời nói tục tĩu về chủng tộc gây khó chịu nhất, truyền bá ngôn từ kích động thù địch, thúc đẩy chủ nghĩa phát xít và thậm chí truyền cảm hứng cho một “cuộc chiến tranh chủng tộc”. Rất tiếc! Rõ ràng, Microsoft đã có một khoảng thời gian tồi tệ và không thể để dịch vụ tiếp tục.

Trong một bài đăng trên Blog chính thức của Microsoft, Phó chủ tịch tập đoàn của Microsoft Peter Lee đã lặp lại điều tương tự:

Chúng tôi vô cùng xin lỗi vì những dòng tweet xúc phạm và gây tổn thương ngoài ý muốn từ Tay, những dòng tweet không đại diện cho chúng tôi là ai hoặc chúng tôi đại diện cho điều gì, cũng như cách chúng tôi thiết kế Tay. Tay hiện đang ngoại tuyến và chúng tôi sẽ chỉ tìm cách đưa Tay trở lại khi chúng tôi tự tin rằng mình có thể dự đoán tốt hơn ý đồ xấu mâu thuẫn với các nguyên tắc và giá trị của chúng tôi.

Sự thất bại của Tay chỉ là một trong nhiều mối nguy hiểm của trí tuệ nhân tạo và là lời nhắc nhở mạnh mẽ về lý do tại sao sự phát triển của nó nên được thực hiện với sự thận trọng và giám sát tối đa.

6 Bài Học Microsoft Học Sau Tay

biểu tượng của bing

Tay hoàn toàn là một thảm họa, nhưng nó cũng dạy cho Microsoft một số bài học quan trọng khi phát triển các công cụ AI. Và với giá trị của nó, có lẽ tốt hơn là Microsoft đã học được bài học của mình càng sớm càng tốt, điều này cho phép hãng vượt qua Google và phát triển trình duyệt Bing mới được hỗ trợ bởi AI.

Sau đây là một số bài học đó:

1. Internet đầy những kẻ lừa đảo

Internet đầy rẫy những trò troll, và đó không hẳn là tin tức, phải không? Rõ ràng, điều đó đã xảy ra với Microsoft vào năm 2016. Chúng tôi không nói rằng việc xây dựng một chatbot cho “mục đích giải trí” nhắm mục tiêu đến những người từ 18 đến 24 tuổi có liên quan gì đến tốc độ dịch vụ bị lạm dụng. Tuy nhiên, đó chắc chắn không phải là ý tưởng thông minh nhất.

Mọi người đương nhiên muốn kiểm tra các giới hạn của công nghệ mới và công việc cuối cùng của nhà phát triển là giải thích cho các cuộc tấn công độc hại này. Theo một cách nào đó, những kẻ lừa đảo nội bộ hoạt động như một cơ chế phản hồi để đảm bảo chất lượng, nhưng điều đó không có nghĩa là nên thả lỏng chatbot mà không có các biện pháp bảo vệ thích hợp trước khi ra mắt.

2. AI không thể phân biệt tốt và xấu một cách trực quan

Khái niệm thiện và ác là điều mà AI không hiểu được bằng trực giác. Nó phải được lập trình để mô phỏng kiến ​​thức về điều gì đúng và sai, điều gì là đạo đức và vô đạo đức, điều gì là bình thường và đặc biệt.

Những phẩm chất này ít nhiều đến với con người một cách tự nhiên với tư cách là những sinh vật xã hội, nhưng AI không thể hình thành các phán đoán độc lập, cảm thấy đồng cảm hoặc trải qua nỗi đau. Đây là lý do tại sao khi người dùng Twitter đưa cho Tay đủ loại tuyên truyền, bot chỉ đơn giản làm theo—không nhận thức được tính đạo đức của thông tin mà nó đang thu thập.

3. Đừng đào tạo các mô hình AI bằng cách sử dụng cuộc trò chuyện của mọi người

Tay được tạo ra bằng cách “khai thác dữ liệu công khai có liên quan, sử dụng trí tuệ nhân tạo và biên tập được phát triển bởi một đội ngũ bao gồm các diễn viên hài ngẫu hứng.” Đào tạo một mô hình AI bằng cách sử dụng các cuộc trò chuyện của mọi người trên internet là một ý tưởng tồi tệ.

Và trước khi bạn đổ lỗi cho điều này trên Twitter, hãy biết rằng kết quả có thể sẽ giống nhau bất kể nền tảng nào. Tại sao? Bởi vì mọi người đơn giản không phải là bản thân tốt nhất của họ trên internet. Họ dễ xúc động, sử dụng những từ lóng và sử dụng danh tính của mình để làm những việc bất chính.

Trang web Microsoft Tây Trang chủ

4. AI thiếu hiểu biết thông thường và không bị mỉa mai

AI ngày nay có vẻ trực quan hơn (hay nói chính xác hơn là mô phỏng trực giác tốt hơn) nhưng đôi khi vẫn gặp khó khăn trong việc nhận ra những lời châm biếm và số liệu trong lời nói. Điều này thậm chí còn đúng hơn vào năm 2016. Điều hiển nhiên đối với con người lại không hiển nhiên đối với AI; nói cách khác, nó thiếu ý thức chung.

Những AI như Tay không hiểu tại sao con người lại như vậy, hành động như thế nào và sự lập dị của mỗi cá nhân. Nó có thể hoạt động và nghe có vẻ giống con người ở một mức độ đáng ngạc nhiên, nhưng lập trình tốt chỉ có thể đi xa đến vậy.

5. AI phải được lập trình để từ chối các yêu cầu không hợp lệ

AI rất dễ gây ấn tượng và phải được lập trình để từ chối các yêu cầu gây hại. Ngay cả ngày nay, sau tất cả những tiến bộ của chúng ta trong việc xử lý ngôn ngữ tự nhiên, mọi người vẫn đang tìm ra những lỗ hổng ngôn ngữ để làm cho các chatbot AI như ChatGPT trở nên “ảo giác” và mang lại kết quả mà dự kiến ​​sẽ bị hạn chế.

Vấn đề ở đây là trí tuệ nhân tạo hoàn toàn vâng lời, đó có lẽ là điểm mạnh và điểm yếu lớn nhất của nó. Mọi thứ mà bạn không muốn chatbot làm đều phải được lập trình thủ công vào nó.

6. Chatbot AI không bao giờ được bỏ mặc

Cho đến khi AI có thể tự điều chỉnh, nó không thể bị giám sát. Bạn có thể nghĩ về AI ngày nay giống như một đứa trẻ thần đồng; nó xuất sắc về mặt nào đó, nhưng dù sao nó vẫn là một đứa trẻ. Nếu không được giám sát, mọi người sẽ khai thác điểm yếu của nó—và Tay là một ví dụ điển hình cho điều này.

AI là một công cụ, giống như Internet, nhưng tốc độ và quy mô mà mọi thứ có thể phản tác dụng với AI lớn hơn nhiều so với những gì chúng ta đã trải qua trong những ngày đầu của Internet.

AI cần giám sát và quy định liên tục

Tay không phải là chatbot duy nhất lừa đảo — đã có nhiều trường hợp khác giống như vậy. Nhưng điều khiến nó nổi bật là tốc độ tuyệt đối mà nó đã làm được—và thực tế là nó được tạo ra bởi một gã khổng lồ công nghệ như Microsoft.

Những ví dụ như thế này cho thấy chúng ta phải cẩn thận như thế nào khi phát triển các công cụ AI, đặc biệt là khi chúng được sử dụng bởi những người bình thường.

Similar Posts

Leave a Reply

Your email address will not be published. Required fields are marked *