Tại sao ChatGPT-4 lại chậm so với ChatGPT-3.5?
Với phiên bản mới nhất của ChatGPT, GPT-4, được phát hành vào tháng 3 năm 2023, nhiều người hiện đang thắc mắc tại sao nó lại chậm như vậy so với phiên bản tiền nhiệm GPT-3.5. Vậy, lý do cốt lõi ở đây là gì?
Tại sao ChatGPT-4 lại chậm chạp như vậy và thay vào đó bạn có nên sử dụng GPT-3.5 không?
Mục Lục
ChatGPT-4 là gì?
ChatGPT-4 là phiên bản chatbot mới nhất của OpenAI, thường được gọi là ChatGPT. ChatGPT được hỗ trợ bởi trí tuệ nhân tạo, cho phép nó trả lời các câu hỏi và lời nhắc của bạn tốt hơn nhiều so với các chatbot trước đây. ChatGPT sử dụng mô hình ngôn ngữ lớn được hỗ trợ bởi GPT (Generative Pre-training Transformer) để cung cấp thông tin và nội dung cho người dùng đồng thời có thể trò chuyện.
ChatGPT có nhiều khả năng, khiến nó trở nên hữu ích cho hàng triệu người. Ví dụ: ChatGPT có thể viết truyện, kể chuyện cười, dịch văn bản, hướng dẫn người dùng, v.v. Mặc dù ChatGPT cũng có thể được sử dụng cho nhiều hành vi bất hợp pháp hơn, chẳng hạn như tạo phần mềm độc hại, nhưng tính linh hoạt của nó có phần mang tính cách mạng.
Mẫu GPT-4 của ChatGPT được phát hành vào ngày 14 tháng 3 năm 2023. Phiên bản ChatGPT này được thiết kế để hiểu rõ hơn ngôn ngữ cảm xúc thông qua văn bản, đồng thời hiểu rõ hơn các phương ngữ ngôn ngữ khác nhau và quá trình xử lý hình ảnh. GPT-4 cũng có thể tổ chức các cuộc hội thoại dài hơn và phản hồi hiệu quả các lời nhắc dài hơn của người dùng.
Ngoài ra, các tham số của GPT-4 vượt xa các tham số của GPT-3.5 ở một mức độ lớn. Các tham số của ChatGPT xác định cách AI xử lý và phản hồi thông tin. Nói tóm lại, các thông số xác định kỹ năng mà chatbot có để tương tác với người dùng. Trong khi GPT-3.5 có 175 tỷ tham số, thì GPT-4 có con số đáng kinh ngạc là 100 nghìn tỷ đến 170 nghìn tỷ (có tin đồn—OpenAI chưa xác nhận con số này).
Chính GPT-3.5 của OpenAI đã được sử dụng để cung cấp năng lượng cho ChatGPT, hiện là chatbot AI phổ biến nhất trên thế giới. Vì vậy, GPT-3.5 đã tạo được dấu ấn không thể phủ nhận trong lĩnh vực AI. Nhưng mọi thứ luôn phát triển trong ngành công nghệ, vì vậy không có gì ngạc nhiên khi GPT-3.5 hiện có phiên bản kế nhiệm là GPT-4.
Tuy nhiên, GPT-4 không có nghĩa là hoàn hảo. Trên thực tế, thời gian phản hồi lâu của GPT-4 đang gây ra khá nhiều tranh cãi. Vì vậy, hãy xem xét vấn đề này và tại sao nó có thể xảy ra.
Trò chuyệnGPT-4 chậm
Nhiều người nhận thấy khi phát hành GPT-4 rằng chatbot mới của OpenAI cực kỳ chậm. Điều này khiến nhiều người dùng thất vọng, vì GPT-4 được coi là một bước tiến so với GPT-3.5 chứ không phải lùi lại. Do đó, người dùng GPT-4 đã sử dụng các nền tảng trực tuyến, chẳng hạn như diễn đàn cộng đồng của Reddit và OpenAI, để thảo luận về vấn đề này.
Trên Diễn đàn cộng đồng của OpenAI, một số người dùng đã bày tỏ sự thất vọng về độ trễ GPT-4 của họ. Một người dùng cho biết GPT-4 “cực kỳ chậm” ở phía họ và ngay cả những yêu cầu nhỏ được gửi tới chatbot cũng dẫn đến độ trễ dài hơn 30 giây bất thường.
Những người dùng khác đã nhanh chóng chia sẻ trải nghiệm của họ với GPT-4, với một bình luận dưới bài đăng rằng “cùng một cuộc gọi với cùng một dữ liệu có thể chậm hơn tới 4 lần so với 3,5 turbo.”
Trong một bài đăng khác trên Diễn đàn Cộng đồng OpenAI, một người dùng đã nhận xét rằng lời nhắc của họ đôi khi gặp phải thông báo “lỗi trong luồng nội dung”, dẫn đến không có phản hồi. Trong cùng một chủ đề, một cá nhân khác cho biết họ không thể yêu cầu GPT-4 “phản hồi thành công bằng một tập lệnh hoàn chỉnh”. Một người dùng khác nhận xét rằng họ liên tục gặp lỗi mạng khi cố gắng sử dụng GPT-4.
Với sự chậm trễ và phản hồi không thành công hoặc nửa vời, có vẻ như GPT-4 chứa đầy các vấn đề khiến người dùng nhanh chóng bỏ cuộc.
Vậy chính xác thì tại sao điều này lại xảy ra? Có gì đó không ổn với GPT-4?
Tại sao GPT-4 chậm so với GPT-3.5?
Trong bài đăng trên Diễn đàn cộng đồng OpenAI được tham chiếu ở trên, một người dùng đã phản hồi gợi ý rằng sự chậm trễ là do “vấn đề hiện tại về tình trạng quá tải toàn bộ cơ sở hạ tầng”, đồng thời nói thêm rằng có một thách thức đặt ra trong việc “giải quyết khả năng mở rộng trong khung thời gian ngắn như vậy với mức độ phổ biến này và số lượng người dùng của cả trò chuyện và API.”
Trong một bài đăng Reddit được tải lên trong r/singularity subreddit, một người dùng đã đưa ra một số lý do có thể khiến GPT-4 bị chậm, bắt đầu từ kích thước ngữ cảnh lớn hơn. Trong hệ sinh thái GPT, kích thước ngữ cảnh đề cập đến lượng thông tin mà một phiên bản chatbot nhất định có thể xử lý và sau đó tạo ra thông tin. Trong khi kích thước ngữ cảnh của GPT-3.5 là 4K thì của GPT-4 gấp đôi. Vì vậy, việc có kích thước ngữ cảnh 8K có thể ảnh hưởng đến tốc độ chung của GPT-4.
Tác giả Reddit cũng gợi ý rằng khả năng điều khiển và kiểm soát nâng cao của GPT-4 có thể đóng một vai trò trong thời gian xử lý của chatbot. Tại đây, tác giả tuyên bố rằng khả năng điều khiển và kiểm soát ảo giác tốt hơn cũng như ngôn ngữ không phù hợp của GPT-4 có thể là thủ phạm, vì các tính năng này bổ sung thêm các bước cho phương pháp xử lý thông tin của GPT-4.
Hơn nữa, có ý kiến cho rằng khả năng xử lý ảnh của GPT-4 có thể làm mọi thứ chậm lại. Tính năng hữu ích này được nhiều người yêu thích nhưng có thể đi kèm với một nhược điểm. Do có tin đồn GPT-4 mất 10-20 giây để xử lý hình ảnh được cung cấp, nên có khả năng thành phần này đang kéo dài thời gian phản hồi (mặc dù điều này không giải thích được sự chậm trễ mà người dùng chỉ cung cấp lời nhắc văn bản gặp phải).
Những người dùng khác đã gợi ý rằng tính mới của ChatGPT-4 đang đóng một vai trò lớn trong những sự chậm trễ này. Nói cách khác, một số người cho rằng chatbot mới nhất của OpenAI cần phải trải qua một số khó khăn ngày càng tăng trước khi có thể khắc phục mọi sai sót.
Nhưng lý do lớn nhất khiến GPT-4 chậm là số lượng tham số mà GPT-4 có thể gọi so với GPT-3.5. Sự gia tăng đột biến về các thông số đơn giản có nghĩa là mô hình GPT mới hơn sẽ mất nhiều thời gian hơn để xử lý thông tin và phản hồi chính xác. Bạn nhận được câu trả lời tốt hơn với độ phức tạp tăng lên, nhưng mất nhiều thời gian hơn để đạt được điều đó.
Bạn có nên chọn GPT-3.5 thay vì GPT-4?
Vì vậy, với những vấn đề này, bạn nên sử dụng GPT-3.5 hay GPT-4?
Tại thời điểm viết bài, có vẻ như GPT-3.5 là tùy chọn nhanh hơn GPT-4. Vì vậy, nhiều người dùng đã gặp phải sự chậm trễ đến mức có thể vấn đề về thời gian xuất hiện trên diện rộng, không chỉ với một số cá nhân. Vì vậy, nếu ChatGPT-3.5 hiện đang đáp ứng tất cả các mong đợi của bạn và bạn không muốn chờ đợi phản hồi để đổi lấy các tính năng bổ sung, thì có lẽ bạn nên sử dụng phiên bản này ngay bây giờ.
Tuy nhiên, bạn nên lưu ý rằng GPT-4 không chỉ là GPT-3.5 mà còn chậm hơn. Phiên bản chatbot của OpenAI này có nhiều ưu điểm hơn so với phiên bản tiền nhiệm. Nếu bạn đang tìm kiếm một chatbot AI tiên tiến hơn và không ngại chờ phản hồi lâu hơn, thì có thể đáng để chuyển đổi từ GPT-3.5 sang GPT-4.
Theo thời gian, độ trễ của GPT-4 có thể giảm bớt hoặc được giải quyết hoàn toàn, vì vậy, kiên nhẫn có thể là một ưu điểm ở đây. Cho dù bạn thử chuyển sang GPT-4 ngay bây giờ hay đợi thêm một thời gian nữa để xem mọi thứ diễn ra như thế nào với phiên bản này, bạn vẫn có thể nhận được nhiều điều từ chatbot nhỏ tiện lợi của OpenAI.
GPT-4 cao cấp hơn nhưng có độ trễ
Mặc dù GPT-4 có nhiều khả năng nâng cao hơn so với GPT-3.5, nhưng độ trễ đáng kể và lỗi phản hồi khiến một số người không sử dụng được. Những vấn đề này có thể được giải quyết trong tương lai gần, nhưng hiện tại, GPT-4 chắc chắn có một số trở ngại cần vượt qua trước khi được chấp nhận trên quy mô rộng hơn.