Chatbot - Công cụ ứng dụng công nghệ AI làm nhân loại "đau đầu"

Chatbot của Microsoft học chửi bậy ngay sau khi ra mắt, còn AI của Meta chê ông chủ Zuckerberg là người xấu và nói Trump vẫn là Tổng thống Mỹ. Thế giới tràn đang tràn ngập đủ các loại chatbot AI, nhưng công nghệ này vẫn chưa hoàn thiện, liên tục gây tranh cãi và lo ngại.

Chatbot sau 60 năm phát triển

Trong thập niên 1960, một chương trình máy tính có tên Eliza được phát triển nhằm mô phỏng trải nghiệm trò chuyện với một bác sĩ tâm lý trị liệu. Một người tham gia thử nghiệm chia sẻ bạn trai nói cô "trầm cảm suốt cả ngày", Eliza đáp lại: "Tôi rất tiếc khi biết cô đang trầm cảm".

Eliza được coi là chatbot đầu tiên trên thế giới, dù không linh hoạt như các phần mềm tương tự hiện nay. Nó hoạt động dựa trên những hiểu biết về ngôn ngữ tự nhiên, phản ứng với từ khóa cụ thể và đưa ra hội thoại phù hợp với người dùng. Joseph Weizenbaum, người tạo ra Eliza, khẳng định trong tài liệu năm 1966 rằng "nhiều người không thể tin Eliza là chương trình máy tính và không phải người thật".

Tuy nhiên, Weizenbaum cho rằng đây là điều đáng lo ngại. Những người tương tác với Eliza sẵn sàng mở lòng với nó, ngay cả khi biết đây chỉ là chương trình máy tính.

"Eliza dễ dàng tạo ảo tưởng về sự thấu hiểu, từ đó khiến những gì nó đưa ra đáng tin cậy hơn. Một mối nguy hiểm đang tiềm ẩn ở đó", ông cho hay. Trong giai đoạn cuối sự nghiệp, Weizenbaum liên tục cảnh báo về việc cho máy móc quá nhiều trách nhiệm, cũng như chỉ trích nặng nề AI.

Giao diện trò chuyện của Eliza. Ảnh: CNN

Giao diện trò chuyện của Eliza (Nguồn: CNN)

Câu chuyện của Weizenbaum dự báo trước về sự kỳ vọng gắn liền với công nghệ AI. Khả năng trò chuyện của phần mềm với con người tiếp tục làm nhiều người lo ngại, cho rằng nó đang tạo ra cảm giác sai lầm rằng máy móc có thể là thứ gắn kết với người.

Blake Lemoine, cựu kỹ sư Google, từng gây chú ý hồi tháng 6 khi công bố đoạn chat giữa ông và AI có tên LaMDA cùng nhận xét nó có "tư duy như đứa trẻ". Tuyên bố của Lemoine hứng chịu sự chỉ trích từ cộng đồng AI và bản thân ông cũng bị Google sa thải sau đó.

Những loại chatbot hiện đại có thể dẫn tới những phản ứng tâm lý mạnh mẽ từ người dùng nếu hoạt động không như thiết kế, hay mô phỏng chuẩn xác những gì chúng được học và đưa ra phát biểu phân biệt chủng tộc và gây sốc.

Những người khác lại cảnh báo công nghệ đứng sau chatbot vận hành bằng AI vẫn bị giới hạn hơn nhiều so với kỳ vọng. "Chúng rất giỏi giả dạng con người và có vẻ giống người, nhưng không đủ sâu sắc. Chúng chỉ là những kẻ giả mạo bên ngoài, không hiểu mình đang nói gì", Gary Marcus, nhà nghiên cứu AI tại Mỹ, nhận xét 

Sự tiến hóa của chatbot

Sanjeev P. Khudanpur, chuyên gia về công nghệ ngôn ngữ tại Đại học Johns Hopkins (Mỹ), từng trò chuyện với Eliza khi còn đi học, nhưng ông không mất nhiều thời gian để phát hiện những hạn chế của nó. "Eliza có thể mô phỏng một cuộc trò chuyện bằng văn bản trong khoảng 10 câu, trước khi người dùng nhận ra nó không thực sự thông minh và chỉ đang tìm cách kéo dài câu chuyện", Khudanpur nói.

Trong hàng chục năm sau đó, bắt đầu xuất hiện sự chuyển dịch ra xa ý tưởng "trò chuyện với máy tính" và tập trung vào "hội thoại hướng mục đích". Ví dụ cụ thể là Amazon Alexa và Apple Siri, khi chúng thường được người dùng yêu cầu thực hiện các nhiệm vụ cụ thể như mua vé máy bay, xem thời tiết hay bật nhạc.

"Chúng ứng dụng công nghệ tương tự những chatbot đời đầu, nhưng không thể gọi Alexa và Siri là chatbot. Nên mô tả chúng là trợ lý giọng nói hoặc trợ lý kỹ thuật số, được thiết kế để giúp người dùng thực hiện các công việc cụ thể", Khudanpur cho hay.

Joseph Weizenbaum, người phát triển Eliza, hồi năm 2005. Ảnh: CNN.

Người phát triển Eliza - Joseph Weizenbaum năm 2005 (Nguồn: CNN)

Chatbot và những vấn đề xã hội

Đầu thập niên 2000, giới nghiên cứu bắt đầu xem xét lại ý tưởng phát triển chatbot với khả năng trò chuyện kéo dài với con người. Chúng thường được huấn luyện bằng lượng lớn dữ liệu từ Internet và phải học cách mô phỏng chính xác cách nói chuyện của người, nhưng đi kèm nguy cơ phản ánh những điều tồi tệ nhất trên mạng.

Thử nghiệm công khai với chatbot Tay của Microsoft năm 2015 là ví dụ cụ thể. Nó được thiết kế để nói chuyện như một thiếu niên, nhưng nhanh chóng "học" được cách nói bậy, kích động và phân biệt chủng tộc, đến mức bị Microsoft ngừng vận hành.

Điều này đang lặp lại với BlenderBot3, được Meta tung ra hồi đầu tháng. Chatbot này tuyên bố Donald Trump vẫn là Tổng thống Mỹ và khẳng định có nhiều bằng chứng cho thấy gian lận trong bầu cử tổng thống năm 2020, kèm nhiều phát biểu gây tranh cãi khác.

Chatbot Tay được đưa lên Twitter nhưng nhanh chóng bị xóa sổ vì học các từ ngữ xấu.


Chatbot Tay được đưa lên Twitter nhưng nhanh chóng bị "xóa sổ" vì học các từ ngữ xấu

"Chưa rõ làm cách nào để phát triển chatbot an toàn và đáng tin cậy, bất chấp những tiến bộ sau thời Eliza và lượng lớn dữ liệu mới được dùng để huấn luyện các phần mềm xử lý ngôn ngữ", Marcus nói.

Trong khi đó, Khudanpur tỏ ra lạc quan với tiềm năng của chatbot. "Hãy tưởng tượng chatbot có thể đọc mọi bài viết học thuật trong lĩnh vực của tôi. Điều đó giúp tôi không phải đọc chúng, mà chỉ cần đặt câu hỏi và trao đổi với chatbot. Nói cách khác, đó là một bản sao khác của tôi với siêu năng lực", ông nêu quan điểm.

Nguồn: Theo CNN

Bài viết trên đây, Vmax đã chia sẻ cho bạn thêm kiến thức về công nghệ tiên tiến Chatbox đã có những ảnh hưởng gì đến chúng ta. Cùng để lại ý kiến, đánh giá của bạn bằng cách bình luận bên dưới.

Để theo dõi thêm những kiến thức bổ ích, hãy theo dõi ngay Mực in Vmax hoặc nếu có nhu cầu tìm hiểu về sản phẩm Mực in Vmax vui lòng liên hệ qua Hotline: 028.3911.996 để được đội ngũ nhân viên chuyên nghiệp hỗ trợ và tư vấn. 

Sign in to leave a comment
Deadline - Nỗi ám ảnh của dân văn phòng