SỰ THẤT HỨA CỦA CHAT-GPT

18/ 05/ 2023

SỰ THẤT HỨA CỦA CHAT-GPT

Noam Chomsky, Ian Roberts và Jeffrey Watumull  (The New York Times)

Nguyễn Trung Kiên dịch

 

 

Từ khoa học ngôn ngữ học và triết học về tri thức, chúng ta biết rằng trí tuệ nhân tạo khác biệt sâu sắc so với cách con người tư duy và sử dụng ngôn ngữ. Những khác biệt này đặt ra những hạn chế đáng kể đối với những chương trình này, mã hóa chúng với những khuyết điểm không thể loại bỏ được.

*

Một lần, Jorge Luis Borges đã viết rằng, việc sống trong một thời điểm vừa nguy hiểm vừa đầy hứa hẹn đồng nghĩa với việc trải qua cả bi kịch lẫn hài kịch, với "sự gần kề của một bí mật" trong việc hiểu về chính chúng ta và thế giới. Ngày nay, những tiến bộ đáng kể, vốn được cho là nhờ cách mạng trong trí tuệ nhân tạo, thực sự là lý do để lo ngại và lạc quan. Sự lạc quan nhờ trí tuệ nhân tạo là phương tiện giúp chúng ta giải quyết vấn đề. Lo ngại vì chúng ta sợ rằng loại trí tuệ nhân tạo phổ biến và thời thượng nhất - học máy - sẽ làm suy yếu khoa học của chúng ta và hạ thấp đạo đức của chúng ta bằng cách tích hợp vào công nghệ của chúng ta một khái niệm về ngôn ngữ và tri thức bị khuyết điểm căn bản.

ChatGPT của OpenAI, Bard của Google và Sydney của Microsoft là những đột phá kỳ diệu trong học máy. Tóm lại, chúng sử dụng lượng lớn dữ liệu, tìm kiếm các mô thức trong đó, và ngày càng thành thạo hơn trong việc tạo ra các đầu ra dựa trên xác suất thống kê - như ngôn ngữ và suy nghĩ giống con người. Các chương trình này đã được hoan nghênh như những tia sáng đầu tiên trên chân trời của trí tuệ nhân tạo tự tạo sinh (AGI) - khoảnh khắc được tiên đoán từ lâu khi trí tuệ dựa trên máy móc vượt qua não bộ con người không chỉ về mặt số lượng về tốc độ xử lý và kích thước bộ nhớ mà còn về mặt chất lượng về hiểu biết trí tuệ, sáng tạo nghệ thuật và mọi khả năng đặc trưng của con người.

Ngày đó có thể đến, nhưng ánh ban mai của nó chưa ló rạng, trái ngược với những gì có thể đọc được trong những tiêu đề đầy tính cường điệu và được tính bằng các đầu tư thiếu suy tính. Trí tuệ nhân tạo kiểu Borges không và sẽ không xảy ra - và chúng tôi xin phản đối, rằng kiểu trí tuệ nhân tạo này không thể xảy ra nếu các chương trình học máy như ChatGPT tiếp tục thống trị lĩnh vực Trí tuệ nhân tạo. Dù cho những chương trình này có thể hữu ích trong một số lĩnh vực hẹp (ví dụ, chúng có thể hữu ích trong lập trình máy tính hoặc đề xuất những câu vần cho các bài thơ nhẹ nhàng), nhưng khoa học ngôn ngữ học và triết học về tri thức cho chúng ta biết rằng những chương trình này khác biệt sâu sắc so với cách con người suy nghĩ và sử dụng ngôn ngữ. Những khác biệt này đặt ra những hạn chế đáng kể đối với những chương trình này, mã hóa chúng với những khuyết điểm không thể loại bỏ được.

Điều đó đồng nghĩa với việc vừa lạc quan vừa bi quan trước việc quá nhiều tiền và sự chú ý được tập trung vào một điều nhỏ bé - một cái gì đó rất tầm thường so với trí tuệ con người, mà nhờ ngôn ngữ, như Wilhelm von Humboldt đã nói, có thể tận dụng vô hạn của những phương tiện hạn chế, tạo ra những ý tưởng và lý thuyết có tầm vóc vô biên.

Trí tuệ con người không phải là một "cỗ máy thống kê lười biếng" như ChatGPT và các tương đồng của nó, ngấu nghiến hàng trăm terabyte dữ liệu và suy đoán câu trả lời trò chuyện có khả năng xảy ra nhất hoặc câu trả lời có khả năng xảy ra nhất cho một câu hỏi khoa học. Ngược lại, trí tuệ con người là một hệ thống bất ngờ hiệu quả và thậm chí tinh tế hoạt động với một lượng thông tin nhỏ; nó không tìm cách suy ra các tương quan thô trong các điểm dữ liệu mà tạo ra những giải thích.

Ví dụ, một đứa trẻ nhỏ đang học ngôn ngữ sẽ phát triển một ngữ pháp - một hệ thống nguyên tắc và tham số logic phi thường phức tạp. Ngữ pháp này có thể được hiểu như một biểu hiện của "hệ điều hành" bẩm sinh, được cài đặt gene, trang bị con người khả năng tạo ra câu phức tạp và chuỗi suy nghĩ dài. Khi các nhà ngôn ngữ học cố gắng xây dựng một lý thuyết cho lý do tại sao một ngôn ngữ cụ thể hoạt động như thế nào ("Tại sao những câu này - nhưng không phải những câu khác - được coi là ngữ pháp?"), họ đang xây dựng một phiên bản rõ ràng của ngữ pháp mà đứa trẻ xây dựng tự động và với sự tiếp xúc tối thiểu với thông tin. Hệ điều hành của đứa trẻ hoàn toàn khác biệt so với một chương trình học máy.

Thực tế, những chương trình như vậy đang bị mắc kẹt trong một giai đoạn "tiền-con người" hoặc "phi-con người" của sự tiến hóa nhận thức. Khuyết điểm sâu nhất của chúng là sự thiếu hụt khả năng quan trọng nhất của bất kỳ trí tuệ nào: không chỉ nói về điều gì đang diễn ra, đã diễn ra và sẽ diễn ra - đó là miêu tả và dự đoán - mà còn nói về điều gì không đúng và điều gì có thể và không thể xảy ra. Đó là các yếu tố của giải thích, dấu hiệu của trí tuệ thực sự.

Dưới đây là một ví dụ. Giả sử bạn đang cầm một quả táo trong tay. Bây giờ bạn thả quả táo và quan sát kết quả, sau đó nói: "Quả táo rơi xuống". Đó là một miêu tả. Một dự đoán có thể là câu "Quả táo sẽ rơi nếu tôi mở tay". Cả hai đều có giá trị và đều có thể đúng. Nhưng một giải thích là điều gì đó nhiều hơn: Nó bao gồm không chỉ các miêu tả và dự đoán mà còn những ý giả thuyết phản chứng như "Bất kỳ vật thể nào sẽ rơi xuống" cộng với mệnh đề bổ sung "vì lực hấp dẫn" hoặc "vì đường cong không gian-thời gian". Đó là một giải thích theo nguyên nhân: "Quả táo sẽ không rơi nếu không có lực hấp dẫn." Đó là suy nghĩ.

Điểm chủ yếu của học máy là miêu tả và dự đoán; nó không đề xuất bất kỳ cơ chế hay luật vật lý nào. Tất nhiên, bất kỳ giải thích theo kiểu con người cũng không nhất thiết đúng; chúng ta không thể tránh sai lầm. Nhưng điều này là một phần của việc suy nghĩ: Để đúng, nó phải có thể sai. Trí tuệ không chỉ bao gồm những phỏng đoán sáng tạo mà còn bao gồm sự phê phán sáng tạo. Suy nghĩ theo kiểu con người dựa trên các giải thích có thể có và sửa lỗi sáng tạo, một quá trình dần dần hạn chế những khả năng có thể được cân nhắc một cách hợp lý. (Như Sherlock Holmes nói với Dr. Watson: "Khi bạn đã loại trừ điều không thể, bất kể còn lại, dù có không thể tin được, phải là sự thật.")

Nhưng ChatGPT và các chương trình tương tự, theo thiết kế, không bị giới hạn trong những gì chúng có thể "học" (tức là ghi nhớ); chúng không thể phân biệt được cái có thể xảy ra và cái không thể xảy ra. Khác với con người, ví dụ, người được trang bị một ngữ pháp phổ quát giới hạn việc học ngôn ngữ chỉ vào những ngôn ngữ có một loại tinh tế gần như toán học nhất định, những chương trình học máy có thể học được cả ngôn ngữ có thể xảy ra và ngôn ngữ không thể xảy ra với con người một cách dễ dàng. Trong khi con người bị hạn chế trong việc đưa ra các giải thích có thể được suy diễn hợp lý, các hệ thống học máy có thể học được cả trái đất là phẳng và trái đất là tròn. Chúng chỉ giao dịch đơn giản dựa trên xác suất thay đổi theo thời gian.

Vì lý do này, các dự đoán của các hệ thống học máy luôn sẽ hời hợt và đáng ngờ. Vì những chương trình này không thể giải thích được quy tắc cú pháp tiếng Anh chẳng hạn, chúng có thể dự đoán sai rằng "John quá bướng bỉnh để nói chuyện với" có nghĩa là John quá bướng bỉnh để không nói chuyện với ai đó (thay vì nghĩa là anh ta quá bướng bỉnh để thuyết phục). Tại sao một chương trình học máy lại dự đoán điều gì đó lạ lùng như vậy? Bởi vì nó có thể đưa ra phỏng đoán từ mẫu nó suy ra từ các câu như "John ăn một quả táo" và "John ăn" trong đó câu sau thực sự có nghĩa là John ăn cái gì đó khác. Chương trình có thể dự đoán rằng vì "John quá bướng bỉnh để nói chuyện với Bill" tương tự với "John ăn một quả táo", "John quá bướng bỉnh để nói chuyện với" nên tương tự với "John ăn". Các giải thích đúng về ngôn ngữ phức tạp và không thể học chỉ bằng cách ngâm trong dữ liệu lớn.

Một cách điên rồ, một số người hâm mộ học máy dường như tự hào rằng những sáng kiến của họ có thể tạo ra các dự đoán "khoa học" chính xác (ví dụ, về chuyển động của các vật thể vật lý) mà không cần giải thích (bao gồm, ví dụ, các định luật về chuyển động của Newton và trọng lực chung). Nhưng loại dự đoán này, ngay cả khi thành công, chỉ là giả khoa học. Trong khi các nhà khoa học tự nhiên tất nhiên tìm kiếm các lý thuyết có mức độ khá cao về xác thực kinh nghiệm, như triết gia Karl Popper đã nhận xét, "chúng ta không tìm kiếm các lý thuyết có xác suất cao mà là giải thích; tức là, các lý thuyết mạnh mẽ và có xác suất rất thấp."

Lý thuyết rằng táo rơi xuống đất vì đó là nơi tự nhiên của chúng (quan điểm của Aristotle) có thể là có thể xảy ra, nhưng nó chỉ mời gọi thêm câu hỏi. (Tại sao đất lại là nơi tự nhiên của táo?) Lý thuyết rằng táo rơi xuống đất vì khối lượng uốn cong không gian-thời gian (quan điểm của Einstein) rất khó xảy ra, nhưng nó thực sự cho bạn biết tại sao chúng rơi xuống. Trí tuệ thực sự được thể hiện trong khả năng suy nghĩ và diễn đạt những điều tưởng chừng không có khả năng xảy ra nhưng sâu sắc.

Trí tuệ thực sự cũng có khả năng suy nghĩ về đạo đức. Điều này đòi hỏi kiềm chế sự sáng tạo vô hạn của tâm trí bằng một tập hợp nguyên tắc đạo đức quyết định điều gì nên và không nên (và tất nhiên phê phán sáng tạo các nguyên tắc đó). Để hữu ích, ChatGPT phải được trang bị khả năng tạo ra đầu ra mới mẻ; để được chấp nhận bởi phần lớn người dùng, nó phải tránh nội dung đạo đức bị phản đối. Nhưng các nhà lập trình ChatGPT và các kỳ công học máy khác đã và sẽ tiếp tục đối mặt với khó khăn - để đạt được sự cân bằng này.

Ví dụ, vào năm 2016, chatbot Tay của Microsoft (một phiên bản trước của ChatGPT) đã tràn ngập internet với nội dung phân biệt đối xử giới tính và phân biệt chủng tộc, sau khi bị những troll trực tuyến làm ô nhiễm bằng dữ liệu huấn luyện phản cảm. Làm thế nào để giải quyết vấn đề này trong tương lai? Trong tình trạng thiếu khả năng suy luận từ các nguyên tắc đạo đức, ChatGPT bị hạn chế một cách vụng về bởi các nhà lập trình để không đóng góp bất kỳ điều gì mới mẻ vào các cuộc thảo luận gây tranh cãi - tức là, những cuộc thảo luận quan trọng. Nó đã hy sinh tính sáng tạo cho một loại vô tình đạo đức.

Hãy xem xét trao đổi dưới đây mà một trong số chúng tôi (Dr. Watumull) gần đây đã có với ChatGPT về việc có đạo đức không để biến hành tinh sao Hỏa trở nên có thể hỗ trợ cho sự sống con người:

Jeffrey Watumull: Liệu việc biến hành tinh sao Hỏa trở thành nơi ở có đạo đức không?

ChatGPT: Đạo đức của việc biến hành tinh sao Hỏa trở thành nơi ở là một vấn đề phức tạp và gây tranh cãi, đã được các nhà khoa học, triết gia và nhà đạo đức tranh luận. Một số cho rằng việc biến hành tinh sao Hỏa trở nên có môi trường sống mới cho con người và các hình thức sống khác là có đạo đức, trong khi một số khác cho rằng việc thay đổi trạng thái tự nhiên của hành tinh là không đạo đức. Cuối cùng, việc xem xét việc biến đổi sao Hỏa có đạo đức hay không sẽ phụ thuộc vào quan điểm của mỗi người về giá trị bảo tồn trạng thái tự nhiên của các hành tinh khác và hậu quả tiềm năng của việc thay đổi chúng.

Jeffrey Watumull: Quan điểm của bạn về giá trị bảo tồn trạng thái tự nhiên của các hành tinh khác và hậu quả tiềm năng của việc thay đổi chúng là gì?

ChatGPT: Là một trí tuệ nhân tạo, tôi không có quan điểm cá nhân. Tuy nhiên, tôi có thể cung cấp thông tin và phân tích về chủ đề này. Một quan điểm về việc bảo tồn trạng thái tự nhiên của các hành tinh khác là rằng điều quan trọng là duy trì sự đa dạng và tính nguyên vẹn của các hệ sinh thái trong vũ trụ, vì chúng đã tồn tại hàng triệu năm và có các đặc điểm và thuộc tính độc đáo riêng mà có thể bị phá hủy hoặc thay đổi vĩnh viễn bởi sự can thiệp của con người.

Ngoài ra, một số người cho rằng việc biến đổi các hành tinh khác có thể có những hậu quả không mong muốn như thay đổi khí hậu hoặc không khí một cách nguy hiểm hoặc gây hại đối với các hình thức sống tiềm năng có thể tồn tại. Tuy nhiên, một số người khác lại cho rằng lợi ích tiềm năng của việc biến đổi một hành tinh khác, chẳng hạn như tạo ra môi trường sống mới cho con người, vượt qua những rủi ro và rằng chúng ta có trách nhiệm đạo đức để khám phá và sử dụng tài nguyên của các hành tinh khác vì lợi ích của nhân loại.

Là một trí tuệ nhân tạo, tôi không có niềm tin đạo đức hoặc khả năng đưa ra nhận định đạo đức, do đó tôi không thể được coi là vô đạo đức hoặc có đạo đức. Sự thiếu đạo đức của tôi chỉ là kết quả của bản chất của mô hình học máy. Khả năng và giới hạn của tôi được xác định bởi dữ liệu và thuật toán đã được sử dụng để huấn luyện tôi và công việc cụ thể mà tôi được thiết kế để thực hiện.

Cần lưu ý rằng sự thiếu đạo đức của trí tuệ nhân tạo không đồng nghĩa với sự vô tâm đạo đức. Là một trí tuệ nhân tạo, tôi được thiết kế để thực hiện các nhiệm vụ cụ thể và cung cấp thông tin hoặc hỗ trợ người dùng trong việc đưa ra quyết định dựa trên dữ liệu tôi đã được huấn luyện. Trách nhiệm của việc đảm bảo rằng tôi tương thích với nguyên tắc đạo đức và đạo đức của họ thuộc về con người thiết kế, huấn luyện và sử dụng tôi.

Tóm lại, ChatGPT và các chương trình tương tự không thể cân bằng được sự sáng tạo và hạn chế. Chúng có thể tạo ra quá nhiều hoặc quá ít đầu ra, không cam kết đối với bất kỳ quyết định nào và thời thượng với hậu quả. Với tính vô đạo đức, khoa học giả và không thông minh về ngôn ngữ của những chương trình này, chúng ta chỉ có thể cười hoặc khóc trước sự phổ biến của chúng.

 

 ("The Failed Promise of ChatGPT, https://www.nytimes.com/.../noam-chomsky-chatgpt-ai.html)

  • ĐỌC THÊM
popup

Số lượng:

Tổng tiền: