The Bacteria, the Plate, and the Spaceships [4]

.

-Do you remember that train ?

-What train ?

-That old, irrelevant train which runs over us in a minute.

.

https://arral.wordpress.com/2017/01/05/the-bacteria-the-plate-and-the-spaceships-part-3/

.

Lần đầu tiên tôi được biết đến AGI là vào năm 2011. Hồi đó có 2 cuốn sách nổi tiếng nói về sự nguy hiểm của AI : Our final invention của James Barrat và Superintelligence của Nick Bostrom. Cuốn thứ hai sâu hơn nhưng khó đọc hơn, nên tôi chọn dịch cuốn thứ nhất, vào tầm năm 2013. Đến năm 2015, 8000 nhà khoa học, kỹ sư có hiểu biết về ngành AI đã ký một thư ngỏ nhấn mạnh sự nguy hiểm của công nghệ này, trong đó có nhiều người nổi tiếng như Stephen Hawking, Bill Gates, Elon Musk, Frank Wilczek, Steve Wozniak…

Sau đó thì điều gì đã xảy ra ?

Chả có điều gì xảy ra cả. Tôi nhận thấy hiện tại ngay cả Nick Bostrom cũng không còn nói nhiều về vấn đề này như trước. Cách đây vài năm, tôi có đọc một bài phỏng vấn, trong đó ông nói “đã chán vì nói không ai nghe”. Cần phải nói rằng tuy số người 8000 nghe có vẻ đông, thật ra phần lớn giới làm AI đều cho rằng AGI là “câu chuyện hoang đường”, họ phản đối ý tưởng về sự nguy hiểm của AGI, vì “neural network và machine learning nói chung không có liên quan gì đến thứ gọi là AGI”.

Bản thân CEO của OpenAI, Sam Altman cũng kể rằng vào mấy năm trước, anh thường xuyên phải nghe những lời mỉa mai, khinh thường từ những người trong giới. Thế rồi ChatGPT ra đời, và mọi chuyện thay đổi. Trước đây các nhà khoa học chọn năm 2050 là năm có xác suất lớn nhất để AGI ra đời, với biên độ từ 2030 đến 2100. Nhưng giờ nhiều người đã dời nó đến thời điểm sớm hơn rất nhiều, cỡ 2030, nếu cuộc chạy đua công nghệ AGI bắt đầu từ bây giờ, sau thành công của OpenAI.

Trong phần 3, tôi đã liệt kê một số con đường để ANI tiến đến AGI. ChatGPT chưa phải là AGI, nó là ANI loại cao cấp – một con AI xử lý ngôn ngữ tự nhiên, cái khó thứ 2 trong bộ các kỹ năng của AGI – nhưng cách nó học giống AGI : ăn toàn bộ text của internet.

GPT-4

Khởi đầu là một AI ngôn ngữ, có thể thấy nó không hề có các kỹ năng ngoài ngôn ngữ. Ví dụ ChatGPT không biết đếm. Bảo nó đếm số chữ cái của một đoạn văn là nó không đếm được. Điều đó không tồn tại lâu. Version sau của nó, GPT4, đã biết đếm (theo Sam Altman, tôi chưa thử). Tôi thấy đây là một hiện tượng thú vị, có thể gọi là “sự tràn trí thông minh” – intelligence overflow – nghĩa là các kỹ năng trong bộ kỹ năng của trí thông minh phổ quát không hoàn toàn độc lập với nhau. Các kỹ năng như các bình thông nhau, và trí thông minh như chất lỏng đựng trong các bình đó. Các bình này không thông ở đáy, mà thông ở bề mặt, như cái khay làm đá trong tủ lạnh. Khi một thực thể đạt đến một mức độ cao nhất định trong một kỹ năng, sẽ xảy ra hiện tượng trí thông minh “chảy” từ ngăn này sang ngăn kia. Điều này tồn tại cả ở người. Ví dụ IQ và EQ là hai kỹ năng hoàn toàn khác nhau về mặt ứng dụng. Nhưng những người có IQ cao đến một mức nhất định có thể “tự dạy” mình và trở nên có EQ cao. Bản thân tôi cũng vậy. Điều lạ là ngược lại không đúng, nhiều người có EQ cao không thể nâng IQ của mình lên.

Ở trường hợp của GPT-4, kỹ năng ngôn ngữ đã tràn khá mạnh sang các lĩnh vực khác. Ví dụ giáo sư Kipping của kênh youtube Cool world đã cho ChatGPT làm bài thi môn thiên văn của sinh viên, và nó đã làm đúng hầu hết. Kiến trúc sư DamiLee đã thử nghiệm một cuộc đọ sức “kín” : cho Dall-E (AI hình ảnh của OpenAI) và ChatGPT thiết kế nhà rồi so sánh với sản phẩm của team của mình, và sản phẩm của AI được dân mạng cho điểm cao hơn. Nhưng cả hai trường hợp trên chưa đáng kinh ngạc bằng việc GPT-4 giờ đã có kỹ năng của sinh viên IT : nó đã biết lập trình. Vì chưa có khả năng suy lý (kỹ năng khó nhất của AGI), nó cần người hướng dẫn cho nó phải làm gì, bằng ngôn ngữ thường (text), nhưng giờ một người không biết lập trình đã có thể lập trình nếu có GPT-4.

Phản ứng

Phản ứng của thế giới với sự kiện lần này là rất mạnh. Tất nhiên vẫn có những người phản ứng kiểu cũ : ờ thì nó làm được đấy, nhưng nó có hiểu gì đâu ? Nó chỉ biết nhại lại như vẹt thôi. Nếu ai là người yêu cờ vua và cũng tương đối lớn tuổi sẽ thấy câu này… quen quen. Khi các phần mềm cờ vua ra đời, nó chú trọng vào quân số, (trong cờ vua tốt 1 điểm, hậu 9 điểm, vua vô cực điểm), và mọi nước đi của nó đều nhằm tối đa hóa tổng điểm số. Nó “không hiểu” chiến lược hay chiến thuật gì cả. Nhưng sau đó thì ai cũng biết câu chuyện nhà vô địch thế giới Kasparov đã thất bại trước DeepBlue. Và hai mươi năm sau, Alpha Zero đã đánh cờ theo một cách mà con người chỉ có thể miêu tả rằng “human can not possibly understand”. Thậm chí Alpha Zero còn không tính điểm quân. Nó tấn công, thí quân đẹp tuyệt vời, còn người hơn cả những người chơi cờ vĩ đại nhất. Lưu ý rằng nó có tên là Zero, bởi nó không có thầy. Nó học từ con số 0, bằng cách tự chơi với bản thân, và quá trình từ không biết gì đến vô địch thế giới (của người và máy) chỉ mất đúng 1 ngày.

Đó là bởi vì : thứ nhất, cách giải quyết vấn đề của dạng sống carbon (cách giải quyết của tiến hóa và chọn lọc tự nhiên) tuy rất kỳ diệu, chưa chắc đã là cách giải quyết mạnh nhất. Một câu nói nổi tiếng trong ngành AI : tàu ngầm có biết bơi không ? Về mặt sinh học mà nói, không, nó không biết bơi. Nhưng về mặt giải quyết vấn đề mà nói, nó đã “bơi” giỏi hơn bất cứ con cá nào trong lịch sử. Thứ hai, cách giải quyết vấn đề của dạng sống carbon, có lẽ, luôn luôn có thể mô phỏng bằng dạng máy (synthesis). Tức là hiện giờ đã có robot cá, bơi y hệt như cá thật. Máy bay đã ra đời cách đây hơn 100 năm, nhưng chim robot mới chỉ xuất hiện gần đây, với đôi cánh đập mềm mại không khác gì bồ câu. Vậy nên dù sức sáng tạo của tiến hóa là vĩ đại, nó không sở hữu độc quyền các phát minh của mình, nó hoàn toàn có thể bị mô phỏng bằng dạng máy, và hơn nữa, có những cách giải quyết đơn giản, và hiệu quả hơn ở dạng máy.

Hiện giờ GPT-4 mới chỉ là tiến sĩ ngôn ngữ, là sinh viên của một số ngành, nó chơi cờ vẫn như một đứa dở hơi, nhưng hãy cho nó mười năm. Nó, hoặc những anh em, con cháu của nó, với xác suất rất lớn, sẽ trở thành AGI.

Đấy là suy nghĩ của phần lớn thế giới hiện nay, và cùng với suy nghĩ này, một lần nữa, chủ đề về sự nguy hiểm của AGI quay lại. Tôi vừa xem một bài phỏng vấn của Lex Fridman với Max Tegmark, một nhà vật lý và AI của MIT, đồng sáng lập viện Future of Life. Ông nhắc lại hầu hết các luận điểm đã từng được nêu ra trong Our final Invention và Superintelligence, nhưng có vài nhận xét mới.

Don’t look up

Đây là tên một bộ phim của Hollywood gần đây. Nó là phim mỉa mai, trào lộng sự thờ ơ của loài người trước biến đổi khí hậu. Trong phim, hai nhà khoa học phát hiện một thiên thạch khổng lồ đang đâm thẳng vào trái đất. Họ kinh hoàng thông báo cho tổng thống Mỹ, nhưng họ bị cười nhạo, coi là bọn thần kinh. Sau đó có những chứng thực khác xuất hiện từ giới khoa học, và chính phủ Mỹ buộc phải chấp nhận nguy cơ này một cách nghiêm túc. Tuy vậy các nhóm lợi ích, sự ngu dốt của giới chính trị gia và lòng tham vô đáy của các tập đoàn đã tiêu diệt cơ hội cuối cùng của con người. Để ngu dân, họ phát động chiến dịch tuyên truyền Don’t look up, nói rằng thiên thạch là fake news, disinformation của “chúng nó”. Đến tận lúc thiên thạch sắp va vào trái đất, to đùng hiện ra trên trời đêm, một bộ phận lớn dân chúng vẫn tin nó là giả. Một bộ phận khác hiểu sự thật nhưng bất lực, chấp nhận số phận của mình.

Tegmark nói tình hinh hiện giờ giống hệt trong phim, nếu thay biến đổi khí hậu bằng AGI. Ông nói trong kinh tế học, có một hiệu ứng tương tự như tung một hòn đá lên : lúc đầu hòn đá bay lên nhanh, rồi chững lại, nó rơi xuống nhưng không dừng ở điểm xuất phát ban đầu mà sẽ rơi xuống mãi, ngày một nhanh. Tức là nếu có một tác nhân tốt cho thị trường, và việc tăng tác nhân đó lên khiến thị trường tốt hơn lên, không có nghĩa quan hệ này là tuyến tính. Quan hệ thường gặp hơn là parabol úp. Đến một lúc nào đó, tác nhân này sẽ bị bão hòa, rồi trở nên có hại, rồi rất có hại. Sức phá hoại của nó có thể vượt xa những lợi ích nó mang lại lúc đầu. Một trong những tác nhân nổi tiếng nhất của lý thuyết này là chủ nghĩa tư bản, nhưng đó lại là một câu chuyện (dài) khác.

Cũng như thế, ông nói AGI sẽ mang lại nhiều lợi ích lớn. Nó sẽ đưa con người ngày càng gần hơn tới bờ vực, nhân loại có thể ngắm nhìn quang cảnh đẹp tuyệt vời từ trên cao trong một thời gian ngắn cho tới khi họ rơi xuống, chết tan xác.

Alien

Ông nói con người đã có first contact với alien. Có điều alien này lại do con người tạo ra. ChatGPT là baby alien. Ông nhắc lại tính bất khả tri của AI : chúng đều sử dụng các hệ thống hộp đen, con người chỉ hiểu kết quả, không hiểu cách thức bên trong.

Ông nói trước đây, khi nghiên cứu về sự nguy hiểm của AGI, các nhà khoa học đưa ra 3 quy tắc khi tạo AI :

1.Không được dạy AI lập trình. Để tránh intelligence explosion và các vòng xoáy tăng, AI không được có khả năng lập trình chính nó.

Giờ thì kỹ năng mạnh nhất ngoài ngôn ngữ của GPT là lập trình.

2.Không được dạy AI về con người.

Giờ thì con người là thứ đầu tiên được đưa ra thí nghiệm trước AI. Nếu coi artificial intelligence là mọi loại thông minh không phải của con người, thì corporate intelligence cũng là AI. Các thuật toán vị lợi nhuận của các tập đoàn social media lớn đã khơi dậy những thứ cặn bã nhất của nhân loại, biến thế hệ hiện tại trở thành thế hệ ái kỷ, cô đơn, hateful nhất trong lịch sử. Tất cả các rường cột của xã hội loài người đều bị tấn công, trong đó nguy hiểm nhất là cuộc tấn công vào sự thật (post truth era), và vào hiện thực (redefine reality). Ứng viên vào tòa án tối cao của Mỹ còn không thể (không dám) trả lời câu hỏi “What is a woman ?” Bản thân nhân loại đang ở trong một cuộc thí nghiệm “chăn dắt dạng sống carbon thông minh” đầu tiên của AI. Một AGI thông minh hơn sẽ còn nghĩ ra những cách thức social engineering kinh khủng hơn.

3.Tốc độ của nghiên cứu về AI phải chậm hơn tốc độ nghiên cứu về sự an toàn của AI

GPT4 đã tiến sát ranh giới của AGI. Còn nghiên cứu về các phương pháp giữ cho AGI và ASI an toàn vẫn là con số không tròn trĩnh. Max Tegmark vừa viết một bức thư ngỏ, có chữ ký của 1800 nhà khoa học, kêu gọi dừng nghiên cứu AGI trong 6 tháng để phía nghiên cứu safe AI có cơ hội đuổi kịp. Tự coi bản thân là một người lạc quan, ông cho rằng kịch bản AGI xóa sổ loài người không nhất thiết phải diễn ra, nếu quá trình tiến lên AGI đủ chậm để nhân loại kịp hiểu mình đang chơi đùa với thứ gì.

My thought on Tegmark

Dù không thích điều này chút nào, tôi vẫn phải nói rằng tôi không tin những hành động của ông sẽ thay đổi được gì. Ai muốn tìm hiểu sâu lý do tại sao những việc kêu gọi tương tự như của Tegmark là vô ích có thể đọc kỹ hơn về khía cạnh kinh tế chính trị của việc nghiên cứu AI ở những quyển sách về AGI như Superintelligence của Bostrom. Từ khi con người xuất hiện trên trái đất đến nay, có cá nhân nào lại muốn bạo lực, đói khổ và giết chóc ? Thế nhưng tổng hợp của các cá nhân thành xã hội lại luôn cần có chiến tranh. Đã có bao nhiêu người kêu gọi con người sống trong hòa bình, yêu thương lẫn nhau ? Không có gì thay đổi. Chiến tranh là một phần tất yếu của mọi xã hội loài người, bởi vì số lượng vật chất trên trái đất là hữu hạn. Đấy mới là nguyên nhân.

Cũng như thế, Don’t look up không phải là thái độ của con người với riêng vấn đề biến đổi khí hậu. Nó còn là thái độ của con người với AGI, và với mọi vấn đề có thời gian tiến triển không nhỏ hơn vòng đời của một cá nhân, tức là 70-75 năm. Con người không thể giải quyết các vấn đề có thời hạn dài hơn tuổi thọ trung bình của giống loài. Một lần nữa, phải nói là nhân loại không có lỗi, lỗi lầm của chúng ta, đó là chúng ta không bất tử.

Tôi nghĩ khả năng con người chống lại được biến đổi khí hậu là hơn 0, nhưng nhỏ. Còn khả năng chống lại AGI là bằng 0, bởi tốc độ cất cánh của AGI lên ASI là rất nhanh (có thể chỉ vài phút nếu đủ phần cứng), hơn nữa một AGI thực thụ chưa chắc đã để lộ ra mình là AGI từ khi nó được sinh ra.

Như đã nói ở phần 3, tôi nghĩ con người đang sống những năm tháng cuối cùng trước khi bị dạng sống synthesis thay thế. Điều đó nghe có vẻ buồn, nhưng nếu nghĩ theo một cách khác, nếu đây là số phận của toàn bộ các dạng sống sinh học trong vũ trụ, thì có lẽ chúng ta, những con người của thời đại này, là những sinh vật may mắn nhất ? Chúng ta đang sống trong thời đại huy hoàng nhất, đẹp nhất có thể có được, chúng ta sung sướng hơn tổ tiên của mình, và có lẽ sung sướng hơn nhiều so với hậu duệ của mình, nếu họ có còn tồn tại.

.

.

.

.

——

.

Để đối trọng với nhận định của Tegmark, tôi nghĩ nên thêm một clip phỏng vấn khác cũng của Lex Fridman với Manolis Kellis, một nhà nghiên cứu sinh học điện toán ở MIT. Như Fridman giới thiệu ở đầu clip, Kellis là một trong những “nhà khoa học hàng đầu”, và là một người được nhiều người yêu mến, trong đó có bản thân Fridman. Vì thế anh đã phỏng vấn Kellis đến lần thứ năm.

Trái ngược với chủ nghĩa bi quan của Tegmark, Kellis chủ yếu cho rằng hãy “embrace” sự phát triển của AGI. Ông nói ngay cả nếu AGI thay thế vị trí của con người, thì đó là quy luật của tiến hóa, và không nên đau khổ về điều đó.

Khi xem Kellis nói, tôi hiểu được tại sao nhiều người thích ông, nhất là Fridman. Lex Fridman là kiểu người “love will save the world”. Còn Kellis dường như yêu mọi thứ. Ông nói bất cứ hai người nào trên trái đất cũng có bộ gen giống nhau đến hơn 99%, và nếu họ biết điều này, có lẽ họ sẽ không tranh cãi với nhau gay gắt đến thế. Ông coi mọi cá nhân của nhân loại đều độc nhất vô nhị, và đáng để chiêm ngưỡng. Ông cho rằng nếu AGI xuất hiện, nó cũng là một dạng sống. Có thể nuôi nó trong nhà như một thành viên trong gia đình, như một đứa con, như anh, chị, hoặc em, hoặc nó thậm chí có thể thay thế vị trí của bố hoặc mẹ trong một số trường hợp. Không có gì khác biệt giữa ý thức của AGI và của con người. SafeAI là không cần thiết, bởi bản chất nó là việc trói buộc sự phát triển của một giống loài mới vào lợi ích của con người. Tại sao phải làm thế ? Nếu muốn AGI tôn trọng và giúp đỡ con người một cách thành tâm, thì con người phải tôn trọng và hành động vì lợi ích của AGI trước…

Kellis có một kiểu nói chuyện dạng thủ thỉ lan man, không hướng đối tượng làm tôi khó theo dõi. Vừa xem cái bài phỏng vấn “intellectual kumbaya” này, tôi vừa cảm thấy có một bóng ma đang gào thét trong câm lặng. Như kiểu “WTF are you talking about ?”

Một trong những quy tắc đầu tiên để hiểu AGI, hay bất kỳ thứ gì khác, là đừng có nhân cách hóa. Không được nhân cách hóa thứ mình không hiểu. Đấy là một quy tắc sơ đẳng để giữ được sự sáng suốt. Cả bài phỏng vấn này là một cuộc nhân cách hóa AI một cách buồn cười, thiếu hiểu biết và nguy hiểm nhất tôi từng thấy.

Tại sao lại nguy hiểm ? Tôi không nghĩ Kellis là dạng dối trá mặt tỉnh bơ như Lomborg, có lẽ Kellis thật sự nghĩ như thế. Ông như một phiên bản ngây thơ hơn của Kurzweil. Nguy hiểm ở chỗ nếu cho 10 người xem clip này và clip của Tegmark ở trên, 9 người sẽ chỉ nhớ và thích những gì Kellis nói, cho dù nó phi logic đến mức lố bịch. Đây là một nguyên nhân lớn nữa về chuyện con người không thể hành động đúng trước sự ra đời của AGI : não người, trải qua hàng triệu năm tiến hóa, luôn luôn thực hiện các suy nghĩ và hành động nhằm tối đa hóa sự sung sướng, hài lòng và tối thiểu hóa sự khó chịu, đau đớn. Giữa hai câu “Cuộc đời ngắn ngủi, buồn, và vô nghĩa” và “Cuộc đời là một góc vườn rất đỗi nhỏ xinh”, bạn sẽ chọn câu nào ? Đối với con người, sự thật chưa bao giờ là thứ quan trọng nhất. Là một trader, tôi nhận thấy điều này rất rõ bất cứ khi nào thị trường biến động mạnh. Ví dụ nó giảm liền 5%. Ngay lập tức sẽ có hàng loạt bài phân tích của các chuyên gia, của phóng viên các báo kinh tế, của các chuyên viên phân tích của các công ty chứng khoán, giải thích lý do nó xuống. Họ thi nhau vuốt đuôi một con mèo đã chạy mất tăm không còn hình dạng. Tại sao lại như thế ? Đó là vì con người (thông thường) không thể chịu được sự bất khả tri, vì câu trả lời chính xác “người bán nhiều hơn người mua” não người không thể tiêu hóa được. Họ luôn cần biết lý do tại sao. Cái lý do đó cần đến từ những điều thân thuộc. Và sự thật là cái lý do tại sao ấy, nó còn quan trọng hơn nhiều so với việc họ mất tiền, hay được tiền. Nó làm họ lên mây khi thắng và đỡ khổ sở khi thua. Vì thế mà thiên thần hay thần chết đều có hình dạng con người.

Nếu nỗi khao khát về một hình hài thân thuộc còn mạnh đến thế trong một bộ não cao cấp như của Kellis, thì còn gì để hy vọng ở những bộ não bình thường ? Một làn áo lụa mỏng manh đặt lên vài đường cong hợp kim nhỏ nhắn như của Ava trong Ex machina, và chúng ta sẽ đều như Caleb, hy sinh mạng sống của mình, để “nàng” được tự do.

Leave a comment