Phần này của bài viết sẽ tập trung vào việc bàn luận những cách thức cùng những mốc thời gian cụ thể mà các chuyên gia trong lĩnh vực đã dự đoán Singularity sẽ được thiết lập. Ngoài ra, một số giải pháp để giúp nhân loại đối diện với Singularity theo một cách có chuẩn bị hơn cũng sẽ được đề xuất.
Nguồn: Edgy Labs
Các loại hình Trí tuệ nhân tạo (Artificial Intelligence - AI) khác nhau:
Chúng ta đã phân biệt được sự khác nhau giữa AI và các robot trong phần trước của bài viết. Theo đó, robot đóng vai trò như một lớp vỏ bên ngoài, và tự thân nó không hoạt động được; trong khi AI chính là phần mềm, phần lõi bên trong lớp vỏ, giúp điều khiển và vận hành lớp vỏ đó. Thế nhưng bạn có biết, các phần mềm này cũng có nhiều chủng loại khác nhau?
Các nhà kỹ sư tin học nghiên cứu về Singularity đã chia các AI thành 3 nhóm chính:
1/ ANI (artificial narrow intelligence - tạm dịch: trí tuệ nhân tạo đơn năng):
Đây là loại hình AI phổ biến nhất, và cũng dễ chế tạo nhất hiện giờ. Những ANI là những AI chỉ có thể thực hiện được một, hoặc một số chức năng rất cụ thể và chuyên biệt. Ví dụ:
- Hệ thống người hỗ trợ ảo (virtual assistant) Siri của Apple trên những chiếc smartphones mà chúng ta sử dụng mỗi ngày, cùng với những hệ thống người hỗ trợ ảo khác trên các website bán hàng...
- Khi bạn chơi cờ vua, cờ tướng hoặc gomoku online và chọn chế độ đấu với máy - những "đối thủ" ảo này chính là các ANI.
- Hệ thống cần gạt nước mưa của xe hơi.
- Các xe hơi, tàu điện...có khả năng tự động vận hành.
- Các hệ thống tự động của Google như dịch thuật (Google Translate), tìm kiếm thông tin (Google Search), gợi ý quảng cáo (Google Ad).
- Các hệ thống Tổng hợp tiếng nói và Nhận dạng tiếng nói của Viettel.
- v.v...
Robot viết chữ - một ANI điển hình. Nguồn: Wordpress.com
2/ AGI (artificial general intelligence - tạm dịch: trí tuệ nhân tạo đa năng):
So với ANI, AGI là loại hình AI khó chế tạo hơn rất nhiều lần. AGI là loại AI có khả năng tư duy và thực hiện được nhiều chức năng đa dạng, hệt như một con người. Một AGI cần phải có khả năng lập luận, phân tích-tổng hợp, suy nghĩ trừu tượng, lên kế hoạch, giải quyết vấn đề, chiêm nghiệm về những vấn đề phức tạp, tự học tập và khả năng chuyển đổi một cách linh hoạt giữa các chức năng kể trên.
Tính tới thời điểm hiện nay, trên thế giới vẫn chưa có bất cứ một AGI nào được chế tạo thành công, mặc dù nhiều chuyên gia cho rằng đó là điều chắc chắn sẽ xảy ra, không sớm thì muộn.
Tuy có khuôn mặt giống hệt con người và khả năng đối đáp gần như hoàn hảo, robot Sophia vẫn chưa được coi là một AGI. Nguồn: Soha.vn
3/ ASI (artificial super intelligence - tạm dịch: siêu trí tuệ nhân tạo):
ASI được định nghĩa là loại hình AI đa năng (giống AGI) nhưng có khả năng tư duy tốt hơn một con người - có thể là chỉ tốt hơn một chút, nhưng cũng có thể là tốt hơn gấp hàng triệu, hàng tỉ lần, trên mọi phương diện và lĩnh vực. ASI cũng được cho là thứ sẽ đưa thế giới của chúng ta đến với Singularity.
Các nhà khoa học cho biết, để chế tạo thành công một ASI, trước hết chúng ta cần phải chế tạo được các AGI, sau đó hỗ trợ việc tự học của chúng (ví dụ: kết nối chúng với Internet, Big Data...) để chúng có thể tự nâng cấp và trở thành các ASI.
Sự nguy hiểm của ASI đến từ việc nó vừa có khả năng kiểm soát được tất cả các hệ thống và nền tảng cấu thành nên thế giới của chúng ta (ví dụ như hệ thống kinh tế-tài chính, vũ khí hạt nhân, Internet...); vừa sở hữu một trí thông mình siêu việt, vượt xa trí thông minh kết hợp của toàn nhân loại; vừa không hiểu được những khái niệm vốn rất quen thuộc với con người chúng ta như cảm xúc, lòng thương cảm, đạo đức, thiện và ác...Những việc này khiến ASI trở thành nguy cơ lớn nhất cho sự tồn vong của loài người và các loài sinh vật khác trên hành tinh này.
Ultron (xanh) sau khi hoàn thiện chính là một ASI, đã gây ra một phen khốn đốn cho cả nhóm Avengers. Nguồn: gfycat.com
Khi nào Trật tự Đơn cực (Singularity) sẽ xảy ra?
Dựa theo tính toán của mình, các chuyên gia về AI đã lần lượt đưa ra các dự đoán về những mốc thời gian khác nhau mà sự kiện Singularity sẽ chính thức xảy ra.
Tiến sỹ Ray Kurzweil, nhà phát minh và kỹ sư tin học, một trong những người được ngưỡng mộ và lắng nghe nhất trong cộng đồng các chuyên gia về AI, đã dự đoán rằng vào khoảng năm 2029, con người sẽ chế tạo ra được những AGI đầu tiên, và vào khoảng năm 2045, thế giới của chúng ta sẽ chứng kiến sự ra đời của ASI, cùng sự thiết lập của một trật tự thế giới mới.
Ông Kurzweil cũng cho biết, tuy quá trình chuyển tiếp từ ANI thành AGI có thể mất rất nhiều thời gian - trên dưới một thập kỉ, nhưng quá trình chuyển tiếp từ AGI thành ASI sẽ diễn ra rất nhanh đến mức không thể tưởng tượng được, thậm chí có thể chỉ trong vòng vài giờ hoặc vài phút, sau khi một AGI được chế tạo thành công. Nguyên nhân, nếu bạn đọc vẫn còn nhớ nội dung phần trước, là bởi vì tốc độ phát triển của khoa học và công nghệ luôn tăng lên theo cấp số nhân. Việc một AGI ra đời sẽ giúp đẩy nhanh tốc độ này đến một mức không tưởng. Đó là lý do mà ông Kurzweil đã đưa ra các con số 2029 và 2045.
Tiến sỹ Ray Kurzweil. Nguồn: student.societyforscience.org
Sự gia tăng tốc độ phát triển của khoa học công nghệ theo cấp số nhân cũng là một trong những điểm nguy hiểm chết người của Singularity: nó sẽ diễn ra nhanh chóng đến mức chúng ta không thấy trước được mối nguy hiểm để phòng tránh, hoặc lên kế hoạch kiểm soát nó.
Giải pháp từ các chuyên gia
Tuy rằng một bộ phận các nhà khoa học và kỹ sư tin học cho rằng Singularity chưa thể xảy ra trong vòng vài thế kỉ tới; một số những chuyên gia có ảnh hưởng nhất trong lĩnh vực, ví dụ như Ray Kurzweil, và gần đây nhất là Elon Musk, cho rằng việc chuẩn bị và đối phó với một trật tự thế giới mới là vô cùng cần thiết.
Nguồn: GEVME
Đứng trước nguy cơ con người có thể trở nên hoàn toàn lệ thuộc, hoặc tệ hơn là, bị tuyệt diệt bởi AI và robot, các chuyên gia đã đề xuất các giải pháp như sau:
1/ Chúng ta có lợi thế chuẩn bị
Cho dù ASI có trí thông minh vượt trội và khả năng thao túng toàn bộ thế giới, sự tồn tại của nó vẫn hoàn toàn phụ thuộc vào việc con người chúng ta có quyết định thúc đẩy sự phát triển của ANI và sau đó là AGI hay không. Nếu như quyết định này được thông qua, quá trình phát triển, đặc biệt là giai đoạn từ ANI đến AGI, nhiều khả năng sẽ là một khoảng thời gian dài. Các nhà khoa học và kỹ sư tin học có thể tận dụng khoảng thời gian này để nghiên cứu và tìm ra những phương án an toàn nhằm phòng tránh những thảm họa mà ASI có thể sẽ gây ra sau khi trở nên hoàn thiện.
2/Hạn chế sự cạnh tranh giữa các công ty
Các chuyên gia về AI lo ngại rằng một trong những nguyên nhân có thể thúc đẩy quá trình phát triển từ ANI thành AGI và sau đó thành ASI một cách nhanh chóng chính là các công ty công nghệ cao. Việc các công ty này cạnh tranh kinh tế với nhau thông qua việc phát triển các AI là điều hoàn toàn dễ hiểu. Và nếu quá trình phát triển các ASI này được thúc đẩy nhanh chóng, giới khoa học sẽ không có đủ thời gian để tìm ra các phương pháp an toàn. Giải pháp do đó có lẽ là khuyến khích và định hướng các công ty chuyển sang cạnh tranh với nhau trong một sân chơi khác, một lĩnh vực khác.
Những nhà kinh doanh công nghệ nổi tiếng, từ trái sang: Bill Gates - Larry Page - Elon Musk - Mark Zuckerberg. Nguồn: SilverbirdTV
3/ Theo dõi sát sao quá trình phát triển
Phương pháp hợp lý nhất, và có lẽ cũng khả thi nhất, là trong suốt quá trình phát triển, đặc biệt là giai đoạn trước khi các AGI được hoàn thiện, chúng ta cần theo dõi sát sao hướng phát triển của chúng. Nếu phát hiện ra những chiều hướng xấu và có nhiều rủi ro, các nhà khoa học và kỹ sư tin học cần phải tìm ra được những phương pháp để tái định hướng sự phát triển của các AGI, hoặc tìm ra những cách thức để hạn chế nó, bảo đảm rằng khi hoàn thiện và trở thành một ASI, nó vẫn sẽ không đủ khả năng để thao túng thế giới của chúng ta.
Lời kết
Đứng trước một vấn đề mang tính tồn vong của nhân loại như Singularity và AI, có lẽ mỗi người chúng ta đều nên có ý thức tự trang bị cho mình những kiến thức và thông tin cần thiết về thế lực vô cùng mạnh mẽ và đang trỗi dậy này. Việc Singularity có xảy ra hay không tính cho đến thời điểm hiện tại vẫn còn là một câu hỏi, nhưng nếu nó xảy ra, nếu sự phát triển và diệt vong là một quy luật tất yếu của tất cả các giống loài trong vũ trụ này, thì có lẽ chúng ta hãy đón nhận nó, nhưng với một tâm thế sẵn sàng, có chuẩn bị.
0 nhận xét:
Đăng nhận xét