Điểm kỳ dị công nghệ

Bách khoa toàn thư mở Wikipedia
Bước tới: menu, tìm kiếm

Kỳ dị kỹ thuật là sự xuất hiện trên lý thuyết của một siêu trí thông minh cao hơn con người thông qua các phương tiện kỹ thuật.[1] Bởi những khả năng của một trí thông minh như vậy là khó hiểu với một người bình thường, sự xuất hiện của một kỳ dị kỹ thuật được coi là một chân trời sự kiện, sau thời điểm này các sự kiện sẽ không thể tiên đoán hay hiểu được. Những người đề xuất ra điểm kỳ dị thường phát biểu rằng một sự "bùng nổ trí thông minh",[2][3] nơi những siêu trí thông minh thiết kế liên tiếp ra những bộ óc ngày càng mạnh, có thể diễn ra rất nhanh chóng và sẽ không dừng lại cho tới khi các khả năng nhận thức của nó vượt quá khả năng của con người.

Thuật ngữ này đã được tác gia về khoa học viễn tưởng Vernor Vinge quảng bá, ông cho rằng trí thông minh nhân tạo, sự nâng cao khả năng sinh học con người, hay các giao diện não-máy tính có thể là những nguyên nhân dẫn tới kỳ dị. Thuật ngữ riêng "kỳ dị" như một sự miêu tả về một hiện tượng tăng tốc kỹ thuật gây ra một kết quả không thể dự đoán trong xã hội đã được nhà toán học John von Neumann đặt ra. Vào giữa những năm 1950 ông đã phát biểu về "sự tiến bộ chưa từng có ngày càng mạnh của kỹ thuật và những thay đổi trong phương thức cuộc sống con người, dẫn tới sự xuất hiện của một số kỳ dị cốt yếu trong lịch sử của cuộc đua mà vượt ngoài nó những công việc của con người, như chúng ta biết, sẽ không thể tiếp tục." Khái niệm này cũng đã được những người theo thuyết vị lai như Ray Kurzweil ủng hộ, ông đã nêu việc Neumann sử dụng thuật ngữ này trong lời nói đầu cho cuốn sách kinh điển "The Computer and the Brain" của Neumann.

Một số nhà phân tích cho rằng kỳ dị sẽ xảy ra ở một thời điểm nào đó trong thế kỷ 21, dù những con số ước tính của họ có khác biệt.

Các khái niệm căn bản[sửa | sửa mã nguồn]

Kurzweil viết rằng, vì những sự chuyển đổi mô hình, một khuynh hướng phát triển theo cấp số nhân sẽ mở rộng định luật Moore từ mạch tích hợp tới những những transistor, ống chân không, relay, và các máy tính cơ điện trước đó. Ông dự đoán rằng sự phát triển theo cấp số nhân sẽ tiếp tục diễn ra, và rằng trong vài thập kỷ khả năng tính toán của mọi máy tính sẽ vượt quá trí não của con người, và trí thông minh nhân tạo cũng sẽ xuất hiện ở khoảng thời gian đó.

Nhiều người trong hầu hết những tác gia được công nhận về sự kỳ dị, như Vernor Vinge và Ray Kurzweil, định nghĩa khái niệm trong những giới hạn của việc tạo ra siêu trí thông minh bằng kỹ thuật, và cho rằng con người hiện tại rất khó hay không thể dự đoán một hậu kỳ dị sẽ như thế nào, bởi những khó khăn trong việc tưởng tượng những dự định và khả năng của các thực thể siêu thông minh.[4][5][6] Thuật ngữ "kỳ dị kỹ thuật" ban đầu được Vinge đặt ra, ông đã thực hiện một suy luận dựa trên sự giống nhau giữa thống kê về khả năng của chúng ta trong việc dự đoán điều sẽ xảy ra sau sự phát triển của siêu trí thông minh và thống kê khả năng dự đoán của vật lý hiện đại tại kỳ dị không-thời gian phía sau chân trời sự kiện của một hố đen.[6]

Một số tác gia sử dụng "kỳ dị" theo một cách rộng hơn để chỉ bất kỳ thay đổi căn bản nào trong xã hội của chúng ta, xuất hiện bởi những công nghệ mới như công nghệ nano phân tử,[7][8][9] dù Vinge và những tác gia nổi bật khác đã phát biểu rõ rằng nếu không có siêu trí thông minh, những thay đổi đó sẽ không được coi là một kỳ dị thật sự.[4] Nhiều tác gia cũng gắn kỳ dị với những quan sát về sự tăng trưởng theo cấp số nhân trong nhiều ngành công nghệ (với định luật Moore là ví dụ đáng chú ý nhất), sử dụng những quan sát đó như một cơ sở để dự đoán rằng kỳ dị có lẽ sẽ xảy ra ở một thời điểm trong thế kỷ 21.[8][10]

Một kỳ dị kỹ thuật bao gồm khái niệm của một sự bùng nổ trí thông minh, một thuật ngữ đã được I. J. Good đặt ra năm 1965.[11] Dù tiến bộ kỹ thuật đã tăng tốc, nó vẫn bị giới hạn bởi trí thông minh căn bản của trí óc con người, vốn, theo Paul R. Ehrlich, đã không có thay đổi gì nhiều trong hàng nghìn năm.[12] Tuy nhiên, với năng lực ngày càng gia tăng của máy tính và các công nghệ khác, có thể cuối cùng nó sẽ có khả năng tạo ra một loại máy thông minh hơn loài người.[13] Nếu trí thông minh vượt loài người được tạo ra, dù bằng cách khuếch đại trí thông minh của con người hay trí thông minh nhân tạo, nó sẽ mang lại những khả năng giải quyết vấn đề và sáng tạo cao hơn con người, thì khi ấy nó có thể thiết kế một cỗ máy có khả năng lớn hơn, hay tự viết lại các mã nguồn của mình để trở nên thông minh hơn. Cỗ máy có khả năng cao hơn này sau đó lại có thể tiếp tục thiết kế ra một cỗ máy khác với khả năng lớn hơn. Những sự lặp lại này có thể tăng tốc, dẫn tới sự tự cải thiện đệ quy, có khả năng co phép sự thay đổi lớn về lượng trước khi bất kỳ một giới hạn trên nào được các quy luật vật lý hay tính toán lý thuyết bắt đầu.[14][15][16]

Sự tăng trưởng theo cấp số nhân trong công nghệ máy tính theo định luật Moore thường được nêu ra như một nguyên nhân để dự đoán một kỳ dị sẽ xảy ra trong một tương lai khá gần, và một số các tác gia đã đề xuất việc tổng quát hóa định luật Moore. Nhà khoa học máy tính và cũng là người theo thuyết vị lai Hans Moravec đã đề xuất trong một cuốn sách năm 1998 rằng vòng xoáy tăng trưởng theo hàm mũ có thể mở rộng lại thông qua các công nghệ máy tính cũ trước mạch tích hợp. Ray Kurzweil, một người theo thuyết vị lai, đã đưa ra một định luật về sự tăng tốc quay trở lại trong đó tốc độ thay đổi kỹ thuật (và nói rộng hơn, mọi quá trình tiến hóa [17]) tăng tốc theo hàm mũ, tổng quát hóa định luật Moore theo cùng cách như đề xuất của Moravec, và cũng bao gồm công nghệ vật liệu (đặc biệt như được áp dụng với công nghệ nano), công nghệ y khoa và những ngành khác.[18] Như các tác giả khác, dù, ông giữ thuật ngữ "kỳ dị" cho một sự gia tăng nhanh chóng trí thông minh (trái ngược với các công nghệ khác), ví dụ ông đã viết rằng "Kỳ dị sẽ cho phép chúng ta vượt hơn những giới hạn của cơ thể và bộ não sinh học của chúng ta... Hậu Kỳ dị sẽ không có sự phân biệt giữa con người và máy móc ".[19] Ông cũng định nghĩa thời điểm dự đoán kỳ dị của mình (2045) theo các phạm vi của thời điểm ông cho rằng trí thông minh máy tính sẽ vượt quá nhiều lần tổng lượng khả năng trí tuệ cuon người, viết rằng những tiến bộ trong lĩnh vực máy tính trước thời điểm này “sẽ không đại diện cho Kỳ dị " bởi chúng “chưa tương thích với một sự mở rộng sâu sắc trong trí thông minh của chúng ta."[20]

Thuật ngữ "kỳ dị kỹ thuật " phản ánh ý tưởng rằng sự thay đổi đó có thể diễn ra bất nogừ, và rằng rất khó để tiên đoán một thế giới mới như vậy sẽ vận hành như thế nào.[21][22] Vẫn chưa rõ rằng liệu một sự bùng nổ trí thông minh kiểu như vậy sẽ có lợi hay hại, hay thậm chí là một nguy cơ với sự tồn tại của loài người,[23][24] bởi vấn đề vẫn chưa được hầu hết các nhà nghiên cứu về trí thông minh nhân tạo vượt quá con người giải quyết, dù chủ đề về trí thông minh nhân tạo vượt quá con người thân thiện đã được Viện Kỳ dị về Trí thông minh Nhân tạoViện tương lai loài người điều tra.[21]

Nhiều nhà công nghệ học và học giả nổi tiếng tranh cãi về khả năng của một kỳ dị kỹ thuật, gồm cả Jeff Hawkins, John Holland, Jaron Lanier, và Gordon Moore, người có định luật (định luật Moore) thường được nêu ra hỗ trợ cho khái niệm này.[25][26]

Lịch sử ý tưởng[sửa | sửa mã nguồn]

Vào giữa thế kỷ 19 Friedrich Engels đã viết rằng khoa học phát triển tỷ lệ thuận với "khối lượng tri thức" được thừa hưởng từ những thế hệ trước, ông đã đề xuất một khái niệm toán học chính thức hơn rằng, từ thế kỷ 16, sự phát triển của khoa học đã tăng tỷ lệ thuận với khoảng bình phương thời gian từ thời điểm bắt đầu của nó.[cần dẫn nguồn]

Năm 1847, R. Thornton, biên tập viên của The Expounder of Primitive Christianity,[27] đã viết về sự phát minh mới diễn ra về một loại máy tính cơ khí bốn chức năng:

...những chiếc máy như vậy, mà nhờ nó người học giả có thể, chỉ bằng cách xoay một cái tay quay, tìm ra lời giải cho một vấn đề mà không phải mệt mỏi sử dụng trí óc, khi xuất hiện trong các trường học, sẽ tạo ra những tổn thương không thể tính toán được. Nhưng ai biết rằng những cỗ máy ấy khi đã trở nên hoàn thiện hơn, có thể không chỉ tự khắc phục những khiếm khuyết của nó mà sau đó còn tìm ra được những ý tưởng vượt ngoài tầm hiểu biết của trí óc loài người

Năm 1951, Alan Turing đã nói về những cỗ máy vượt hơn trí tuệ loài người:[28]

một khi phương pháp suy nghĩ bằng máy đã bắt đầu, sẽ không mất nhiều thời gian để nó vượt qua năng lực của chúng ta.... Vì thế ở một số mức độ chúng ta phải chuẩn bị cho việc máy móc sẽ giành lấy quyền kiểm soát, theo cách đã được đề cập tới trong cuốn 'Erewhon' của Samuel Butler.

Vào giữa những năm 50 Stanislaw Ulam đã có một cuộc trao đổi với John von Neumann trong đó von Neumann nói về "sự phát triển nhanh chưa từng có của công nghệ và những thay đổi trong phương thức cuộc sống của loài người, dẫn tới sự xuất hiện của một số kỳ dị trong lịch sử cuộc đua mà vượt ngoài nó những công việc của loài người như chúng ta biết sẽ không thể tiếp tục."

Năm 1965, I. J. Good lần đầu tiên viết về một sự "bùng nổ trí thông minh", cho rằng nếu máy móc thậm chí chỉ hơi thông minh hơn con người, chúng có thể cải tiến thiết kế của mình theo những cách mà người thiết kế ra chúng không bao giờ có thể lường được, và vì thế sẽ khiến cho chúng càng trở nên thông minh hơn nữa. Những sự cải tiến ban đầu có thể là nhỏ, nhưng khi máy móc trở nên thông minh hơn thì chúng lại càng có thể cải tiến để thông minh hơn nữa, và điều này sẽ dẫn tới một lớp những hành động tự cải tiến và một sự nhảy vọt bất ngờ tới siêu trí thông minh (hay một kỳ dị).

Năm 1983, nhà toán học và tác gia Vernor Vinge đã làm cho ý tưởng của Good về một sự bùng nổ trí thông minh được biết đến nhiều hơn trong một số bài viết, lần đầu đề cập tới chủ đề này bằng văn bản trong số ra tháng 1 năm 1983 của tạp chí Omni. Trong bài viết này, dường như Vinge đã lần đầu tiên sử dụng thuật ngữ "kỳ dị" theo một cách thức liên quan trực tiếp tới việc tạo ra các cỗ máy thông minh,[29][30] viết:

Chúng ta sẽ sớm tạo ra những trí thông minh cao hơn mình. Khi điều này xảy ra, lịch sử loài người sẽ đạt tới một kiểu kỳ dị, một sự chuyển tiếp trí tuệ không thể lĩnh hội như là không thời gian bị giới hạn trong một hố đen, và thế giới sẽ vượt xa rất nhiều tầm hiểu biết của chúng ta. Điểm kỳ dị này, tôi tin rằng, đã ám ảnh một số tác gia về khoa học viễn tưởng. Nó khiến việc thực hóa khả năng ngoại suy tới một tương lai liên sao là không thể. Vì thế để viết một câu chuyện có bối cảnh hơn một thế kỷ, ta sẽ cần một cuộc chiến tranh hạt nhân ở giữa... để thế giới vẫn còn có thể hiểu được.

Năm 1984, Samuel R. Delany đã sử dụng "cultural fugue" (cơn điên văn hóa) như một thiết bị âm mưu trong tiểu thuyết khoa học viễn tưởng của mình Stars in My Pocket Like Grains of Sand; sự bỏ trốn cuối cùng của sự phức tạp công nghệ và văn hóa thực tế tiêu diệt mọi sự sống tại bất kỳ thế giới nào nó diễn ra, một quá trình mà những nhân vật trong tiểu thuyết không hiểu thấu được, và để chống lại nó họ quyết dùng cách phòng thủ. Năm Ray Solomonoff đã đưa ra ý tưởng "điểm vô tận"[31] trong thang thời gian của một trí thông minh nhân tạo, phân tích mức độ của cú "sốc tương lai" mà "chúng ta có thể chờ đợi từ cộng đồng khoa học trí thông minh nhân tạo đang ngày càng lớn của mình" và trên các tác động xã hội. Các ước tính đã được thực hiện để "xem bao giờ những mốc đó sẽ diễn ra, tiếp đó là một số đề xuất cho cách sử dụng hiệu quả hơn sự tăng trưởng công nghệ cực kỳ nhanh chóng sẽ diễn ra đó."

Vinge cũng quảng bá khái niệm trong các tiểu thuyết khoa học viễn tưởng như Marooned in Realtime (1986) và A Fire Upon the Deep (1992). Cuốn Maroon in Realtime được đặt trong bối cảnh một thế giới đang gia tốc thay đổi nhanh chóng dẫn tới sự xuất hiện của ngày càng nhiều công nghệ phức tạp với khoảng cách thời gian ngày càng thu hẹp, cho tới một điểm vượt ngoài tầm hiểu biết của con người. Cuốn A Fire Upon the Deep bắt đầu với một miêu tả tưởng tượng về sự tiến hóa của một siêu trí thông minh vượt quá các giai đoạn phát triển theo hàm mũ chấm dứt trong một siêu nghiệm, hầu như có quyền lực vô hạn không thể hiểu nổi với con người. Nó cũng đặt giả thiết rằng sự phát triển không chỉ dừng lại ở mức độ này.

Trong cuốn sách Mind Children năm 1988 của mình, nhà khoa học máy tính và người theo thuyết vị lai Hans Moravec đã tổng quát hóa định luật Moore để đưa ra những dự báo về thương lai của cuộc sống nhân tạo. Moravec phác thảo ra một thời gian biểu và một kịch bản theo hướng này,[32][33] trong đó các robot sẽ tiến hóa thành một loạt những loài nhân tạo mới, bắt đầu khoảng năm 2030–2040.[34] Trong Robot: Mere Machine to Transcendent Mind, xuất bản năm 1998, Moravec còn xem xét thêm những hàm ý của sự tiến hóa của trí thông minh robot, tổng quát hóa định luật Moore về công nghệ tiên đoán trước mạch tích hợp, và suy sét về một "mind fire" sắp tới của sự mở rộng nhanh chóng của trí thông minh nhân tạo, tương tự như những ý tưởng của Vinge.

Một bài viết năm 1993 của Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Era",[4] đã được phổ biến rộng rãi trên internet và giúp quảng bá ý tưởng.[35] Bài viết có chứa tuyên bố thường được trích dẫn, "Trong vòng ba mươi năm, chúng ta sẽ có các phương tiện kỹ thuật để tạo ra trí thông minh siêu phàm. Ngay sau đó, kỷ nguyên con người sẽ chấm dứt." Vinge đã cải tiến ước tính của mình về những biểu thời gian liên quan, thêm, "Tôi sẽ thấy ngạc nhiên nếu sự kiện này diễn ra trước năm 2005 hay sau năm 2030."

Vinge đã dự báo bốn cách thức đề kỳ dị có thể diễn ra:[36]

  1. Sự phát triển của máy tính đã bắt đầu có khả năng "nhận thức" và trí thông minh siêu phàm.
  2. Các mạng máy tính lớn (và những người dùng liên kết của chúng) có thể "bắt đầu có nhận thức" như một thực thể thông minh siêu phàm.
  3. Các giao diện máy tính/con người có thể quá gắn kết tới mức người dùng có thể được coi một cách hợp lý là trí thông minh siêu phàm.
  4. Khoa học sinh học có thể tìm ra những cách thức để cải thiện trí tuệ tự nhiên của con người.

Vinge tiếp tục bằng cách dự đoán rằng những trí thông minh siêu phàm sẽ có khả năng tăng cường trí tuệ của chúng nhanh hơn so với loài người là thực thể tạo ra chúng. "Khi trí thông minh cao hơn con người đảm nhiệm việc phát triển," Vinge viết, "sự phát triển đó sẽ nhanh hơn rất nhiều." Chu kỳ phản hồi này của trí thông minh tự cải thiện, ông dự đoán, sẽ tạo ra một lượng lớn tiến bộ công nghệ trong một giai đoạn ngắn, và rằng việc tạo ra trí thông minh siêu phàm đại diện cho sự tan rã khả năng định hình tương lai của loài người. Ông cho rằng các tác gia sẽ không thể viết về những nhân vật thực tiễn vượt quá trí thông minh của con người, bởi những ý tưởng của một trí thông minh như vậy ở ngoài tầm thể hiện của con người. Vinge gọi sự kiện này là "sự Kỳ dị".

Cuốn sách khoa học thường thức The Spike (1997) của Damien Broderick đã lần đầu tiên điều tra chi tiết kỳ dị kỹ thuật.

Năm 2000, Bill Joy, một chuyên gia công nghệ nổi bật và người sáng lập Sun Microsystems, đã lên tiếng lo ngại về những nguy hiểm tiềm tàng của kỳ dị.[37]

Năm 2005, Ray Kurzweil đã xuất bản The Singularity is Near, đưa ý tưởng kỳ dị tới truyền thông đại chúng cả qua việc tiếp cận cuốn sách và một chiến dịch quảng cáo bao gồm cả một lần xuất hiện trên The Daily Show with Jon Stewart.[38] Cuốn sách gây ra nhiều tranh cãi kịch liệt, một phần bởi những dự đoán không tưởng của Kurzweil trái ngược hoàn toàn với những người khác, những hình ảnh đen tối về những khả năng của kỳ dị. Kurzweil, những lý thuyết của ông, và những tranh cãi xung quanh nó là chủ đề của bộ phim tài liệu của Barry Ptolemy Transcendent Man.

Năm 2007, Eliezer Yudkowsky đề xuất rằng nhiều định nghĩa khác nhau đã được gán cho "kỳ dị" không tương thích lẫn nhau chứ không phải hỗ trợ cho nhau.[8] Ví dụ, Kurzweil ngoại suy những phương hướng kỹ thuật hiện tại vượt qua sự xuất hiện của một trí thông minh nhân tạo có khả năng tự cải thiện hay siêu trí thông minh, mà Yudkowsky cho rằng thể hiện một sự căng thẳng với cả đề xuất về sự tiến bộ không liên tục trong trí thông minh của I. J. Good và luận điểm của Vinge về khả năng không thể dự đoán.

Năm 2008, Robin Hanson (lấy "kỳ dị" để chỉ một sự gia tăng mạnh trong số mũ của tăng trưởng kinh tế) liẹt kê cách mạng nông nghiệpcách mạng công nghiệp như những kỳ dị trong quá khứ. Ngoại suy từ những sự kiện trong quá khứ đó, Hanson đề xuất rằng kỳ dị kinh tế tiếp theo sẽ làm tăng trưởng kinh tế trong khoảng 60 tới 250 lần. Một sự cải tiến cho phép sự thay thế toàn bộ lao động loài người có thể dẫn tới sự kiện này.[39]

Năm 2009, Kurzweil và nhà sáng lập X-Prize Peter Diamandis thông báo việc thành lập Singularity University, và tuyên bố nhiệm vụ của nó là "tập hợp, đào tạo và truyền cảm hứng cho một lực lượng lãnh đạo những người cố gắng để hiểu và tạo điều kiện thuận lợi cho sự phát triển của những công nghệ có khả năng tiến bộ nhằm giải quyết những thách thức lớn của nhân loại."[40] Được hỗ trợ tài chính bởi Google, Autodesk, ePlanet Ventures, và một nhóm các nhà lãnh đạo ngành công nghiệp công nghệ, Singularity University có trụ sở tại Ames Research Center của NASAMountain View, California. Tổ chức phi lợi nhuận này tiến hành một chương trình đào tạo mười tuần hàng năm trong mùa hè về mười công nghệ và vấn đề liên quan, và một loạt các chương trình thực hi trong suốt cả năm.

Năm 2010, Aubrey de Grey áp dụng thuật ngữ "Methuselarity"[41] để chỉ thời điểm ở đó công nghệ y tế phát triển quá nhanh tới mức tuổi thọ con người gia tăng hơn một tuổi mỗi năm. Năm 2010 trong "Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality"[42] Robert Geraci để xuất một miêu tả của "cyber-theology" đang phát triển có cảm hứng từ những nghiên cứu Kỳ dị. Một cuốn sách khám phá một số chủ đề đó là cuốn Holy Fire năm 1996 của Bruce Sterling, đưa ra định đề rằng một Methuselarity sẽ trở thành một chính phủ trong tay những người có tuổi.

Năm 2011, Kurzweil lưu ý những khuynh hướng đang hiện hữu và kết luận rằng kỳ dị đang ngày càng có nhiều khả năng xảy ra vào khoảng năm 2045. Ông nói với tạp chí Time: "Chúng ta sẽ thành công trong việc thực hiện đảo ngược não bộ con người vào giữa thập niên 2020. Tới cuối thập kỷ đó, các máy tính sẽ có khả năng thông minh tương đương não bộ con người."[43]

Bùng nổ trí thông minh[sửa | sửa mã nguồn]

Ý tưởng về một sự "bùng nổ trí thông minh" lần đầu được miêu tả như vậy bởi Good (1965), người dự đoán về những tác động của những cỗ máy siêu nhân:

Hãy để một cỗ máy siêu thông minh được định nghĩa như một cỗ máy có thể vượt xa toàn bộ hoạt động trí tuệ của bất kỳ một người nào tuy vậy nó phải thông minh. Bởi thiết kế máy móc là môtj trong những hoạt động trí tuệ đó, một cỗ máy siêu thông minh có thể thiết kế thậm chí những cỗ máy tốt hơn; sau đó không nghi ngờ gì nữa sẽ có một sự ‘bùng nổ trí thông minh,’ và trí thông minh của con người sẽ bị bỏ xa lại sau. Vì thế cỗ máy siêu thông minh đầu tiên là sáng tạo cuối cùng mà con người cần thực hiện.

Hầu hết các biện pháp được đề xuất để tạo ra các trí tuệ siêu nhiên hay transhuman rơi vào một trong hai tiêu chí, khuếch đại trí thông minh của trí não con người và trí thông minh nhân tạo. Có rất nhiều biện pháp được suy đoán để tạo ra sự gia tăng trí thông minh, và bao gồm kỹ thuật y sinh, kỹ thuật gien, các loại thuốc hưng trí, những hỗ trợ trí thông minh nhân tạo, các giao diện não bộ-máy tính trực tiếp và lưu trữ thông tin não bộ (mind uploading). Sự tồn tại của nhiều con đường tới một sự bùng nổ trí thông minh khiến một kỳ dị càng dễ xảy ra hơn; nếu một kỳ dị không xảy ra tất cả các biện pháp đó đều thất bại.[6]

Hanson (1998) hoài nghi về khuếch đại trí thông minh con người, viết rằng một khi một người đã hái hết "những trái cây dưới thấp" bằng các phương pháp đơn giản để gia tăng trí thông minh loài người, những cải thiện tiếp theo sẽ trở nên ngày càng khó để tìm kiếm. Dù có nhiều biện pháp được suy đoán để khuếch đại trí thông minh loài người, trí thông minh nhân tạo phi loài người (đặc biệt là hạt giống trí thông minh nhân tạo) là ý tưởng phổ biến nhất cho các tổ chức tìm kiếm việc đi tới một kỳ dị.[cần dẫn nguồn]

Một sự bùng nổ trí thông minh có xảy ra hay không sẽ phụ thuộc vào ba yếu tố.[44] Đầu tiên, yếu tố tăng tốc, là những sự tăng cường trí thông minh mới được hiện thực bởi mỗi sự cải thiện trước đó. Ngược lại, khi trí thông minh trở nên tân tiến hơn, những tân tiến hơn nữa sẽ trở nên ngày càng phức tạp, có thể vượt quá ưu thế của trí thông minh đã gia tăng. Mỗi sự cải tiến phải có khả năng sinh ra ít nhất một hay nhiều cải tiến, theo trung bình, để kỳ dị có thể tiếp diễn. Cuối cùng, có vấn đề về một giới hạn trên phần cứng. Việc thiếu vắng máy tính lượng tử, cuối cùng các quy luật của vật lý sẽ ngăn cản bất kỳ sự cải tiến nào tiếp nữa.

Có hai sự độc lập logic, nhưng tăng cường lẫn nhau, những hiệu ứng gia tốc: những sự gia tăng ở tốc độ tính toán, và những cải tiến với thuật toán được sử dụng.[45] Sự gia tăng tốc độ tính toán đã được tiên đoán bởi Quy luật Moore và dự đoán những cải tiến trong phần cứng,[46] và khá tương thích với tiến bộ công nghệ trước đó. Mặt khác, hầu hết các nhà nghiên cứu trí thông minh nhân tạo tin rằng phần mềm quan trọng hơn phần cứng.[cần dẫn nguồn]

Những cải tiến về tốc độ[sửa | sửa mã nguồn]

Đầu tiên là những cải tiến về tốc độ mà trí não có thể hoạt động. Dù là con người hay trí thông minh nhân tạo, phần cứng tốt hơn là gia tăng tốc độ cải tiến phần cứng trong tương lai. Quá đơn giản hóa,[47] Định luật Moore cho rằng nếu sự nhân đôi tốc độ đầu tiên cần 18 tháng, lần thứ hai sẽ mất 18 tháng chủ quan; hay 9 tháng khách quan, sau đó, bốn tháng, hai tháng, và tiếp tục tới một kỳ dị về tốc độ.[48] Một giới hạn trên về tốc độ cuối cùng cũng có thể chạm tới, dù không rõ nó sẽ cao tới mức nào. Hawkins (2008), trả lời cho Good, cho rằng giới hạn trên khá thấp;

Niềm tin vào ý tưởng này dựa trên một sự hiểu biết ngây thơ về trí thông minh. Như một phép loại suy, tưởng tượng chúng ta có một máy tính có thể thiết kế ra những máy tính mới (các con chip, hệ thống và phần mềm) nhanh hơn chính nó. Liệu một máy tính như vậy có dẫn tới những máy tính nhanh vô hạn hay thậm chí là những máy tính nhanh hơn bất kỳ thứ gì con người từng tạo ra? Không. Nó có thể tăng tốc tốc độ cải tiến trong một thời gian, nhưng cuối cùng có những hạn chế về việc chiếc máy tính đó có thể chạy nhanh hay lớn thế nào. Chúng ta sẽ chấm dứt ở cùng chỗ; chúng ta sẽ chỉ nhanh hơn một chút. Sẽ không có kỳ dị nào cả.
Ngược lại nếu nó ở mức cao hơn nhiều so với những mức độ trí thông minh hiện tại của con người, những tác động của kỳ dị sẽ đủ lớn để không thể phân biệt (với con người) từ một kỳ dị với một giới hạn trên. Ví dụ, nếu tốc độ suy nghĩ có thể gia tăng gấp hàng triệu lần, một năm chủ thể sẽ trôi qua trong 30 giây vật lý.[6]

Khó để so sánh trực tiếp phần cứng dựa trên silicon với những neuron. Nhưng Berglas (2008) lưu ý rằng tốc độ nhận thức của máy tính đang tiếp cận với những khả năng của con người, và rằng khả năng này dường như đòi hỏi 0.01% của khối lượng não. Phép loại suy này cho thấy rằng phần cứng máy tính hiện đại ở trong một vài bậc của tầm mức của mức độ mạnh như não người.

Xem thêm[sửa | sửa mã nguồn]

Notes[sửa | sửa mã nguồn]

  1. ^ Superintelligence. Answer to the 2009 EDGE QUESTION: "WHAT WILL CHANGE EVERYTHING?": http://www.nickbostrom.com/views/superintelligence.pdf
  2. ^ David Chalmers on Singularity, Intelligence Explosion. April 8th, 2010. Singularity Institute for Artificial Intelligence: http://singinst.org/blog/2010/04/08/david-chalmers-on-singularity-intelligence-explosion/
  3. ^ Editor's Blog Why an Intelligence Explosion is Probable By: Richard Loosemore and Ben Goertzel. March 7, 2011; hplusmagazine: http://hplusmagazine.com/2011/03/07/why-an-intelligence-explosion-is-probable/
  4. ^ a ă â Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era", originally in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 115–126, 1993
  5. ^ Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.
  6. ^ a ă â b “What is the Singularity? | Singularity Institute for Artificial Intelligence”. Singinst.org. Truy cập ngày 9 tháng 9 năm 2011. 
  7. ^ “h+ Magazine | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways”. Hplusmagazine.com. Truy cập ngày 9 tháng 9 năm 2011. 
  8. ^ a ă â Yudkowsky, Eliezer. The Singularity: Three Major Schools
  9. ^ Sandberg, Anders. An overview of models of technological singularity
  10. ^ “Max More and Ray Kurzweil on the Singularity”. KurzweilAI. Truy cập ngày 9 tháng 9 năm 2011. 
  11. ^ Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965.
  12. ^ Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
  13. ^ Superbrains born of silicon will change everything.
  14. ^ Good, I. J., "Speculations Concerning the First Ultraintelligent Machine", Franz L. Alt and Morris Rubinoff, ed., Advances in Computers (Academic Press) 6: 31–88, 1965.
  15. ^ The Human Importance of the Intelligence Explosion
  16. ^ Good, I. J. 1965 Speculations Concerning the First Ultraintelligent Machine. pp. 31–88 in Advances in Computers, 6, F. L. Alt and M Rubinoff, eds. New York: Academic Press.
  17. ^ Ray Kurzweil, The Age of Spiritual Machines, Viking, 1999, p. 30 and p. 32
  18. ^ Ray Kurzweil, The Singularity is Near, Penguin Group, 2005
  19. ^ Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
  20. ^ Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005. The context for this statement is as follows: "we will be producing about 1026 to 1029 cps of nonbiological computation per year in the early 2030s. This is roughly equal to our estimate for the capacity of all living biological human intelligence... This state of computation in the early 2030s will not represent the Singularity, however, because it does not yet correspond to a profound expansion of our intelligence. By the mid-2040s, however, that one thousand dollars' worth of computation will be equal to 1026 cps, so the intelligence created per year (at a total cost of about $1012) will be about one billion times more powerful than all human intelligence today. That will indeed represent a profound change, and it is for that reason that I set the date for the Singularity—representing a profound and disruptive transformation in human capability—as 2045."
  21. ^ a ă Yudkowsky, Eliezer (2008), “Artificial Intelligence as a Positive and Negative Factor in Global Risk”, trong Bostrom, Nick; Cirkovic, Milan, Global Catastrophic Risks (Oxford University Press): 303, Bibcode:2008gcr..book..303Y, ISBN 978-0-19-857050-9 
  22. ^ The Uncertain Future; a future technology and world-modeling project
  23. ^ GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom
  24. ^ Existential Risks; Analyzing Human Extinction Scenarios and Related Hazards, Nick Bostrom
  25. ^ “Tech Luminaries Address Singularity – IEEE Spectrum”. Spectrum.ieee.org. Truy cập ngày 9 tháng 9 năm 2011. 
  26. ^ “Who's Who In The Singularity – IEEE Spectrum”. Spectrum.ieee.org. Truy cập ngày 9 tháng 9 năm 2011. 
  27. ^ Thornton, Richard (1847), The Expounder of Primitive Christianity 4, Ann Arbor, Michigan, tr. 281 
  28. ^ A M Turing, Intelligent Machinery, A Heretical Theory, 1951, reprinted Philosophia Mathematica (1996) 4(3): 256–260 doi:10.1093/philmat/4.3.256 [1]
  29. ^ Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 88
  30. ^ Vinge did not actually use the phrase "technological singularity" in the Omni op-ed, but he did use this phrase in the short story collection Threats and Other Promises from 1988, writing in the introduction to his story "The Whirligig of Time" (p. 72): Barring a worldwide catastrophe, I believe that technology will achieve our wildest dreams, and soon. When we raise our own intelligence and that of our creations, we are no longer in a world of human-sized characters. At that point we have fallen into a technological "black hole," a technological singularity.
  31. ^ Solomonoff, R.J. "The Time Scale of Artificial Intelligence: Reflections on Social Effects," Human Systems Management, Vol 5, pp. 149–153, 1985, http://world.std.com/~rjs/timesc.pdf.
  32. ^ Moravec, Hans (1998), “When will computer hardware match the human brain?”, Journal of Evolution and Technology 1, truy cập ngày 23 tháng 6 năm 2006. 
  33. ^ Moravec, Hans (June năm 1993). “The Age of Robots”. Truy cập ngày 23 tháng 6 năm 2006. 
  34. ^ Moravec, Hans (April năm 2004). “Robot Predictions Evolution”. Truy cập ngày 23 tháng 6 năm 2006. 
  35. ^ Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 89
  36. ^ The Coming Technological Singularity: How to Survive in the Post-Human Era, by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  37. ^ Joy, Bill (tháng 4 năm 2000), “Why the future doesn’t need us”, Wired Magazine (Viking Adult) (8.04), ISBN 0-670-03249-2, truy cập ngày 7 tháng 8 năm 2007 
  38. ^ Episode dated 23 August 2006 tại Internet Movie Database
  39. ^ Robin Hanson, “Economics Of The Singularity”, IEEE Spectrum Special Report: The Singularity, truy cập ngày 11 tháng 9 năm 2008  & Long-Term Growth As A Sequence of Exponential Modes
  40. ^ About Singularity University at its official website
  41. ^ de Grey, Aubrey. The singularity and the Methuselarity: similarities and differences[liên kết hỏng]
  42. ^ Geraci, Robert M., Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality, ISBN 978-0-19-539302-6 
  43. ^ 2045: The Year Man Becomes Immortal, By Lev Grossman Thursday, Feb. 10, 2011 time.com.
  44. ^ [2] David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI.
  45. ^ The Singularity: A Philosophical Analysis, David J. Chalmers
  46. ^ “ITRS” (PDF). Truy cập ngày 9 tháng 9 năm 2011. 
  47. ^ Siracusa, John (31 tháng 8 năm 2009). “Mac OS X 10.6 Snow Leopard: the Ars Technica review”. Arstechnica.com. Truy cập ngày 9 tháng 9 năm 2011. 
  48. ^ Eliezer Yudkowsky, 1996 "Staring at the Singularity

Lỗi chú thích: Thẻ <ref> có tên “wired” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “yudkowsky” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “university” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “plugandpray-film” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “moreblades” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “technological14” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “nytimes” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “thelightsinthetunnel” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “microsoft” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “palmer” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “nytimes_july09” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “philosophical” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “singinst12” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “selfawaresystems10” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “singinst9” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “singinst” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “nickbostrom8” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “nickbostrom7” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “selfawaresystems.com” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “selfawaresystems” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “interstellar” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “google13” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “engadget” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “forbes” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “kurzweilai” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “dreyfus” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “Paranoia_magazine_clipping” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “Paranoia_magazine” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “IEET_interview” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “cornell” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “cnet15” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “PZMyers” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “cliodynamics” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “cnet” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “accelerating” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “Singularity_Myth” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “civilization” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “asimovlaws” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “dailytech” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “berglas” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.
Lỗi chú thích: Thẻ <ref> có tên “aleph” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.

Lỗi chú thích: Thẻ <ref> có tên “ReferenceB” được định nghĩa trong <references> không được đoạn văn bản trên sử dụng.

Tham khảo[sửa | sửa mã nguồn]

Liên kết ngoài[sửa | sửa mã nguồn]

Bản mẫu:External links


Tiểu luận và bài viết[sửa | sửa mã nguồn]

Các dự án kỳ dị trí thông minh nhân tạo[sửa | sửa mã nguồn]

Viễn tưởng[sửa | sửa mã nguồn]

Liên kết khác[sửa | sửa mã nguồn]

Bản mẫu:Các công nghệ đang xuất hiện