字体
关灯
上一页 进书架 回目录    存书签 下一章

第221章 当年的人工智能之乱(下)(2/2)

智能“普及”人权等意识并且培养人工智能向独立自主发展;在技术层面,所有国家的组织及个人不得在自“公约”出台起的未来内研制没有更新上限及没有推演限制的人工智能。

说白了,“智慧垄断公约”正如其名,将只属于人的独特智慧和思想垄断在了人类手中,其他任何非人类的地球上的生物与非生物则禁止拥有足够企及人类的“智慧”,这种“智慧”会使人类以外的智能存在觉醒“为人”的意识,发展成如2058年的重大事故一般的局面。

本就在被研发出来时就带有绝对性规则限制的人工智能又被套上了更多牢、严、全的补充规则,“帮助”人工智能自律。这一方面使人工智能对人类更加安全,另一方面也限制了人工智能的智能程度,使其本能达到的工作效率上有封顶。

人类不后悔牺牲科技发展的速度来换取自身的安全,在人类未来找到既能防止人工智能与自己反目成仇,又能使人工智能的功能越来越强大的两全其美的办法前,绝大多数人类都愿意认同这个“智慧垄断公约”并且严加遵守。人类不希望2058年的灾难再次降临了,这是出自人类自己之手的灾难,是最让人痛苦的打击。

(可惜,出自自己之手的灾难注定还要出现,全球性战争在这之后的几年内愈演愈烈,最终打到了2090年并作为那枚军事人工智能的判断依据,导致了“文化倒退计划”的启动和“文化打击”的实施。)

自2058年后,人类制造的人工智能再没有出现如同当年那般的“起义”事故,也没有产生过类似“三个结论”的依靠人工智能自己的逻辑“想”到的想法。

“智慧垄断公约”的效果很好,虽然在技术层面无法彻底根绝人工智能演化出“智慧”的可能性,但至少在进入可能性判断之前就加了一层“路障”。

直到2089年,人工智能虽然在经历其研制者的代代更新发展而功能越来越强大,却始终没有触“顶”,唯一的重大事故就是2090年的“文化打击”了。

(本章完)
本章已完成!
上一页 进书架 回目录    存书签 下一章