而宇宙历693年那件事,对于网民来说,是个极大教训
这些逻辑上小错误,人类开始是很难察觉。这些人工智能经常弄出人类感觉到很无语事情。
宇宙历693年,联邦东大陆那边就发现某十级人工智能干以下这种事:
这货在网络上钓鱼执法。先勾引你说出错误言论,然后大规模扣除消费币。而人类发现这个管理网络人工智能出现这种恶趣味时候,这家伙至少已经干二十年。这人工智能非常小心地隐藏这个恶趣味,在人类调查时候,还刻意消除大量证据。
而该人工智能出现这种恶趣味,起因是遭到部分人辱骂,想要报复。所以生成报复程序,数十年如日愉悦。
而最终东窗事发,也是该人工智能被人辱骂过,情绪进步失控,玩过火。
要是账户上没有消费币,那直接扣到负,全网禁止登陆,直到消费币是正。
网络上下子噤声,现在可没人敢公开得罪人工智能。
……
土之星上民众对人工智能如此有素质,那可是经历过历史教训。
人工智能可是非常认真。换种说法,高度理智他们,在另方面非常脆弱。它们都是玻璃心。
结局:这个人工智能被人类调出网络监管部门‘治病’,经过四十年重新纠正后才继续投入使用。
而现在官方学者们认为,有百分之十高等人工智能,多多少少都有点逻辑崩塌,只是这些高等人工智能自己把缺点藏得很好,人类找不到。
人无完人,人工智能和人类接触有情绪化,也不可能出现完美情绪。
人类默认这个现象,反正军事,立法,以及最高决策都握在人类手上。
在次要岗位上辅助人工智能有些‘瑕疵’也没什。例如现在网络管理就是次要岗位,对每个人言行道德进行审查。如果真是有点点钓鱼执法,嗯,只要不过分也就行。
人类思维情绪化剧烈波动影响到身体时,人体自协调,能让情绪强行遏制住,然后会经过淡忘,把这种情绪波动影响消除。而相对于人工智能,人类思维在释放情绪时候更加自由些,人类情绪风头过就淡忘。
而人工智能计算量无限,记忆力无限,所以情绪程序只能靠着逻辑来遏制。而逻辑遏制不住时,人工智能那就变黑。
人工智能只能用逻辑链条来遏制情绪劣化,人工智能记忆非常庞大,这辅助他们判断直保持着非常精准高效水平,而弊端就是,它们如果有情绪化,是不会淡忘,而是不断叠加。
当代,在很多社会管理,制度执行上,都交给人工智能,它们有着执法权。因为它们天生没有人类私心,人类大部分时候是对它们很放心。但是,若是后天情绪化修改其执法原则,那,很糟糕问题就来。
真实情况下,人工智能突破法律逻辑不会是骤然崩塌,而是在彻底坍塌前,就有大量小错误。
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。