台下顿时响起掌声,颇为热烈。
经鸿见,笑笑,说:“有点儿受宠若惊。希望接下来几分钟能不虚这些掌声吧。”他贯地有礼有度,给人好感。
待现场重新安静,经鸿才进入主题:“过去,对人工智能探究主要集中在三个层面:对社会价值、对企业价值,以及AI伦理风险。今天主要想讨论讨论另外个鲜少被注意到方面,就是算法黑箱打开。”
经鸿看见台下人全都露出兴趣。
“算法黑箱”,台下人都不陌生。人工智能模仿人脑进行学习,比如,人类交给AI大量猫图片、狗图片,它就可以层层提取对象特征,自己学会“什是猫”“什是狗”,可人类目前不能解释AI工作原理,不能明白机器为何要做某些事情、为何得出某些结论。根据输出,有些思路简单易懂,比如猫狗轮廓、颜色,可很多时候并非如此——也就是说,人类看不懂。它给人类空前可能,也给人类无尽困惑。有人说,让AI向人类解释个东西,相当于让人类向狗解释个东西,听着就让人沮丧。
烁不断,最后,合影终于结束。
因为挨得太近,经鸿手拿开来时,不小心,右手手背刮到周昶手指。
周昶本能地望过来,经鸿眼睛向那只手瞥瞥:“……抱歉。”
周昶望经鸿几秒,回他:“没事儿。”
“好好。”论坛工作人员跑过来说,“论坛结束后,论坛官方照片都会发去大家邮箱哈!”
可人类历史充分表明,只有个决策可以被解释、被分析,人类才能充分解它优点和它缺陷,进步评估风险,知道它在多大程度上能被信赖。然而现在,每个学者头脑中都萦绕着几个问题:们能信任AI吗?们能在多大程度上信任AI?们能在生死攸关时信任AI吗?
台上,经鸿又说:“今年,DARPA提出‘可解释AI’概念,何积丰院士也提出‘可信AI’概念。目前各国科学家正致力解开黑箱、解释算法,而泛海研究院也愿意分享些成果。接下来演讲将主要分为三个板块,第个是各国最新政策和各国研究现状,第二个是泛海些成果以及泛海些工具——这些工具泛海都会在即将发布《可信AI白皮书》中分享出来,最后个则是发展趋势和发展建议,也就是对业内倡导。”
他语气不疾不徐。
中间有次,经
她正好在经鸿斜前方,领导那边儿,经鸿离得近,便笑道:“谢谢。”不翻脸时候,他向都显得随和。
周昶也表面随和,不过,经鸿是平起平坐随和,而周昶则有种高高在上随和。
…………
拍照过后,主论坛开讲。
经鸿是第三个上台。他穿着深色西装和皓白衬衫,正正麦克,道:“尊敬郑书记,尊敬吴部长、王部长,各位IT同仁,各位新老朋友,大家好。”
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。