葛:凸━┳━━┳━凸,原来你真是博士。
温晓光:当然,你还怀疑这点?
脸不红心不跳。
聊天到此结束,温晓光去打印,然后发货。
葛瑶儿在晃动实验室邻座林贝:“贝贝,太好,找个特别牛逼人!”
请打中文,谢谢。
葛:可是连书都看不懂啊,至今不知道最优化是什。
对于花钱人,温晓光耐心足够:这说吧。大学应该开设有数学模型这门课,模型就像人学习思考模式,在每次学习过程中,人知道自己怎学,学哪里,学错还可以调整,但模型和计算机没这聪明,
而最优化就是告诉模型应该学什、怎学工具。在数学上,模型学习往往是个映射函数,也就是模型中参数,这个参数好坏通过答案体现,如果不够好,最优化就可以帮助调整,
这说明白吗?
实验室里葛瑶儿果然眼睛放光:嚯,还是博士啊!
温:你把问题整理下,1、2、3条理清楚,统给你作答。现在先给你去发货,你也能早点拿到。可以吗?
葛瑶儿咬着嘴唇想想,发什货啊还没怎样就发货,先测试你下瞧瞧是真是假,
葛:等下,现在正在看,碰到个问题。
温晓光看,回道:那你说吧。
林贝不明所以瞎乐:“什啊?什牛逼人?!”
葛瑶儿也没说什,就是拉她过来把电脑上聊天记录拉出来,“你看。”
林贝:“卧槽!”
葛瑶儿勉勉强强能看懂些,毕竟说那简单,再看不懂就是智障。
她又问:那有地方提到凸优化又是啥啊?
温:凸优化是最优化个子领域,简单来说就是定义在凸集中凸函数最小化问题,凸优化应用价值比较高,所以研究很多。而凸问题局部最优解就是全局最优解,再加上凸优化理论中Lagrange对偶,提供凸优化算法最优性保证。
另外些非凸问题通过定手段可以等价化为凸问题或者用凸问题近似、逼近得到边界,比如深度学习,其中关键BackPropagation算法,本质就是凸优化算法中梯度下降法,即使问题极度非凸,梯度下降还是有很好表现。
明白吗?
葛:就是最优化部分,江理对数学部分作点要求,这和别学校都不样,其实们本科时候都没有开过这门课,所以看起来很费劲。
温:嗯,不必害怕,有要求是未来不论是机器学习,数据挖掘还是深度学习神经网络,即使你运用些简单模型,最优化理论与算法都有比较广泛应用,另外个是出题那个老师擅长数学也重视数学,所以才有这个要求,不过它对这方面要求也只限于解,题目都很简单。
葛瑶儿看这段话人都犯傻,等会儿……
神经网络?
数据挖掘?
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。