严复经典语录,严复传,严复生内容,豆豆语录网这里有不少,而这一篇严复经典语录,严复传,严复生的内容是我们豆豆语录网经过多次整理,最终挑选出来的严复经典语录,严复传,严复生内容,方便您的阅读与学习,希望对您有用。
严复经典语录
严复
严复传
【axxzhouaxxyyflongdd】严复生
【axxzhouaxxyyflongdd】1/5/2017 新的参考文献:Randomness in Neural Networks: An Overview21/10/2016 更新个内容:严复曰:“华风之弊,八字尽之,始于作伪,终于无耻。鲁迅曰:“”我向来是不惮以最坏的恶意,来推测中国人的,然而我还不料,也不信竟会凶残到这地步。”昨天一个朋友发信息给我,说有个“”笑话“”给我看看,我打一看,真是哭笑不得!本来不关心ELM很久了,因为觉得这个就是个笑话,但是没想到国内尽然还有那么多的信徒,我深表焦虑!!!这个是微博的截图:ELM在语音识别上的效果如何?刚刚得到不同研发渠道朋友的介绍,最近IBM Watson和其他美国欧洲科研院所组成的团队用ELM技术(用傅立叶和拉普拉斯变换做为ELM的隐层节点)在有关语音识别数据集上取得了比深度学习效果好或类似的结果(准确度等)。(详见文章 )这也许预示着ELM在语音识别上会有好的前景。这个是网页连接的论文及摘要。我第一眼看到吓了我一大跳,我当时想:不可能,肯定是假的!!!结果一看果不其然,我横扫全文 [1603.05800] A Comparison between Deep Neural Nets and Kernel Acoustic Models for Speech Recognition,未见任何与ELM相关的内容,“黄教授”如此给自己脸上贴金,糊弄国内学者,真是是我们华人的典范, 令人哭笑不得!我往下一拉想看看其他信息,结果又发现一条,热烈祝贺清华大学团队的ELM Review文章被Thomson Reuters列为高被引用文章(“Highly Cited Paper”)和热门文章(“Hot Paper")。文章链接 由此可见清华大学也不全是明白人,难道那些教授不上网吗???Neural Networks的主编们干什么! 这些年NN上乱起八糟的文章鱼龙混杂,影响因子明显是被刷上去的。灵机一动,莫非……此处有玄机!我一查NN 的Editorial Board (见下图) 估计黄教授作为NN的副主编之一若是关于ELM的文章,大概想怎么发都可以吧! 正好还可以拉上清华为自己洗地!……此处省略一万字表达本人对国内科研现状的不满(幸好,计算机类的期刊影响力比较弱;工程师多数根本不屑这类论文;方舟子不是学计算机的)…… (清华浙大,呵呵,真是越NB的地方,越有有趣的事啊!) 更新于21/10/2016.我又检索到新的文献资料:Kernel Ridge Regression (Kernel Ridge Regression ; http://www.ics.uci.edu/~welling/classnotes/papers_class/Kernel-Ridge.pdf)我勒个去,好眼熟,ELM难道就是换了个名字然后呵呵呵~~~还和浙大清华一起开大会?!说实在话,我曾经一度怀疑我自己是不是有点太偏激了,或者知识不扎实,理解不到位,对ELM有偏见,毕竟清华,浙大和NTU的精英们都在研究这个问题,后来我发现了, 人为了利益真的是什么都干!参考句首严复和鲁迅先生的经典语录。截个ELM的图:=====================================================================一下是旧内容------------------------------------------------------------------------------------------------------------------------------------------技术角度上,我的个人理解是,ELM就是在前向神经网络中,隐层和输入层之间采用随机权值,在最后输出层利用违逆或者添加正则项的方法求解输出权值,从而达到回归或分类的目的。回归主题,在计算科学中,ELM(暂时用这个吧,实在反感)对于简单的例子确实可以提高速度,不过楼虽然盖得快,但是豆腐渣质量能让人放心吗???其所谓的理论证明中尤其是定理1中说的隐层输出矩阵H满秩我理解不了(后期作者修改为以概率为1满秩,呵呵,看来作者也发觉自己搞错了),满秩是什么意思,要求最小二乘法有唯一解 ?唯一解又能如何呢?而且这似乎不那么重要吧,因为在压缩感知领域有大量关于低秩逼近的研究,不满秩就不能逼近吗?还有一点就是,随机取的权值和数据结合后,在隐层输出矩阵就满秩,我个人理解不了其数学的证明,因为计算机科学中没有绝对的随机数。数学理论和工程实践之间是有区别的,例如数学中关于解的存在行证明,在工程实践中必须加上限制条件才能求解,也就转化成了,解存在,但是你在你的限制条件下找不到的怪现状。因为计算机只有64位,其计算时间和能量都有限,所以我认为在有限的时间和范围内找不到解的话,等价于解不存在。如果这种事情发生了,那么这个证明的结果可以使用吗? 工程中绝对是不可以用的。话说回“ELM”,细读资料后发觉其本质是 RVFL (random vector Functional-link net )的一个裁减版,(或者就是直接从kernel ridge regression 中偷取的概念),只是去掉RVFL中的输入层和输出层的直接连接,然后重新起了个名字。RVFL早在1992年就由Yoh-Han Pao*, Gwang-Hoon Park 和 Dejan J. Sobajic 和其他学者做过非常深入的研究Learning and generalization characteristicsof the random vector Functional-link net http://elmorigin.weebly.com/uploads/5/2/9/5/52952487/pao_1994.pdf。(好像链接失效了)Update:http://ac.els-cdn.com/0925231294900531/1-s2.0-0925231294900531-main.pdf?_tid=70140790-431d-11e6-a6c5-00000aacb35d&acdnat=1467770619_4fa7d2edb81a2e11292d15e9aa6f5340--------------------------------------------------------------------------------------------------------------------------------------------多说几句RVFL吧,不讨论细节,个人非常喜欢这个设计,因为在RVFL神经网中,输入层和输出层之间有直接的连接,大家可以参考上面提到的文献。 来张图原文的图: input pattern 和 enhancement node 对应了线性模型和非线性模型。这种网络结构说明什么呢? 从基本的认识上看,当我们想解决一个问题时,以回归问题为例 Y=F(X),如果X和Y原本就是线性相关的,那我们可以直接利用一个线性模型进行求解(LMS),只有当X和Y之间存在非线性时,神经网络的非线性映射才能发挥作用。RVFL就是把线性映射和非线性映射结合在一起的非常经典的一种神经网络结构。如果从控制的角度来看,一个控制系统如果想要稳定必须是一种线性和非线性的混合控制。对于那种在线工作的系统来说,控制器如果能够结合这两种控制策略,绝对是大大有利的。例如如今的很多控制器都是PID加模糊神经网络什么的,以及其各种变型。还有一点是,因为当一个神经网络足够大时,在一定的计算精度下,它可以完全记住所有的X,但是这并不意味着它学习到了数据的内在模式,也就是它没有很好的泛化能力。不过话说回来,至今为止,不像统计学习中有VC纬的概念,关于神经网络的拓扑结构的设定和其泛化能力的讨论也没有定论。大家还是必须在具体的问题下来讨论。说点题外话,RVFL从名字上看就很形象,可以看到内涵;SVM-支持向量机也是一个很好的例子。本人第一次见到ELM这个名字时,确实理解困难,完全不知道它在说什么东西,还以为是个什么新发明的硬件或者计算机架构呢,也是醉了。以下是最近看到的关于ELM的原创性争议资料,详细讲解了很多学术圈的事情,看起来IEEE内部也有问题啊,因为关于ELM的论文是从10年后开始突然暴涨的,为什么呢,我的阴谋论就是ELM采用了某种手段是的它的引用量突飞猛进,但是质量和把关的是谁就不知道了,大家在国内早就见怪不怪了。Facebook上有外国人问:为什么ELM这么牛,在 ICLR 和 NIPS上从来没见过ELM。虽然不知道网站是谁发起的,不过这样的行为应该值得鼓励,必须尊重前任的成果,必须公布所有的信息。The Official Homepage on Origins of Extreme Learning Machines (ELM)Free Anonymous email and private email, private label email: TheAnonymousEmail.com本人把链接中的所有文章看了一遍,站长很有心,尽然把所有的pdf上都加上了标注,看来是下了大功夫,估计也是对ELM不满很久了。PS: 浏览了一下,“ELM”发明人 G.B.Huang 的微博,对于这一条很是不解,什么叫做少于20人理解ELM的早期理论的证明?没人理解的话怎么发表论文啊?怪怪的!从其他网友那边看到的答案,似乎ELM很容易发论文,我也只好呵呵呵了~~~==========================ELM2.0时代应该悄悄来临. 其特点是从以回归和分类为主迈向特征学习,聚类,回归和分类同步进行,从单层网络为主迈向多层网络,从规则的标准网络迈向功能型网络的组合. 除可预见的应用外,期待数学和理论界对ELM理论研究的推进,未解的问题很多!可能少于20人真正理解早期的ELM理论证明: http://www.ntu.edu.sg/home/egbhuang/pdf/I-ELM.pdf============本人确实从github和ELM的官网下载了一些代码测试了一遍,确实说这个求解的过程会产生与其他机器学习理论类似的结果,速度上有提高,结果差。但是,这种随机算法根据学习理论而言,其稳定性和持续性无法保证。 基本的逻辑是(KRR),特征的随机提取映射(remapping)+有正则的线性回归模型(a regularised least squares),有点类似随机森林和集成学习的想法。得到结果后,我始终不知道模型是否是真正学习到了知识 还是 仅仅记住了所有的数据。有兴趣的网友可以用ELM尝试作这个函数的回归:MATLAB CODE:x = 0:0.001:1; y = 0.2*exp(-(10*x-4).^2)+0.5*exp(-(80*x-40).^2)+0.3*exp(-(80*x-20).^2); plot(x,y); 假设激活函数为 sigmoid function, 随机权w,b 取值范围为[-1,1], 可以尝试增加神经元的个数,观察一下结果的变化。--------------------------------------------------------------------------------------------------------------------------------------------Update 最近关心 Google 的Tensorflow 发现个很类似的工具;Google 称为Wide & Deep Learning: Better Together with TensorFlow基本思路和RVFL很类似,简单模型和复杂模型合并。相关论文为:[1606.07792] Wide & Deep Learning for Recommender Systems基本思路也是,把快速的模型和复杂的模型结合起来,一起用,这里面的哲学思想都是共通的。简单模型快,复杂模型精确,机器学习中处处可见trade-off.举个例子: 原文来自Google Tensorflow“Combining Wide and Deep models.However, you discover that the deep neural network sometimes generalizes too much and recommends irrelevant dishes. You dig into the historic traffic, and find that there are actually two distinct types of query-item relationships in the data.The first type of queries is very targeted. People shouting very specific items like “iced decaf latte with nonfat milk” really mean it. Just because it's pretty close to “hot latte with whole milk” in the embedding space doesn't mean it's an acceptable alternative. And there are millions of these rules where the transitivity of embeddings may actually do more harm than good. On the other hand, queries that are more exploratory like “seafood” or “italian food” may be open to more generalization and discovering a diverse set of related items. Having realized these, you have an epiphany: Why do I have to choose either wide or deep models? Why not both?”推荐大家看看原文!!!https://research.googleblog.com/2016/06/wide-deep-learning-better-together-with.html
严复年谱。