1. 简单百科
  2. jürgen schmidhuber

jürgen schmidhuber

于尔根·施密德胡伯(Jürgen Schmidhuber),德国计算机科学家,被誉为递归神经网络之父,现任瑞士达勒莫勒人工智能研究所(IDSIA)科学主任,以及沙特阿拉伯阿卜杜拉国王科技大学(KAUST)计算机、电气和数学科学与工程(CEMSE)部门的人工智能倡议主任和教授。他在人工智能领域,尤其是人工神经网络方面的贡献卓著,包括长短期记忆(LSTM)的开创性工作,以及元学习、生成对抗网络和线性变压器的原则。施密德胡伯还创立了Nnaisense公司,致力于开发多领域的人工智能商业应用。

人物经历

于尔根·施密德胡伯(Jürgen Schmidhuber)在德国慕尼黑慕尼黑工业大学完成了本科(1987 年)和博士(1991 年)学习,并从 2004 年到 2009 年在那里任教。自 1995 年以来,他一直担任瑞士人工智能研究所 (IDSIA) 的主任。从 2009 年起,他同时担任瑞士卢加诺大学的人工智能教授。

在 20 世纪 80 年代,反向传播对于人工神经网络中具有长信用分配路径的深度学习效果不佳。为了克服这个问题,施密德胡伯(1991)提出了一种循环神经网络(RNN)层次结构,它使用预测编码来学习多个自组织时间尺度的内部表示,这可以极大地促进下游深度学习。

1991 年,施密德胡伯发表了对抗性神经网络,它们以零和博弈的形式相互竞争,其中一个网络的收益就是另一个网络的损失。 其中第一个网络是一个生成模型,用于对输出模式的概率分布进行建模。第二个网络通过梯度下降学习来预测环境对这些模式的反应,这被称为“人工好奇心”。 2014 年,这一原理被用于生成对抗网络(GAN)发扬光大。

施密德胡伯指导了他的学生 Sepp Hochreiter 于1991 年完成的毕业论文,并称其为“机器学习史上最重要的文献之一”。 它不仅测试了神经历史压缩器(the neural history compressor),还分析并克服了梯度消失问题。这催生了称为长短期记忆(LSTM)的深度学习方法,这是一种循环神经网络(RNN)。LSTM 已成为 20 世纪被引用最多的神经网络。 到 2010 年代,LSTM 成为包括语音识别和机器翻译在内的各种自然语言处理任务的主导技术,并广泛应用于 谷歌 Translate 和 Siri 等商业技术中。

2009年至2012年9月期间,施密德胡伯团队开发的深度/循环神经网络(NN)赢得了八次国际模式识别竞赛。 2017年,他的一个团队还获得了NIPS强化学习大赛的冠军。

自 2018 年以来,Transformers 通过 ChatGPT 等大型语言模型取代了 LSTM,成为自然语言处理领域的主导神经网络架构。早在 1992 年,施密德胡伯 也发表了与之有共通之处的神经网络架构,目前被称为具有线性自注意力的 Transformer(a Transformer with linearized self-attention)。

个人事件

根据《卫报》的报道,施密德胡伯在2015年发表的一篇“严厉的文章”中,指责同行的深度学习研究员杰弗里·辛顿杨立昆约书亚·本希奥“大量互相引用”,却“没有提及该领域的先驱者”,称他们低估了施密德胡伯自己和其他早期机器学习先驱者的贡献,包括于1965年发表首个深度学习网络的阿列克谢·格里戈里耶维奇·伊瓦赫年科(Alexey Grigorevich Ivakhnenko)。杨立昆否认了这一指责,表示施密德胡伯“总是主张他所不该得到的名誉”。施密德胡伯本人则提出反对,声称杨立昆并没有以实例来支持该主张,并自己列出了许多成果的优先权争论加以反驳。

荣誉

施密德胡伯 于 2013 年获得国际神经网络协会亥姆霍兹奖(the Helmholtz Award),并于 2016 年获得 IEEE 计算智能协会神经网络先锋奖 ,以表彰其“对深度学习和神经网络等人工智能领域的开创性贡献”。他也是欧洲科学与艺术学院(the European Academy of Sciences and Arts)的院士。2017年他被任命为瑞士技术科学院院士。

他被人称为“LSTM之父”,也被称为“(现代)人工智能之父”或类似称号,然而,施密德胡伯本人将 Alexey Grigorevich Ivakhnenko 称为“深度学习之父”,并赞扬了许多更早期的人工智能先驱的工作。

参考资料