注册

清华大学博士生涂锋斌:设计神经网络硬件架构时,我们在思考些什么? | 硬创公开课预告


来源:雷锋网

基于神经网络的人工智能近年取得了突破性进展,正在深刻改变人类的生产和生活方式,是世界各国争相发展的战略制高点。

神经网络作为实现人工智能任务的有效算法之一,已经在各种应用场景获得广泛的应用。从云端到移动端,不同应用场景也对神经网络的计算能力提出了不同的需求。

神经网络的广泛应用离不开核心计算芯片。目前的主流通用计算平台包括CPU和GPU,存在着能效较低的问题(能效即能量效率,是性能与功耗的比值)。为了获得更高的能效,我们需要设计一种专用的神经网络计算芯片来满足要求。国际IT巨头,如英特尔、谷歌、IBM,都在竞相研发神经网络计算芯片。

然而,神经网络的结构多样、数据量大、计算量大的特点,给硬件设计带来了巨大挑战。因此,在设计面向神经网络的高性能、高能效硬件架构时,我们需要思考清楚以下三个问题:

  • 好的计算模式应该是怎样的?

  • 为了支持这样的计算模式,架构应该怎样设计?

  • 已经实现的硬件架构,针对具体算法和应用需求,如何配置成最优的计算模式?

雷锋网本期公开课特邀请到清华大学微纳电子系四年级博士生涂锋斌,为我们分享神经网络硬件架构的设计经验。他将通过介绍其设计的可重构神经网络计算架构 DNA (Deep Neural Architecture),与大家分享在设计神经网络硬件架构时需要思考的问题。他在完成设计的同时,解决了这些问题,并对现有的硬件优化技术做出了总结。

主要内容

主题:设计神经网络硬件架构时,我们在思考什么?

本次公开课将围绕以下内容进行:

  1. 研究背景

    基于神经网络的人工智能任务,给其硬件加速带来了怎样的需求?目前现有的通用计算平台存在哪些不足,可以从哪些方面考虑改进?

  2. 计算模式

    对于神经网络而言,什么是好的计算模式?如何根据优化目标对计算模式进行优化?

  3. 架构设计

    针对计算模式的需求,如何设计高性能、高能效的神经网络计算架构?可重构神经网络计算架构DNA(Deep Neural Architecture)具有哪些特点?

  4. 实验结果

    DNA的性能与能效表现如何?与顶尖工作相比的情况如何?基于DNA架构的Thinker芯片,得到了李克强总理怎样的评价?

  5. 总结思考

    围绕研究工作,有哪些设计经验可以与我们分享?

嘉宾介绍

涂锋斌,清华大学微纳电子系博士生。博士课题是高能效神经网络加速芯片设计。他的研究兴趣包括深度学习、神经网络加速、计算机体系结构和超大规模集成电路设计。作为核心计算架构DNA的设计者,他参与了课题组第一代神经网络计算芯片(代号:Thinker)的设计、流片和测试。Thinker芯片支持电路级编程和重构,是一个通用的神经网络计算平台,可应用于机器人、无人机、智能汽车、智慧家居、消费电子等广泛领域。Thinker芯片作为清华大学的代表性成果参加了2016年全国双创成果展,获得李克强总理的赞许。

活动详情

主题:设计神经网络硬件架构时,我们在思考什么?

嘉宾:涂锋斌,清华大学微纳电子系博士生

时间:2017 年 5 月 15 日,周一晚上 8 点

形式:雷锋网 APP 视频直播,可在雷锋网 App 直播频道内“问答区”进行提问。

推荐

凤凰资讯官方微信

凤凰新闻 天天有料
分享到: