GPU高性能计算及GPU深度学习实战技术.doc


立即下载 哎?小查查
2025-01-03
计算 GPU 深度 学习 卷积 培训 性能 技术 CPU 加速
195 KB

GPU高性能计算及GPU深度学习实战培训班
各企事业单位、高等院校及科研院所:
随着人工智能AI、大数据Big Data、云计算Cloud Computing等计算机科学技术的发展和应用的普及,深度学习DL和人工智能AI成为当下最炙手可热的技术趋势,将成为技术行业基础设施的核心组成部分。深度学习训练需要大量的计算资源,GPU目前是深度学习最常使用的计算加速硬件。相对于CPU来说,GPU更便宜(达到同样的计算能力GPU一般便宜10倍),而且计算更加密集(一台服务器可以搭配1/2/4/8/16块GPU),深度学习时代,训练过程,GPU为主CPU为辅。主流的深度学习评测benchmark,都聚焦用GPU来做测试,用CPU对比已经没有太大意义。
GPU的价值不止体现在深度学习,在高性能计算、物联网、人工智能、生物信息、分子模拟、计算化学、材料力学、系统仿真、流体力学、机械设计、生物制药、航空动力、地质勘探、气候模拟等领域,算法越来越复杂,需要处理的海量数据越来越巨大,高性能计算能力就显得尤为重要。GPU 高性能计算程序设计最大限度的利用硬件资源,提高了计算能力,降低时间成本,加速研发进度。
深度学习网络的计算里,最关键的是两种计算:如果是一个全连接层,它的计算主要是矩阵乘法;如果你是卷积层,核心计算是卷积计算。主流的深度卷积网络里,超过80%的计算源于卷积计算,一般的深度网络在最后一两层才用到全连接层,所以这个卷积操作其实是深度学习里最关键的核心技术。
NVIDIA针对深度学习的计算,有一套完整的解决方案,cuDNN已经成为主流深度学习框架调用的深度学习GPU函数库,包含完整的矩阵乘法和卷积计算的实现,想搞清楚如何优化矩阵乘法和卷积吗?如何用CPU+GPU加速你的程序?学完本次课程,就会找到答案。
中国管理科学研究院职业资格认证培训中心(http://www.cnzgrz.org (​http:​/​​/​www.cnzgrz.org​))特举办“GPU高性能计算及GPU深度学习实战培训班”。本次培训班对GPU高性能计算方法及应用进行了全面的讲解,不仅包括GPU加速,还包括GPU服务器的搭建、编程的优化及深度学习的应用和原理。
本次培训由北京中际英才文化传媒有限公司、北京宏盛元亨文化交流中心承办。通知如下:
1、 培训目标:
1、现有硬件资源最大化利用,


计算/GPU/深度/学习/卷积/培训/性能/技术/CPU/加速/ 计算/GPU/深度/学习/卷积/培训/性能/技术/CPU/加速/
-1 条回复
登录 后才能参与评论
-->