Deeplearning Algorithms Tutorial
最近以来一直在学习机器学习和算法,然后自己就在不断总结和写笔记,记录下自己的学习AI与算法历程。
机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
目前国内在AI感知层面应用已经百花齐放,主要是无人驾驶、智能音箱、嵌入式。但在认知层面还是比较缺乏,所以新入行的AI应用团队可以放在认知层。如开头所述,认知层最重要的是算法,因此需要阅读Nature上最领先的算法公司DeepMind的几篇大作,如下:
机器学习的应用:机器学习已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人等领域。下面开启我们的机器学习!
深度学习的方向:被应用在图像处理与计算机视觉,自然语言处理以及语音识别等领域。
从2016年起,机器学习有了新的突破和发展。但是,有效的机器学习是困难的,因为机器学习本身就是一个交叉学科,没有科学的方法及一定的积累很难入门。
从2017年10月19日,Nature上发表了新一代AlphaGo版本AlphaGo Zero的技术论文。指出一种仅基于强化学习的算法,AlphaGo Zero不使用人类的数据、指导或规则以外的领域知识成了自己的老师。DeepMind代表了目前人工智能领域最强的技术,其核心是两个字:算法。
很多人都想成为一个AI开发者,不仅是因为AI开发的薪资高,更主要是因为AI这几年的快速发展,但是因为AI本身的门槛就比较高,很多人可能就会比较徘徊,因而想把自己学习AI的过程写成本书,供大家参考和学习!
后面的算法和我们的算法模型,我会持续更新整理,后续的算法章节会不断的补上,希望可以对新入门学习AI开发和算法的开发者有所帮助!
算法模型的整体基本就是这样目录,后续的算法模型我会不断完善和补充,更新!
大型语言模型(LLM,Large Language Model)伴随着chatgpt的诞生,走进了我们的视野,GPT 3.0它不仅仅是一项具体的技术,其实体现的是LLM应该往何处去的一个发展理念。
自此之后,差距拉得越来越远,ChatGPT只是这种发展理念差异的一个自然结果。
那么什么是大语言模型呢, 我们深入探索和学习下。
大型语言模型(LLM)是基于大量数据进行预训练的超大型深度学习模型。底层转换器是一组神经网络,这些神经网络由具有自注意力功能的编码器和解码器组成。编码器和解码器从一系列文本中提取含义,并理解其中的单词和短语之间的关系。
转换器 LLM 能够进行无监督的训练,但更精确的解释是转换器可以执行自主学习。通过此过程,转换器可学会理解基本的语法、语言和知识。
与早期按顺序处理输入的循环神经网络(RNN)不同,转换器并行处理整个序列。这可让数据科学家使用 GPU 训练基于转换器的 LLM,从而大幅度缩短训练时间。
借助转换器神经网络架构,您可使用非常大规模的模型,其中通常具有数千亿个参数。这种大规模模型可以摄取通常来自互联网的大量数据,但也可以从包含 500 多亿个网页的 Common Crawl 和拥有约 5700 万个页面的 Wikipedia 等来源摄取数据。
觉得此文章不错,支持我的话可以给我star ,! 如果有问题可以加我的微信,也可以加入我们的交流群一起交流技术!
This is free software distributed under the terms of the MIT license