开启辅助访问
 找回密码
 立即注册

请推荐一台人工智能学习路线图?

srrh0300 回答数5 浏览数112
请推荐一台人工智能学习路线图?
使用道具 举报
|
mophia
请推荐一个人工智能学习路线图?

按照我这个路线坚持完,你会变成一个人工智能的牛人的。它是假定一个没有人工智能基础的学习路线。大概分成下面几个阶段

  • 全面的基础知识
  • 熟悉编程框架
  • 学习与复现现有的精典项目
  • 自己的发展方向
  • 自主

    • 项目实践
    • 论文阅读
    • 交流



全面的基础知识

任何一门学科或者说一个技术,要学好它,最好的方式 是从基础开始了,而且它也是影响你未来的重要的一部分。不过对于人工智能这个方向来讲,基础有点儿多:
数学基础

线性代数:矩阵运算、特征值和特征向量、奇异值分解等。
概率和统计:概率论基础、贝叶斯理论、描述统计、推断统计等。
微积分:导数、积分、偏导数、梯度、泰勒展开等。
优化方法:凸优化、梯度下降法、牛顿法、随机梯度下降法等。
编程基础

Python:Python是AI领域最常用的编程语言。要学会基础语法、数据结构等。这个编程语言没有别的,只有 Python 。
数据处理:学会使用NumPy、Pandas等库进行数据预处理。这个会极大影响你的效率,所以要熟练掌握。
机器学习基础

下面这些主要是一些基础性的公式、简单的评估方法与模型的原理性的东西。如果要学习,最好是亲手写个代码。
监督学习:线性回归、逻辑回归、支持向量机、决策树、随机森林、K近邻、朴素贝叶斯等。
无监督学习:聚类、降维、密度估计等。
模型评估:交叉验证、偏差和方差、过拟合和欠拟合、性能指标(准确率、召回率、F1分数等)。
深度学习基础

尽管你不喜欢,但是这些基础性的原理还是要必须学会的。
神经网络基础:前馈神经网络、反向传播算法、激活函数等。
卷积神经网络(CNN):用于图像识别、对象检测等任务。
循环神经网络(RNN):用于序列数据,如自然语言处理、时间序列分析等。
Transformer:LLM 、及一切可能。
常见框架:TensorFlow、PyTorch、Keras的基础知识。
其他

有时其他不重要,有时又很重要,很显示,这是一个描述极少,但是有时能救你命的东西。你加油吧。因为它可能是你某一个时间点卡住你的东西。你不会,就真的会被卡住。不过要记得变通,要记得GPT4 与谷歌的存在。
数据获取:如何收集和使用数据,包括公开数据集、网络爬虫等。
版本控制:学会使用Git和GitHub进行版本控制和协作。
如果你会了这些基础了,那可以认为你具备了所有人工智能方向进发的能力了。
在这里我要真的介绍一下,最有效的帮助课程吧。时代变革了,学习什么的,最重要的就是学 AI。学工作什么的,最重要的就是用 AI。学人工智能的也要用 AI 啊。 而学习 AI,最好的方式应该是视频学习,类似 “知乎知学堂推出的《程序员的AI大模型进阶之旅”, 其实就是一份非常有意思的 AI 大模型的介绍性入门课程,简单看看,你可能马上就对大模型了解了,而不是要大量阅读。这也是个非常有效的学习方法。还有哦,加小助手的微信,好像有惊喜呢。
熟悉编程框架

这个是快速实现你想法的基础了。如果你不能熟练的使用某一个 AI 的编程框架,那你怎么来验证你的想法是不是对的,是不是有用的,是不是真的能超过人类呢?因为我 pytorch 用的多,所以如何熟练用这个编程框架,我就以它为例吧。
了解PyTorch的基础结构和概念

张量(Tensor):理解PyTorch中的基础数据结构张量,它类似于NumPy的数组。
自动微分(Autograd):理解PyTorch的自动微分机制,如何利用它来自动计算梯度。
神经网络(nn.Module):学习如何使用PyTorch的nn.Module来定义神经网络。这个玩意是所有自定义模型的基础
学习构建基本的神经网络模型

要用 pytorch 能熟练的完成下面模型的编写工作。
前馈神经网络:学习如何构建和训练基本的前馈神经网络。你要会写输入、输出、隐藏层还有激活函数什么的。
卷积神经网络:用于图像识别等计算机视觉任务。像 LetNet 、 VGGNet 。
循环神经网络:适用于序列数据如文本、时间序列等。像 LSTM 、 GRU 类的网络。
Transformer:LLM 及一切任务,都能用它。BERT 与 GPT 是必练的模型。
模型的训练与验证

损失函数:理解不同任务的损失函数,如交叉熵损失、均方误差损失等。这个怎么用 pytorch 搞到你的模型里是个非常非常重要的工作。
优化器:掌握常见的优化器如SGD、Adam等,并了解它们的工作原理。跟损失函数同样重要。
模型验证和测试:学会如何在验证集上验证模型性能,并在测试集上进行测试。干活嘛,总要有标准,这个就是标准。你做的对不对,好不对,全看它了。
模型的保存和加载

学习如何保存和加载模型:包括模型结构和模型参数。Ctrl+S 你说重要不?
参考和复现别人的代码

GitHub:在GitHub上找到相关的项目,通过阅读和复现代码来提高自己的能力。
论文实现:尝试复现一些研究论文中的模型和实验。


参加线上比赛和挑战

Kaggle:可以参加Kaggle上的一些比赛,与他人竞争和学习。
持续关注PyTorch的更新和新特性

官方文档和论坛:定期查阅PyTorch的官方文档和论坛,了解最新的功能和最佳实践。
探索高级特性

自定义层和操作:学习如何在PyTorch中自定义神经网络层和操作。
分布式训练:了解如何利用PyTorch进行分布式训练。
掌握了这些内容后,你就可以说熟练掌握了PyTorch,可以用它来实现自己的深度学习模型和项目了。
学习与复现现有的精典项目

这个举些例子吧,用这些例子吧,主要是在 github 与 kanggle,可以通过学习与复现,得到非常不错的实际项目的锻炼。
GitHub开源项目

GitHub上有很多优秀的AI相关的开源项目,通过学习和参与这些项目,可以积累经验和提高技能。通常你一搜索就有一大堆的列表。
预训练模型和工具库

Hugging Face Transformers:一个非常流行的自然语言处理预训练模型库。要学会如何使用它,会是你更快的复现各种项目、论文的利器!
Pytorch 的精典模型库,要熟练使用才对。
深度学习框架

PyTorch:热门的深度学习框架,可以参与贡献或学习源代码。
TensorFlow Models:TensorFlow的模型库,包含各种预训练模型和示例。
教学和示例项目

fastai:一个简单易用的深度学习库,同时有配套教程。
DeepLearning.ai:包含各种深度学习课程的示例代码。
Kaggle竞赛

Kaggle是一个举办数据科学和机器学习竞赛的平台,可以通过参加竞赛来锻炼实战能力。如果你是工程 目标的,请一定要完成下面这些基本的比赛项目。
分类和回归竞赛

Titanic: Machine Learning from Disaster:一个入门级别的二元分类竞赛。
House Prices: Advanced Regression Techniques:一个房价预测的回归竞赛。
自然语言处理竞赛

Natural Language Processing with Disaster Tweets:通过推特预测灾害的发生。
计算机视觉竞赛

Digit Recognizer:基于MNIST数据集的手写数字识别竞赛。
时间序列预测竞赛

Web Traffic Time Series Forecasting:预测Wikipedia网页的未来访问量。
在学习和实践这些项目时,建议你:

  • 代码实践:尝试运行代码,理解并修改代码。
  • 深入学习:深入研究项目或竞赛的相关理论和技术。
  • 社区互动:积极参与项目或竞赛社区的讨论,和他人交流学习。看看人家原来的思路是什么,碰到过什么问题。
自己的发展方向

从人工智能现阶段来看,大的方向就是两个自然语言处理与视觉,还有个小的方向 语音,还有个商业化最多的方向 推荐系统。在学习的过程中,明确自己的发展方向是非常重要的一步。要探索并找到自己感兴趣的人工智能子领域。你只有确定了自己的方向,才会找到自己的目标、乐趣与动力。但是大方向其实只有下面这几个:

  • 自然语言处理(NLP):如果你对文本和语言处理感兴趣,可以考虑此方向。涉及文本分类、情感分析、机器翻译等。
  • 计算机视觉(CV):对图像或视频处理感兴趣的可以选择此方向。例如图像分类、物体检测、图像生成等。
  • 推荐系统:在这个方向,你可以研究如何根据用户的历史行为和偏好进行个性化推荐。差不多是离钱最近的方向,你每做好一点儿,在合适的平台上都有极大的放大。
  • 语音处理:如果对语音识别、语音生成或其他音频处理任务感兴趣,可以考虑此方向。如自动语音识别(ASR)、语音合成(TTS)等。
  • LLM(大语言模型):这个是最火的方向了,可能真的只有这个方向才是 AGI 的未来。
自主

“自主”在此指的是主动地、有计划地进行学习和实践。这包括项目实践、论文阅读、以及与其他学习者和专家的交流。以下是这几个方面的详细说明:


项目实践

项目实践是将所学知识应用于实际问题的过程,也是检验和加深理解的好方法。
个人项目:可以根据自己的兴趣和所学知识,选择一些实际问题来解决,如开发一个聊天机器人、做一个图片分类器等。

  • 参与开源项目:在GitHub或其他开源平台上,参与一些有影响力的开源项目,可以学习到更多实战经验和最佳实践。
  • 竞赛参与:如Kaggle、天池等平台的数据科学竞赛,可以在解决实际问题的同时,与其他选手竞争、学习他人的优点。
论文阅读

论文阅读可以帮助我们了解领域的最新研究动态和前沿技术。或者说是你成长的必备养份,不读论文,你可能一直只能是个底层实现者。

  • 选择高质量的论文:如顶级会议和期刊的论文,arXiv预印本服务器的热门论文等。这个搜索与查询的方法可能要另外写一篇文章了。
  • 定期阅读:可以制定计划,如每周阅读2-3篇论文,持续更新知识库。
  • 深入理解和实践:尽量理解论文的每个部分,包括理论、实验、代码等。可以尝试复现论文的实验结果。尽管你可能没办法复现所有的,但是找一些精典与契合自己方向的来来做,真的有特别大的帮助 。
交流

交流是学习过程中非常重要的部分,可以帮助我们打开思路、解决问题。而且当你成长到一定时间,去找人交流可能会迅速提高你,因为一些大牛的眼界、直觉是远超常人的,你要相信人与人的差距,可能真的比人跟狗都大。下面是几个常见的交流方式:

  • 线上社区:如Reddit、Stack Overflow、知乎等,可以提问、回答问题、参与讨论。
  • 线下Meetup:参加一些线下的技术交流会,可以听到一些前沿的分享,也可以结识同领域的朋友。
  • 参加研讨会和会议:可以听到领域内专家的讲座,也有机会提问和交流。
通过以上三个方面的自主学习,可以更全面、更深入地学习人工智能知识,也更有利于个人的专业成长。你不参加几个顶会,怎么见到更多的牛人呢?
要是看到这儿了,我想也不会介意再动下手,我觉得最好的方式应该是视频学习,类似 “知乎知学堂推出的《<a href="http://www.zhihu.com/search?q=%E7%A8%8B%E5%BA%8F%E5%91%98%E7%9A%84AI%E5%A4%A7%E6%A8%A1%E5%9E%8B%E8%BF%9B%E9%98%B6%E4%B9%8B%E6%97%85&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3166721473%7D#s30kds#1s2ecw" class="internal">程序员的AI大模型进阶之旅”, 其实就是一份非常有意思的 AI 大模型的介绍性入门课程,简单看看,你可能马上就对大模型了解了,而不是要大量阅读。这也是个非常有效的学习方法。还有哦,加小助手的微信,好像有惊喜呢。
回复
使用道具 举报
maoer
本文末尾附斯坦福大学人工智能本科4年课程清单和课程资源。
一、数学基础

在系统的知识学习之前,我首先强烈强烈 推荐3Blue1Brown的相关视频,B站和油管上都有。特别是关于线性代数的本质,我看完后收获很大。


除此之外,我还推荐一本吴军博士编写的《数学之美》,这应该是将我引入AI专业的一本书,特别是激发了我对自然语言处理和信息论的兴趣。“数学之美”系列文章原刊载于谷歌黑板报,获得上百万次点击,得到读者高度评价。正式出版前,吴军博士几乎把所有文章都重写了一遍,为的是把高深的数学原理讲得更加通俗易懂,让非专业读者也能领略数学的魅力。
1、微积分

一般学校教授的内容基本就够了,重点要关注链式法则和多元函数求导。 书籍方面据说托马斯微积分》、Stewart的《微积分》和《普林斯顿微积分读本都不错,不过这些我没看过,不做评论。
2、线性代数

强烈推荐Gilbert Strang编写的线性代数教材,B站上有配套的MIT Strang公开课,质量非常高。 @梁唐 公众号coder梁上有个日拱一卒系列有MIT线代课的笔记
如果有数学专业背景或者想更深入地学习线性代数理论,可以参考《线性代数应该这样学》(《Linear Algebra Done Right》),我学习了这本书的部分章节,感觉部分内容和习题难度极大,不建议低年级工科生在上面花过多时间。
3、概率统计/随机过程

推荐中科大陈希孺编写的《概率论和数理统计》
4、离散数学

推荐黑皮书系列《离散数学及其应用》
还有 一本《具体数学》很不错,不过这属于扩展内容了
5、凸优化

推荐Boyd的《凸优化》,这本书国外也有配套的课程视频,但是初学者学习难度较大,要求比较高的线性代数基础。 除此之外,B站上中科大的凸优化课程也很好,学习难度比硬啃Boyd的《凸优化》要友好些。

二、计算机基础

1、计算机科学知识

计算机科学的一些概论性知识不建议去买大部头的黑皮书去看(比如计算机科学概论),平时通过一些博客去了解就行了。非著名程序员:推荐一套国外超棒的计算机科学视频课程 据说不错。
除此之外我还推荐吴军博士的《浪潮之巅》,emmm这本书更像是计算机相关企业发展史,我觉得读过还是有些帮助(当然更多是兴趣使然)。
伯克利的cs61a课程的内容和作业质量非常非常高,主要内容有函数式编程这些。不过对于初学者来说难度还是很大的,我大二暑假的时候学习了一遍,作业有不少题需要花时间和精力去思考。据说哈佛CS50也很好,难度应该比cs61a要低一些。
2、编程语言学习

人工智能需要学习的编程语言由python,C/C++/java。 编程语言的学习每个人有适合自己的方法,知乎上也有很多有深厚编程经验的同行介绍,这里就不再展开了。
C/C++推荐MOOC上浙大翁凯的课程,java推荐B站黑马程序员的java入门课程,python推荐《Python 编程,从入门到实践》或者https://www.runoob.com/python/python-tutorial.html。当然这些只是入门,除了看书籍/视频外更重要的是自己动手上手项目实战
3、数字逻辑电路/计算机组成原理

推荐MOOC上南京大学袁春凤的课程。对于大部分AI方向,这块儿没有要求,如果是本科生时间多的可以掌握基础的知识。
4、数据结构与算法

我当时用的资料是 算法第四版 这本书,内容很好,书里的代码用java写的,但是会C++的话看懂肯定没问题,coursera上有普林斯顿配套的课程,评分非常高。 当然,学算法光看书肯定是不够的,还要多做题,可以根据leetcode去训练。
5、操作系统

强烈推荐B站上哈工大李治军的操作系统。
除此之外想深入学习可以参考MIT的操作系统MIT6.828。
6、数据库

B站上东南大学徐立臻老师的课程很好,我是线下修了徐老师的数据库及其应用这门专业选修课,徐老师人真的很nice。 想学得深入一点可以看CMU15445,我后面如果抽出时间的话可能会出个CMU15445专栏笔记。
7、计算机网络

这门课国内外教学模式有些差别,有自顶而下的也有自底而上的。 我个人是推荐一本户根勤《网络是怎样连接的》,内容比较浅,但是脉络清晰而且很有意思。网上能找到哈佛计网的在线课程,评价非常好,课程编码不记得了,回头有机会补上。
8、信号与系统/数字图像处理

有些领域比如计算机视觉会需要这块儿的知识,不是研究生方向相关,学不学也无所谓。
信号与系统推荐东南大学孟桥老师的课程,B站上有。还有祖师爷奥本海姆古早的课程B站上也能找到。这门课经典教材就是祖师爷奥本海姆写的。
数字图像处理我没有系统学过,这里就不好为人师了,经典教材就是冈萨雷斯编写的图像处理
9、编译原理

没学过...本文末尾附上了斯坦福大学编译器这门课程的链接

三、人工智能

首先关于概念性的、入门的知识,可以快速看吴恩达的机器学习公开课。还有一本大部头的《Artificial Intelligence: A Modern Appoach》,我们学校人工智能导论这门课的参考书,是本很经典的书,不过太厚了,不适合新手读
1、机器学习


  • 李航《统计机器学习》, 读起来有困难的话B站上搜 机器学习白板推导,系列视频不错
  • 《机器学习实战》前半部分,介绍了使用scikit-learn去完成一些简单的机器学习任务
  • 李宏毅B站视频机器学习课程
  • 机器学习基础知识系统学过一遍,如果研究生博士生做机器学习理论,想更深入地学习,可以参考《Patten Recognition And Machine Learning》
2、深度学习


  • 邱希鹏《神经网络和深度学习》
  • 强烈推荐, B站 李沐的 动手深度学习 系列课程, 也有配套的电子书籍
  • pytorch官方文档(我是用pytorch为主的)
3、自然语言处理


  • 基础知识的学习强烈推荐Stanford的 Speech and Language Processing, 我一年前开了个专栏记了点笔记,不过比较粗糙,供参考.
  • 实践方面,可以参考 @李rumor 的置顶问题。这里推荐一些入门代码练习https://github.com/graykode/nlp-tutorial、https://github.com/FudanNLP/nlp-beginner
  • 还有些比较热门常用技术,比如预训练模型、prompt等,需要参考相应的论文和文档资料,Transformer的学习可以参考我之前的文章。相关阅读论文参考NLP入门总结(论文篇)
  • 还有些比较经典课程比如CS224n,我没看过,这里不做评价
4、计算机视觉

cs231的课程,基于卷积神经网络的计算机视觉。 (CV我了解的不多qwq)
5、知识工程/知识图谱/知识表示和推理

入门的话强烈推荐@SimmerChan的专栏
知识图谱是非常难以系统地学习的。 可以先学习语义网的相关技术,比如RDF、RDFS/OWL、SPARQL等,比较好的书籍有《A Semantic Web Primer》(这本书要看原版,翻译版很烂,而且有难度,不适合初学者)。语义网基础知识了解后,可以看看YAGO、DBpedia等知名项目的论文,了解了解YAGO的本体是什么样的,十几年前是怎么构建的,对知识库的全貌有个大体认识。
除此之外,需要掌握自然语言处理的相关工具,跟着做一些知识抽取(最常见的有实体抽取和关系抽取)的项目,ontology layer cake是怎么搭建的,knowledge graph构建的pipeline上网找个项目走一遍就入门了。
知识图谱的学习除了知识图谱构建还有知识图谱应用,可以到github找相关的感兴趣的项目去跟着做一做。
强化学习

研究生博士生做这个方向的话,可以读Sutton的那本书。否则的话还是从项目入手吧(Sutton那本书太厚辣)。 我是用强化学习做过糖豆人和BlackJack两个项目,还是很有意思的。
多智能体

怎么这门课的知识那么像分布式系统捏?

人工智能有广泛的领域和方向,我上面提到的也只是比较主流或者我仅仅了解的一些方向,有遗漏和建议的大家可以在评论区补充。

最后附上:
斯坦福大学——人工智能本科4年课程清单
回复
使用道具 举报
中华隐士黑
现在无论是计算机专业还是其他的实体行业(机械、制造等等)对于人工智能的需求都还是蛮大的。所以现在也有很多人想入门人工智能,或者转行人工智能。其实人工智能是一个很大的方向,现在提到的人工智能基本上都默认以深度学习为主导的方法,但其实人工智能和深度学习的关系是:深度学习是机器学习的一个子集,机器学习是人工智能的一个子集。那么现在深度学习这么火,我就简单的出深度学习的角度来回答一下这个问题。
其实对于深度学习这个日新月异,每年爆发式更新模型的方向来说,学习路线的最尽头肯定是阅读你这个方向最新的论文,无论是科研人员还是已经走上工作岗位打算转行的打工人。阅读论文的来源一般是各种顶会(CVPR、ECCV、ICCV)、顶刊(TPAMI)。如果你嫌麻烦可以直接去谷歌学术或者arXiv上搜索你关注的内容,在搜索的时候最好把时间设定在最近几年。
说完学习路线的尽头,我们来看看入门的一些要求。对于入门深学习而言,你是必须掌握Python这门语言的,主要的原因是很多模型开源的代码都是基于Python实现的,而且目前针对深度学习的两个主流框架pytorch和TensorFlow都是支持Python开发的,也就是说深度学习的生态很大一部分是依赖Python的。所以说学习和掌握Python是入门深度学习必须的步骤,如果你不会也不用担心,入门Python还是非常简单的,目前知乎知学堂推出了一个基于Python的数据开发课程,如果你感兴趣的话可以购买学习一下,现在也不是很贵才一毛钱,以后可能就不好说了,所以直接买就完事了,也算是薅羊毛了。
好当你掌握了Python,那么下一步就是去学习一些基础的数学知识了,因为如果一点数学知识都不知道的话后面论文中的公式你可能都看不懂,更不用提推导复现模型了。但你也没必要害怕,主要的就是基本的线性代数知识,也就是本科大一下学期学的,以及一些高等数学中的微积分知识。因为深度学习说的通俗一点就是大量的线代中矩阵运算和微积分中偏微分用于梯度下降。


人类之光

当你掌握Python编程和基本的线代知识以及微积分以后,你现在就可以去看看最基本的深度学习网络模型了。虽然说现在深度学习日新月异,但是目前的很多新模型都是基于这些基础模型上进一步创新和跨领域应用的。这些基本的模型不仅能带你理解深度学习,也能帮你打下坚实的基础,这对于你后面去理解新模型和创新是非常重要的。下面我就从计算机视觉(二维图片处理、三维点云数据处理)、自然语言处理列举几个最基本的模型。
深度学习网络基础知识:正向传播、梯度下降、反向传播、常见的几个LOSS函数(损失函数)
开山鼻祖:FCN网络(全连接神经网络)


一个简单的神经网络示意图

计算机视觉(2D图片任务):
1.CNN(这个就不过多介绍了,已经是如雷贯耳了)
2.FCN(膨胀卷积,是分割任务中祖师爷般的存在)
3.RCNN系列(目标检测任务霸主,现在很多下游任务还是会把faster rcnn当做骨干网络)
计算机视觉(3D视觉点云或者体素任务):
1.PointNet/PointNet++(在三维视觉中基于点数据流派的开山之作)
2.VoteNet(何凯明在三维目标检测的力作)
自然语言处理方向:

  • RNN(这个模型年纪虽然可能比你都大(1982年)但这并不影响他在NLP领域的影响力)
  • LSTM(1997年,是对RNN的一个改进版本)
  • transform(这个不多说,现在真的是transform及其子孙模型大行其道的时代,光在自然语言领域卷还不够,现在都跑到计算机视觉领域来卷了)
当你读完上面论文,你就可以去专门的看你自己方向的论文了,希望我的回答对你有所帮助。
回复
使用道具 举报
6523408
本人现在也正在学习研究人工智能和机器学习。网上看了许多大神的回答还有建议,综合各大神的回答总结了机器学习从入门到‘放弃’的路线,以备享用:

1)吴恩达《机器学习》
吴恩达自然不用说了,人工智能领域的大牛,世界上人工智能最有权威的学者之一。他讲的课自然是很牛逼的,是人工智能入门的不二之选
这门课基本涵盖了机器学习的主要知识点,例如:线性回归、逻辑回归、支持向量机、神经网络、K-Means、异常检测等等。而且课程中没有复杂的公式推导和理论分析。Ng 的目的是让机器学习初学者能够快速对整个机器学习知识点有比较整体的认识,便于快速入门。
课程地址如下:
吴恩达机器学习 - 网易云课堂这门课也都有作业,可以去自己编程完成。不过以前吴恩达是用octave编程的,但是现在基本都不用octave了,所以GitHub上面有许多大佬把他改成Python编程了,具体可以去GitHub搜就可以。
2)台大林轩田《机器学习基石》
台湾大学林轩田老师的《机器学习基石》课程由浅入深、内容全面,基本涵盖了机器学习领域的很多方面。其作为机器学习的入门和进阶资料非常适合。而且林老师的教学风格也很幽默风趣,总让读者在轻松愉快的氛围中掌握知识。这门课比 Ng 的《Machine Learning》稍难一些,侧重于机器学习理论知识。
附上这门课的B站资源:
https://www.bilibili.com/video/av12463015?from=search&seid=162885655845148783783)台大林轩田《机器学习技法》
《机器学习技法》课程是《机器学习基石》的进阶课程。主要介绍了机器学习领域经典的一些算法,包括支持向量机、决策树、随机森林、神经网络等等。难度要略高于《机器学习基石》,具有很强的实用性。
附上这门课的B站视频:
https://www.bilibili.com/video/av36760800学完上面这几门课的话应该可以说是入门了,至少对机器学习人工智能有个比较好的理解。人工智能对于数学特别是线性代数有比较高的要求,毕竟编程的时候会有许多矩阵分析、矩阵变换等,所以要对线性代数有个详细的了解和学习。
4)Gilbert Strang主讲的线性代数
这门课由麻省理工学院的Gilbert Strang主讲,看下百度百科就知道了,他是个很牛逼的人物。以下是百度百科的介绍:
William Gilbert Strang(威廉·吉尔伯特·斯特朗),1934年11月27日于芝加哥出生,是美国享有盛誉的数学家,在有限元理论、变分法、小波分析及线性代数方面均有所建树。他对教育的贡献尤为卓著,包括所著有的七部经典数学教材及一部专著。斯特朗自1962年至今担任麻省理工学院教授,其所授课程《线性代数导论》、《计算科学与工程》均在麻省理工学院开放式课程计划(MIT Open Course Ware)中收录,并获得广泛好评。
而且相对于国内的线性代数的讲授,Gilbert Strang教授讲的更加有趣,更加深入浅出,不仅仅是死记硬背那些公式,而是从源头上去理解公式是怎么来的,一听他的课你就会豁然开朗而且想一直听下去。你会觉得以前学的线性代数白学了。。下面是网易云课堂课程的链接:
网易公开课5)李沐的《动手深度学习》
《动手学深度学习》这本书由亚马逊首席科学家李沐,亚马逊应用科学家阿斯顿·张等大师合作打造,沉淀三年完成。本书采用交互式的学习方法,不但讲授了深度学习算法原理,还给出了代码运行与实现,让你在手调代码的同时理解消化知识。
全书的内容分为3个部分:第一部分介绍深度学习的背景,提供预备知识,并包括深度学习最基础的概念和技术;第二部分描述深度学习计算的重要组成部分,还解释近年来令深度学习在多个领域大获成功的卷积神经网络和循环神经网络;第三部分评价优化算法,检验影响深度学习计算性能的重要因素,并分别列举深度学习在计算机视觉和自然语言处理中的重要应用。
本书同时覆盖深度学习的方法和实践,主要面向在校大学生、技术人员和研究人员。阅读本书需要读者了解基本的Python编程或附录中描述的线性代数、微分和概率基础。
个人觉得学深度学习只要有这本书基本就可以啦,而且有课程有jupyter notebook,非常好,相见恨晚。附上链接可以下载jupyter notebook:
《动手学深度学习》:面向中文读者、能运行、可讨论B站视频:
https://www.bilibili.com/video/av14327359由于现在mxnet比较少人用,所以有大神把这本书里面的代码转化为主流框架Tensorflow和Pytorch,适合读者从零开始学习这两种框架。
tensorflow2.0版本
https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0
Pytorch版本
https://github.com/ShusenTang/Dive-into-DL-PyTorch学完上述课程之后就可以细分领域了,什么NLP、计算机视觉、强化学习等,可以根据自己的领域去找一些视频教程。下面是计算机视觉的一些教程。
6)斯坦福大学的李飞飞的CS231n计算机视觉识别
李飞飞也是华人之光,可以跟吴恩达媲美的人工智能大牛,她主讲的计算机识别也是计算机视觉很好的入门课程,下面附上B站视频:
哔哩哔哩 (゜-゜)つロ 干杯~-bilibili7)李宏毅的《深度学习》
台大教授李宏毅的深度学习讲的也不错,也可以看看,作为一个补充。下面是B站课程链接:
https://www.bilibili.com/video/av48285039/?p=18)周志华《机器学习》西瓜书
周志华老师的《机器学习》,自2016年1月底出版以来,首印5000册一周售罄,并在8个月内重印9次,累计72000册。先后登上了亚马逊,京东,当当网等的计算机类畅销书榜首。
西瓜书身边学习机器学习的小伙伴可谓是人手一本。
针对西瓜书部分公式推倒太难的问题,GitHub上有个开源项目,由开源组织Datawhale发起,得到了周志华老师的认同,下面是GitHub链接:
datawhalechina/pumpkin-book9) Hands-on Machine Learning with Scikit-Learn, Keras and TensorFlow


最新出版的,结合新出的TensorFlow2代码来写,这本书通过具体的例子、很少的理论以及两款成熟的Python框架:Scikit-Learn和TensorFlow2,作者Aurélien Géron会帮助你掌握构建智能系统所需要的概念和工具。你将会学习到各种技术,从简单的线性回归及发展到深度神经网络。每章的练习有助于你运用所学到的知识,你只需要有一些编程经验就行了。书中的代码也开源了:
ageron/handson-ml2
10)李航《统计学习方法》
本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k 近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与支持向量机、提升方法、EM 算法、隐马尔可夫模型和条件随机场等。每章介绍一种方法,叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,便于读者掌握统计学习方法的实质,学会运用。
github上有个项目,将《统计学习方法》中每一章的算法用python实现一遍,下面附上链接:
<a data-draft-node="block" data-draft-type="link-card" href="http://link.zhihu.com/?target=https%3A//github.com/WenDesi/lihang_book_algorithm" data-image="http://pic3.zhimg.com/v2-bdff9bf6ae011cc22c065ddd23b7a6a2_ipico.jpg" data-image-width="240" data-image-height="240" class=" wrap external" target="_blank" rel="nofollow noreferrer">WenDesi/lihang_book_algorithm
上面的课程和书籍你要是看完了,恭喜你已经可以算得上是大牛啦!本人现在也正在研究学习这些内容,有一起学习的小伙伴也可以一起学习呀!
回复
使用道具 举报
peaceful
整理了张脑图,大致就是人工智能的各个方面。
(各位对人工智能感兴趣的小伙伴可以关注公众号“机器工匠”,阅读更多人工智能技术、资讯类文章)
回复
使用道具 举报
快速回复
您需要登录后才可以回帖 登录 | 立即注册

当贝投影