AB 在左/ AI 在右:吴恩达·人工智能课程

 

任何一项有长久生命力的技术都是面向未来的。从 2000 年 Google 上线互联网历史上第一组 A/B 测试至今,18年间它所代表的试验文化跑赢了同期或新生的许多热点和浪潮。其根本原因就在于面向未来。如果说『当红炸子鸡』区块链是通往未来的阶梯,那么 A/B 测试和 AI 人工智能就是开启未来大门的钥匙。

AI

永久免费获取课程资格的途径在文末~

A/B 测试的钥匙已经由吆喝科技这样的创业公司带到了中国,而对于国内想要拿到 AI 钥匙的弄潮儿来说,最佳途径便是师从吴恩达先生。他是人工智能和机器学习领域国际最权威学者之一,被《时代》周刊评为:先后领导建立世界最大和国内最大的神经元网络 Google Brain 和 Baidu Brain,并将人工智能课程首次班上了他联合创办的 MOOC 平台 Coursera。

吴恩达

永久免费获取课程资格的途径在文末~

然而,语言可能是中国开发者遇到的第一道坎。从出生到任教斯坦福,吴教授基本上都生活在英文环境中,亚洲脸和祖籍香港并没有给大家打来许多惊喜,不信可以点击下方链接检验一下您是否能够Hold住:

吴教授2分钟精彩诠释何为AI

是不是很想知道吴教授究竟讲了什么?不需焦虑:吆喝科技特意为大家整理了中文字幕版的课程资源,这份中文版的资料有着其他版本难以比拟的优势:

1、无截止日期,可以永久免费观看;

2、国内服务器,在线观看更加流畅和方便;

3、资料聚合整理,分门别类展示;

Plus:吴教授为每个单元匹配了众多他与顶级工程师对话的采访实录,同样也是中文翻译版。

AB测试课程

如何获得课程呢?

  • 查看链接:

    https://mooc.study.163.com/course/2001281002#/info

  • 微信:

    搜索吆喝科技”公众号或扫描下方二维码回复“AI”免费获得课程链接。

AB测试 二维码

福利:一起来看看课程列表

第一单元 神经网络和深度学习

开课时间:2017年 8月29日10:00 – 12月31日0:00
课程时长:4周

第一周  深度学习概论

1.1 欢迎来到深度学习工程师微专业

1.2 什么是神经网络?

1.3 用神经网络进行监督学习

1.4 为什么深度学习会兴起?

1.5 关于这门课

1.6 课程资源

第二周  神经网络基础

2.1 二分分类

2.2 logistic 回归

2.3 logistic 回归损失函数

2.4 梯度下降法

2.5 导数

2.6 更多导数的例子

2.7 计算图

2.8 计算图的导数计算

2.9 logistic 回归中的梯度下降法

2.10 m 个样本的梯度下降

2.11 向量化

2.12 向量化的更多例子

2.13 向量化 logistic 回归

2.14 向量化 logistic 回归的梯度输出

2.15 Python 中的广播

2.16 关于 python / numpy 向量的说明

2.17 Jupyter / Ipython 笔记本的快速指南

2.18 (选修)logistic 损失函数的解释

第二单元 改善深层神经网络:超参数调试、正则化以及优化

开课时间: 2017年8月29日10:00 – 12月31日0:00

课程时长:3周

第一周 深度学习的实用层面

1.1 训练 / 开发 / 测试集

1.2 偏差 / 方差

1.3 机器学习基础

1.4 正则化

1.5 为什么正则化可以减少过拟合?

1.6 Dropout 正则化

1.7 理解 Dropout

1.8 其他正则化方法

1.9 正则化输入

1.10 梯度消失与梯度爆炸

1.11 神经网络的权重初始化

1.12 梯度的数值逼近

1.13 梯度检验

1.14 关于梯度检验实现的注记

第二周 2.1 Mini-batch 梯度下降法

2.2 理解 mini-batch 梯度下降法

2.3 指数加权平均

2.4 理解指数加权平均

2.5 指数加权平均的偏差修正

2.6 动量梯度下降法

2.7 RMSprop

2.8 Adam 优化算法

2.9 学习率衰减

2.10 局部最优的问题化算法

第三周 超参数调试、Batch 正则化和程序框架

3.1 调试处理

3.2 为超参数选择合适的范围

3.3 超参数训练的实践:Pandas VS Caviar

3.4 正则化网络的激活函数

3.5 将 Batch Norm 拟合进神经网络

3.6 Batch Norm 为什么奏效?

3.7 测试时的 Batch Norm

3.8 Softmax 回归

3.9 训练一个 Softmax 分类器

3.10 深度学习框架

3.11 TensorFlow【人工智能行业大师访谈】

1. 吴恩达采访 Yoshua Bengio

2. 吴恩达采访 林元庆

 

第三单元 结构化机器学习项目

开课时间: 2017年8月29日10:00 – 12月31日0:00

课程时长:2周

第一周 机器学习(ML)策略(1)

1.1 为什么是 ML 策略

1.2 正交化

1.3 单一数字评估指标

1.4 满足和优化指标

1.5 训练 / 开发 / 测试集划分

1.6 开发集合测试集的大小

1.7 什么时候该改变开发 / 测试集和指标

1.8 为什么是人的表现

1.9 可避免偏差

1.10 理解人的表现

1.11 超过人的表现

1.12 改善你的模型的表现

第二周 机器学习(ML)策略(2)

2.1 进行误差分析

2.2 清楚标注错误的数据

2.3 快速搭建你的第一个系统,并进行迭代

2.4 在不同的划分上进行训练并测试

2.5 不匹配数据划分的偏差和方差

2.6 定位数据不匹配

2.7 迁移学习

2.8 多任务学习

2.9 什么是端到端的深度学习

2.10 是否要使用端到端的深度学习

【人工智能行业大师访谈】

1. 吴恩达采访 Andrej Karpathy

2. 采访 Ruslan Salakhutdinov

第四单元 卷积神经网络

开课时间: 2017年10月25日 – 年11月7日

课程时长:4周

第一周 卷积神经网络

1.1 计算机视觉

1.2 边缘检测示例

1.3 更多边缘检测内容

1.4 Padding

1.5 卷积步长

1.6 卷积中“卷”的体现之处

1.7 单层卷积网络

1.8 简单卷积网络示例

1.9 池化层

1.10 卷积神经网络示例

1.11 为什么使用卷积?

第二周 深度卷积网络:实例探究

2.1 为什么要进行实例探究?

2.2 经典网络

2.3 残差网络

2.4 残差网络为什么有用?

2.5 网络中的网络以及 1×1 卷积

2.6 谷歌 Inception 网络简介

2.7 Inception 网络

2.8 使用开源的实现方案

2.9 迁移学习

2.10 数据扩充

2.11 计算机视觉现状

第三周 目标检测

3.1 目标定位

3.2 特征点检测

3.3 目标检测

3.4 卷积的滑动窗口实现

3.5 Bounding Box 预测

3.6 交并比

3.7 非极大值抑制

3.8 Anchor Boxes

3.9 YOLO 算法

3.10 (选修)RPN 网络

第四周 特殊应用:人脸识别和神经风格转换

4.1 什么是人脸识别?

4.2 One-Shot 学习

4.3 Siamese 网络

4.4 Triplet 损失

4.5 面部验证与二分类

4.6 什么是神经风格转换?

4.7 深度卷积网络在学什么?

4.8 代价函数

4.9 内容代价函数

4.10 风格损失函数

4.11 一维到三维推广

5、序列模型

开课时间: 待定

课程时长:待定周

通过这门课的学习,你将会:

理解如何构建并训练循环神经网络(RNN),以及一些广泛应用的变体,例如GRU和LSTM。

能够将序列模型应用到自然语言问题中,包括文字合成。

能够将序列模型应用到音频应用,包括语音识别和音乐合成。

 

6311 Views
即刻实践文章理论 A/B测试 灰度发布 产品优化 免费申请
Please wait...

订阅我们

对于每位订阅读者,每两周,吆喝科技会为您发送4篇精选文章,可能是最新的A/B测试实践,也会是你所期待的增长干货。