|
首页
|
电子技术
|
电子产品应用
|
电子头条
|
论坛
|
电子技术视频
|
下载
|
参考设计
|
Datasheet
|
活动
|
技术直播
|
datasheet
datasheet
文章
搜索
大学堂
上传课程
登录
注册
首页
课程
TI培训
直播频道
专题
相关活动
芯兑换
您的位置:
EEWORLD大学堂
/
机器学习/算法
/
机器学习 吴恩达
/
Plotting Data
播放列表
课程目录
课程笔记
课时1:Welcome
课时2:What is Machine Learning
课时3:Supervised Learning
课时4:Unsupervised Learning
课时5:Model Representation
课时6:Cost Function
课时7:Cost Function - Intuition I
课时8:Cost Function - Intuition II
课时9:Gradient Descent
课时10:Gradient Descent Intuition
课时11:Gradient Descent For Linear Regression
课时12:What-'s Next
课时13:Matrices and Vectors
课时14:Addition and Scalar Multiplication
课时15:Matrix Vector Multiplication
课时16:Matrix Matrix Multiplication
课时17:Matrix Multiplication Properties
课时18:Inverse and Transpose
课时19:Multiple Features
课时20:Gradient Descent for Multiple Variables
课时21:Gradient Descent in Practice I - Feature Scaling
课时22:Gradient Descent in Practice II - Learning Rate
课时23:Features and Polynomial Regression
课时24:Normal Equation
课时25:Normal Equation Noninvertibility (Optional)
课时26:Basic Operations
课时27:Moving Data Around
课时28:Computing on Data
课时29:Plotting Data
课时30:Control Statements- for, while, if statements
课时31:Vectorization
课时32:Working on and Submitting Programming Exercises
课时33:Classification
课时34:Hypothesis Representation
课时35:Decision Boundary
课时36:Cost Function
课时37:Simplified Cost Function and Gradient Descent
课时38:Advanced Optimization
课时39:Multiclass Classification- One-vs-all
课时40:The Problem of Overfitting
课时41:Cost Function
课时42:Regularized Linear Regression
课时43:Regularized Logistic Regression
课时44:Non-linear Hypotheses
课时45:Neurons and the Brain
课时46:Model Representation I
课时47:Model Representation II
课时48:Examples and Intuitions I
课时49:Examples and Intuitions II
课时50:Multiclass Classification
课时51:Cost Function
课时52:Backpropagation Algorithm
课时53:Backpropagation Intuition
课时54:Implementation Note- Unrolling Parameters
课时55:Gradient Checking
课时56:Random Initialization
课时57:Putting It Together
课时58:Autonomous Driving
课时59:Deciding What to Try Next
课时60:Evaluating a Hypothesis
课时61:Model Selection and Train-Validation-Test Sets
课时62:Diagnosing Bias vs. Variance
课时63:Regularization and Bias-Variance
课时64:Learning Curves
课时65:Deciding What to Do Next Revisited
课时66:Prioritizing What to Work On
课时67:Error Analysis
课时68:Error Metrics for Skewed Classes
课时69:Trading Off Precision and Recall
课时70:Data For Machine Learning
课时71:Optimization Objective
课时72:Large Margin Intuition
课时73:Mathematics Behind Large Margin Classification (Optional)
课时74:Kernels I
课时75:Kernels II
课时76:Using An SVM
课时77:Unsupervised Learning- Introduction
课时78:K-Means Algorithm
课时79:Optimization Objective
课时80:Random Initialization
课时81:Choosing the Number of Clusters
课时82:Motivation I- Data Compression
课时83:Motivation II- Visualization
课时84:Principal Component Analysis Problem Formulation
课时85:Principal Component Analysis Algorithm
课时86:Choosing the Number of Principal Components
课时87:Reconstruction from Compressed Representation
课时88:Advice for Applying PCA
课时89:Problem Motivation
课时90:Gaussian Distribution
课时91:Algorithm
课时92:Developing and Evaluating an Anomaly Detection System
课时93:Anomaly Detection vs. Supervised Learning
课时94:Choosing What Features to Use
课时95:Multivariate Gaussian Distribution (Optional)
课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional)
课时97:Problem Formulation
课时98:Content Based Recommendations
课时99:Collaborative Filtering
课时100:Collaborative Filtering Algorithm
课时101:Vectorization- Low Rank Matrix Factorization
课时102:Implementational Detail- Mean Normalization
课时103:Learning With Large Datasets
课时104:Stochastic Gradient Descent
课时105:Mini-Batch Gradient Descent
课时106:Stochastic Gradient Descent Convergence
课时107:Online Learning
课时108:Map Reduce and Data Parallelism
课时109:Problem Description and Pipeline
课时110:Sliding Windows
课时111:Getting Lots of Data and Artificial Data
课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next
课时113:Summary and Thank You
时长:9分38秒
日期:2018/05/05
收藏视频
分享
上传者:老白菜
去评论
课程介绍
相关标签:
机器学习
ML
machine learning
此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数
算法
、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐
系统
、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工
智能
的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,
控制
)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、
音频
、数据挖掘及其他领域上。
显示全部 ↓
换一批
猜你喜欢
大规模数据处理与云计算 北京大学
东芝在线展会2016
CES 2015焦点: Novi重新定义智能家居保安
linux服务器架设
数字电源应用领域的更新
直播回放: 解读安森美半导体电源解决方案 ,聚焦服务器电源、光伏逆变器
在家电应用中电机控制设计的选择及性能提升
Atmel SAMA5D3系列概览(一)
HVI 系列: 门驱动器设计
机器人技术及应用
推荐帖子
EEWORLD大学堂----直播回放: 微处理器的安全引导
直播回放: 微处理器的安全引导:http://training.eeworld.com.cn/course/5747...
hi5
综合技术交流
IAR编译优化等级介绍
IAR拥有灵活的优化等级设置,包括不同等级和不同层级的编译优化设置。本文将介绍IAR的编译优化等级设置,不同的编译优化等级设置涉及的编译器优化行为不同。 不同优化等级适应不同的应用需求,MCU资源空间有限时可选择针对代码大小进行优化,对应用实时响应要求较高的情形则应选择针对代码运行速度进行优化。且需注意在项目调试过程中不应将优化等级设置的过高,因高度优化会导致调试过程需要的一些信息丢失。 ...
MamoYU
综合技术交流
STC烧写软件是流氓软件
每次用这软件烧写。。只能烧写2到3次。。然后就烧不进去。。必须拔了USB再插过USB。。才能烧进去。。 感觉这就是流氓软件。。很火大了。。。求介绍好的烧写软件撒。。。。...
liao779015
综合技术交流
MAX197转换问题
我现在用430单片机驱动MAX197,控制字些进去了,INT在写完控制字后也置低了,第一次读数据的时候INT也回到了高, 但是接下来INT就一直保持高电平,是怎么回事,如果控制字没写进去应该INT不会有变化啊,而且我只有在把ACQMOD位写 0的时候INT才回置低,说明芯片是正常的啊,但为什么不进行转换呢? 附上源代码,请各位用过的高手指点: void MAX197_write(char ...
xqspeed
综合技术交流
用户评论
暂时无评论
推荐视频
更多
基于ZynqArtix-7的GigE机器视觉方案
计算机控制系统 东北大学 关守平
Atmel SmartConnect 平台 - 全新物联网 Wi-Fi 解决方案(三)
大多数人都做不来的后空翻,波士顿动力机器人Atlas会做了!
波士顿机器人反抗人类?原来是CG恶搞
工业 mmWave 传感器演示系列视频
TI-RSLK 模块 11 - 液晶显示屏
Linux嵌入式开发
嵌入式软件设计
MSP430 FRAM and CapTIvate 电容触控技术
相关下载
更多
林锋教你一步一步玩机器人(arduino)--制作篇(4轮小车)
adpcm编码 C语言源程序 可供学习和参考
林锋教你一步一步玩机器人(arduino)--制作篇(入门组件A)
F16 气动数据 MATLAB数据
MATLAB案例28 灰色神经网络的预测算法—订单需求预测.rar
官方AD封装库:Atmel
现代通信技术PPT版学习资料包括最新的3G和WCDMA技术的展望
全数字音频功放NTP3000A
并联机器人机构学理论及控制
Digital Integrated Circuits A Design Perspective - Jan M.Rabaey 的答案
电子工程世界版权所有
京ICP证060456号
京ICP备10001474号-1
电信业务审批[2006]字第258号函
京公网安备 11010802033920号
Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved
用户评论