|
首页
|
电子技术
|
电子产品应用
|
电子头条
|
论坛
|
电子技术视频
|
下载
|
参考设计
|
Datasheet
|
活动
|
技术直播
|
datasheet
datasheet
文章
搜索
大学堂
上传课程
登录
注册
首页
课程
TI培训
直播频道
专题
相关活动
芯兑换
您的位置:
EEWORLD大学堂
/
机器学习/算法
/
机器学习 吴恩达
/
Evaluating a Hypothesis
播放列表
课程目录
课程笔记
课时1:Welcome
课时2:What is Machine Learning
课时3:Supervised Learning
课时4:Unsupervised Learning
课时5:Model Representation
课时6:Cost Function
课时7:Cost Function - Intuition I
课时8:Cost Function - Intuition II
课时9:Gradient Descent
课时10:Gradient Descent Intuition
课时11:Gradient Descent For Linear Regression
课时12:What-'s Next
课时13:Matrices and Vectors
课时14:Addition and Scalar Multiplication
课时15:Matrix Vector Multiplication
课时16:Matrix Matrix Multiplication
课时17:Matrix Multiplication Properties
课时18:Inverse and Transpose
课时19:Multiple Features
课时20:Gradient Descent for Multiple Variables
课时21:Gradient Descent in Practice I - Feature Scaling
课时22:Gradient Descent in Practice II - Learning Rate
课时23:Features and Polynomial Regression
课时24:Normal Equation
课时25:Normal Equation Noninvertibility (Optional)
课时26:Basic Operations
课时27:Moving Data Around
课时28:Computing on Data
课时29:Plotting Data
课时30:Control Statements- for, while, if statements
课时31:Vectorization
课时32:Working on and Submitting Programming Exercises
课时33:Classification
课时34:Hypothesis Representation
课时35:Decision Boundary
课时36:Cost Function
课时37:Simplified Cost Function and Gradient Descent
课时38:Advanced Optimization
课时39:Multiclass Classification- One-vs-all
课时40:The Problem of Overfitting
课时41:Cost Function
课时42:Regularized Linear Regression
课时43:Regularized Logistic Regression
课时44:Non-linear Hypotheses
课时45:Neurons and the Brain
课时46:Model Representation I
课时47:Model Representation II
课时48:Examples and Intuitions I
课时49:Examples and Intuitions II
课时50:Multiclass Classification
课时51:Cost Function
课时52:Backpropagation Algorithm
课时53:Backpropagation Intuition
课时54:Implementation Note- Unrolling Parameters
课时55:Gradient Checking
课时56:Random Initialization
课时57:Putting It Together
课时58:Autonomous Driving
课时59:Deciding What to Try Next
课时60:Evaluating a Hypothesis
课时61:Model Selection and Train-Validation-Test Sets
课时62:Diagnosing Bias vs. Variance
课时63:Regularization and Bias-Variance
课时64:Learning Curves
课时65:Deciding What to Do Next Revisited
课时66:Prioritizing What to Work On
课时67:Error Analysis
课时68:Error Metrics for Skewed Classes
课时69:Trading Off Precision and Recall
课时70:Data For Machine Learning
课时71:Optimization Objective
课时72:Large Margin Intuition
课时73:Mathematics Behind Large Margin Classification (Optional)
课时74:Kernels I
课时75:Kernels II
课时76:Using An SVM
课时77:Unsupervised Learning- Introduction
课时78:K-Means Algorithm
课时79:Optimization Objective
课时80:Random Initialization
课时81:Choosing the Number of Clusters
课时82:Motivation I- Data Compression
课时83:Motivation II- Visualization
课时84:Principal Component Analysis Problem Formulation
课时85:Principal Component Analysis Algorithm
课时86:Choosing the Number of Principal Components
课时87:Reconstruction from Compressed Representation
课时88:Advice for Applying PCA
课时89:Problem Motivation
课时90:Gaussian Distribution
课时91:Algorithm
课时92:Developing and Evaluating an Anomaly Detection System
课时93:Anomaly Detection vs. Supervised Learning
课时94:Choosing What Features to Use
课时95:Multivariate Gaussian Distribution (Optional)
课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional)
课时97:Problem Formulation
课时98:Content Based Recommendations
课时99:Collaborative Filtering
课时100:Collaborative Filtering Algorithm
课时101:Vectorization- Low Rank Matrix Factorization
课时102:Implementational Detail- Mean Normalization
课时103:Learning With Large Datasets
课时104:Stochastic Gradient Descent
课时105:Mini-Batch Gradient Descent
课时106:Stochastic Gradient Descent Convergence
课时107:Online Learning
课时108:Map Reduce and Data Parallelism
课时109:Problem Description and Pipeline
课时110:Sliding Windows
课时111:Getting Lots of Data and Artificial Data
课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next
课时113:Summary and Thank You
时长:7分35秒
日期:2018/05/05
收藏视频
分享
上传者:老白菜
去评论
课程介绍
相关标签:
机器学习
ML
machine learning
此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数
算法
、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐
系统
、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工
智能
的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,
控制
)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、
音频
、数据挖掘及其他领域上。
显示全部 ↓
换一批
猜你喜欢
介绍采用 nanoWatt XLP技术的超低功耗系列单片机
Atmel GPS 跟踪器应用演示
TI AMIC110 多协议通信芯片工业应用优化解决方案
2015 TI 音频创新日 (6) TI 门户网站,音频产品选择工具
D-Cap 控制模式的原理及应用
TI 智能音箱和条形音箱 - 电源新设计趋势
【虚拟仪器大赛】探测小车
vivado教程
电源设计小贴士16:缓冲正向转换器
WEBENCH电源 FPGA Architect概述
推荐帖子
EEWORLD大学堂----直播回放: 贝能国际新型玻璃破碎检测方案
直播回放: 贝能国际新型玻璃破碎检测方案 :http://training.eeworld.com.cn/course/5313...
hi5
综合技术交流
电路中电能传输方向
如图(01)这个电路,有两个电池和一个电阻串联。这个电路中,是电池E1对电池E2充电,还是电池E2对电池E1充电? 图(01) 我们测量一下电压U1和电压U2。如果电压U1大于电压U2,就可以判断电阻R左端电位高于右端电位,显然电阻中电流方向是从左向右,如图(02)所示。此时我们就可以判断是电池E1...
maychang
综合技术交流
晶振在照明系统硬件中起到的关键作用
对一些照明时间较长、照明设备较多的场所,其照明系统的使用浪费现象屡见不鲜。由于缺乏科学管理和管理人员的责任心不强,有时在借助外界环境能正常工作和夜晚室内空无一人时,整个房间内也是灯火通明。这样下来,无形中所浪费的电能是非常惊人的。据测算,这种现象的耗电占其单位所有耗电的40%左右。因此,有必要在保证照明质量的前提下,实施照明节能措施。这不仅可以节约能源,而且会产生明显的经济效益。 本系统主要由...
yijindz
综合技术交流
MSP430F5438A与lis3dsh组成
作为新手,经过多时的尝试,还是没有搭建起必要的代码,以及对lis3dsh功能的认识,特来,请教大佬们 ...
想做,我要做了
综合技术交流
用户评论
暂时无评论
推荐视频
更多
Python机器学习应用
TI-RSLK 模块 19 - 低功耗蓝牙
计算机科学速成课
C语言程序设计视频教程(曾怡)
Atmel|SMART 基于Cortex M0+核的MCU
Atmel - 防止系统克隆伪造
半导体器件物理 (施敏 台湾交通大学)
Altera2012亚洲创新设计大赛CN099视频介绍-01
PCB设计视频-1天学会PADS PCB设计
聊天学Xilinx Vivado设计套件
相关下载
更多
The Ultimate Raspberry Pi Handbook
ARM指令集详解(包括机器码)
LMV321/LMV324 pdf,LMV321/LMV324 datasheet
Python数据分析基础教程:NumPy学习指南(第2版)
MATLAB神经网络原理与实例精解
Xilinx公司关于testbench的学习资料
MATLAB案例28 灰色神经网络的预测算法—订单需求预测.rar
FDTD 方法计算光子晶体带隙的matlab源程序
Serial ATA Revision 3.0 - SATA6G的协议,09年5月
VHDL design representation and synthesis_c.pdf
电子工程世界版权所有
京ICP证060456号
京ICP备10001474号-1
电信业务审批[2006]字第258号函
京公网安备 11010802033920号
Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved
用户评论