|
首页
|
电子技术
|
电子产品应用
|
电子头条
|
论坛
|
电子技术视频
|
下载
|
参考设计
|
Datasheet
|
活动
|
技术直播
|
datasheet
datasheet
文章
搜索
大学堂
上传课程
登录
注册
首页
课程
TI培训
直播频道
专题
相关活动
芯兑换
您的位置:
EEWORLD大学堂
/
机器学习/算法
/
机器学习 吴恩达
/
Anomaly Detection using the Multivariate Gaussian Distribution (Optional)
播放列表
课程目录
课程笔记
课时1:Welcome
课时2:What is Machine Learning
课时3:Supervised Learning
课时4:Unsupervised Learning
课时5:Model Representation
课时6:Cost Function
课时7:Cost Function - Intuition I
课时8:Cost Function - Intuition II
课时9:Gradient Descent
课时10:Gradient Descent Intuition
课时11:Gradient Descent For Linear Regression
课时12:What-'s Next
课时13:Matrices and Vectors
课时14:Addition and Scalar Multiplication
课时15:Matrix Vector Multiplication
课时16:Matrix Matrix Multiplication
课时17:Matrix Multiplication Properties
课时18:Inverse and Transpose
课时19:Multiple Features
课时20:Gradient Descent for Multiple Variables
课时21:Gradient Descent in Practice I - Feature Scaling
课时22:Gradient Descent in Practice II - Learning Rate
课时23:Features and Polynomial Regression
课时24:Normal Equation
课时25:Normal Equation Noninvertibility (Optional)
课时26:Basic Operations
课时27:Moving Data Around
课时28:Computing on Data
课时29:Plotting Data
课时30:Control Statements- for, while, if statements
课时31:Vectorization
课时32:Working on and Submitting Programming Exercises
课时33:Classification
课时34:Hypothesis Representation
课时35:Decision Boundary
课时36:Cost Function
课时37:Simplified Cost Function and Gradient Descent
课时38:Advanced Optimization
课时39:Multiclass Classification- One-vs-all
课时40:The Problem of Overfitting
课时41:Cost Function
课时42:Regularized Linear Regression
课时43:Regularized Logistic Regression
课时44:Non-linear Hypotheses
课时45:Neurons and the Brain
课时46:Model Representation I
课时47:Model Representation II
课时48:Examples and Intuitions I
课时49:Examples and Intuitions II
课时50:Multiclass Classification
课时51:Cost Function
课时52:Backpropagation Algorithm
课时53:Backpropagation Intuition
课时54:Implementation Note- Unrolling Parameters
课时55:Gradient Checking
课时56:Random Initialization
课时57:Putting It Together
课时58:Autonomous Driving
课时59:Deciding What to Try Next
课时60:Evaluating a Hypothesis
课时61:Model Selection and Train-Validation-Test Sets
课时62:Diagnosing Bias vs. Variance
课时63:Regularization and Bias-Variance
课时64:Learning Curves
课时65:Deciding What to Do Next Revisited
课时66:Prioritizing What to Work On
课时67:Error Analysis
课时68:Error Metrics for Skewed Classes
课时69:Trading Off Precision and Recall
课时70:Data For Machine Learning
课时71:Optimization Objective
课时72:Large Margin Intuition
课时73:Mathematics Behind Large Margin Classification (Optional)
课时74:Kernels I
课时75:Kernels II
课时76:Using An SVM
课时77:Unsupervised Learning- Introduction
课时78:K-Means Algorithm
课时79:Optimization Objective
课时80:Random Initialization
课时81:Choosing the Number of Clusters
课时82:Motivation I- Data Compression
课时83:Motivation II- Visualization
课时84:Principal Component Analysis Problem Formulation
课时85:Principal Component Analysis Algorithm
课时86:Choosing the Number of Principal Components
课时87:Reconstruction from Compressed Representation
课时88:Advice for Applying PCA
课时89:Problem Motivation
课时90:Gaussian Distribution
课时91:Algorithm
课时92:Developing and Evaluating an Anomaly Detection System
课时93:Anomaly Detection vs. Supervised Learning
课时94:Choosing What Features to Use
课时95:Multivariate Gaussian Distribution (Optional)
课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional)
课时97:Problem Formulation
课时98:Content Based Recommendations
课时99:Collaborative Filtering
课时100:Collaborative Filtering Algorithm
课时101:Vectorization- Low Rank Matrix Factorization
课时102:Implementational Detail- Mean Normalization
课时103:Learning With Large Datasets
课时104:Stochastic Gradient Descent
课时105:Mini-Batch Gradient Descent
课时106:Stochastic Gradient Descent Convergence
课时107:Online Learning
课时108:Map Reduce and Data Parallelism
课时109:Problem Description and Pipeline
课时110:Sliding Windows
课时111:Getting Lots of Data and Artificial Data
课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next
课时113:Summary and Thank You
时长:14分3秒
日期:2018/05/05
收藏视频
分享
上传者:老白菜
去评论
课程介绍
相关标签:
机器学习
ML
machine learning
此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数
算法
、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐
系统
、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工
智能
的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,
控制
)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、
音频
、数据挖掘及其他领域上。
显示全部 ↓
换一批
猜你喜欢
TI BMS动力电池管理技术- Power tools, ebikes, LEVs
OpenCL统一的异构编程
开始使用UCD3138数字电源控制器工具
SimpleLink™Sub-1 GHz传感器到云端
TI AMIC110 多协议通信芯片工业应用优化解决方案
基于灵动MM32SPIN系列MCU的无感FOC便携冰箱应用方案分享
LM25066I系统电源管理和保护IC概述
深入研究可穿戴设备和物联网的轻负载高效低噪声电源参考设计 (TIDA-01566)
玩转 Arduino——数据通信: ZigBee 通信
基于 DLP 的工业创新应用
推荐帖子
格物致知01——拍频
本帖最后由 maychang 于 2017-12-19 14:54 编辑 格物致知01——拍频 “拍”现像,在机械和电路中都很常见。所谓“拍”,是指两个频率相近的正弦信号合成的一个较低频变幅信号。这里所说的信号,可以是电信号(电磁振动,通常称为电磁振荡),也可以是声音信号(机械振动)。两个正弦电信号合成产生的“拍”现像,请看下图: 图(1) 这是仿真图。图(1)中有两个独立电压信号源,一...
maychang
综合技术交流
BK3432 DC-DC外围参考原理图 BK3432 DC-DC外围参考原理图
BK3432 DC-DC外围参考原理图 BK3432 DC-DC外围参考原理图 此内容由EEWORLD论坛网友无线大师原创,如需转载或用于商业用途需征得作者同意并注明出处 ...
无线大师
综合技术交流
专业功率放大器
现在的专业功放方案是用ClassAB好还是用Class D好?现在的Class D能做到多大的功率?...
lgq_my
综合技术交流
笔记本电脑 特慢,怎么回事 ?
笔记本电脑,ThinkPad T410。近来,感觉电脑反应特慢,用软件清理垃圾后,还是依旧的慢。后来,重做了系统,还是特慢。重装系统后,电脑装的软件并不比 以前多。 请问,这是怎么回事 ?是电脑 硬件出问题了吗(我没有感觉到是硬件的问题) ?百思不得其解,因此发帖求助,还望大神指点 ! 非常感谢 ! ...
yhye2world
综合技术交流
用户评论
暂时无评论
推荐视频
更多
机器人-人工智能基础教程
SAM4L: 功能概述
苹果公司CEO乔布斯在斯坦福大学的演讲中文字幕
数据挖掘:理论与算法 清华大学(袁博)
Atmel Edge PCB 202
电机控制
研讨会:高性能 i.MX RT 处理器助力智能节点无需联网实现机器学习
Maxim Integrated:30年回顾
TI 工业应用研讨会 2015
模拟电子技术基础
相关下载
更多
实例解读51单片机完全学习与应用.pdf
全数字音频功放NTP3000A
uCOS-II在STM32上移植学习
正交频分复用(OFDM)技术及其MATLAB模拟
LINUX命令行学习手册
Video Demystified: A Handbook for the Digital Engineer (Fifth Edition)
Software Defined Radio Using MATLAB & Simulink and the RTL-SDR
ARM指令集详解(包括机器码)
图解机器学习
联想S2-38ATO 原理图.pdf
电子工程世界版权所有
京ICP证060456号
京ICP备10001474号-1
电信业务审批[2006]字第258号函
京公网安备 11010802033920号
Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved
用户评论