|
首页
|
电子技术
|
电子产品应用
|
电子头条
|
论坛
|
电子技术视频
|
下载
|
参考设计
|
Datasheet
|
活动
|
技术直播
|
datasheet
datasheet
文章
搜索
大学堂
上传课程
登录
注册
首页
课程
TI培训
直播频道
专题
相关活动
芯兑换
您的位置:
EEWORLD大学堂
/
机器学习/算法
/
机器学习 吴恩达
/
Mathematics Behind Large Margin Classification (Optional)
播放列表
课程目录
课程笔记
课时1:Welcome
课时2:What is Machine Learning
课时3:Supervised Learning
课时4:Unsupervised Learning
课时5:Model Representation
课时6:Cost Function
课时7:Cost Function - Intuition I
课时8:Cost Function - Intuition II
课时9:Gradient Descent
课时10:Gradient Descent Intuition
课时11:Gradient Descent For Linear Regression
课时12:What-'s Next
课时13:Matrices and Vectors
课时14:Addition and Scalar Multiplication
课时15:Matrix Vector Multiplication
课时16:Matrix Matrix Multiplication
课时17:Matrix Multiplication Properties
课时18:Inverse and Transpose
课时19:Multiple Features
课时20:Gradient Descent for Multiple Variables
课时21:Gradient Descent in Practice I - Feature Scaling
课时22:Gradient Descent in Practice II - Learning Rate
课时23:Features and Polynomial Regression
课时24:Normal Equation
课时25:Normal Equation Noninvertibility (Optional)
课时26:Basic Operations
课时27:Moving Data Around
课时28:Computing on Data
课时29:Plotting Data
课时30:Control Statements- for, while, if statements
课时31:Vectorization
课时32:Working on and Submitting Programming Exercises
课时33:Classification
课时34:Hypothesis Representation
课时35:Decision Boundary
课时36:Cost Function
课时37:Simplified Cost Function and Gradient Descent
课时38:Advanced Optimization
课时39:Multiclass Classification- One-vs-all
课时40:The Problem of Overfitting
课时41:Cost Function
课时42:Regularized Linear Regression
课时43:Regularized Logistic Regression
课时44:Non-linear Hypotheses
课时45:Neurons and the Brain
课时46:Model Representation I
课时47:Model Representation II
课时48:Examples and Intuitions I
课时49:Examples and Intuitions II
课时50:Multiclass Classification
课时51:Cost Function
课时52:Backpropagation Algorithm
课时53:Backpropagation Intuition
课时54:Implementation Note- Unrolling Parameters
课时55:Gradient Checking
课时56:Random Initialization
课时57:Putting It Together
课时58:Autonomous Driving
课时59:Deciding What to Try Next
课时60:Evaluating a Hypothesis
课时61:Model Selection and Train-Validation-Test Sets
课时62:Diagnosing Bias vs. Variance
课时63:Regularization and Bias-Variance
课时64:Learning Curves
课时65:Deciding What to Do Next Revisited
课时66:Prioritizing What to Work On
课时67:Error Analysis
课时68:Error Metrics for Skewed Classes
课时69:Trading Off Precision and Recall
课时70:Data For Machine Learning
课时71:Optimization Objective
课时72:Large Margin Intuition
课时73:Mathematics Behind Large Margin Classification (Optional)
课时74:Kernels I
课时75:Kernels II
课时76:Using An SVM
课时77:Unsupervised Learning- Introduction
课时78:K-Means Algorithm
课时79:Optimization Objective
课时80:Random Initialization
课时81:Choosing the Number of Clusters
课时82:Motivation I- Data Compression
课时83:Motivation II- Visualization
课时84:Principal Component Analysis Problem Formulation
课时85:Principal Component Analysis Algorithm
课时86:Choosing the Number of Principal Components
课时87:Reconstruction from Compressed Representation
课时88:Advice for Applying PCA
课时89:Problem Motivation
课时90:Gaussian Distribution
课时91:Algorithm
课时92:Developing and Evaluating an Anomaly Detection System
课时93:Anomaly Detection vs. Supervised Learning
课时94:Choosing What Features to Use
课时95:Multivariate Gaussian Distribution (Optional)
课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional)
课时97:Problem Formulation
课时98:Content Based Recommendations
课时99:Collaborative Filtering
课时100:Collaborative Filtering Algorithm
课时101:Vectorization- Low Rank Matrix Factorization
课时102:Implementational Detail- Mean Normalization
课时103:Learning With Large Datasets
课时104:Stochastic Gradient Descent
课时105:Mini-Batch Gradient Descent
课时106:Stochastic Gradient Descent Convergence
课时107:Online Learning
课时108:Map Reduce and Data Parallelism
课时109:Problem Description and Pipeline
课时110:Sliding Windows
课时111:Getting Lots of Data and Artificial Data
课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next
课时113:Summary and Thank You
时长:19分41秒
日期:2018/05/05
收藏视频
分享
上传者:老白菜
去评论
课程介绍
相关标签:
机器学习
ML
machine learning
此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数
算法
、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐
系统
、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工
智能
的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,
控制
)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、
音频
、数据挖掘及其他领域上。
显示全部 ↓
换一批
猜你喜欢
TI MSP430研讨会2014
直播回放:Microchip 适用于 CryptoAuthentication™ 系列的可信任平台
mmWave系列培训
[高精度实验室] 运算放大器 : 14 电流反馈型运算放大器
Haiwell(海为)物联终端MQTT协议应用视频教程
评估零漂移放大器性能
STM32 F7英雄联盟设计大赛
2016 TI 工业研讨会:TI DLP技术的工业应用与创新
C2000™工业驱动与自动化_2016 TI 嵌入式产品研讨会实录
新唐 8051单片机教程
推荐帖子
电容电感的电电压和电流超前和滞后、网络电抗计算
电容电感的电电压和电流超前和滞后、网络电抗计算 1.这个波形能看出来超前和滞后,不过看不出来是超前90°啊!这个超前和滞后怎么看,顺时针还是看还是逆时针看?这个X轴怎么是 两个参数?VR和I。 2.这两个计算网络电抗的公式不是自相矛盾吗? ...
QWE4562009
综合技术交流
mp1255资料求助。
求 mp1255的手册。 应该是电源相关的芯片。在mps官网上,各系列都找了。没找到。可能是停产了吧。 哪位大神能提供一下资料或搜索方式。谢谢啦。 ...
ienglgge
综合技术交流
传感器网络未来展望
在中国高科技不断发展的这几年以来,关于传感器、无线技术等技术也是日新月异,不断推动着我国低成本低消耗无线传感器网络一步步趋于成熟,促使着我国无线传感器成为了最活跃的研究之一。无线传感器网络由具有感知能力、计算能力和通信能力的大量微型传感器节点组成,强大的数据获取和处理能力使得其应用范围十分广泛,可以被应用于国防军事、环境监测、交通管理、医疗卫生、空气动力发电、目标跟踪等领域。在过去的几年中,无线传...
cf皋皋
综合技术交流
有用过ads1216的大神么,有个同步DSYNC 功能问题求教下!!!
小弟最近在用ads1216 对多路数据进行采集,使用的是cd4067 模拟开关来切换信号源,模拟开关切换是要时间的,所以我就使用了ads1216的同步DSYNC 功能(切换开关前DSYNC置0 切换完成后延时一段时间 DSYNC置1 ),现在问题就出在这里,为什么使用同步指令后as1216会有几个错误的数据产生呢??一开始觉得是开关切换速度问题,可是我不切换开关只是把DSYNC置0 后延时一段时间...
xiaoaf
综合技术交流
用户评论
暂时无评论
推荐视频
更多
TINA-TI(TM)系列课程
【挖掘机哪家强】NASA太空挖掘机RASSOR机器人
Atmel Edge Spinkler 102
TI-RSLK 模块 5 - 电池和电压调节
Atmel AvantCar中控台概念
Atmel Edge 调试 102
村田顽童——一年级学生篇
Atmel 8位AVR 产品概览
Atmel汽车解决方案和应用
TPS65086100: 多轨电源管理 IC 的用户编程
相关下载
更多
智能物联网家用机器人
著名的数据挖掘测试数据集,由UCI维护提供.adult.data 含15个属性
FPGA Based Accelerators for Financial Applications
FRC智能机器人机械图纸
《MATLAB程序设计教程》一书的源代码
ATJ3315D 录音笔 原理图
《机器学习》Tom M. Mitchell(卡内基梅隆大学) 著 曾华军等译
Digital Communication 2nd Edition [Lee & Messerschmitt]
APM学习资料.rar
ARM嵌入式系统C语言编程
电子工程世界版权所有
京ICP证060456号
京ICP备10001474号-1
电信业务审批[2006]字第258号函
京公网安备 11010802033920号
Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved
用户评论