|
首页
|
电子技术
|
电子产品应用
|
电子头条
|
论坛
|
电子技术视频
|
下载
|
参考设计
|
Datasheet
|
活动
|
技术直播
|
datasheet
datasheet
文章
搜索
大学堂
上传课程
登录
注册
首页
课程
TI培训
直播频道
专题
相关活动
芯兑换
您的位置:
EEWORLD大学堂
/
机器学习/算法
/
机器学习 吴恩达
/
Gradient Descent in Practice I - Feature Scaling
播放列表
课程目录
课程笔记
课时1:Welcome
课时2:What is Machine Learning
课时3:Supervised Learning
课时4:Unsupervised Learning
课时5:Model Representation
课时6:Cost Function
课时7:Cost Function - Intuition I
课时8:Cost Function - Intuition II
课时9:Gradient Descent
课时10:Gradient Descent Intuition
课时11:Gradient Descent For Linear Regression
课时12:What-'s Next
课时13:Matrices and Vectors
课时14:Addition and Scalar Multiplication
课时15:Matrix Vector Multiplication
课时16:Matrix Matrix Multiplication
课时17:Matrix Multiplication Properties
课时18:Inverse and Transpose
课时19:Multiple Features
课时20:Gradient Descent for Multiple Variables
课时21:Gradient Descent in Practice I - Feature Scaling
课时22:Gradient Descent in Practice II - Learning Rate
课时23:Features and Polynomial Regression
课时24:Normal Equation
课时25:Normal Equation Noninvertibility (Optional)
课时26:Basic Operations
课时27:Moving Data Around
课时28:Computing on Data
课时29:Plotting Data
课时30:Control Statements- for, while, if statements
课时31:Vectorization
课时32:Working on and Submitting Programming Exercises
课时33:Classification
课时34:Hypothesis Representation
课时35:Decision Boundary
课时36:Cost Function
课时37:Simplified Cost Function and Gradient Descent
课时38:Advanced Optimization
课时39:Multiclass Classification- One-vs-all
课时40:The Problem of Overfitting
课时41:Cost Function
课时42:Regularized Linear Regression
课时43:Regularized Logistic Regression
课时44:Non-linear Hypotheses
课时45:Neurons and the Brain
课时46:Model Representation I
课时47:Model Representation II
课时48:Examples and Intuitions I
课时49:Examples and Intuitions II
课时50:Multiclass Classification
课时51:Cost Function
课时52:Backpropagation Algorithm
课时53:Backpropagation Intuition
课时54:Implementation Note- Unrolling Parameters
课时55:Gradient Checking
课时56:Random Initialization
课时57:Putting It Together
课时58:Autonomous Driving
课时59:Deciding What to Try Next
课时60:Evaluating a Hypothesis
课时61:Model Selection and Train-Validation-Test Sets
课时62:Diagnosing Bias vs. Variance
课时63:Regularization and Bias-Variance
课时64:Learning Curves
课时65:Deciding What to Do Next Revisited
课时66:Prioritizing What to Work On
课时67:Error Analysis
课时68:Error Metrics for Skewed Classes
课时69:Trading Off Precision and Recall
课时70:Data For Machine Learning
课时71:Optimization Objective
课时72:Large Margin Intuition
课时73:Mathematics Behind Large Margin Classification (Optional)
课时74:Kernels I
课时75:Kernels II
课时76:Using An SVM
课时77:Unsupervised Learning- Introduction
课时78:K-Means Algorithm
课时79:Optimization Objective
课时80:Random Initialization
课时81:Choosing the Number of Clusters
课时82:Motivation I- Data Compression
课时83:Motivation II- Visualization
课时84:Principal Component Analysis Problem Formulation
课时85:Principal Component Analysis Algorithm
课时86:Choosing the Number of Principal Components
课时87:Reconstruction from Compressed Representation
课时88:Advice for Applying PCA
课时89:Problem Motivation
课时90:Gaussian Distribution
课时91:Algorithm
课时92:Developing and Evaluating an Anomaly Detection System
课时93:Anomaly Detection vs. Supervised Learning
课时94:Choosing What Features to Use
课时95:Multivariate Gaussian Distribution (Optional)
课时96:Anomaly Detection using the Multivariate Gaussian Distribution (Optional)
课时97:Problem Formulation
课时98:Content Based Recommendations
课时99:Collaborative Filtering
课时100:Collaborative Filtering Algorithm
课时101:Vectorization- Low Rank Matrix Factorization
课时102:Implementational Detail- Mean Normalization
课时103:Learning With Large Datasets
课时104:Stochastic Gradient Descent
课时105:Mini-Batch Gradient Descent
课时106:Stochastic Gradient Descent Convergence
课时107:Online Learning
课时108:Map Reduce and Data Parallelism
课时109:Problem Description and Pipeline
课时110:Sliding Windows
课时111:Getting Lots of Data and Artificial Data
课时112:Ceiling Analysis- What Part of the Pipeline to Work on Next
课时113:Summary and Thank You
时长:8分51秒
日期:2018/05/05
收藏视频
分享
上传者:老白菜
去评论
课程介绍
相关标签:
机器学习
ML
machine learning
此课程将广泛介绍机器学习、数据挖掘与统计模式识别的知识。主题包括:(i) 监督学习(参数/非参数
算法
、支持向量机、内核、神经网络)。(ii) 非监督学习(聚类、降维、推荐
系统
、深度学习)。(iii) 机器学习的优秀案例(偏差/方差理论;机器学习和人工
智能
的创新过程)课程将拮取案例研究与应用,学习如何将学习算法应用到智能机器人(观感,
控制
)、文字理解(网页搜索,防垃圾邮件)、计算机视觉、医学信息学、
音频
、数据挖掘及其他领域上。
显示全部 ↓
换一批
猜你喜欢
人脸识别市场的最新应用
嵌入式软件设计
计算机科学及编程导论
ARM微控制器与嵌入式系统
2015电源设计研讨会:无线功率传输(2)
科大讯飞语音服务Android项目开发实战介绍
控制论与系统辨识
3级降压转换器:它是如何工作的?
Atmel AvantCar 中控台概念演示
电池测试解决方案
推荐帖子
福禄克掌上万用表回馈网友,购买有礼啦!
即日起至10月24日 购买2台F-101/F-101Kit 即送时尚超薄无线鼠标1个 购买1台F-106即送 哈尔斯500ml 不锈钢直身真空冷热双保水杯 购买1台F-107即送时尚超薄无线鼠标1个 相关链接:http://www.eeworld.com.cn/huodong/201404_renew/landingpage.html 同时,欢迎大家参与 更新个人资料 赢...
eric_wang
综合技术交流
变压器工作原理详解-变压器如何改变交流电压或电流的大小
本帖最后由 tiankai001 于 2019-1-5 12:55 编辑 此内容由EEWORLD论坛网友tiankai001原创,如需转载或用于商业用途需征得作者同意并注明出处 变压器是一种很常见的电子元器件,我们都知道变压器可以改变交流电压或者交流电流的大小。那么,变压器改变交流电压或者交流电流大小的原理是什么呢?今天我们就来了解一下。变压器是一个能把交流电的电压升高或...
tiankai001
综合技术交流
如何判断I2C从机的设备地址?
大家在使用Ginkgo USB-I2C适配器,有个非常重要的信息就是所控制的从机地址必须要知道,否则就无法正确的和I2C从机进行通信,一般来说,在I2C设备的数据手册中都会明确提出这个设备的I2C地址是多少,不过在有的时候,可能手边没有这个设备的地址信息,但是也想和它建立通信,这种情况怎么办呢?下面我们就可以用我们的适配器并配合我们提供的一个小工具来找到这个设备的地址。 实现的基本原理,我们先假...
viewtool
综合技术交流
EEWORLD大学堂----直播回放:MSP430 CapTIvate Lite: 成本优化的电容触摸微控制器
直播回放:MSP430 CapTIvate Lite: 成本优化的电容触摸微控制器:http://training.eeworld.com.cn/course/4477...
phantom7
综合技术交流
用户评论
暂时无评论
推荐视频
更多
新唐 8051单片机教程
2015 TI 音频创新日 (10) 触觉技术介绍
CMOS模拟电路视频讲义 EECS240
Atmel AVR 技术的历史 (中字)
电源设计小贴士16:缓冲正向转换器
视觉功能成就汽车技术
Microchip MCP19111评估板
北航单片机视频教程
计算机控制装置 浙大 张光新
Atmel picoPower实验室:睡眠模式
相关下载
更多
Design Criteria for Low Distortion in Feedback Opamp Circuits
book-ee-analog_integrated_circuit_design
STM32Cube学习笔记 (十六篇全)
AT&T的人脸库
深度学习资料包
SMIC_0.18mm工艺 Design Rule
uc3846 datesheet
ABB机器人学习必会技能,ABB机器人操作指导书
基于AVR—AT90S8515的多通道智能大厦自动抄表系统
Color Image Processing - Methods and Applications
电子工程世界版权所有
京ICP证060456号
京ICP备10001474号-1
电信业务审批[2006]字第258号函
京公网安备 11010802033920号
Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved
用户评论