看不清
√十天内免登录忘记密码?
还没账号?马上注册
# 梯度上升 def gradAscent(dataMatIn, classLabels): dataMatrix = mat(dataMatIn) labelMat = mat(classLabels).transpose() m,n = shape(dataMatrix) # shape计算行列 m=100列 n=3行 alpha = 0.001 # 向目标移动的步长 maxCycles = 500 # 迭代次数 weights = ones((n,1)) for k in range(maxCycles): h = sigmoid(dataMatrix*weights) error = (labelMat - h) weights = weights alpha * dataMatrix.transpose()* error return array(weights).reshape(1,n)[0] 谁能讲讲是为什么吗
2016-11-02 16:26
梯度上升的主思想是:每次调整一点点weights,每次调整的幅度由 误差(error)、步长(alpha)、数据本身值(dataMatrix)三者决定,乘积。调整N次,这个N值由算法执行着自定,也可以作为参数输入到函数,也可以用某个误差阀值条件求最佳的迭代次数。
2016-11-02 16:47
好的谢谢老师的详细指导
2016-11-02 16:58
共66节 · 18小时8分钟
基于Flink流处理的动态实时电商实时分析系统视频教程
¥699.0022836人在学
共29节 · 2小时35分钟
利用Kettle+FineBI+MySQL构建电商运营分析报表可视化平台视频教程
¥238.004585人在学
共454节 · 380小时23分钟套餐优惠
大数据从入门到精通(徐培成亲授)视频教程
¥680.0027271人在学
共21节 · 4小时48分钟
Kettle从入门到精通视频教程
¥280.0028581人在学