1. 逻辑回归
给的数据集有两个特征变量。
设想你是大学相关部分的管理者,想通过申请学生两次测试的评分,来决定他们是否被录取。现在你拥有之前申请学生的可以用于训练逻辑回归的训练样本集。对于每一个训练样本,你有他们两次测试的评分和最后是被录取的结果。由此建立逻辑回归分类器。
注: https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes/tree/master/code
github上并没有使用梯度下降来优化参数,应该是使用的是其他的优化算法(SciPy’s truncated newton(TNC))。
用梯度下降法优化参数,并不能很好的降低代价函数,相比于其他优化算法。可能是对于这个数据集来说,需要迭代相当多的次数。
1 | import numpy as np |
- 逻辑回归的正则化
1 | import numpy as np |