
机器学习(5):梯度下降
2025.09.27Gradient Descent 梯度下降法 跟前面文章中提到的 KNN 算法和 线性回归 算法不同,梯度下降法本身不是一个机器学习算法,它既不是在做监督学习也不是在做非监督学习,它不能用于解决回归问题或者分类问题。它是
Read PostA monthly look back through the blog.

Gradient Descent 梯度下降法 跟前面文章中提到的 KNN 算法和 线性回归 算法不同,梯度下降法本身不是一个机器学习算法,它既不是在做监督学习也不是在做非监督学习,它不能用于解决回归问题或者分类问题。它是
Read Post
Linear Regression 上篇文章中介绍了评价回归算法优劣的三个指标 MSE、RMSE、MAE ,但是这三个指标 还有它本身的问题 。回想分类问题中评价指标采用分类准确度:1最好,0最差。即使 分类问题不同 ,
Read Post
Linear Regression 线性回归 主要用于解决 回归 问题,而上次介绍的 KNN 主要用于 分类 问题。线性回归同样思想简单并且实现容易(与其背后非常强的数学性质相关),虽然线性回归非常简单,但它是许多强大的
Read Post
KNN KNN 算法英文全称为K-Nearest Neighbors,中文叫做 K近邻算法 。KNN算法思想极度简单,同时应用的数学知识几乎为0,非常适合入门机器学习。 下图中以二维平面可视化来演示KNN的思想。每个病人
Read Post