开始机器学习的第一步是数据预处理。了解如何处理缺失数据、编码分类变量、特征缩放以及数据集的划分。
学习简单线性回归的基本概念,如何通过最小二乘法拟合数据,并理解回归系数的含义。
扩展线性回归到多个自变量,理解多元线性回归的模型构建和参数估计。
初步接触逻辑回归,了解其用于分类问题的基本原理。
深入研究逻辑回归的数学原理,包括代价函数的计算和梯度下降法的应用。
通过实际案例进一步理解逻辑回归的应用,并尝试编写相关代码。
学习K近邻法的基本概念,理解其如何通过距离度量进行分类。
通过阅读相关资源,进一步理解逻辑回归的数学细节,特别是损失函数和优化过程。
了解支持向量机的基本原理,理解其如何通过寻找最优超平面进行分类。
比较支持向量机和K近邻法的优缺点,理解它们在不同场景下的应用。
通过实际案例进一步理解K近邻法的应用,并尝试编写相关代码。
通过实际案例进一步理解支持向量机的应用,并尝试编写相关代码。
使用Scikit-Learn库实现支持向量机,理解其在实际应用中的表现。
学习支持向量机中的核技巧,理解其如何通过映射到高维空间来解决非线性问题。
学习朴素贝叶斯分类器的基本原理,并开始了解黑盒机器学习的概念。
使用Scikit-Learn库实现支持向量机及其核函数,理解其在高维空间中的应用。
开始在Coursera上学习深度学习专业课程,完成前两周的内容,并理解逻辑回归神经网络的基本原理。
完成Coursera深度学习课程的第一部分,并尝试用Python实现一个简单的神经网络。
开始学习Yaser Abu-Mostafa教授的Caltech机器学习课程,理解感知器算法的基本原理。
完成深度学习专业课程的第二部分,学习如何改进深度神经网络的性能,包括参数调整、正则化和优化。
学习如何使用Beautiful Soup进行网页爬虫,收集数据用于模型构建。
完成Yaser Abu-Mostafa教授的Caltech机器学习课程的第二部分,学习Hoeffding不等式及其在机器学习中的应用。
学习决策树的基本原理,理解其如何通过递归分割数据进行分类。
了解统计学习理论的基本概念,包括输入空间、动作空间、结果空间、预测函数、损失函数和假设空间。
通过实际案例进一步理解决策树的应用,并尝试编写相关代码。
开始复习线性代数,通过3Blue1Brown的视频理解向量、线性组合、跨度、基向量、线性变换和矩阵乘法。
继续学习线性代数,理解三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。
进一步学习线性代数中的点积和叉积,理解其在机器学习中的应用。
完成线性代数的复习,理解特征向量和特征值,以及抽象向量空间的概念。
开始学习微积分,理解导数、链式法则、乘积法则和指数导数的基本概念。
继续学习微积分,理解隐函数求导和极限的概念。
完成微积分的学习,理解积分和高阶导数的基本概念。
学习随机森林的基本原理,理解其如何通过集成多个决策树进行分类。
通过实际案例进一步理解随机森林的应用,并尝试编写相关代码。
通过3Blue1Brown的视频理解神经网络的基本概念,特别是其如何通过多层感知器进行分类。
学习梯度下降法的基本原理,理解其如何通过迭代优化神经网络的参数。
了解反向传播法的基本原理,理解其如何通过计算偏导数来更新神经网络的参数。
通过实际案例进一步理解反向传播法的应用,并尝试编写相关代码。
开始学习深度学习的基础知识,包括Python、TensorFlow和Keras的基本使用。
继续学习深度学习的基础知识,理解如何构建和训练深度神经网络。
通过实际案例进一步理解深度学习的应用,并尝试编写相关代码。
完成深度学习的基础学习,理解如何通过TensorFlow和Keras构建复杂的神经网络模型。
开始学习无监督学习中的聚类算法,理解K-均值聚类的基本原理。
通过实际案例进一步理解K-均值聚类的应用,并尝试编写相关代码。
开始学习Numpy库,理解其在数据科学中的基本应用,特别是数组操作和数值计算。