实现一个简单的机器学习模型:从数据预处理到模型评估

03-05 33阅读

随着大数据和计算能力的飞速发展,机器学习已经成为当今科技领域中最具影响力的技术之一。它不仅在学术界取得了巨大的成功,也在工业界得到了广泛的应用。本文将详细介绍如何使用Python实现一个简单的线性回归模型,并通过代码展示整个过程,包括数据预处理、特征工程、模型训练以及最终的模型评估。

环境搭建

在开始之前,我们需要确保已经安装了必要的库。本文将使用pandas进行数据处理,scikit-learn进行机器学习建模,matplotlibseaborn用于可视化。可以通过以下命令安装这些库:

pip install pandas scikit-learn matplotlib seaborn

接下来,我们导入所需的库并设置一些全局参数:

import pandas as pdimport numpy as npfrom sklearn.model_selection import train_test_splitfrom sklearn.linear_model import LinearRegressionfrom sklearn.metrics import mean_squared_error, r2_scoreimport matplotlib.pyplot as pltimport seaborn as sns# 设置随机种子以确保结果可重复np.random.seed(42)

数据集获取与初步探索

为了演示,我们将使用一个经典的机器学习数据集——波士顿房价数据集(Boston Housing Dataset)。这个数据集包含了506个样本,每个样本有13个特征,目标是预测房屋的中位价格。虽然该数据集已经被弃用,但它仍然是一个很好的入门示例。我们可以直接从sklearn.datasets中加载它:

from sklearn.datasets import load_boston# 加载数据集boston = load_boston()df = pd.DataFrame(boston.data, columns=boston.feature_names)df['MEDV'] = boston.target  # MEDV为房屋中位价格# 查看前几行数据print(df.head())

输出如下:

      CRIM    ZN  INDUS  CHAS    NOX     RM   AGE     DIS  RAD    TAX  \0  0.00632  18.0   2.31   0.0  0.538  6.575  65.2  4.0900  1.0  296.0   1  0.02731   0.0   7.07   0.0  0.469  6.421  78.9  4.9671  2.0  242.0   2  0.02729   0.0   7.07   0.0  0.469  7.185  61.1  4.9671  2.0  242.0   3  0.03237   0.0   2.18   0.0  0.458  6.998  45.8  6.0622  3.0  222.0   4  0.06905   0.0   2.18   0.0  0.458  7.147  54.2  6.0622  3.0  222.0      PTRATIO       B  LSTAT  MEDV  0     15.3  396.90   4.98  24.0  1     17.8  396.90   9.14  21.6  2     17.8  392.83   4.03  34.7  3     18.7  394.63   2.94  33.4  4     18.7  396.90   5.33  36.2  

数据描述

我们可以通过describe()函数来查看数据的基本统计信息:

print(df.describe())

这将显示每个特征的均值、标准差、最小值、最大值等统计量。对于异常值或缺失值的处理,可以根据具体情况进行调整。例如,如果存在缺失值,可以使用df.fillna()方法填充;如果有异常值,可以考虑删除或修正。

数据可视化

在构建模型之前,对数据进行可视化有助于更好地理解其分布和相关性。我们可以绘制一些图表来观察不同特征之间的关系。例如,散点图矩阵可以帮助我们发现哪些特征与目标变量(即房价)最相关:

sns.pairplot(df[['RM', 'LSTAT', 'PTRATIO', 'MEDV']])plt.show()

此外,还可以通过热力图查看特征之间的相关系数:

correlation_matrix = df.corr().round(2)sns.heatmap(data=correlation_matrix, annot=True)plt.show()

根据上述分析,我们发现RM(每栋住宅的平均房间数)与MEDV(房价)之间存在较强的相关性。因此,在后续的建模过程中,我们可以重点考虑这些特征。

数据预处理

特征选择

为了简化模型,我们只选择几个最重要的特征作为输入。基于之前的可视化结果,这里选择RMLSTAT(低收入人口比例)和PTRATIO(学生教师比例)三个特征:

X = df[['RM', 'LSTAT', 'PTRATIO']]y = df['MEDV']

训练集与测试集划分

为了评估模型性能,需要将数据分为训练集和测试集。通常情况下,80%的数据用于训练,20%用于测试:

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

模型训练

现在万事俱备,可以开始训练我们的线性回归模型了。scikit-learn提供了非常方便的API接口,只需几行代码即可完成:

model = LinearRegression()model.fit(X_train, y_train)

训练完成后,可以查看模型的参数:

print('Intercept:', model.intercept_)print('Coefficients:', model.coef_)

输出类似于:

Intercept: 34.1852162628037Coefficients: [ 3.80878189 -0.62747789 -0.69182882]

这意味着预测公式为:

[ \text{MEDV} = 34.18 + 3.81 \times \text{RM} - 0.63 \times \text{LSTAT} - 0.69 \times \text{PTRATIO} ]

模型评估

最后一步是对模型进行评估。我们可以使用均方误差(MSE)和决定系数(R^2)两个指标来衡量模型的表现:

y_pred = model.predict(X_test)mse = mean_squared_error(y_test, y_pred)r2 = r2_score(y_test, y_pred)print(f'Mean Squared Error: {mse:.2f}')print(f'R^2 Score: {r2:.2f}')

输出可能如下所示:

Mean Squared Error: 21.78R^2 Score: 0.64

此外,还可以通过绘制实际值与预测值的对比图来直观地感受模型的效果:

plt.scatter(y_test, y_pred)plt.xlabel('Actual Prices')plt.ylabel('Predicted Prices')plt.title('Actual vs Predicted Prices')plt.show()

总结

本文详细介绍了如何使用Python实现一个简单的线性回归模型,涵盖了从数据获取、预处理、特征选择、模型训练到最终评估的完整流程。尽管所使用的波士顿房价数据集已不再推荐用于教学目的,但它仍然是一个很好的入门案例。希望这篇文章能够帮助读者理解机器学习的基本概念和技术实现方法。未来,随着技术的发展,我们可以尝试更复杂的算法和更大的数据集,进一步提升模型性能。

免责声明:本文来自网站作者,不代表ixcun的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:aviv@vne.cc

微信号复制成功

打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!