爱吧机器人网 » 技术 > 机器学习 > 正文

实战:分类算法实践及如何用好Python工具

古语有:工欲善其事必先利其器。我们学习机器学习、深度学习,首先就是深悟思想、理解原理、吃透算法,其次就是数学逻辑及推演过程,最后,也是最重要的就是实战,而学习人工智能,我们首选的重要工具就是Python,如何学习Python,这个见仁见智,不同的人有不同的学习路线,主要的有两种,一种是专门学习Python工具,然后再用,一种是将学习Python与各种算法实践、各种应用结合起来,正所谓"在学中用、在用中学",我们推荐后者。

本文以基于mnist数据的分类实践为示例,讲解如何边进行分类实验边学习python:

一、数据准备

1、我们用Python3:

Python 3.6.1 (default, Jun 6 2017, 11:38:19)

[GCC 4.2.1 Compatible Apple LLVM 8.1.0 (clang-802.0.42)] on darwin

Type "help", "copyright", "credits" or "license" for more information.

2、加载数据集:

1)我们使用scikit-learn库,下面导入sklearn中的数据集,sklearn.datasets模块主要提供了一些导入、在线下载及本地生成数据集的方法,主要有三种形式:load_、fetch_及make_的方法

>>> from sklearn.datasets import fetch_mldata

>>> mnist = fetch_mldata('MNIST original')

>>> mnist

{'DESCR': 'mldata.org dataset: mnist-original', 'COL_NAMES': ['label', 'data'], 'target': array([ 0., 0., 0., ..., 9., 9., 9.]), 'data': array([[0, 0, 0, ..., 0, 0, 0],

[0, 0, 0, ..., 0, 0, 0],

[0, 0, 0, ..., 0, 0, 0],

...,

[0, 0, 0, ..., 0, 0, 0],

[0, 0, 0, ..., 0, 0, 0],

[0, 0, 0, ..., 0, 0, 0]], dtype=uint8)}

>>> X,y=mnist["data"],mnist["target"]

>>> X.shape

(70000, 784)

>>> y.shape

(70000,)

2)sklearn 加载的数据集有着相似的字典结构:

DESCR 键描述数据集;

data 键存放一个数组,数组的一行表示一个样例,一列表示一个特征;

target 键存放一个标签数组;

所以,mnist["data"]是mnist数据中非标签数据矩阵,mnist["target"]是mnist数据中标签数据,单列。

3)shape是numpy中的方法,可获得矩阵的行数、列数,shape[0]得到矩阵的行数。

3、mnist 数据集简介

1) MNIST 有 70000 张图片,每张图片有 784 个特征。每个图片都是 28*28 像素,并且每个像素的值介于 0~255 之间。让我们看一看数据集的某一个数字。只要将某个实例的特征向量, reshape 为 28*28 的数组,然后使用 Matplotlib 的 imshow 函数就可以把图片展示出来。

2) reshape()是数组对象中的方法,用于改变数组的形状,已经展开为784个特征的列向量,再折叠成矩阵。

>>> import matplotlib

>>> import matplotlib.pyplot as plt

>>> some_digit = X[36000]

>>> some_digit_image = some_digit.reshape(28, 28)

>>> plt.imshow(some_digit_image, cmap = matplotlib.cm.binary, interpolation="nearest")



>>> plt.axis("off")

(-0.5, 27.5, 27.5, -0.5)

>>> plt.show()

重磅实战:分类算法实践及如何用好Python工具
二、训练一个二分类器

1、创建训练集、测试集

>>>X_train, X_test, y_train, y_test = X[:60000], X[60000:], y[:60000], y[60000:]

>>>y_train_5 = (y_train == 5)

>>>y_test_5 = (y_test == 5)

1)我们把MNIST 数据集已经事先被分成了一个训练集(前 60000 张图片)和一个测试集(最后 10000 张图片)

2)取一个列表前多少个元素用X[:i],到后多少个元素用X[i:]

3)简化一下问题,只尝试去识别一个数字,比如说,数字 5。这个"数字 5 检测器"就是一个二分类器,能够识别两类别,"是 5"和"非 5"。让我们为这个分类任务创建目标向量y_train_5、y_test_5

2、选择随机梯度下降法

1)从sklearn.linear 导入SGDClassifier。分类器参数每次都会变,如果想重现结果,可以固定这个参数

>>>from sklearn.linear_model import SGDClassifier

>>>sgd_clf = SGDClassifier(random_state=42)

>>>sgd_clf.fit(X_train, y_train_5)

2)fit函数的两个参数分别是特征数据矩阵和目标列

3)用predict获得结果

>>> sgd_clf.predict([some_digit])

array([ True], dtype=bool)

3、评估分类器性能

1)使用交叉验证测量准确性,类似于cross_val_score()

,我们实现自己版本的交叉验证

from sklearn.model_selection import StratifiedKFold

from sklearn.base import clone

skfolds = StratifiedKFold(n_splits=3, random_state=42)

for train_index, test_index in skfolds.split(X_train, y_train_5):

clone_clf = clone(sgd_clf)

X_train_folds = X_train[train_index]

y_train_folds = (y_train_5[train_index])

X_test_fold = X_train[test_index]

y_test_fold = (y_train_5[test_index])

clone_clf.fit(X_train_folds, y_train_folds)

y_pred = clone_clf.predict(X_test_fold)

n_correct = sum(y_pred == y_test_fold)

print(n_correct / len(y_pred))

0.9502, 0.96565 and 0.96495

(1) StratifiedKFold 类实现了分层采样,生成的折(fold)包含了各类相应比例的样例。在每一次迭代,上述代码生成分类器的一个克隆版本,在训练折(training folds)的克隆版本上进行训练,在测试折(test folds)上进行预测。然后它计算出被正确预测的数目和输出正确预测的比例。

(2) StratifiedKFold返回的skfolds用split函数分成训练集、测试集

2)使用 cross_val_score() 函数来评估 SGDClassifier 模型。

同时使用 K 折交叉验证,此处让 k=3 。记住:K 折交叉验证意味着把训练集分成 K 折(此处 3 折),然后使用一个模型对其中一折进行预测,对其他折进行训练。

>>> from sklearn.model_selection import cross_val_score

>>> cross_val_score(sgd_clf, X_train, y_train_5, cv=3, scoring="accuracy")

array([ 0.9502 , 0.96565, 0.96495]

3)混淆矩阵

需要有一系列的预测值,这样才能将预测值与真实值做比较。如果在测试集上做预测,这是在验证模型阶段,现在我们是在模型训练阶段,所以我们使用 cross_val_predict() 函数。

>>>from sklearn.model_selection import cross_val_predict

>>>y_train_pred = cross_val_predict(sgd_clf, X_train, y_train_5, cv=3)

就像 cross_val_score() ,cross_val_predict() 也使用 K 折交叉验证。它不是返回一个评估分数,而是返回基于每一个测试折做出的一个预测值。

>>> from sklearn.metrics import confusion_matrix

>>> confusion_matrix(y_train_5, y_train_pred)

array([[53272, 1307],

[ 1077, 4344]])

混淆矩阵中的每一行表示实际, 而每一列表示预测。该矩阵的第一行负样本(非5)中的 53272 张被正确归类(被称为真反例,true negatives), 而其余1307 被错误归类为正样本(是 5) (假正例,false positives)。第二行正样本(是 5)中的 1077被错误地归类(假反例,false negatives),其余 4344 正确分类为正样本 (是 5类)(真正例,true positives)。一个完美的分类器将只有真反例和真正例,所以混淆矩阵的非零值仅在其主对角线。

4)准确率与召回率

Scikit-Learn 提供了一些函数去计算分类器的指标,包括准确率和召回率。

了解一下SGDClassifier 是如何做分类决策的。对于每个样例,它根据

决策函数计算分数,如果这个分数大于一个阈值,它会将样例分配给正例,否则它将分配给反例。

>>> from sklearn.metrics import precision_score, recall_score

>>> precision_score(y_train_5, y_pred)

0.76871350203503808

>>> recall_score(y_train_5, y_train_pred)

0.79136690647482011

需要再次使用 cross_val_predict() 得到每一个样例的分数值,但是这一次指定返回一个决策分数,而不是预测值。

>>> y_scores = cross_val_predict(sgd_clf, X_train, y_train_5, cv=3,method="decision_function")

对于任何可能的阈值,使用 precision_recall_curve() ,你都可以计算准确率和召回率,并绘出曲线。

>>> from sklearn.metrics import precision_recall_curve

>>> precisions, recalls, thresholds = precision_recall_curve(y_train_5, y_scores)

def plot_precision_recall_vs_threshold(precisions, recalls, thresholds):

plt.plot(thresholds, precisions[:-1], "b--", label="Precision")

plt.plot(thresholds, recalls[:-1], "g-", label="Recall")

plt.xlabel("Threshold")

plt.legend(loc="upper left")

plt.ylim([0, 1])

plot_precision_recall_vs_threshold(precisions, recalls, thresholds)

plt.show()

重磅实战:分类算法实践及如何用好Python工具
5)ROC曲线

受试者工作特征(ROC)曲线是另一个二分类器常用的工具。它非常类似与准确率/召回率曲线,但不是画出准确率对召回率的曲线,ROC 曲线是真正例率(召回率)对假正例率的曲线。假正率,是反例被错误分成正例

的比率。它等于 1 减去真反例率。

所以 ROC 曲线画出召回率对(1 减特异性)的曲线。

为了画出 ROC 曲线,你首先需要计算各种不同阈值下的 TPR、FPR,使用 roc_curve() 函数:

>>> from sklearn.metrics import roc_curve

>>> fpr, tpr, thresholds = roc_curve(y_train_5, y_scores)

def plot_roc_curve(fpr, tpr, label=None):

plt.plot(fpr, tpr, linewidth=2, label=label)

plt.plot([0, 1], [0, 1], 'k--')

plt.axis([0, 1, 0, 1])

plt.xlabel('False Positive Rate')

plt.ylabel('True Positive Rate')

plot_roc_curve(fpr, tpr)

plt.show()

重磅实战:分类算法实践及如何用好Python工具
后记:

学好机器学习、深度学习,我们在吃透思想、原理、算法的同时,必须用好python工具,就拿本文说的分类算法,总结来说,python主要需要记住几点

  • python列表的使用;
  • sklearn常用模块sklearn.datasets、sklearn.model、sklearn.base、sklearn.linear、sklearn.metrics;
  • sklearn常用方法SGDClassifier 、StratifiedKFold、cross_val_score、cross_val_predict、precision_recall_curve、roc_curve;
  • matplotlib.pyplot模块使用;
  • plot函数使用
各位如有任何问题,欢迎留言或者私信交流。

重磅实战:分类算法实践及如何用好Python工具



上一篇:AutoML:深度学习的学习器
下一篇:打基础之,LeetCode算法题第7日刷,数组分区
精选推荐
7种常见的机器人焊接类型
7种常见的机器人焊接类型

[2017-12-17]  机器人焊接是工业领域最常见的机器人应用之一,近几十年来主要由汽车行业驱动。机器人焊接在完成大批量,重复性的焊接任务时效率最高。...

谷歌宣布搜索算法重大升级,用BERT模型理解用户搜索意图
谷歌宣布搜索算法重大升级,用BERT模型理解用户搜索意图

[2019-10-26]  谷歌刚刚宣布,其搜索引擎的核心算法正在进行一项重大升级,这项升级可能会改变10%的搜索结果排序。此项升级应用了自然语言处理技术(BERT ...

Waymo:人性和行为心理学才是无人驾驶最大的挑战
Waymo:人性和行为心理学才是无人驾驶最大的挑战

[2019-11-03]  自动驾驶汽车作为AI领域内最大的挑战之一,谷歌致力于其研发已有十余载,现在他们逐渐意识到,最困难的是如何让人们享受驾驶的乐趣。这是一 ...

农业将为高科技行业 农业机器人的应用领域
农业将为高科技行业 农业机器人的应用领域

[2017-12-17]  农业正在迅速成为一个令人兴奋的高科技产业,吸引了新专业人士,新公司和新投资者。技术发展迅速,不仅提高了农民的生产能力,而且促进了我们所知道的机器人和自动化技术的发展。...

从AI中窥探人性
从AI中窥探人性

[2018-01-03]  人们对人造智能的恐惧早已成为科幻书籍和电影的极好题材。但现在,一些同样的担忧开始影响关于现实世界AI技术的政策讨论。如果这样的担忧演变成为一种技术恐慌...

改变保险市场的格局:无人机如何通过更快的估算、响应时间和利益交付来使消费者受益
改变保险市场的格局:无人机如何通过更快的估算、响应时间和利益交付来

[2018-12-08]  市场研究公司IHS Markit预测,到2020年,专业无人机市场将通过农业,能源和建筑等行业利用测量,制图,规划等技术实现77 1%的复合年增长率(CAGR)。与此同时,消费者无人......

受大脑控制的机器人
受大脑控制的机器人

[2017-03-21]   想让机器人做我们想做的,首先,他得全面地了解我们。通常,这就意味着人类需要要付出更多。比如,教机器人复杂的人类语言或者把一项任务 ...

麻省理工又秀神技:推出如魔法般跳跃的方块机器人集群
麻省理工又秀神技:推出如魔法般跳跃的方块机器人集群

[2019-10-31]  几天前,小编向大家介绍过麻省理工(MIT)研发的一种自组装机器人集群(点此阅览),它们可以用统一标准的小单元自动组装出各种大型结构。 ...

本周栏目热点

盘点全球十大最具影响力的机器人摇篮

[1970-01-01]    人工智能(AI)研究现正迅速发展,如无人驾驶汽车、计算机在《危险边缘》智力竞赛节目中获胜、数字私人助手Siri、GoogleNow和语音助手C ...

深度学习反向传播算法(BP)原理推导及代码实现

[2017-12-19]  分析了手写字数据集分类的原理,利用神经网络模型,编写了SGD算法的代码,分多个epochs,每个 epoch 又对 mini_batch 样本做多次迭代计算。这其中,非常重要的一个步骤,......

如何在机器学习项目中使用统计方法的示例

[2018-07-23]  事实上,机器学习预测建模项目必须通过统计学方法才能有效的进行。在本文中,我们将通过实例介绍一些在预测建模问题中起关键作用的统计学方法。...

Machine Learning-感知器分类算法详解

[2018-05-31]  今天我们来讲解的内容是感知器分类算法,本文的结构如下:什么是感知器分类算法,在Python中实现感知器学习算法,在iris(鸢尾花)数据集上训练一个感知器模型,自适应线性神......

[2017-08-28]  模拟退火(Simulated Annealing,简称SA)是一种通用概率算法,用来在一个大的搜寻空间内找寻命题的最优解。1、固体退火原理:将固体加温 ...