1. 首页
  2. 要闻

使用Python进行异常检测的解决方案

异常检测是异常值分析中的一项统计任务,但是如果我们开发一个机器学习模型来自动化地进行异常检测,可以节省很多时间。

异常检测是异常值分析中的一项统计任务,但是如果我们开发一个机器学习模型来自动化地进行异常检测,可以节省很多时间。

异常检测有很多用例,包括信用卡欺诈检测、故障机器检测、基于异常特征的硬件系统检测、基于医疗记录的疾病检测都是很好的例子,除此之外也还有很多的用例。在本文中,我们将使用Python从头开始实现异常检测算法。公式和过程与我之前解释过的其他机器学习算法相比,我们使用的异常检测算法要简单得多。该算法使用均值和方差来计算每个训练数据的概率。如果一个训练实例的概率很高,则是正常的;如果某个训练实例的概率很低,那就可以是一个异常样本。对于不同的训练集,高概率和低概率的定义是不同的,这个我们以后再讨论。接下来我们来看一下异常检测的工作过程。使用以下公式计算平均值:

使用Python进行异常检测的解决方案

这里m是数据集的长度或训练数据的数量,而是一个单独的训练例子。如果你有多个训练特征,大多数情况下都需要计算每个特征的平均值。使用以下公式计算方差:

使用Python进行异常检测的解决方案

这里,mu是上一步计算的平均值。现在,用这个概率公式来计算每个训练例子的概率。

使用Python进行异常检测的解决方案

不要被这个公式中的求和符号弄糊涂了!这实际上是Sigma方差。稍后我们实现该算法时,就会理解它了。现在我们需要找到概率的临界值。正如我前面提到的,如果一个训练例子的概率很低,那这就是一个异常样本。多大是低概率呢这没有统一的标准,我们需要为我们的训练数据集找出这个阈值。我们从步骤3中得到的输出中获取一系列概率值,对于每个概率,通过阈值的设置来判断数据是否异常然后计算一系列概率的精确度、召回率和f1分数。精度可使用以下公式计算

使用Python进行异常检测的解决方案

召回率的计算公式如下:

使用Python进行异常检测的解决方案

在这里,True positives(真正例)是指是异常的且算法检测到也是异常的样本。False Positives(假正例)是指不是异常的但算法检测到是异常的样本。False Negative(假反例)是指不是异常的且算法检测到也不是异常的样本。从上面的公式你可以看出,更高的精确度和更高的召回率说明算法性能更好,因为这意味着我们有更多的真正的正例,但同时,假正例和假反例也起着至关重要的作用,这需要一个平衡点,根据你的行业,你需要决定哪一个对你来说是可以忍受的。一个好办法是取平均数。计算平均值有一个独特的公式,这就是f1分数,f1得分公式为:

使用Python进行异常检测的解决方案

这里,P和R分别表示精确性和召回率。如果你对该公式感兴趣的话,可以查看:https://towardsdatascience.com/a-complete-understanding-of-precision-recall-and-f-score-concepts-23dc44defef6根据f1分数,你需要选择你的阈值概率。异常检测算法我们将使用Andrew Ng的机器学习课程的数据集,它具有两个训练特征。我没有在本文中使用真实的数据集,因为这个数据集非常适合学习,它只有两个特征。在任何真实的数据集中,都不可能只有两个特征。有两个特性的好处是可以可视化数据,这对学习者非常有用。请从该链接下载数据集:https://github.com/rashida048/Machine-Learning-With-Python/blob/master/ex8data1.xlsx首先,导入必要的包import pandas as pd 

import numpy as np

导入数据集。这是一个excel数据集。在这里,训练数据和交叉验证数据存储在单独的表中。df = pd.read_excel('ex8data1.xlsx', sheet_name='X', header=None)

df.head()

使用Python进行异常检测的解决方案

让我们将第0列与第1列进行比较。plt.figure()

plt.scatter(df[0], df[1])

plt.show()

使用Python进行异常检测的解决方案

你可能通过看这张图知道哪些数据是异常的。检查此数据集中有多少个训练示例:m = len(df)

计算每个特征的平均值。这里我们只有两个特征:0和1。s = np.sum(df, axis=0)

mu = s/m

mu

输出:0    14.112226

1    14.997711

dtype: float64

根据上面“公式和过程”部分中描述的公式,让我们计算方差:vr = np.sum((df - mu)**2, axis=0)

variance = vr/m

variance

输出:0    1.832631

1    1.709745

dtype: float64

现在把它做成对角线形状。正如我在概率公式后面的“公式和过程”一节中所解释的,求和符号实际上是方差var_dia = np.diag(variance)

var_dia

输出:array([[1.83263141, 0.        ],

      [0.        , 1.70974533]])

计算概率:k = len(mu)

X = df - mu

p = 1/((2*np.pi)**(k/2)*(np.linalg.det(var_dia)**0.5))* np.exp(-0.5* np.sum(X @ np.linalg.pinv(var_dia) * X,axis=1))
p

使用Python进行异常检测的解决方案

训练部分已经完成。下一步是找出阈值概率。如果概率低于阈值概率,则样本数据为异常数据,但我们需要为我们的特殊情况找出那个阈值。对于这一步,我们使用交叉验证数据和标签。对于你的案例,你只需保留一部分原始数据以进行交叉验证。现在导入交叉验证数据和标签:cvx = pd.read_excel('ex8data1.xlsx', sheet_name='Xval', header=None)

cvx.head()

使用Python进行异常检测的解决方案

标签如下:cvy = pd.read_excel('ex8data1.xlsx', sheet_name='y', header=None)

cvy.head()

使用Python进行异常检测的解决方案

把'cvy'转换成NumPy数组。y = np.array(cvy)

输出:# 数组的一部分

array([[0],
      [0],
      [0],
      [0],
      [0],
      [0],
      [0],
      [0],
      [0],

这里,y值为0表示这是一个正常的样本,y值为1表示这是一个异常的样本。选择阈值首先让我们再检查一下概率值。p.describe()

输出:count    3.070000e+02

mean     5.905331e-02

std      2.324461e-02

min      1.181209e-23

25%      4.361075e-02

50%      6.510144e-02

75%      7.849532e-02

max      8.986095e-02

dtype: float64

如图所示,我们没有太多异常数据,所以,如果我们从75%的值开始,会是比较好的结果,但为了安全起见,我会从平均值开始。所以我们将从平均值和更低的概率范围开始检查这个范围内每个概率的f1分数。首先,定义一个函数来计算真正例、假正例和假反例:def tpfpfn(ep):

   tp, fp, fn = 0, 0, 0
   for i in range(len(y)):
       if p[i] <= ep and y[i][0] == 1:
           tp += 1
       elif p[i] <= ep and y[i][0] == 0:
           fp += 1
       elif p[i] > ep and y[i][0] == 1:
           fn += 1
   return tp, fp, fn

列出低于或等于平均概率的概率。eps = [i for i in p if i <= p.mean()]

检查一下列表的长度len(eps)

输出:133

根据前面讨论的公式定义一个计算f1分数的函数:def f1(ep):
   tp, fp, fn = tpfpfn(ep)
   prec = tp/(tp + fp)
   rec = tp/(tp + fn)
   f1 = 2*prec*rec/(prec + rec)
   return f1

所有函数都准备好了!现在计算所有epsilon和我们之前选择的概率值范围的f1分数。f = []
for i in eps:
   f.append(f1(i))
f
输出:[0.14285714285714285,
0.14035087719298248,
0.1927710843373494,
0.1568627450980392,
0.208955223880597,
0.41379310344827586,
0.15517241379310345,
0.28571428571428575,
0.19444444444444445,
0.5217391304347826,
0.19718309859154928,
0.19753086419753085,
0.29268292682926833,
0.14545454545454545,

这是f分数表的一部分,它的长度是133。f分数通常在0到1之间,其中f1得分越高越好,所以,我们需要从刚才计算的f分数列表中取f的最高分数。现在,使用“argmax”函数来确定f分数值最大值的索引。np.array(f).argmax()
输出:131

现在用这个索引来得到阈值概率。e = eps[131]

e

输出:6.107184445968581e-05

找出异常实例现在我们有了临界概率,可以从中找出我们训练数据的标签了。如果概率值小于或等于该阈值,则数据为异常数据,否则为正常数据。我们将正常数据和异常数据分别表示为0和1,label = []
for i in range(len(df)):
   if p[i] <= e:
       label.append(1)
   else:
       label.append(0)
label
输出:[0,
0,
0,
0,
0,
0,
0,
0,
0,
0,

这是标签列表的一部分。我将在上面的训练数据集中添加此标签:df['label'] = np.array(label)

df.head()

使用Python进行异常检测的解决方案

我在标签为1的地方用红色绘制数据,在标签为0的地方用黑色绘制,得到以下结果。

使用Python进行异常检测的解决方案

我们可以看到红色的数据明显是异常值。结论本文我们一步一步地解释了开发异常检测算法的整个过程,如果你通过阅读本文无法理解算法的过程,建议你运行每一段代码来加强理解。

使用Python进行异常检测的解决方案

免责声明:本站旨在传递信息,不代表有传资讯的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:78799268)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/news/14116.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

联系我们

在线咨询:点击这里给我发消息

邮件:78799268@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code