基于LGC局部全局一致性和SVM支持向量机的半监督分类算法matlab仿真

发布时间 2023-03-27 23:24:48作者: 我爱C编程

1.算法描述

       半监督学习(Semi-Supervised LearningSSL)是模式识别和机器学习领域研究的重点问题,是监督学习与无监督学习相结合的一种学习方法。半监督学习使用大量的未标记数据,以及同时使用标记数据,来进行模式识别工作。当使用半监督学习时,将会要求尽量少的人员来从事工作,同时,又能够带来比较高的准确性,因此,半监督学习正越来越受到人们的重视。

 

        支持向量机(support vector machines, SVM)是二分类算法,所谓二分类即把具有多个特性(属性)的数据分为两类,目前主流机器学习算法中,神经网络等其他机器学习模型已经能很好完成二分类、多分类,学习和研究SVM,理解SVM背后丰富算法知识,对以后研究其他算法大有裨益;在实现SVM过程中,会综合利用之前介绍的一维搜索、KKT条件、惩罚函数等相关知识。本篇首先通过详解SVM原理,后介绍如何利用python从零实现SVM算法。

         实例中样本明显的分为两类,黑色实心点不妨为类别一,空心圆点可命名为类别二,在实际应用中会把类别数值化,比如类别一用1表示,类别二用-1表示,称数值化后的类别为标签。每个类别分别对应于标签1、还是-1表示没有硬性规定,可以根据自己喜好即可,需要注意的是,由于SVM算法标签也会参与数学运算,这里不能把类别标签设为0

 

 

 

 

 

 

线性核:

主要用于线性可分的情况,我们可以看到特征空间到输入空间的维度是一样的,其参数少速度快,对于线性可分数据,其分类效果很理想

通常首先尝试用线性核函数来做分类,看看效果如何,如果不行再换别的

优点:方案首选、简单、可解释性强:可以轻易知道哪些feature是重要的

缺点:只能解决线性可分的问题

 

高斯核:

 

通过调控参数,高斯核实际上具有相当高的灵活性,也是使用最广泛的核函数之一。

如果σ \sigmaσ选得很大的话,高次特征上的权重实际上衰减得非常快,所以实际上(数值上近似一下)相当于一个低维的子空间;

如果σ \sigmaσ选得很小,则可以将任意的数据映射为线性可分——当然,这并不一定是好事,因为随之而来的可能是非常严重的过拟合问题。

优点:可以映射到无限维、决策边界更为多维、只有一个参数

缺点:可解释性差、计算速度慢、容易过拟合

 

多项式核

 

多项式核函数可以实现将低维的输入空间映射到高纬的特征空间,

但是多项式核函数的参数多

当多项式的阶数比较高的时候,核矩阵的元素值将趋于无穷大或者无穷小,计算复杂度会大到无法计算。

优点:可解决非线性问题、主观设置

缺点:多参数选择、计算量大

sigmoid

 

       采用sigmoid核函数,支持向量机实现的就是只包含一个隐层,激活函数为 Sigmoid 函数的神经网络。应用SVM方法,隐含层节点数目(它确定神经网络的结构)、隐含层节点对输入节点的权值都是在设计(训练)的过程中自动确定的。而且支持向量机的理论基础决定了它最终求得的是全局最优值而不是局部最小值,也保证了它对于未知样本的良好泛化能力而不会出现过学习现象。

如图, 输入层->隐藏层之间的权重是每个支撑向量,隐藏层的计算结果是支撑向量和输入向量的内积,隐藏层->输出层之间的权重是支撑向量对应的

 

 

       LGC的目标函数的特点是:1)可以直接处理多分类问题;2)正则化算子使用了归一化的拉普拉斯算子L=D-1/2 LD-1/2=I-D-1/2 WD-1/2来代替图拉普拉斯算子L=D-W;3)损失函数的权重入为有限值,即采用软约束,从而使得算法对于错误的有标记数据有一定的容错能力。LGC的目标函数为:

 

 

 

 

其中,F为调和函数,其在标注数据点上取值为其标识值,其在无标注数据点上的值为0;,Y为标签矩阵,W为相似度权重矩阵,D为度矩阵(对角矩阵),di=Wi ,为矩阵W的第i行元素之和。

 

前部分为正则化项,后者为损失函数。

 

损失函数:标签数据的标识和训练结果的标签的误差。

 

正则化项:相邻点Wij的值越大,则fifj的值越相近。

 

LGC步骤如下:

 

①构造邻接矩阵W,当ij时,高斯核函数Wij=exp(-(xi-xj)2/2 2, Wii=0

 

②计算矩阵S= D-1/2 WD-1/2Dii=j wij

 

③迭代计算 F(t+1)=αSF(t)+(1-α)Y, α∈(0,1)Y为标签矩阵,直至收敛。

 

2.仿真效果预览

matlab2022a仿真结果如下:

 

 

 

 

 

 

3.MATLAB核心程序

 

function [F,S,w] = func_LGC(Train_data2,Train_Labels2);
 
x     = [Train_data2];
 
L     = size(x,1);
w     = zeros(L,L);
F     = zeros(L,L);
delta = 0.5;
alpha = 0.4;
for i = 1:L
    i
    for j = 1:L
        x1  = x(i,:);
        x2  = x(j,:);
        tmp = sum((x1-x2).^2);
        if abs(i-j)>0
           w(i,j) = exp(-tmp/(2*delta^2));  
        else
           w(i,j) = 0; 
        end
    end
end
 
XX=[];
for iter = 1:100
    w = w/max(max(w));
    D = rand(L);
    D = D'+D;
    S = D.^(-0.5).*w.*D.^(-0.5);
    Y = [Train_Labels2];
    F = alpha*S*F + (1-alpha)*Y*Y';
    XX(iter)=mean2(F);
    if iter > 1
       if abs(XX(iter)-XX(iter-1)) <= 0.01;
          break;
       end
    end
end