博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
softmax回归
阅读量:4286 次
发布时间:2019-05-27

本文共 855 字,大约阅读时间需要 2 分钟。

在上一篇文章中,讲述了广义线性模型。通过详细的讲解,针对某类指数分布族建立对应的广义线性模型。

中,将继续来探讨广义线性模型的一个重要例子,它可以看成是Logistic回归的扩展,即softmax回归

 

我们知道Logistic回归只能进行二分类,因为它的随机变量的取值只能是0或者1,那么如果我们面对多分类问题

办?比如要将一封新收到的邮件分为垃圾邮件,个人邮件,还是工作邮件;根据病人的病情预测病人属于哪种病;对于

诸如MNIST手写数字分类(MNIST是一个手写数字识别库,相见)。诸

如此类问题都涉及到多分类,那么今天要讲的softmax回归能解决这类问题。

 

 

在Logistic回归中,样本数据的值,而在softmax回归中,其中是类别种数,

如在手写识别中,表示要识别的10个数字。设

 

          

 

那么

 

          

 

而且有

 

          

 

为了将多项式模型表述成指数分布族,先引入,它是一个维的向量,那么

 

   

 

应用于一般线性模型,必然是属于个类中的一种。用表示为真,同样当为假时,有

,那么进一步得到联合分布的概率密度函数为

 

      

 

对比一下,可以得到

 

         

 

由于

 

       

 

那么最终得到

 

       

 

可以得到期望值为

 

       

 

接下来得到对数似然函数函数为

 

        

 

其中是一个的矩阵,代表这个类的所有训练参数,每个类的参数是一个维的向量。所以在

softmax回归中将分类为类别的概率为

 

        

 

跟Logistic回归一样,softmax也可以用梯度下降法或者牛顿迭代法求解,对对数似然函数求偏导数,得到

 

 

然后我们可以通过梯度上升法来更新参数

 

   

 

注意这里是第个类的所有参数,它是一个向量。

 

在softmax回归中直接用上述对数似然函数是不能更新参数的,因为它存在冗余的参数,通常用牛顿方法中的Hessian

矩阵也不可逆,是一个非凸函数,那么可以通过添加一个权重衰减项来修改代价函数,使得代价函数是凸函数,并且

得到的Hessian矩阵可逆。更多详情参考如下链接。

 

链接:

 

这里面也讲述了K个二元分类器与softmax的区别,值得学习。

 

 

参考资料:

(1)

(2)

(3)

(4)

(5)

转载地址:http://imxgi.baihongyu.com/

你可能感兴趣的文章
java工程师进阶之路
查看>>
linux系统一个tomcat配置两个域名,每个域名对应一个项目
查看>>
javaScript使用Lodop实现网页表格套打功能
查看>>
技术大牛如何寻找下一个风口
查看>>
大数据学习路线大纲
查看>>
html入门之meta
查看>>
mvn不是内部或外部命令,也不是可运行的程序或批处理文件
查看>>
JAVA:JDBC连接MySQL数据库
查看>>
struts2流程简述
查看>>
struts2文件上传和下载
查看>>
值栈与OGNL
查看>>
struts2标签库--分类入门
查看>>
Struts2声明式异常处理
查看>>
Web.xml中jsp-config元素简述
查看>>
Struts2类型转换和自定义类型
查看>>
Java面向对象特征有那些
查看>>
hibernate单表继承映射
查看>>
继承结构中每个子类单独一张表
查看>>
HQL查询-分页-条件-连接-过滤使用
查看>>
hibernate加载策略之lazy
查看>>