机器学习中的度量——其他度量

  • 时间:
  • 浏览:0
  • 来源:大发时时彩官网_大发时时彩邀请码_大发时时彩娱乐平台

      机器学习是时下流行AI技术中一有三个一阵一阵要的方向,无论是有监督学习还是无监督学习都使用各种“度量”来得到不同样本数据的差异度是意味着不同样本数据的类似度。良好的“度量”还前要显著提高算法的分类或预测的准确率,本文中将介绍机器学习中各种“度量”,“度量”主要由一种,分别为距离、类似度和相关系数,距离的研究主体一般是线性空间中点;而类似度研究主体是线性空间中向量;相关系数研究主体主所以 分布数据。本文主要介绍你这个度量。

      KL散度(Kullback–Leibler divergence)又称为相对熵(relative entropy)。KL散度是有三个概率分布P和Q差别的非对称性的度量。 KL散度是用来 度量使用基于Q的编码来编码来自P的样本平均所需的额外的位元数。 典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。

      对于离散随机变量,其概率分布P 和 Q的KL散度可按下式定义为

\[{D_{KL}}\left( {P\left\| Q \right.} \right){\rm{ = }} - \sum\limits_i {P\left( i \right)\ln \frac{{Q\left( i \right)}}{{P\left( i \right)}}}\]

      等价于

\[{D_{KL}}\left( {P\left\| Q \right.} \right){\rm{ = }} - \sum\limits_i {P\left( i \right)\ln \frac{{P\left( i \right)}}{{Q\left( i \right)}}}\]

      即按概率P求得的P和Q的对数商的平均值。KL散度仅当概率P和Q每其他人 总和均为1,且对于任何i皆满Q(i)>0及P(i)>0时,才有定义。式中总是总是出现0ln 0的情况,其值按0除理。

      对于连续随机变量,其概率分布P和Q可按积分土最好的办法定义为

\[{D_{KL}}\left( {P\left\| Q \right.} \right){\rm{ = }}\int_{ - \infty }^\infty {p\left( x \right)\ln \frac{{p\left( x \right)}}{{q\left( x \right)}}dx} \]

      其中p和q分别表示分布P和Q的密度。

      更一般的,若P和Q为集合X的概率测度,且P关于Q绝对连续,则从P到Q的KL散度定义为

\[{D_{KL}}\left( {P\left\| Q \right.} \right){\rm{ = }}\int_X {\ln \frac{{dP}}{{dQ}}dP} \]

      其中,假定右侧的表达形式位于,则dP/dP为Q关于P的R–N导数。

      相应的,若P关于Q绝对连续,则

\[{D_{KL}}\left( {P\left\| Q \right.} \right){\rm{ = }}\int_X {\ln \frac{{dP}}{{dQ}}dP} {\rm{ = }}\int_X {\ln \frac{{dP}}{{dQ}}\ln \frac{{dP}}{{dQ}}dQ} \]

      即为P关于Q的相对熵。

      在这里举一有三个实际例子来说明KL散度怎么才能 才能 计算的,假设P和Q是有三个不同的分布。P是一有三个实验次数N=2且概率p为0.5 的二项分布。Q是一有三个各种取0,1或2的概率都为1/3的离散均匀分布。

P(x) 0.25 0.5 0.25
Q(x) 0.333 0.333 0.333

      所以P关于Q的KL散度为

\[\begin{array}{l} {D_{KL}}\left( {P\left\| Q \right.} \right){\rm{ = }} - \sum\limits_i {P\left( i \right)\ln \frac{{P\left( i \right)}}{{Q\left( i \right)}}} \\ \quad \quad \quad \quad \; = 0.25\ln \frac{{0.25}}{{0.333}} + 0.5\ln \frac{{0.5}}{{0.333}} + 0.25\ln \frac{{0.25}}{{0.333}} \\ \quad \quad \quad \quad \; = 0.59892 \\ \end{array}\]

      同理可得Q关于P的KL散度

\[\begin{array}{l} {D_{KL}}\left( {Q\left\| P \right.} \right){\rm{ = }} - \sum\limits_i {Q\left( i \right)\ln \frac{{Q\left( i \right)}}{{P\left( i \right)}}} \\ \quad \quad \quad \quad \; = 0.333\ln \frac{{0.333}}{{0.25}} + 0.333\ln \frac{{0.333}}{{0.5}} + 0.333\ln \frac{{0.333}}{{0.25}} \\ \quad \quad \quad \quad \; = 0.0555 \\ \end{array}\]

      在NLP领域中,Word2Vec得到的词向量还前要反映词与词之间的语义差别,但在实际任务中大家总是遇到计算文档和文档之间类似度的问题报告 ,除了采用词向量叠加生成文章向量的方案,大家还有一有三个叫做词移距离(Word Mover's Distance)的方案来计算文档和文档之间的类似度。其中文档和文档之间距离定义为:

\[\sum\limits_{i,j = 1}^n {{T_{ij}}c\left( {i,j} \right)} \]

      其中c(i,j)为i ,j有三个词所对应的词向量的欧氏距离, Tij为词语xi转移到词语xj的权值。没办法 们怎么才能 才能 得到你你这个权值矩阵T呢?又是意味着说你你这个加权矩阵T代表什么含义呢?你你这个加权矩阵T你这个类似于HMM中的情况转移矩阵,只不过其中的概率转换为权重了而已:



      这里有三个多文档1和文档2,去除停用词后,每篇文档仅剩下有三个词。文档1文档的词语集合为{Obama, speaks, media, Illinois},文档2的词语集合为{President greets press Chicago}。大家所以 要用这八个词来比较有三个文档之间的类似度。在这里,大家假设’Obama’你你这个词在文档1中的的权重为0.5(还前要简单地用词频是意味着TFIDF进行计算),没办法 是意味着’Obama’和’president’的类似度很高,没办法 大家还前要给由’Obama’移动到’president’很高的权重,这里假设为0.4,文档2中你这个的词是意味着和’Obama’的距离比较远,所以会分到更小的权重。这里的约束是,由文档1中的某个词i移动到文档2中的各个词的权重之和应该与文档1中的你你这个词i的权重相等,即’Obama’要把当时人的权重0.5分给文档2中的各个词。同样,文档2中的某个词j所接受到由文档1中的各个词所流入的权重之和应该等于词j在文档2中的权重。为什么我要有没办法 的操作呢?是意味着词移距离代表的是文档1要转换为文档2所前要付出的总代价。将你你这个代价求得下界即最小化很久,即可求得所有文档a中单词转移到文档b中单词的最短总距离,代表有三个文档之间的类似度。当然实际计算中权值矩阵T也就有随便而来的,词移距离对应一有三个优化我呢提,它是没办法 计算的:



      其中c(i,j)词向量i和j的 Euclidean 距离,n是词的个数,d和d’分别是有三个文档中各个词权重(概率或TF-IDF)组成的向量。

猜你喜欢

“挖矿”难,难于上青天

“若果价格可以 低得太离谱,我都我应该 赶紧卖掉。”看着堆积在地下室,占用了三分之二面积的近百台矿机,李成帷内心五味杂陈。跟跟我说,去年下多日 ,他辞去一家小贷金融公

2019-12-08

“一棵树”种出特色小镇——全国唯一银杏特色小镇

近日,住房和城乡建设部敲定第二批全国特色小镇名单。江苏邳州市的铁富镇,作为全国唯一银杏特色小镇,位列其中。邳州,自古以来有的是“银杏甲天下”的美称。做大“一棵树”的资源、做优“

2019-12-08

蔡元培墓地遭暴徒惡意破壞 北京大學香港校友會強烈譴責

大公網訊11月14日,著名教育家、已故北京大學校長蔡元培位於香港的墓地遭到暴力分子惡意損壞。北京大學香港校友會隨即發表聲明,對此次卑劣的暴力行徑表示極大憤慨和強烈譴責,對蔡校長

2019-12-07

外媒:摩托罗拉手机正在美国逐步兴起

IT之家7月28日消息 近日,据外媒报道,摩托罗拉手机正在美国逐步兴起;但并能推出旗舰手机来进入高端市场。▲via Phonearena据Phonearena报道,过去几年全球

2019-12-07

摩托罗拉Razr可折叠手机配置曝光:形似翻盖,配骁龙710

IT之家3月15日消息 先前的消息显示,摩托罗拉计划重振Razr品牌,并带来可折叠屏的设计。日前,XDA带来了关于该机的一系列新消息。这款手机代号“Voyager”,搭载骁龙7

2019-12-07