• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

经典机器学习系列(十二)【学习排序】

人工智能 小小何先生 1856次浏览 0个评论

排序学习一般被认为是supervised learning中的一个特例,谈到supervised learningloss function一般表示为如下形式:  
经典机器学习系列(十二)【学习排序】   supervised learning中我们首先想到的是Regression 和 Classification,其loss function分别表示为如下形式:  

  • Regression

  Regression经常以mean-square-error构建loss function  
经典机器学习系列(十二)【学习排序】  

  • Classification

Classification常以cross-entropy构建loss function  
经典机器学习系列(十二)【学习排序】   上述的loss function都是建立在一个instance个体本身上面,而不是一群instance上面。

Learning to Rank Problem

  而这个Learning to Rank就比较有意思,输入是 a set of instances:  
经典机器学习系列(十二)【学习排序】   输出是a rank list of these instances:  
经典机器学习系列(十二)【学习排序】   其中下标表示的是排序位置,比如r 1 = 1,表示x 1 排在第一个位置,r 1 = 2 ,表示x 2排在第一个位置。   真实标签就是a correct ranking of these instances:  
经典机器学习系列(十二)【学习排序】   Learning to Rank就是在一系列instances下面做supervised learning

Information Retrieval

  Information Retrieval更广泛的意思是说,我们有一个user。他有一个 information need ,希望在a collection of information items里面通过索引、排序等方法,然后返回一些相关的items给用户。

A Typical Application: Web Search Engines

 
在这里插入图片描述   当我们每天在做检索的时候其实也在反馈,他们的rank应该如何去做会更好一些。   在上述过程中有Two key stages索引检索相关的候选文档和排序这些文档。  

  • Retrieve the candidate documents
  • Rank the retrieved documents

  而Rank the retrieved documents我们可以用Learning to Rank的方式来做。由于Learning to Rank不可能对所有的documents排序,因此有第一步索引。  

  • Overview Diagram of Information Retrieval

  整个Web Search Engines其大体的核心步骤可描述为下图所示:  
在这里插入图片描述  

  1. Inverted Index

  给一个文档,需要知道有哪些关键词  

  1. Relevance Model

  当用户输入一个query之后,依据Inverted Index我们可以找到一些候选集,  

  1. Query Expansion & Relevance feedback model

  这里所做的是对Query的一个扩充,比如拿前十名的文档对关键词进行扩充,能够使得Query更加全面,排序结果更加稳定,返回更好的userinformation need。  

  1. Ranking document

  最后去做Learning to Rank的这个model,使得排序结果更好,更好的服务于用户。

Webpage Ranking

  整个learning to rankframework如下图所示:  
在这里插入图片描述   当user输入query时,第一步是获得Retrieved Items,之后基于这个Retrieved Itemsranking model,然后输出Ranked List of Documents

Learning to Rank

Model Perspectiv

  目前大部分learning to rank的工作建模为两方面的问题, query-documentfeature的形式建模出来。  

  • Each instance (e.g. query-document pair) is represented with a list of features

有时候的query是非常离奇的,搜索引擎从来没有见过,因此我们需要将query映射到feature space上面。  

  • Discriminative training

这里主要是当给一个query-document pair我们需要Estimate the relevance,也就是一个打分函数f θ f_{\theta}fθ:  
经典机器学习系列(十二)【学习排序】   之后需要基于the estimationRank the documents。基于这个rank与真正的rankloss function,再train就可以了。   总结一下在Learning to Rankframework下面:  

  • 输入:features of query and documents 像Query, document, and combination features这些
  • 输出:the documents ranked by a scoring function y i = f θ ( x i ) y_{i} = f_{\theta}(x_{i})yi=fθ(xi)
  • 目标函数是一些relevance of the ranking list,像Evaluation metrics: NDCG, MAP, MRR…这些。
  • 训练数据: the query-doc features and relevance ratings,数据格式如下图所示:

 
在这里插入图片描述 可以看出query已经被转成了数字化的feature了。这样的话即使没有见过这个query,没有见过这个documents,我们依然能够在feature space上面去建模这个点。 在Learning to Rank上面我们其实是学习scoring function

Learning to Rank Approaches

微软亚洲研究院副院长Tie-Yan Liu2011的《 Learning to Rank for Information Retrieval》中将Learning to Rank大致分为三类:PointwisePairwiseListwise  

Pointwise

 

<code class="has-numbering">- Predict the absolute relevance (e.g. RMSE) 
</code>

  Pointwise方法中对单个instance打分,问题就变成了一个回归问题:  
经典机器学习系列(十二)【学习排序】   这是最简单的Learning to Rank,这里有一个问题,Point Accuracy != Ranking Accuracy。Same square error might lead to different rankings,如下图所示:  
在这里插入图片描述   也就是说最后所作的优化并不是rank上的优化。  

Pairwise

 

<code class="has-numbering">- Predict the ranking of a document pair (e.g. AUC) 
</code>

  对于排序问题,如果scoring functionf θ f_{\theta}fθ改变一点点,那是很有可能导致你最终的排序结果不会发生改变。当loss function建立在排序上面的话,那么你的loss function对函数参数求导就会等于0。   正是由于这个原因,我们无法对scoring function求导。解决办法如下图所示:  
在这里插入图片描述  
在这里插入图片描述  
在这里插入图片描述  

  • Burges, Christopher JC, Robert Ragno, and Quoc Viet Le. “Learning to rank with nonsmoothcost functions.”NIPS. Vol. 6. 2006

  Pairwise Approaches也存在一些问题,如:Each document pair is regarded with the same importance。但是很多时候,用户对前面几个页面的rank是要更加关注一点,因此Same pair-level error but different list-level error就需要注意。  
在这里插入图片描述  
在这里插入图片描述  
在这里插入图片描述  

Listwise

 

  • Predict the ranking of a document list (e.g. Cross Entropy)

Listwise Approaches

  • Training loss is directly built based on the difference between the prediction list and the ground truth list
  • Straightforward target •Directly optimize the ranking evaluation measures
  • Complex model

 
在这里插入图片描述  

  • Cao, Zhe, et al. “Learning to rank: from pairwise approach to listwise approach.”Proceedings of the 24th international conference on Machine learning. ACM, 2007.

 
在这里插入图片描述  
在这里插入图片描述  

  • Burges, Christopher JC, Robert Ragno, and Quoc Viet Le. “Learning to rank with nonsmooth cost functions.”NIPS. Vol. 6. 2006.

 
在这里插入图片描述  
在这里插入图片描述

Summary of Learning to Rank

 
在这里插入图片描述


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明经典机器学习系列(十二)【学习排序】
喜欢 (0)

您必须 登录 才能发表评论!

加载中……