<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 30,  comments - 3,  trackbacks - 0
    大致內容:
    本文要解決的主要問題是社交網絡中的標簽推薦(本文主要為音樂、視頻等多媒體對象推薦合適的標簽)。較之以前的推薦策略——a.根據已有標簽進行詞語共現的推薦; b.根據文本特征(如標題、描述)來推薦; c.利用標簽相關性度量來推薦。大部分僅僅至多使用了上述的兩種策略,然而本文將3種特征全部結合,并提出一些啟發式的度量和兩種排序學習(L2R)的方法,使得標簽推薦的效果(p@5)有了顯著的提高。

    問題陳述:
    作者將數據集分為三類:train, validation, test。對于訓練集D,包含<Ld,Fd>。Ld指對象d的所有標簽集;Fd指d的文本特征集(即Ld=L1d∪L2d∪L3d...Lnd,Fd=F1d∪ F2d∪ F3d....Fnd)。對于驗證集和測試集,由三部分組成<Lo,Fo,yo>。Lo為已知標簽,yo為答案標簽,實驗中作者將一部分標簽劃分Lo,一部分為yo,這樣做可以方便系統自動評價推薦性能。

    Metrics說明:
    (1)Tag Co-occurrence:基于共現方法的標簽推薦主要是利用了關聯規則(association rules),如X→y,X為前導標簽集,y為根據X(經過統計)得到的標簽。還要提到兩個參數:support(σ),意為X,y在訓練集中共現的次數,confidence(θ)=p(y與object o相關聯|X與object o相關聯)。由于從訓練集中得到的規則很多,因此要設定σ 、θ 的最小閾值,只選取最為頻繁發生、最可靠的共現信息。
        Sum(c,o,l)=ΣX⊆Lθ(Xc), (X→c)R, |X|≤l

    (2)Discriminative Power: 指區分度,對于一個頻繁出現的標簽特征,區分度會很低。作者提出一個IFF度量(類似于IR中的IDF),定義如下:
        IFF(c)=log[(|D|+1)/(fctag+1)]
    其中
    fctag為訓練集D中,以c作為標簽者的對象數。
    盡管這個度量可能偏重于一些并未在訓練集中出現作為標簽的詞語,然而在排序函數中,它的權重會被合理安排。
        另外,過于頻繁的標簽和過于稀少的標簽都不會是合理的推薦,而那些頻率中等的term則最受青睞。有一種Stability(Stab)度量傾向于頻率適中的詞語:
        Stab(c,ks)=ks/[ks+|ks-log(fctag)|] , 其中ks表示term的理想頻率,要根據數據集來調整。

    (3)Descriptive Power
    指對于一個侯選c的描述能力,主要有如下4種度量
    ①TF: TF(c,o)=ΣFoi∈Ftf(c,Foi)
    ②TS: TS(c,o)=ΣFoi∈Fj where j=1 (if cFoi ), otherwise j=0
    ③wTS:wTS(c,o)=ΣFoi∈Fj where j=AFS(Fi) (if c∈Foi ), otherwise j=0 
    ④wTF:wTS(c,o)=ΣFoi∈Ftf(c,Foi) where j=AFS(Fi) (if c∈Foi ), otherwise j=0 
    這里要引入兩個概念:
    FIS:Feature Instance spread. FIS(Foi) 為Foi中所有的term的平無數TS值。
    AFS:Average Feature Spread:AFS(Fi)為訓練集中所有對象的平均FIS(Foi),即
    AFS(Fi)=ΣojFIS(Foji)/|D|

    (4)詞項預測度
    Heymann et al.[11]通過詞項的熵來度量這個特征。
    詞項c在標簽特征的熵值Htags(c)=-Σ(ci)R    θ(ci)logθ(ci) ,其中R為訓練集中的規則集。

    標簽推薦策略:
    (1)幾個先進的baseline:
    ① Sum+:擴展了Sum度量,通過相應關聯規則的前導和后繼中的詞項的Stablity為Confidence賦予權重。給定一個對象o的侯選標簽c,Sum+定義如下:
        Sum+(c,o,kx,kc,kr)=Σx∈L0 θ(xc)*Stab(x,kx)*Stab(c,kc)*Rank(c,o,kr)
        其中:kx,kc,kr為調節參數,Rank(c,o,kr)=kr/[kr+p(c,o), p(c,o)為c在這個關聯規則中confidence排名的位置,這個值可以使Confidence值更為平滑地衰減。Sum+限制了前導中的標簽數為1。
    ② LATRE(Lazy Associative Tag Recommendation):與Sum+不同,LATRE可以在立即請求的方式快速生成更大的關聯規則,這與其它策略不同(因為它們都是事先在訓練集中計算好所有的規則),但也可能包含一些在測試集中并不是很有用的規則。 LATRE排序每個侯選c,通過相加所有包含c的規則的confidence值。
    ③ CTTR(Co-occurrence and Text based Tag Recommender):利用了從文本域特征中抽取出的詞項和一個相關性度量,但所有考慮事先已經賦給對象o的標簽。作者對比CTTR與作者的方法,評價了作者自創幾個度量和應用事先預有標簽的有效性,篇幅有限,不再對此詳述。

    (2) New Heuristics
    8種,作者擴展了Sum+和LATRE baseline加入了描述性度量(TS,TF,wTS,wTF),共合成了8種方案。
        Sum+DP(c,o,kx,kc,kr,α)=αSum+(c,o,kx,kc,kr)+(1-α)DP(c,o)
        LATRE+DP(c,o,l,α)=αSum(c,o,l)+(1-α)DP(c,o)

    (3)排序學習策略:
    對一個Metric矩陣(對于侯選c)Mc∈Rm,m是考慮的metric數,即矩陣的維數。然后驗證集V的對象v賦一個Yc,若c為v的合理推薦,Yc=1,否則Yc=0。因為訓練集用來抽取關聯規則和計算metrics,驗證集用來學習solutions,因此只對驗證集賦Yc。學習模型,即排序函數f(Mc)將被用于測試集:
    ① RankSVM:作者使用SVM-rank tool學習一個函數f(Mc)=f(W,Mc),其中W=<w1,w2,....,wm>是一個對metrics賦權值的向量。其中,RankSVM有兩個參數,kernel function和cost j。

    ② 遺傳算法:
        這里將個體(即標簽排序函數)看成一個樹表示,葉子結點為變量或常數。樹內結點為基本運算符(+,-,*,/,ln)。若域超出運算范圍,結果默認為0。例如,一個樹表示函數:Sum+0.7*TS,如下圖:

        個體的健壯度(Fitness)表示相應排序函數的推薦質量,本文以P@k為衡量標準給定f(Mc),yo是o的相關標簽,Rof是通過f(Mc)排序后的o的推薦結果,Rk,of的Rof中前k個結果,推薦質量定義如下:
    P@k(Rof,yo,f)=|Rk,of∩yo|/min(k,|yo|)

    實驗評價:
    (1)數據收集:LastFM, Youtube, YahooVideo。 然后去停用詞,詞干化處理(Poster Stemmer)
    (2)評價方法:
    a.將object預先的一些標簽一部分作為已經,一部分作為答案,方便評價,某些生成的答案,并不能在答案集中,但并不意味不相關,因此可作為lower bound。
    b.在實際實驗中,作者將驗證集和測試集的對象標簽平均分為Lo,yo,使用title和description作為文本特征Fo
    c.在評價指標上,主要使用P@5,并用了Recall和MAP值
    d.以兩種方案來對各種推薦方法評價:
    ① 把每個數據集分為3份,對應小規模,中規模,大規模,以便針對每種情況,調整參數,評價不同規模下各方法的效果
    ② 利用整個數據集,統一的評價

    這兩種方案,①更加有針對性,②則代價較低
    對于第一個方案,作者隨機從每個子集(大、中、小規模)中選取50000個樣本,對于第二種方案,作者使用第一個方案選取出的3個樣本集組合的樣本。這兩種方案都把每個樣本集分為5份來做5折交叉驗證。3/5做訓練,1/5做驗證,1/5做測試。之所以在驗證集上做L2R是為了避免過擬合。


    (3)參數設定
    ① Sum+DP中,kr=kx=kc=5, α=[0.7,1.0]
    ② LATRE+DP和L2R中,l=3, ks=5。在確定σminθmin時,將值設定為與σmin和θmin=0相比,結果下降小于3%的值
    ③ RankSVM中,選定線性核,cost j=100
    ④ 歸一化特征向量結果不明顯,因此本文并沒有采取特征向量歸一化。

    (4)實驗結果:
    a. LastFM上提升較小,原因有二:① 有LastFM上標簽、標題、描述內容重疊少,使TS,wTS集中在小值上,使得難以區別good,bad;② LastFM上對象標簽較少,使TS,wTS難以發揮較好作用。
    b. LATRE在大部分情況,好于Sum+,而CTTR在一些情況好于LATRE。尤其是在Youtube。
    c. 對比每個方案和數據集,作者的heuristics都有較大提升,因此引入描述性度量(descriptive power)會顯著提高推薦效果,尤其是標簽數較少的情況(因為共現效果差)
    d. 比較Sum+, LATRE, CTTR。作者的8種啟發式護展都有不小的提升(LastFM最小),證實了利用預先已知標簽和描述度量的作用。
    e. 新啟發思想中,LATRE+wTS在大多數情況最好。在DP確定下,LATRE通常好于Sum+;DP變時,wTS最好,其實是wTF,TS。
    f. L2R中,兩種方法都有提升,但提升幅度有限,觀察發現,GP和SVMRank主要利用的還是LATRE+wTS的metrics,GP中最常用的是Sum(c,o,3),然后是wTS,再是IFF,其它少于這些函數的25%。RankSVM中,最高權重主要還是集中于Sum,wTS。
    g.盡管L2R效果提升不明顯,但框架靈活,易于擴展(加入新度量和tag recommender問題,如個性化)
    h.對于SVMRank和GP的比較,效果好壞主要取決于數據集。

    論文:
    Fabiano Belem,  Eder Martins,  Tatiana Pontes,  Jussara Almeida,  Marcos Goncalves.  Associative Tag Recommendation Exploiting Multiple Textual Features. Proceedings of the 34th international ACM SIGIR conference on Research and development in Information, Jul. 2011.
     
    論文鏈接:
    SIGIR2011_Associative_Tag_Recommendation_Exploiting_Multiple_Textual_Features.pdf
    posted on 2012-02-24 13:05 Seraphi 閱讀(692) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 国产情侣久久久久aⅴ免费| 添bbb免费观看高清视频| 成全视频免费观看在线看| 亚洲日韩在线第一页| 一区二区视频免费观看| 亚洲视频在线一区二区| 中文字幕高清免费不卡视频| 亚洲AV无码无限在线观看不卡| 久久精品无码专区免费青青| 337p日本欧洲亚洲大胆艺术| h视频在线观看免费网站| 亚洲一级毛片在线观| 国外成人免费高清激情视频| 亚洲午夜无码久久| 国产一级做a爱免费视频| aa级毛片毛片免费观看久| 亚洲爱情岛论坛永久| 免费观看激色视频网站(性色)| 美女视频黄免费亚洲| 亚洲AV无码一区二区三区国产 | 成人免费大片免费观看网站| tom影院亚洲国产一区二区| 精品免费久久久久久成人影院| 特级毛片aaaa免费观看| 亚洲成a人片77777kkkk| 亚洲第一成年免费网站| 国产成人亚洲综合a∨| 国产精品国产亚洲精品看不卡| 国产男女爽爽爽爽爽免费视频| 亚洲精华国产精华精华液网站| 久久久久亚洲av成人无码电影 | 久久精品国产亚洲香蕉| 中文字幕av无码无卡免费| 青青免费在线视频| 久久精品九九亚洲精品| 免费观看的av毛片的网站| a毛片免费在线观看| 亚洲人成人无码.www石榴| 国产亚洲成人久久| 久久精品a一国产成人免费网站| www.av在线免费观看|