大家好,今天小编关注到一个比较有意思的话题,就是关于dyadic的问题,于是小编就整理了1个相关介绍dyadic的解答,让我们一起看看吧。
怎么通俗的理解张量?
张量,其实就是所谓的多边矩阵(向量一个边的矩阵,矩阵两个边的矩阵,如此理解)。
张量来做数据挖掘,首先我理解数据要有能构建为张量的特点,无非是一,数据本身天然就是张量,如RGB图像天然就是一个三维的张量。楼主查一查可以看到很多相关的张量分解在图像上的应用。
另外如上面回答提到的文章,“bayesian poisson tensor factorization for inferring multilateral relations from sparse dyadic event counts”,实际是一种多关系图的数据,“country i took action toward country j at time t”,这一方面,大多数的应用是在社区发现上,通过适当的算法设计,可以发现哪些国家经常互动,这些在社交 *** 上的应用很多。
还有就是具有多模态的数据,比如打分推荐系统,电影-用户-时间构成一个三维的张量,但这样一个张量往往是很稀疏的,我们怎么根据用户有限的打分,“填补”而推荐其没打过分的电影呢?如果我们假设数据在电影-用户-时间三个模式都具有很强的相关性,我们就可以利用张量分解设计张量填充算法,对未打分的数据进行填补,进而给用户推送电影,2016有本书“
Matrix and Tensor Factorization with Recommender System Applications
”。另外,最近对于交通数据的丢失和预测也有应用,因为交通数据有多相关性(天,周周期性,空间上的相似性),"A tensor-based method for missing traffic data completion
"张量分解的另一个重要问题,就是分解算法的设计,目前大多数都是基于CP分解和Tucker分解,但是目前也有很多新的分解 *** 在冒出来。下面给两个张量分解的示意图 CP分解 Tucker分解对于张量分解,可以理解为矩阵分解向多维的延伸,可以理解为对高维数据的一种低秩逼近或者特征提取。到此,以上就是小编对于dyadic的问题就介绍到这了,希望介绍关于dyadic的1点解答对大家有用。
发表评论