[0099] 下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0100] 在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
[0101] 本发明所提供的多中继无线网络下编码缓存与信道编码的联合优化方法可用于信息与通信工程技术领域,并不局限于以下实施例所详细说明的通信领域。下面选取典型领域说明本发明的具体实施方式。
[0102] 实施例一
[0103] 本发明一种多中继无线网络编码缓存与信道编码联合优化方法实施例依次经过下述主要步骤得以实现:
[0104] 步骤1.1,设系统存在一个服务器,采用无差错共享链路和K个用户连接。总共有N个文件,其中N为整数,用户的请求文件索引范围为1,2,...,N,每个文件F比特。设每个用户有MF比特的缓存空间,即每个用户可缓存M个文件。
[0105] 对所有文件分配访问指数p,0≤p≤1,表示为被访问的概率大小,即流行度指数,所有文件的流行度指数为{pn}n∈N,p1≥p2≥...≥pN>0。所有文件的流行度指数分布服从Zipf分布,即有:
[0106]
[0107] s为Zipf分布参数,通常1/2≤t≤2,表示流行度指数的集中程度。
[0108] 步骤1.2,将流行度分布不同的文件,划分为不同组,将具有近似流行度文件(流行度相差不大的文件)划分为同一组中。将N个文件划分为L个组,V1,V2,...,VL,Nl表示Vl组中的文件数量,满足
[0109]
[0110] 根据步骤1.1得到的文件流行度指数分布{pn}n∈N,组V1中的文件为{1,2,...,N1},并且满足pN≥p1/2.5且pN+1<p1/2.5,即在同一组中,文件流行度指数最高和最低相差不超过2.5倍。设n为组Vl中最小序号,则需满足
[0111]
[0112] 由于同一组中文件的流行度相差t倍范围之内,通常2≤t≤3等,文件的流行度随着组数的增加指数衰减,因此总的组数L不会很大,L为
[0113]
[0114] 步骤1.3,为每一组Vl分配不同的缓存空间。用MlF表示分配给Vl的缓存空间(可缓存Ml个文件),满足
[0115]
[0116] 对Ml的选择,不再对所有l使用M/L等分缓存空间,而是综合考虑每一组中文件流行度指数和文件数量的权衡,对文件的流行度分布曲线对不同组进行积分,以积分的比值N进行缓存空间的划分。由于∫1 p(i)di=1,假设n为组Vl中最小序号,根据步骤2.1中文件的流行度分布,有
[0117]
[0118] 步骤1.4,对于组Vl,用户随机缓存每个文件的MlF/Nl个比特,逐次进行直到所有组缓存完成,每个用户缓存文件时是独立无关的。
[0119] (2)在步骤1.1用户完成缓存文件数据后,用户向中继服务器发送请求文件索引,用户将请求文件索引经背景技术所述的编码、调制等处理后,经发射天线发到中继服务器。
[0120] (3)中继服务器接收用户请求的文件数据,具体经以下步骤实现:
[0121] 步骤3.1:设有q个中继服务器,每个中继服务器缓存空间为QF比特,每个可缓存Q个文件。根据中继服务器缓存的文件将中继服务器划分为L个簇,同一簇中的中继服务器缓存有相同的文件,Z1,Z2,...,ZL,Zj表示第j个簇k,设Zj中有Wj个中继服务器,有[0122]
[0123] 步骤3.2:设每个用户请求一个文件,用户u访问的文件索引为du,所有用户的请求文件索引为d={d1,d2,...,dK}。Zj中的中继服务器协同检测已编码、调制的请求文件索引d,每个中继服务器处理相同大小的部分K/Wj,经背景技术所述解调、译码后得到所有用户的请求索引。
[0124] (4)中继服务器或源服务器处理用户请求,按以下子步骤完成:
[0125] 步骤4.1:根据步骤3.2得到的请求文件索引d,对所有用户请求的文件d根据步骤2.3进行分组,Jl表示请求文件组Vl的用户集合,Kl表示组Jl中访问的文件数量,满足[0126]
[0127] 步骤4.2:根据步骤3.1,用户访问的文件在中继服务器中的概率为
[0128]
[0129] 若d存在于中继服务器中,则同一簇中的中继服务器对所有用户的请求索引协作传输,不同的中继服务器对不同组中的请求文件,依次执行背景技术所述的去中心化编码缓存方案,然后,经编码、调制等处理后发送给用户。
[0130] 去中心化编码缓存,分为放置阶段和交付阶段,放置阶段由步骤2.3完成,每个用户在链路负载较低阶段,对文件组Vl,随机缓存MlF比特。在交付阶段,中继服务器通过编码多播方式,一次传输多个用户请求文件的子文件。
[0131] 假设有N=2个文件,K=2个用户,每个用户缓存大小为M∈[0,2],因此根据图2中的算法,每个用户独立缓存每个文件的MF/2比特的内容,即缓存每个文件M/2部分。
[0132] 假设N=2个文件分别为A,B,在放置阶段将文件A分为4个子文件B进行相同操作。对于S∈{1,2},AS表示文件A的这部分仅存在于S中, 表示该部分既不存在于用户1,也不存在于用户2中。因此,缓存在S中的文件部分大小的期望为[0133] |A|≈(M/2)|S|(1‑M/2)2‑|S|F (35)
[0134] 根据式(1),可得
[0135]
[0136] |A1|/F=|A2|/F≈(M/2)(1‑M/2) (37)
[0137] |A1,2/|F≈(M/2)2 (38)
[0138] 对B也执行相同的操作。
[0139] 假设用户1访问文件A,用户2访问文件B,根据图2中交付阶段的步骤,当S={1,2}时,用户1需要A2,即V1,2=A2,用户2需要B1,即V2,1=B1,因此发送 当|S|=1时,服务器分别发送 通过上述传输可满足所有用户的请求。
[0140] 每次为Kl组中的用户进行服务,服务器使用去中心化编码缓存交付L次,完成交付过程。假设服务器在交付阶段满足所有用户需求总共传输RF比特,称RF为链路负载,R为链路速率。所实现的中继服务器的链路速率为
[0141]
[0142] 其中,
[0143]
[0144]
[0145] 步骤4.3:若d不存在于中继服务器中,则源节点执行步骤3.1的操作,对d进行分组,对不同组中的请求文件,依次执行背景技术所述的去中心化编码缓存方案,然后,经编码、调制等处理后发送给用户。所实现的源节点链路速率为
[0146]
[0147] 可实现的最小链路速率定义为:
[0148] R*(M,V,K,{pi})=inf{R:{R,M}} (43)
[0149] inf表示下界值,在以上策略下,可实现的最小存储速率为
[0150]
[0151] 其中,c取较大的正整数值,如可取864等。
[0152] (5)用户处理接收到的文件,按以下子步骤完成:
[0153] 步骤5.1,用户接收到文件数据后,经背景技术所述的译码、解调等处理得到文件数据。
[0154] 步骤5.2,将步骤4.1得到的文件数据与自己缓存的文件异或,得到请求的文件。例如,用户k缓存文件为(A1,B1),dk=A,当中继服务器或源服务器发送 通过与自己缓存的文件异或,可得到A2,因此可得到请求的文件A。
[0155] 本发明改进了文件流行度分布不同的情况下,基于分组的编码缓存算法中缓存空间的分配,原有方法是对不同组划分相同的缓存空间,本发明以积分比值的形式进行缓存空间的划分,综合考虑了不同组中文件流行度指数和不同组中的文件数量,和原方法相比,减少交付阶段的链路负载。将编码缓存用于多中继干扰应用,结合信道编码,将中继服务器分为若干簇集,协同检测和传输请求文件,不仅提高了信道吞吐量和传输效率,减少了源服务器的链路负载,还保证了系统的误码率性能,有效提高了系统的有效性和可靠性,具有较高应用价值。
[0156] 注意,上述仅为本发明的较佳实施例即所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够实现各种改变、重新调整和替代而不会脱离本发明的保护范畴。因此,虽然通过以上实施例对本发明进行较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范畴由所附的权利要求范围决定。