《电子技术应用》
您所在的位置:首页 > 通信与网络 > 设计应用 > 基于赌博机模型的非时隙信道选择机制
基于赌博机模型的非时隙信道选择机制
2016年电子技术应用第1期
朱 江,陈红翠,熊加毫
重庆邮电大学 通信与信息工程学院,重庆400065
摘要: 针对未知信息环境网络中信道资源的选择与分配问题,提出了一种新的信道选择机制。借助于无休止多臂赌博机模型搭建网络系统模型,通过最大期望算法(EMA)实现了未知环境下对非时隙信道使用情况的初步学习,借助Q学习算法实现无休止多臂赌博机模型下的Gittins索引值的求解,同时确定出在一定干扰约束下的最优信道选择策略,最后通过借助拍卖机制实现系统内认知用户之间信道选择的冲突。经仿真实现验证,提出的新信道选择机制能够很好地避免认知用户对主用户的干扰,使系统中的信道得到高效利用,系统通信量得到大幅提高。
中图分类号: TN92
文献标识码: A
DOI:10.16157/j.issn.0258-7998.2016.01.024
中文引用格式: 朱江,陈红翠,熊加毫. 基于赌博机模型的非时隙信道选择机制[J].电子技术应用,2016,42(1):91-94.
英文引用格式: Zhu Jiang,Chen Hongcui,Xiong Jiahao. A selection mechanism of un-slotted channel based on multi-armed bandit[J].Application of Electronic Technique,2016,42(1):91-94.
A selection mechanism of un-slotted channel based on multi-armed bandit
Zhu Jiang,Chen Hongcui,Xiong Jiahao
College of Information and Communication Engineering,Chongqing University of Post and Telecommunication,Chongqing 400065,China
Abstract: A new channel selection mechanism was proposed for the problem that how to select and distribute the channels under the unknown environment. Use the restless multi-armed bandit model to build the network system. Then, learning the usage of the channels preliminary by the expectation-maximization algorithm under the unknown environment, and later, achieve the Gittins index of restless multi-armed bandit by using the Q learning. In the meantime, then, obtained the optimal policy of channels selection under the certain interference constraints. Last, this paper used the multi-bid auction to deal with the collision among the users. Finally, the simulation results demonstrate that, the new mechanism can be good to avoid the interference to the primary user, to make the usage of channels efficiently and to improve the traffic of the system greatly.
Key words : interference control;Gittins index policy;Q learning;restless multi-armed bandit

0 引言

    随着无线网络飞速发展和频谱资源需求剧增,以及无线环境逐步变复杂,使得无线网络系统中的非授权用户想要获得完整的网络环境的参数信息变得愈加困难。因此,对于非完全信息以致未知环境无线网络中的资源分配问题的研究已经成为解决当前网络困境的主要研究方向之一。目前主要应用于未知网络环境下资源分配的理论是部分可观测马尔科夫(Partially Observable Markov Decision Process,POMDP)以及隐马尔科夫模型(Hidden Markov Model,HMM)。文献[1]中将网络环境搭建为未知环境情形,首先通过最大似然算法实现网络中信道使用情形的预测,然后借助POMDP模型实现了网络系统中多信道接入问题。文献[2]为基于未知信息环境认知网络中频谱分配问题,使用Q学习算法机会式频谱接入的研究。文献[5]将POMDP模型与Q学习算法相结合构建了分布式认知网络中的MAC协议,使网络系统中的信道资源得以合理、有效的利用。

    现今基于RMAB或者MAB模型的无线资源分配方法存在两方面局限性:一是对于复杂型网络系统研究较少,尤其是信道模型大多只采用简单的0-1模型进行研究;二是对于存在条件限制的MAB模型研究较少。因此,本文采用了不分时隙的ON-OFF信道模型,并考虑了系统内的干扰限制以及认知用户的感知误差等因素,然后借助Q学习算法实现Gittins索引值算法的求解。最后,通过仿真实验验证了提出的信道选择机制的合理性以及优越性。

1 系统模型

1.1 信道模型

    假设由N个独立的认知用户组成一个认知无线网络,且每个用户均不知其他用户的存在。在此网络中所有的用户共用M个信道,并且在无线网络环境中,由于衰落、干扰以及用户地理位置的差异导致不同信道对同一用户的质量不相同。信道的质量矩阵表示为tx7-t1-s1.gif用户集合N={1,…,N},信道集合表示为M={1,…,M},且1≤M≤N。信道的ON状态和OFF状态交替出现,并且分别服从均值为tx7-t1-s2.gif的指数分布,信道间相互独立,主用户占用信道的平均概率则可以表示为:P0i/(λii),信道空闲的平均概率则为:P1i/(λii)。

    信道模型和感知模型如图1所示,设时隙长度为T,感知模块的时间为τ。为方便展示,图中只描述了一个认知用户的感知情形。

tx7-t1.gif

    假设认知用户采用能量感知形式进行信道可用性感知。认知用户感知阶段接收到的信道表示为:

    H1:y(t)=u(t)

    H0:y(t)=u(t)+s(t)

    H0表示为主用户占用信道,H1表示信道空闲状态,u(t)和s(t)分别为噪声与主用户信号的抽样值,并且彼此相互独立。能量检测表示为:

tx7-gs1-2.gif

1.2 效用函数

    系统的值函数表示为:

tx7-gs3-4.gif

    其中ωn,i(t)表示当前信道空闲的概率,Bn,i表示用户n使用信道i时的信道带宽,(T-τ)表示信道空闲时认知用户传输的时间长度,ωn,i(t)exp(-λiT)表示信道空闲且时间持续为 T的概率。在此需要针对不同的用户找到相应的最优策略ρ*

    tx7-gs5.gif

1.3 干扰概率

    因为认知用户对网络环境中主用户的行为是未知的,且信道状态在感知阶段不发生变化,只在认知用户传输阶段改变。则有感知阶段信道状态为0,且持续时间T的概率为:

tx7-gs6-8.gif

2 信道参数学习算法

    图2所描述的是认知用户节点的不规则采样图。

tx7-t2.gif

    将连续时间马尔科夫链的参数估计问题转换为离散时间的马尔科夫参数估计问题,然后采用最大期望算法(Expectation-Maximization Algorithm,EMA)实现参数估计。

tx7-gs9.gif

其中tx7-gs9-x1.gif表示在采样时间间隔sk-sk-1内采样值由zk-1无间隔转变为zk的概率。假设S表示在采样空间中所有采样间隔的总个数,Oijt表示经过t个时间间隔后所观测的数据中从状态i转变为j的次数,(Pt)ij表示矩阵(Pt)中第i行第j列元素。所以估计矩阵的近似表示也可以写成:

    tx7-gs10.gif

    由对数公式可知,如果S=1则转移矩阵估计可以直接由数学公式求出,但是在本系统中使用的S远远大于1,所以提出使用EMA算法实现转移矩阵的估计。

    假定第l次的E步操作中获得P的对数似然估计值表示为P(l),此时的采样值(非完全数据)仍表示为Z,Y为未完全观测值Z构建的一个完全的数据阵,则在l+1次的E步操作中的计算表示为:

tx7-gs11-14.gif

    综上可知,通过已知的未完全观测数据以及设定初始的转移矩阵P(0)、算法收敛条件ε,然后经过式(13)和式(14)不断迭代直至最终收敛,可得出转移矩阵的估计值P。

3 基于Q学习算法Gittins索引值计算

    具体的Q学习算法的操作步骤如下:

    (1)初始化用户的Qn=(si,t,an,i,t)=0;

(2)每个用户在时隙感知阶段以概率Pt(n,i)随机地选择所要感知的信道,其中:

    tx7-gs14-x1.gif

其中T表示波尔兹曼干扰温度系数。

    根据文献[8]提出的结论,可以得出此过程中状态x的Gittins索引值为:

    tx7-gs15.gif

    (3)用户n以Pt(n,i)的概率的大小排序各个信道并从中选择一个或者多个信道进行感知,根据感知结果用户制定相应的行为策略去更新不同行为下的Qn(si,t,an,i,t),计算信道在不同行为下的Gittins索引值,并选择对其中索引值最大的一个或者多个信道进行接入、传输数据,然后根据立即回报值,更新各自的Q值:

    tx7-gs16.gif

    其中,vni表示为用户n对信道i的学习因子,其数学公式表示为:

    tx7-gs17.gif

    ωn,i,t表示为用户n对信道i空闲的信任概率值,其更新公式:

    tx7-gs18.gif

    (4)如果对于任意的信道i(i∈M),有Pt(n,i)≥0.99,则此学习过程退出,否则继续步骤(2),并以此进行其后操作。

4 仿真分析

    为验证本文提出的选择机制的优越性,设定了两种常用算法进行比较:单一的Q学习算法选择机制以及RMAB模型下常用的UCB算法。设定系统中信道数为10,用户数为4,并且不同时隙用户根据需求调整自己的选择信道的数目,使得系统内用户能够实现多信道接入(考虑到实际系统条件限制,设定每个用户最多选择信道数位3)。信道参数T=0.25 s,τ=0.01,β=0.95,用户数为3~15。

    图3显示在用户数为N=9时,不同冲突约束、不同算法中用户获得平均吞吐量的变化。从图中可以看出本文提出的信道选择机制能够很好地处理认知用户与主用户之间的冲突,使网络中各用户之间充分的使用信道资源,实现系统通信量的提升。同时,因为冲突约束越小用户选择信道的概率越小致使信道使用不充分,随着冲突约束的提升在保证用户选择的同时能够有效的避免与主用户的冲突,所以取15%作为系统冲突的限制,既能够保证认知用户选择,同时又能不对主用户通信造成干扰。

tx7-t3.gif

    图4显示了不同算法中采用不同认知用户数时系统内信道利用率的变化,从图中可以看出本文提出的算法能够取得很好的信道利用率。随着认知用户的不断增大,当用户数超过系统承受能力之后系统中认知用户之间会产生冲突,同时用户通信需求的扩大也会对主用户的通信造成影响,致使系统内信道使用率会有一定下降。

tx7-t4.gif

    图5显示的是在系统中干扰限制以认知用户数目固定的条件下(N=9,Imax=0.20),随着系统中信道数的变化,认知用户与主用户产生干扰冲突的变化情况。从图中可以看出,本文提出的机制能够在较小范围内控制认知用户的信道选择,尽量避免与主用户的通信产生干扰,从图中可以看出随着系统中信道数目的增大,认知用户对主用户的干扰逐渐减小,也就是系统中认知用户选择信道的范围增大,选择空闲信道的概率增大。

tx7-t5.gif

5 结论

    本文中应用RMAB模型来搭建未知信息参数的网络系统,然后通过EMA算法实现用户对系统内信道使用情形的初步学习,然后借助Q学习算法实现了RMAB模型下的Gittins索引值求解,制定出了认知用户的信道选择策略,同时又能通过不断学习更新自身策略,最终实现系统内信道资源的充分使用,以及保证认知用户对主用户通信干扰的可控性。最终,仿真实验从多方面证明本文提出的选择机制能够很好地提高系统通信容量,使未知环境中的信道利用率得到明显提升。

参考文献

[1] Gao Yang,Wang Yiming.Multi-channel access algorithm with channel state information unknown[C].Intelligent Computation Technology and Automation(ICICTA),2012 Fifth International Conference on.IEEE,2012:427-430.

[2] 张凯,李鸥,杨白薇.基于Q-learning的机会频谱接入信道选择算法[J].计算机应用研究,2013,30(5):1467-1470.

[3] 刘振坤,鲜永菊.认知网络中基于竞价模型的频谱分配研究[J].计算机应用研究,2010,27(3).

[4] Raschellà A,Pérez-Romero J,Sallent O,et al.On the use of POMDP for spectrum selection in cognitive radio networks[C].Cognitive Radio Oriented Wireless Networks(CROWNCOM),2013 8th International Conference on.IEEE,2013:19-24.

[5] LAN Z,JIANG H,WU X.Decentralized cognitive MAC protocol design based on POMDP and Q-Learning[C].IEEE International ICST Conference on Communication and Networking.2012:548-551.

[6] LAZAR N A.Statistical analysis with missing data[J].Technometrics,2003,45(4):364-365.

[7] GITTINS J,GLAZEBROOK K,WEBER R.Multi-armed bandit allocation indices[M].John Wiley & Sons,2011.

[8] CHAKRAVORTY J,MAHAJAN A.Multi-armed bandits,gittins index,and its calculation[J].Methods and Applications of Statistics in Clinical Trials:Planning,Analysis,and Inferential Methods,2013(2):416-435.

此内容为AET网站原创,未经授权禁止转载。