首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 781 毫秒
1.
提出一种新的纠正CORDIC算法中模因子的方法以解决传统方法所带来的电路结构不规则、系统吞吐率降低等弊端.首先根据迭代方程之间的关系,通过推导引入一个新的迭代方程,将模因子的校正过程转化为只需要移位和加法运算即可实现的简单的迭代过程.然后分析了该算法量化误差中的舍入误差所带来的影响,并提出该误差可以通过对迭代方程中的系数进行合适取值来降低.最后对提出的算法通过Matlab建模并利用Verilog HDL语言进行RTL级编程,经过综合后在FPGA上进行了验证.仿真结果表明,与传统方法相比,在相同精度条件下使用所提方法只需要额外的一个时钟周期即可达到模校正的目的,且不需要修改基本的迭代操作.因此电路实现比较规则,同时系统吞吐率变化较小.  相似文献   

2.
基于一种新的非参数方法计算了HDR (high data rate)无线网络的吞吐率容量区域. 首先把HDR吞吐率容量区域的计算问题转化为一个不带参数的数学优化问题, 然后通过贪婪算法求解得到该优化问题的解, 从而最终给出了HDR吞吐率容量区域的非参数解析刻划. 与传统的参数化方法的庞大计算量相比, 该方法的计算复杂度降低很多, 最多只需要计算N(M2-M 1)N-1个线性约束即可, 其中N为用户数, M为系统支持速率数. 数值计算例子验证了这种非参数方法的正确性.  相似文献   

3.
《嘉应学院学报》2017,(2):40-44
在蜂窝网络中,多基站间协作传输能够显著提升用户的频谱效率,但巨大的反馈开销使得该方式难以实现.文章提出了一种分布式动态小区成簇算法,该算法消除了对中央处理单元收集完整信道状态信息的依赖。并且在计算优先权函数时将矩阵乘法运算简化为标量求和运算,省略了基于信号功率与噪声干扰比值求信道容量的计算步骤,降低了运算复杂度.实验结果表明,该算法的各小区速率性能之和,明显优于静态分簇算法并且十分接近集中式贪婪分簇算法,具有较低的复杂度和信道估计开销.协作簇大小为3时,算法能够在速率性能与算法复杂度间取得最佳的效果.  相似文献   

4.
提出一种改进的并行比特翻转算法. 为了加快校验节点和变量节点之间的信息传递速率, 算法中的比特翻转及校验和更新2个步骤采用并行化处理. 仿真结果表明, 改进后的算法相对于原有的并行比特翻转算法在误帧率性能上能够取得0.1~0.3 dB的增益. 同时, 改进算法在译码吞吐率的性能上也有所改善. 此外, 还讨论了翻转门限的选择方法, 这些门限决定了每次迭代中哪些比特需要被翻转. 通过选择合适的翻转门限, 可使错误的比特尽量多地被翻转, 并避免翻转正确的比特. 该改进算法比较适用于对具有准循环结构的LDPC码进行译码.  相似文献   

5.
随着统一身份认证系统的广泛应用,解决了在大量的网络应用系统中需要进行重复性身份认证的问题,但在身份认证中用户数据信息的存储和传输存在着安全隐患.文章介绍了SHA-1消息摘要算法,并将其运用在基于LDAP的统一身份认证系统中.用户密码经过SHA-1算法加密处理后存储在LDAP目录服务器中,在用户进行身份认证时先将用户密码先进行解码,然后与LDAP目录服务中密码进行认证比对.该方法提高了用户数据信息的安全性,为统一身份认证系统的安全通信提供保障.  相似文献   

6.
基于冲突图模型形成的二进制整数规划,提出了一种蜂窝网络中支持D2D通信的无线资源分配方法.首先,提出一种频率资源分配算法,即为每个D2D链路都分配一个频率资源块.分配频率资源时将尽可能地利用蜂窝网络中的无线频率资源空间重用机会.然后,提出一种时隙调度算法,即为所有分配同一频率资源块的D2D链路进行时隙资源调度.调度时隙资源时将保证使用同一频率资源块的D2D链路之间达到长期平均吞吐率的比例公平.通过计算机仿真对所提出方法的性能进行了验证,结果表明该方法能够在蜂窝网络中实现D2D通信功能.  相似文献   

7.
针对传统时序电路中存在的冗余时钟信号问题,分析冗余时钟信号在系统中的产生条件及分布情况.研究将基于算法优化与基于电路控制的两种门控技术相融合,提出一种新的低功耗时序电路设计方法.该方法在优化算法上,引入行为卡诺图的分析设计理念,直观展现出电路中每个触发器的冗余时钟信号的分布.在电路结构上,以与非门、或门及异或门建立基本门控电路模型,抑制保持"0"或保持"1"状态下的无效触发,有效释放"α"或"β"跃变,尽可能消除系统中的冗余时钟,实现有效降低电路整体功耗的目的.文章以4位扭环型计数器为设计实例,经Quartus ii仿真测试,结果表明采用新方法设计的电路逻辑功能正确,能够实现自启动.与传统设计方法相比,能够节省更多的功耗或者提升电路性能,证明该方法的有效性和优越性.  相似文献   

8.
近年来,随着基于802.11协议的无线网络的广泛的应用,提高网络的吞吐率,成为亟待解决的问题。现有的算法以提高空间重用为目的,调整载波侦听阈值和速率或发送功率和速率。这些算法在一定程度上提高了网络总的吞吐率,但也都存在一定的弊端。  相似文献   

9.
如何提升IEEE 802.11ac无线局域网协议标准中的MAC层效率,进而提高无线局域网传输速率,是当前研究热点。提出一种基于IEEE 802.11ac协议标准新的帧聚合实现算法,该算法一方面根据系统动态速率算法选择的速率自适应地选取媒体访问控制服务数据单元聚合中的聚合帧个数,另一方面提出一种媒体访问控制协议数据单元聚合机制,该机制规定了聚合时机和聚合长度等;同时,针对由无线信道环境嘈杂性引起带宽下降导致丢包率上升的现象,引入AMPDU聚合情况下的带宽自适应机制。与现有IEEE 802.11ac聚合机制相比,该算法可提高数据帧发送吞吐率,同时又能在带宽下降时减少丢包率,增强数据发送鲁棒性。  相似文献   

10.
钱浩  徐欣 《教育技术导刊》2017,16(1):154-155
结合具体项目对信息安全的需求,研究了AES算法的实现过程。针对算法涉及的数论知识及实现步骤,对加解密算法进行了综合优化。在此基础上,设计了一种基于AXI Stream接口的加密IP核,该IP核主要是针对实际项目中需要对流数据进行快速可靠的加密要求所设计的。结合实际项目场景以及AXI Stream接口特点,IP核的设计可最大限度地减少资源消耗。IP核使用两个通道分别进行加密与解密的并行实现,经过Testbench模型仿真测试以及开发板真实环境的测试,其吞吐率可达1.12Gb/s,完全符合对速率要求较高的项目应用要求。  相似文献   

11.
由于NAND闪存具有读写速度快、效率高、功耗低等特点,因此被广泛应用于存储领域。为了提高闪存存储的可靠性,提出一种适用于NAND闪存的LDPC译码算法对其进行纠错。基于LDPC码的BP译码简化算法,结合分层算法与归一化最小和(NMS)算法,提出一种改进的行分层最小和算法。仿真结果表明,改进译码算法在不降低译码性能的前提下,减少了迭代次数,加快了译码收敛速度,更有利于硬件电路的实现。  相似文献   

12.
为解决PersonalRank图推荐算法在推荐系统应用中的效率问题,从降低时间复杂度和减少迭代次数两方面进行算法优化。首先,构建推荐系统中用户行为数据二分图和迭代推荐模型;然后,建立转移矩阵,通过矩阵运算转换传统迭代模型,求解稀疏矩阵线性方程组直接得到系统稳态,有效降低了推荐算法的时间复杂度;最后,通过确定游走概率,在不影响系统精度前提下,各节点概率值收敛前就提前停止迭代,大幅减少了系统迭代次数。实验表明,转移矩阵法推荐效率比传统迭代法提高了211倍左右,游走概率取值为0.1时精度趋于稳定。优化后的算法能有效提高推荐效率。  相似文献   

13.
OFDM系统改进的迭代联合信道估计与符号检测算法   总被引:1,自引:0,他引:1  
在正交频分复用 (OFDM)无线通信系统中 ,系统的吞吐量和数据速率受到导频因素的制约 ,这种情况在高速移动环境下尤为明显 .本文提出了一种改进的迭代联合信道估计与符号检测算法 ,以提高系统的吞吐量和数据速率 .首先降低导频功率来提高系统的吞吐量 ,然后在一个OFDM符号内 ,通过迭代进行的信道估计与符号检测来提高系统的误码率 .每个OFDM符号的初始信道估计值取自上一个OFDM符号的信道估计 ,从而该算法能有效地跟踪衰落信道的变化 ,因此导频的数目可以大大降低 .仿真结果显示 ,与传统的迭代算法相比 ,本文提出的算法能提供更好的误码性能 .  相似文献   

14.
为提高公路车辆的数据服务效率和通信服务的能量利用率,将分簇算法应用于实际环境的数据传输,提出一种新的传输机制。针对公路环境,应用分簇和数据聚合,进行了实时的双向数据协作传输在公路上的应用设计。仿真结果表明:在公路环境中,整合了分簇和数据聚合的数据传输机制能有效提高服务率、减少服务时延、提高吞吐量并减少能耗。  相似文献   

15.
Cross-layer design of energy-saving AODV routing protocol   总被引:1,自引:0,他引:1  
Since most ad hoc mobile devices today operate on batteries, the power consumption becomes an important issue. This paper proposes a cross-layer design of energy-aware ad hoc on-demand distance vector (CEAODV) routing protocol which adopts cross-layer mechanism and energy-aware metric to improve AODV routing protocol to reduce the energy consumption and then prolong the life of the whole network. In CEAODV, the link layer and the routing layer work together to choose the optimized transmission power for nodes and the route for packets. The link layer provides the energy consumption information for the routing layer and the routing layer chooses route accordingly and conversely controls the link layer to adjust the transmission power. The simulation result shows that CEAODV can outperform AODV to save more energy. It can reduce the consumed energy by about 8% over traditional energy-aware algorithm. And the performance is better when the traffic load is higher in the network.  相似文献   

16.
针对传统基于简单遗传算法的组卷系统收敛速度慢,组卷质量较差等缺陷,设计一种基于改进小生境遗传算法的自适应组卷系统。首先依照组卷约束权重比,生成适应度值较高的初始种群.其次对选择策略进行优化。引入小生境预选机制以维持种群多样性,防止过早收敛。再次根据组卷特点改进交叉算子和变异算子,根据种群进化情况,自动调整交叉概率和变异概率。最后经过若干迭代后达到终止条件,以自适应方式生成目标试卷。实验结果证明,与简单遗传算法相比,改进的遗传算法在收敛速度和组卷质量上均有显著的提高。  相似文献   

17.
通过监测系列锯切试验的主轴功率,分析锯切过程空载功率、有效锯切功率的变化规律,并结合材料去除率进行分析。结果表明,空载功率随锯切线速度增大基本呈线性增大。有效锯切功率随材料去除率呈近似线性增大。能效系数随材料去除率增大而增大,去除单位体积材料总能耗系数随材料去除率增大呈先快速后缓慢的减小趋势。总体上讲,高线速度锯切工艺直接增加空载功率,并不节能,适当提高材料去除率有利于低能耗加工。  相似文献   

18.
基于FPGA的AES-128加密芯片的设计与实现   总被引:2,自引:0,他引:2  
介绍了基于Altera公司的系列FPGA的AES-128加密算法的具体实现方案,优化了字节替换,设计了简化结构的列混合/逆列混合变换,最终实现了加解密模块的复用,从而有效减少了硬件资源的消耗.通过在芯片EP1C12Q240C8上的验证,在100MHz工作频率下,数据吞吐率达到256Mbps,而芯片规模不超过30K门.试验表明该方案能够以较少的资源获得较高的吞吐率.  相似文献   

19.
INTRODUCTION Low latency video transmission is very de manding in terms of the performance of all layers i the protocol stack. Over the last decade, research ha focused on enhancements of each individual laye without considering cross-layer interactions. Adapt ing video coding to the channel/network condition and technologies (and vice versa) (Girod et al., 2002 via the cross-layer exchange of information has onl recently been investigated. van der Schaar et al.(200 developed a cross-laye…  相似文献   

20.
为在自然环境条件下对供热负荷进行较为准确的预测,分析了对供热负荷产生影响的自然因素,利用回归分析法建立负荷预测模型。在误差较大情况下提出利用神经网络法建模,采用差分进化算法对神经网络的阈值和权值进行优化。使用经过优化的神经网络进行负荷预测,在MATLAB环境下进行仿真。仿真结果表明,采用该方法可得到更为准确的供热负荷预测模型,对供热站节能运行有一定意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号