排序方式: 共有97条查询结果,搜索用时 203 毫秒
41.
郑凤霞 《乐山师范学院学报》2013,(12):6-9
结合RBF网络模型和ARIMA模型预测的优点,构建基于RBF网络模型和ARIMA模型的混合模型,对四川省高等教育规模预测问题进行研究。采用构建ARIMA模型得出的预测值对RBF网络模型的预测值进行修正,提高了区域高等教育规模预测的精度。 相似文献
42.
针对径向基网络对训练样本要求高的情形,将粗糙集和径向基神经网络相结合,提出粗糙径向基神经网络的方法,利用粗糙集对数据进行属性规约,得到适合径向基网络要求的数据,进而提高了其训练速度以及精度。将该方法应用在瓦斯涌出量预测的实验中,并将粗糙径向基神经网络和BP网络的预测结果进行对比,可以得出粗糙径向基网络预测效果比BP的效果好的结论,同时证实该方法的可行性。 相似文献
43.
提出了把粗糙集和R BF神经网络相结合应用于农业总产值预测的方法。首先用粗糙集对影响农业总产值的多个因素进行属性约简,选择主要影响因素,去除冗余信息;然后利用RBF神经网络建立预测模型。最后对该模型的预测结果与因子分析神经网络模型的预测结果进行了比较,表明了该模型的有效性和优越性。 相似文献
44.
为了提高混凝土抗压强度预测精度,利用改进果蝇优化算法(IFOA)优化RBF神经网络的参数Spread值,建立IFOA-RBF预测模型用于混凝土抗压强度预测。模型以UCI数据库中的Concrete Compressive Strength数据集为例,以每立方混凝土中的水泥、高炉矿渣粉、粉煤灰、水、减水剂、粗集料和细集料的含量以及置放天数为网络输入,混凝土抗压强度值作为网络输出,进行仿真测试,并将结果与参考文献中的其它方法比较。结果表明:优化后的RBF网络既体现了广泛映射能力,又明显地提高了网络的泛化能力。验证了IFOA-RBF模型在混凝土抗压强度预测中的有效性。 相似文献
45.
针对现有车牌字符识别算法中存在识别时间长、正确率低的问题,提出了基于粗网格特征提取及RBF神经网络的车牌字符识别算法。该算法首先对车牌图像字符进行预处理,再将提取的车牌字符特征向量输入RBF神经网络进行训练,通过建立汉字字符、字母、字母/数字混合分类器分别对车牌字符信息进行识别,同时引入拒识别和易混字符细识别机制。实验表明,这种方法克服了BP神经网络易陷入局部最小值的问题,提高了识别的正确率,适合于对实时性要求较高的智能交通管理系统。 相似文献
46.
随着中国经济的快速发展,物流业需求快速增长,规模不断扩大,也带来了能源消耗的增长.研究中国物流业能源消费水平以及能源需求,有利于物流业节能工作的开展,缓解能源压力.本文选取了影响物流业能源需求的11个主要因素,基于径向基神经网络对2001-2012年间中国物流业能源需求相关数据进行模拟与仿真,在此基础上对2016年和2020年物流业能源需求量进行了预测,并分析了11个影响因素的重要性和测算了物流业的能源效率.研究结果表明:①2001-2012年间中国物流业能源消耗总量在不断增加,随着物流业的进一步发展,到2020年物流业能源消费总量将达到51261.92万t标准煤;②在解决物流业能源需求预测问题时,RBF神经网络比GM(1,1)预测模型,BP神经网络方法有更高的预测精度;③通过RBF神经网络变量重要性分析发现固定资产投资对物流业能源消费量的影响程度最大;④目前物流业能源效率明显低于全国能源效率,为节约能源,提高能源利用效率,物流业需要转变能源利用方式和发展模式. 相似文献
47.
提出用遗传算法优化径向基函数(RBF)神经网络,使其更接近非线性映射和更快的学习收敛速度.然后用改进后的RBF神经网络预测混沌时间序列.实验结果表明,基于RBF网络的混沌时间序列具有很强的拟合能力、误差小、取得更好的效果. 相似文献
48.
创业板公司成立时间较短、企业规模较小,其研发投入的影响因素较多,使用营业净利率、每股收益、董监高年薪、可持续增长率、资产负债率、现金流量净额和GDP这些指标,运用径向基神经网络(RBF)和逆传播神经网络(BP)方法构建一个训练完成的神经网络模型,研究发现RBF神经网络模型比BP神经网络模型具有更好的拟合、预测效果。 相似文献
49.
本文在介绍客户细分理论和数据挖掘技术的基础上,提出了一种基于聚类算法和RBF神经网络的电信客户细分模型,并通过大量现实数据的训练,得到了比较理想的细分结果,验证了模型的合理性、有效性和实用性。 相似文献
50.
针对干熄焦提升机定位系统具有多变量及存在随机电磁干扰的特点,通过采用RBF神经网络学习算法,实时在线辨识,建立被控对象的精确数学模型并用于控制,实现了当定位系统受强电磁干扰时,系统仍然能够保障提升机正常运行.应用结果表明,该智能控制系统既保证了干熄焦提升机定位系统的稳定性,又提高了对工况电磁干扰的适应性. 相似文献