首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
提出了一种基于文档对象模型(DOM)和网页显示属性的信息除噪方法.通过对网页内容进行结构和特点分析,把一个网页信息内容划分为信息块和噪声块两个部分,利用解析器把网页转化成DOM模型并对网页信息噪声进行判断,根据网页的显示属性对DOM模型进行简化,最终实现对DOM模型噪声信息的有效去除.  相似文献   

2.
给出了一个网页自动分类系统的设计,讨论了预处理、批量训练、特征选择等模块的设计过程。本系统采用空间向量模型作为分类模型,在分类开始前对网页信息进行了预处理。  相似文献   

3.
现在的Web程序都会涉及到众多形态各异的网页,部分网页对数据实时性提出了较高的要求,怎样更快捷地对Web页面进行数据的实时更新就显得尤为必要。提出了利用观察者模式对Web网页中的数据进行实时更新的思路。  相似文献   

4.
针对教学网页这一特定领域,提出一个基于K近邻算法的教学网页自动分类模型。该模型采用向量空间模型对教学网页的特征进行量化,并采用基于K近邻的分类方法对新的网页进行自动归类。最后通过实验数据说明该算法在教学网页的分类中是有效。  相似文献   

5.
为了解决模型更新混合试验中BP神经网络算法泛化能力较差的问题,引入了一种新方法——AdaBoost回归树算法作为混合试验中的模型更新算法.在学习阶段,选择回归树作为弱回归模型进行训练,然后将多个弱回归模型集成为一个强回归模型,最后对训练结果进行表决输出.利用在线AdaBoost回归树算法和BP神经网络算法作为模型更新算法,对一个二自由度非线性结构进行了数值模拟.结果表明,在线AdaBoost回归树算法的预测精度比神经网络高48.3%,证实了AdaBoost回归树算法比BP神经网络算法具有更好的泛化能力,并且有效消除了权重初始化的影响,提高了混合试验中恢复力的预测精度.  相似文献   

6.
在互联网越来越普及的今天,信息在人们的日常生活中占据了非常重要的地位。个人博客系统可以看作是一种在Internet上公开发布的、快速更新的个人网站系统,使用者可以简单快速地完成个人网页的创建、发布和更新,是一个方便的供广大互联网用户相互交流的平台。使用ASP技术从系统需求分析、系统功能模块设计、系统数据库设计3个方面对个人博客系统进行了设计与实现,并进行了测试,系统运行稳定,测试效果良好。  相似文献   

7.
张涛 《教育技术导刊》2009,8(6):139-140
提出了一种基于用户浏览历史的用户兴趣提取模型,它隐式地收集用户信息用于个性化搜索中,即是通过对用户兴趣度的定义,在用户的浏览历史中得到一组代表用户兴趣的网页,并设计一个聚类算法,对这组代表用户兴趣的网页进行聚类操作,从而得到能代表此用户兴趣类别的词,即用户的兴趣。  相似文献   

8.
随着互联网中网页数量的激增,网页自动分类已经成为互联网技术中亟待解决的问题。提出一种领域向量模型的设计与构建方法,设计并实现一种针对新闻网页的基于领域向量模型的网页分类TSC(Topic Sensitive Classify)算法,从新的角度解决网页自动分类问题。首先,对大量的新闻网页URL进行分析,提取新闻网页的URL特征;然后,设计一个领域向量模型,对特定领域的新闻网页内容特征进行提取;最后,结合新闻网页URL特征和内容特征对新闻网页进行自动分类。实验结果表明,TSC算法分类效果比传统SVM和ID3等文本分类算法更优。  相似文献   

9.
本通过对CBR专家系统中案例知识获取的研究,提出一个带有智能搜索同类网页信息的虚拟信息网络模型。算法将搜索路径及其相关网页与网链内容描述知识有机地结合在一起,不仅能有效地帮助完成基于深度优先的目标网页搜索工作,而且可以帮助确定各目标网页搜索的成功与否,从而使得智能搜索算法能够利用目标网页的搜索过程与结果,不断地进行自学习,积累越多越好的搜索知识,进而使得目标网页的搜索越来越准确有效。  相似文献   

10.
随着Internet的日益剧增,如何有效地对浩如烟海、形态各异的网页进行有效分类,以便人们能快速准确地获取所需的信息,已成为网络应用的一个重要的研究领域。本文在分析总结网页分类特征的基础上,提出了一种改进的基于特征选择的网页分类方法。该方法能够改善网页分类的精度,对此通过实验进行了验证。  相似文献   

11.
互联网灰色产业服务日益泛滥,而传统的网页过滤算法无法准确高效地过滤掉灰色产业服务网页。为解决这一问题,基于TF*IDF提出一种改进的网页特征提取和权重计算方法,利用因子分解机模型对网页进行分类,并以代孕网站为例进行实验和评估。实验结果表明,该方法精确率达到98.89%,召回率达到98.63%,且对海量网页的过滤能够在线性时间复杂度内完成,大大提高了灰色产业服务信息过滤精度和效率。  相似文献   

12.
传统的网页都是静态的网页。在这种情况下,用户只是被动地阅读作者所提供的信息。为实现诸如收发e- mall、网上销售、电子商务等更多功能必须使用更新的网络编程技术即动态网页制作技术。ASP和JSP就是两种常用的 动态网页开发技术。对这两种技术作各方面性能的比较,目的在于为开发人员提供一些参考。  相似文献   

13.
用电脑就是用软件!作为一名软件狂。笔每天都会去各大软件下载站查看软件更新情况,还免不了要经常收信,都不知道每天要浪费多少时间在这上面。这天在网上闲逛.发现了一个“网络信息自动侦测告知系统”工具,它是一个包含网页监测(网页数据库)、电子邮件监测、FTP监测的综合的网络信息监测系统。可不要小看了它哟.有了它,可以给你带来很多方便的哦!  相似文献   

14.
“易读性”是刺激信息的视觉特性,教学网页信息的易读性较高就意味着用户通过网页获取信息的速度较快、效果也较好。网络环境下,学习者的信息来源是一个个网页,每一个网页又都包含了大量的、丰富的多媒体信息。信息的不同呈现方式势必会对学习者的浏览速度和效果产生不同的影响,因此加强网页内知识信息的易读性设计,对于提高网络学习的效率和效果都具有重大意义。  相似文献   

15.
基于Web超链接结构信息的网页分类技术研究   总被引:1,自引:0,他引:1  
充分利用相邻网页(包括链人和链出)的相关信息,提出一种基于Web超链接结构信息的网页分类改进方法.其方法分为5步:(1)预处理训练集,提取文本信息和超链接结构信息;(2)抽取特征向量和训练一个Web页面的全文本分类器;(3)根据网页的各个人口的锚点文本和扩展锚点文本创建虚文档,用虚文档代替Web页面全文本训练一个虚文档分类器;(4)利用Naive Bayes方法协调两个分类器得到初步分类结果;(5)利用链出网页对初步分类结果进行修正,得到最终分类结果.根据改进方法实现了网页自动分类原型系统,并进行分类实验,实验表明该方法有效提高了分类性能.  相似文献   

16.
济览器的“收藏夹”中“藏”着许多“经典”的网址,但如今网页的更新速度太快了,有时今天能打开的网页明天就打不开了。遇到这种情况难道要让我们一个一个地去打开验证吗?  相似文献   

17.
分析了现有网页防篡改技术存在的问题,利用事件触发和文件过滤驱动相结合的方法设计了一个网页防篡改系统模型,并对该系统进行了安全性设计,实验测试结果显示,该解决方案可以实现实时智能恢复网页的功能,从而有效防止了网页被恶意修改,在实际应用中具有很高的应用价值.  相似文献   

18.
作为垂直搜索的关键技术之一,网页结构化信息抽取近年来得到越来越多的关注.网页结构化信息抽取通过打碎网页,从中提取"精细化"、"条目化"的信息,存储在数据库中,通过对数据库的查询达到垂直搜索"精准"的目的.已有的方法大多是基于规则的模型和基于隐马尔可夫的模型,这些方法要么依赖特定网页结构,适用性差;要么依赖大量的训练样本,训练效率低.结合垂直搜索特定领域特征词数量有限的特点和统计方法,提出基于特征词统计的结构化信息抽取技术,解决了只能抽取特定HTML标记节点和单个信息块的问题,关键信息块的抽取平均准确率为97%.  相似文献   

19.
针对当前过滤方法过滤不良信息的缺陷和不足,建立并采用三重网页过滤模型,将健康信息推荐给用户,将带有不良信息的网页过滤掉。第一层过滤采用基于关键词匹配的方法,快速识别出健康网页,推荐给用户;第二层采用基于贝叶斯的过滤方法,将第一层不能匹配的网页进行二次过滤,快速淘汰分类特征明显的网页;第三层采用SVM方法将第二层不能识别的网页进行再次过滤。该模型能合理利用上述三种方法的优缺点,发挥各自优势,提高网页过滤的准确率和正确率。  相似文献   

20.
为解决专业元搜索引擎查准率问题,研究专业元搜索引擎返回网页的专业相关度。通过独立搜索引擎返回的网页集,深度寻找除网页在独立搜索引擎位置以外的其余信息,设计一种基于遗传算法的网页专业相关度模型,并探讨模型的实现原理以及实现过程。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号