共查询到20条相似文献,搜索用时 93 毫秒
1.
2.
3.
4.
针对公安机关特别是刑侦领域的掌纹自动识别技术需求,讨论基于高分辨率的掌纹细节特征点识别方法必要性.将细节特征点匹配方法作为重点,以Cafis指掌纹系统为例,分析掌纹细节特征点匹配算法的瓶颈,并与传统硬件并行和最新的GPU并行等提高掌纹比对速度的技术方法进行对比. 相似文献
5.
在虚拟手术系统模型中,特别是脑外科手术中,由于背景图像色彩的非规则性和非均匀性,导致对脑部损伤区域的手术入刀切割点的定位不准,影响手术精度和效果。传统方法采用损伤区域差异特征信息提取方法实现入刀点定位,对脑部特征二维灰度图片缺陷边界的定位效果不佳。提出一种基于背景差分法的虚拟手术损伤区入刀点定位算法,构建了虚拟手术的总体结构模型,将背景图像和人体软组织目标图像划分为多个子块,基于直方图选择阈值对差分图像序列进行二值化,得到高斯虚拟人体器官解析模型。设计医学图像分割算法,采用背景差分技术确定手术器械与软组织发生碰撞的激励因子,快速获取碰撞点,实现对虚拟手术入刀点的准确定位。实验结果表明,采用该算法实现虚拟手术系统设计和图像重构,对手术过程中器官损伤区域切割入刀点定位准确,性能优越,视景效果较好,计算时间缩短,精度提高。 相似文献
6.
分析了中高分辨率SAR海洋图像的目标和海杂波特点. 利用舰船目标的灰度相关性和形状特性与背景杂波的差异,提出了一种基于独立联合K-分布CFAR的舰船检测算法. 算法建立了海杂波的二维独立联合K-分布概率模型,通过给定的虚警率得到检测阈值以对图像进行检测. 该算法能够极大地抑制斑点噪声和背景局部不均匀对检测带来的影响,有效地降低了虚警数,检测效果得到了明显改善. 相似文献
7.
本文研究了夜间校园视频的增强算法,采用帧亮度的补偿和融合算法。具体作法如下:(1)利用不同时间段白天帧与当前夜间帧背景亮度的比例,采取亮度参数调整的补偿方式对当前夜间视频背景进行补偿;(2)提出一种基于运动物体移动区域融合和差分的算法,对视频中的运动物体进行增强。本文基于亮度融合补偿的算法,较原始校园夜间视频,亮度、对比度和熵都得到了增强。 相似文献
8.
针对已有的基于样本块的纹理合成修复算法存在修复误差累积高的问题,重点研究了一种改进的基于样本块的数字图像修复算法。通过块匹配法与边缘驱动填充顺序的结合、全局搜索与局部搜索的结合,充分发挥修补过程中填充优先权的作用,有效地修补了图像受损区域的纹理和结构信息。仿真实验结果测试表明,与已有的传统算法相比,受损图像的修补更加完善,修复的误差累积得到了较好的改善。 相似文献
9.
10.
11.
一种新型的基于数学形态学和颜色特征车牌定位算法 总被引:4,自引:0,他引:4
在分析了车牌定位现有算法优缺点的基础上,本文提出一种新型的综合利用车牌纹理特征、颜色特征和几何特征的快速定位算法.该算法利用数学形态学充分挖掘车牌纹理特征以及消除噪声干扰.把图像分割为若干子区域,利用纹理条件和颜色条件判断,对各子区域进行独特的分类和聚类融合,最终由粗至细精确地定位出车牌所在位置,为后续车牌字符的分割识别步骤打下良好基础.实验结果表明,对于各种情况下的车牌图像,该算法都能有效地对车牌进行定位,具有定位准确率高,运行速度快,抗干扰性强的特点. 相似文献
12.
13.
《Information processing & management》2022,59(3):102919
Similarity search with hashing has become one of the fundamental research topics in computer vision and multimedia. The current researches on semantic-preserving hashing mainly focus on exploring the semantic similarities between pointwise or pairwise samples in the visual space to generate discriminative hash codes. However, such learning schemes fail to explore the intrinsic latent features embedded in the high-dimensional feature space and they are difficult to capture the underlying topological structure of data, yielding low-quality hash codes for image retrieval. In this paper, we propose an ordinal-preserving latent graph hashing (OLGH) method, which derives the objective hash codes from the latent space and preserves the high-order locally topological structure of data into the learned hash codes. Specifically, we conceive a triplet constrained topology-preserving loss to uncover the ordinal-inferred local features in binary representation learning. By virtue of this, the learning system can implicitly capture the high-order similarities among samples during the feature learning process. Moreover, the well-designed latent subspace learning is built to acquire the noise-free latent features based on the sparse constrained supervised learning. As such, the latent under-explored characteristics of data are fully employed in subspace construction. Furthermore, the latent ordinal graph hashing is formulated by jointly exploiting latent space construction and ordinal graph learning. An efficient optimization algorithm is developed to solve the resulting problem to achieve the optimal solution. Extensive experiments conducted on diverse datasets show the effectiveness and superiority of the proposed method when compared to some advanced learning to hash algorithms for fast image retrieval. The source codes of this paper are available at https://github.com/DarrenZZhang/OLGH . 相似文献
14.
Content-based image retrieval for medical images is a primary technique for computer-aided diagnosis. While it is a premise for computer-aided diagnosis system to build an efficient medical image database which is paid less attention than that it deserves. In this paper, we provide an efficient approach to develop the archives of large brain CT medical data. Medical images are securely acquired along with relevant diagnosis reports and then cleansed, validated and enhanced. Then some sophisticated image processing algorithms including image normalization and registration are applied to make sure that only corresponding anatomy regions could be compared in image matching. A vector of features is extracted by non-negative tensor factorization and associated with each image, which is essential for the content-based image retrieval. Our experiments prove the efficiency and promising prospect of this database building method for computer-aided diagnosis system. The brain CT image database we built could provide radiologists with a convenient access to retrieve pre-diagnosed, validated and highly relevant examples based on image content and obtain computer-aided diagnosis. 相似文献
15.
16.
17.
基于梯度场整体变分模型的无缝图像处理方法 总被引:3,自引:0,他引:3
提出了一种在梯度域中进行无缝图像处理的方法。在一般的整体变分模型中引入待处理区域的梯度场,得到一个扩展的整体变分模型,称为梯度场整体变分(gradient field total variation, GFTV)模型。无缝处理通过最小化模型函数来实现。基于GFTV模型的方法可应用于以下无缝图像处理:在图像中无缝地插入新的目标;无缝地修改图像中的某个区域的纹理、光照等外观;图像的无缝拼接等。 相似文献
18.
通过研究聚类算法在图像处理上的应用,提出了一种基于高斯混合模型聚类的图像检索方法。该检索方法首先提取每幅图像的特征,并以特征值为数据集建立高斯混合模型,得到所有图像的高斯混合模型。再以所有图像的混合模型参数集作为数据集,用基于高斯混合模型的聚类算法进行聚类。最后输出检索例图所在的类,即得到检索结果。 相似文献
19.
图像检索为数字图书馆的发展提供了技术支持,图书馆应重视数字化发展以提升服务质量。本文提出一种数字图书馆图像资源检索框架,并对系统的实现过程做了详细的分析。同时,在提取图像特征时提出了一种基于非下采样的Contourlet变换图像检索算法(NSCT),能够在大量图像数据中挖掘有效的特征信息。该算法首先对图像进行多尺度、多方向分解,然后计算低频和高频中不同方向的子带系数的标准差和均值作为图像的纹理特征。实验结果显示,本文提出的图像检索框架具有可行性,能够为用户提供更优质的搜索服务,并且与同类特征提取算法进行比较,该算法具有良好的检索性能和较高的查准率、查全率。 相似文献