时间:2023-09-14 17:44:46
开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇计算机视觉技术,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2015)30-0137-02
21世纪是国际计算机技术高度发展的时代,人们生活中的每个角落都可以看到计算机技术的身影,尤其是现代计算机视觉技术和图像处理功能发展更加迅猛,各技术分支也逐渐趋于成熟。计算机视觉技术主要指的就是利用智能计算机系统来代替人类的眼睛对现实三维世界进行辨识和理解,整个过程均是计算机自我学习的过程,而随着这项技术研究的不断深入,其不再仅仅包含计算机技术科学,同时还涉猎了包括生理学、神经学、物理学、应用数学等多门学科,为人类科技的进步提供了有效的动力。
1 计算机对视频中运动物体检测的原理概述
在现代计算机技术基础下,对视频当中的运动物体检测原理主要包括两种,分别是从微观和宏观的角度出发。其中宏观检测技术指的是当计算机截取了视频中的某一个图像,其以整幅图像为对象进行检测;微观检测技术是指在截取图像后,根据实际需求对某一区域内的图像内容进行检测。在计算机视觉技术实际应用时,其第一步就是对图像的采集,第二步是对已经采集的图像进行预分析处理,如果采用宏观检测技术则对图像整体进行分析;如果采用微观检测技术则首先将图像进行分割,然后对分割后各图像内容中出现的运动物体影像进行分析。在图像数据获取过程中应用的是背景差分法,这一技术主要是将背景和运动物体进行分离提取,以获取没有背景图像的运动物体影像数据。还可以利用帧间差分法,这种方法主要是对一个视频图像的逐帧画面进行差别比较,从而获得各帧图像上的差值,而将这些差值帧图结合起来就是一个物体在计算机视觉下的运动轨迹。现代研究者更倾向于将背景和帧间差分法进行结合运用,这样可以获得无背景下的运动物体轨迹,进而提升计算机视觉系统捕捉数据的准确性。
2 OpenCV的应用概述
OpenCV是现代计算机视觉技术当中具有开源性的视觉库,其最早是由俄罗斯Intel分公司所研发,不仅高效,而且具有兼容的优势。同时与传统IPL图像处理系统相比,OpenCV所处理的图像数据等级更高,例如在对运动物体进行特征跟踪、目标分割、运动轨迹分析以及三维模型重建等方面都有着巨大的优势。
OpenCV本身编辑的源代码是开放式的,编写过程简洁且方便,并且程序中大多数函数已经通过了汇编的最优化,使其能够更加高效地被应用。在使用OpenCV的摄像机标定模块已经为用户设计了实用性较强的接口,并且能够支持Windows界面的操作平台,使得这一技术的操作更加简便。这一技术本身操作简便,对于编程人员和检验人员个人技能素质要求并不高,视觉技术系统研发人员可以利用简便的操作来检验其设想是否能够实现,这就使得现代计算机视觉技术开发团队能够形成更好的协作研发关系,进一步提升技术研究效率。目前已知OpenCV编程系统在航空航天定位、卫星地图绘制、工厂大规模生产视觉检测等方面得到了广泛的应用,同时对于无人飞行器的视觉捕捉技术也有极大的帮助。最为重要的是OpenCV编程语言的兼容性较强,编程人员可以根据自己的意愿对源代码进行披露,并且国内也已经形成了规模较大的交流社区,给更多同行业者提供答疑解惑的场所,进一步扩大了OpenCV的应用范围。
3 基于OpenCV的计算机视觉技术
3.1 基于OpenCV下的运动物体检测技术
在常规运动物体检测技术下,均是直接通过图像背景和运动物体的区分来实现运动物体的捕捉。而基于OpenCV下的运动物体检测技术则不仅能够针对于图像背景的分离实现运动物体的观察,还可通过物体本身特定的信息来进行检测,主要包括形状、轮廓以及颜色等。这样就能够实现在复杂的背景当中将特定的运动物体完整抽离出来。其基本流程包括:首先,对影像数据当中某一时间点的图像进行捕捉,然后对这一视频图像的格式进行转化;其次,对转化格式后的视频图像进行早期处理,并将运动物体和复杂的背景区分开,降低周围各环境因素对运动物体主体图像的影响;第三,根据完成提取后的运动物体图像进行辨识,然后再从视频当中捕捉拥有相同特征的物体,并对该物体进行跟踪识别。而这一过程的实质则在于先利用图像捕捉技术对画面进行截取,然后同时利用背景差分法和帧间差分法对图像进行分割,逐帧地将运动物体完成提取出来,以供计算机进行视觉跟踪处理。
3.2 基于OpenCV的图像预处理技术
一般情况下,计算机视觉处理技术应用的环境情况较为复杂,大多数应用环境当中均有光照的变化,并且部分计算机视觉处理设备还需要在露天环境下进行工作,此时周围环境中的风、温度、光照、气候以及运动物体数量等对视频图像的采集均有着极大的影响。环境因素会使图像采集的质量大幅度降低,同时图像当中的噪点问题也难以避免,而噪点是视觉捕捉和图像处理当中最大的影响因素。因此,在基于OpenCV下的计算机视觉技术在捕捉视频图像之后先对其进行预处理,然后再由系统对运动物体进行分离、检测和跟踪。一般的预处理过程主要包括平滑度滤波、图像填充、背景实时更新等。
1)图像的平滑度滤波预处理技术
由于在实际计算机视觉捕捉过程中图像噪点是难以避免的问题,以此在对图像中运动物体进行检测前,应该相对这些噪点进行预处理,降低环境噪声对图像的影响。图像的平滑度滤波处理共分为两种方式,分别为线性和非线性。其中线性处理方式就是通过计算机处理设备的简单运算,对图像当中的噪点进行直接清除,但这一技术使用后会造成截获图像模糊不清的情况,因此仅对噪点较少的图像采用该处理方式;非线性滤波处理则是利用复杂的图像处理运算,将截获图像当中的噪点无限缩小,使其不对图像整体造成影响,并且可以有效保证图像的局部调整,但这种处理方式在运算时速度没有线性滤波处理快,因此需应用在噪点较多,图像信息较复杂的处理当中。
2)图像的填充预处理技术
这一处理技术在使用过程中运算速度较慢,主要是由于其需要对逐帧的图像均进行处理,也包括两种处理方式,分别为边缘填充和腐蚀膨胀处理。其中边缘填充处理主要指的是在确定运动物体之后,利用计算机系统自身的边缘检测处理技术,对物体的轮廓进行辨识,并利用形态学上的漫水填充方式对运动物体周围的噪点进行颜色填充,减小其对画面整体元素的影响。而腐蚀膨胀处理与边缘填充处理原理相类似,但这种处理技术主要是针对于噪点进行腐蚀和膨胀,使其在画面当中所占比例扩大,但对运动物体本身不造成影响,这使运动物体和噪点之间的差异就会更加明显,就可以将噪点的影响降到最低,但这种处理方法的效果和摄像机本身的性能、质量等有着密切的关联。
3)背景的实时更新预处理技术
在进行运动物体和背景分离过程中,计算机系统需要对图像上的背景元素进行辨识,并对其开展初始化处理,这样就能够为后期实时背景图像的差异进行凸显,以增加前景图像的效果,降低噪点对图像的影响。在运用这一技术时,首先要先对第一帧的图像进行确定,并将第一帧图像当中的背景图像元素进行辨识,然后在后期图像更新和运动物体检测过程中对背景进行实时更新处理。在更新的过程中其流程主要包括:首先,系统要对所读取的画面进行有效的判断,了解该图像是否为第一帧;其次,将Opencv处理的图像转变为单通道灰度值;第三,对转变后的图像进行高斯平滑度滤波处理,将图像当中的噪点进行去除;第四,采用形态学噪点填充技术对图像当中的噪点进行二次处理,以获得所需要更新的背景图像。
3.3 前景运动物体的提取技术
在计算机视觉技术进行运动物体的检测时,只有有效保障检测流程的准确度,才能够有效保障对前景运动物体的跟踪效果。其主要分为两大步骤,其一是对二值化后的图像数据进行分割处理;其二是在图像分析前对其进行充分的填充处理,保证前景图数据的完整性。同时,在前景图像提取的过程中也分为多个步骤,其包括:首先,对所提出的前景图像和背景图像进行差分处理;其次,将差分处理后的图像二值化处理;第三,对背景当中前景物体的轮廓或边缘进行辨识,根据前景图像的轮廓对其进行填充。由于在实际操作过程中,摄像头所处环境的变化较大,并且会在不同场所内的不同角度捕捉画面,因此就需要在前景图像提取时有效提高背景图像实时更新的效果。
利用阀值二值化的分割方式能够有效将前景图像和背景图像分离开,从而使目标运动物体能够呈现独立化,并且阀值分割方式开展前要相对每个像素点进行确定,判断其是否位于灰度值的范围内。而将该图像的像素灰度和阀值进行对比后会出现两种结果,分别是灰度值低于或高于阀值。在实际应用过程中,有效确定图像的分割阀值T,就能够降低环境当中光照因素对图像质量的影响。
4 计算机视觉技术当中的三维重建技术
1)三维重建的视觉系统
计算机视觉技术在对图像进行捕捉时可以视为是对大量的图像信息进行处理,从摄像机的视觉角度出发,其所输入的图像一般为二维属性,但输出的信息确是三维数据,而这种三维空间数据能够提升对运动物体所处空间位置、距离等描述的准确性。在三维重建视觉系统工作过程中,其相对基本的图像数据框架进行确定,然后利用一个坐标点建立2.5D图像数据,即以此点为视角能够观察到的图像数据,再将2.5D图像数据进行整合从而建立三维图像。
2)双目视觉系统
当人体利用双眼在不同角度、同一时间内观察同一个物体时,就可以利用算法来测量该物体和人体之间的距离,而这种方法也被称为双目立体感,其应用的原理主要是人体视觉差所带来的影响。同时利用两台摄像机对同一图像从不同角度进行观察,就能够获得人体双目观察后的效果,因此这一三维重建技术也被称为“双目视觉系统”。两台不同的摄像机即可代表人体双眼,其对图像进行逐帧捕获,但由于角度不同和环境影响因素的差异,因此造成了图像差异,必须对其捕捉的图像进行预处理。
3)三维重构算法
在计算机视觉技术中对于视频流的采集主要依靠的是彩色摄像机、红外摄像机、红外接收摄像头等设备。还可以利用微软所提供的Kinect设备,在进行运动物体检测前能够对NUI进行初始化处理,将系统内函数的参数设定为用户信息深度图、彩图、骨骼追踪图等数据。在使用Kinect设备对视频流进行打开时,其可以遵循三个步骤,其一是彩色和深度数据的处理;其二是根据数据的索引添加颜色信息,并将其引入到深度图数据当中;其三是骨骼追踪数据。
5 结束语
计算机视觉捕捉技术是现代计算机应用当中较为先进的内容,其应用范围较广,对于运动物体的捕捉准确度较高,能够有效推进现代计算机模拟技术的发展。
参考文献:
[1] 张海科.基于Opencv的人手识别与跟踪定位技术研究与实现[D].昆明: 云南大学,2013.
【关键词】精密测量 计算机视觉图像 关键技术
在现代城市的建设中离不开测量的运用,对于测量而言需要精确的数值来表达建筑物、地形地貌等特征及高度。在以往的测量中无法精准的进行计算及在施工中无法精准的达到设计要求。本文就计算机视觉图像精密测量进行分析,并对其关键技术做以简析。
1 概论
1.1 什么是计算机视觉图像精密测量
计算机视觉精密测量从定义上来讲是一种新型的、非接触性测量。它是集计算机视觉技术、图像处理技术及测量技术于一体的高精度测量技术,且将光学测量的技术融入当中。这样让它具备了快速、精准、智能等方面的优势及特性。这种测量方法在现代测量中被广泛使用。
1.2 计算机视觉图像精密测量的工作原理
计算机视觉图像精密测量的工作原理类似于测量仪器中的全站仪。它们具有相同的特点及特性,主要还是通过微电脑进行快速的计算处理得到使用者需要的测量数据。其原理简单分为以下几步:
(1)对被测量物体进行图像扫描,在对图像进行扫描时需注意外借环境及光线因素,特别注意光线对于仪器扫描的影响。
(2)形成比例的原始图,在对于物体进行扫描后得到与现实原状相同的图像,在个步骤与相机的拍照原理几乎相同。
(3)提取特征,通过微电子计算机对扫描形成的原始图进行特征的提取,在设置程序后,仪器会自动进行相应特征部分的关键提取。
(4)分类整理,对图像特征进行有效的分类整理,主要对于操作人员所需求的数据进行整理分类。
(5)形成数据文件,在完成以上四个步骤后微计算机会对于整理分类出的特征进行数据分析存储。对于计算机视觉图像精密测量的工作原理就进行以上分析。
1.3 主要影响
从施工测量及测绘角度分析,对于计算机视觉图像精密测量的影响在于环境的影响。其主要分为地形影响和气候影响。地形影响对于计算机视觉图像精密测量是有限的,基本对于计算机视觉图像精密测量的影响不是很大,但还是存在一定的影响。主要体现在遮挡物对于扫描成像的影响,如果扫描成像质量较差,会直接影响到对于特征物的提取及数据的准确性。还存在气候影响,气候影响的因素主要在于大风及光线影响。大风对于扫描仪器的稳定性具有一定的考验,如有稍微抖动就会出现误差不能准确的进行精密测量。光线的影响在于光照的强度上,主要还是表现在基础的成像,成像结果会直接导致数据结果的准确性。
2 计算机视觉图像精密测量下的关键技术
计算机视觉图像精密测量下的关键技术主要分为以下几种:
2.1 自动进行数据存储
在对计算机视觉图像精密测量的原理分析,参照计算机视觉图像精密测量的工作原理,对设备的质量要求很高,计算机视觉图像精密测量仪器主要还是通过计算机来进行数据的计算处理,如果遇到计算机系统老旧或处理数据量较大,会导致计算机系统崩溃,导致计算结果无法进行正常的存储。为了避免这种情况的发生,需要对于测量成果技术进行有效的存储。将测量数据成果存储在固定、安全的存储媒介中,保证数据的安全性。如果遇到计算机系统崩溃等无法正常运行的情况时,应及时将数据进行备份存储,快速还原数据。在对于前期测量数据再次进行测量或多次测量,系统会对于这些数据进行统一对比,如果出现多次测量结果有所出入,系统会进行提示。这样就可以避免数据存在较大的误差。
2.2 减小误差概率
在进行计算机视觉图像精密测量时往往会出现误差,而导致这些误差的原因主要存在于操作人员与机器系统故障,在进行操作前操作员应对于仪器进行系统性的检查,再次使用仪器中的自检系统,保证仪器的硬件与软件的正常运行,如果硬软件出现问题会导致测量精度的误差,从而影响工作的进度。人员操作也会导致误差,人员操作的误差在某些方面来说是不可避免的。这主要是对操作人员工作的熟练程度的一种考验,主要是对于仪器的架设及观测的方式。减少人员操作中的误差,就要做好人员的技术技能培训工作。让操作人员有过硬过强的操作技术,在这些基础上再建立完善的体制制度。利用多方面进行全面控制误差。
2.3 方便便携
在科学技术发展的今天我们在生活当中运用到东西逐渐在形状、外观上发生巨大的变大。近年来,对于各种仪器设备的便携性提出了很高的要求,在计算机视觉图像精密测量中对设备的外形体积要求、系统要求更为重要,其主要在于人员方便携带可在大范围及野外进行测量,不受环境等特殊情况的限制。
3 计算机视觉图像精密测量发展趋势
目前我国国民经济快速发展,我们对于精密测量的要求越来越来高,特别是近年我国科技技术的快速发展及需要,很多工程及工业方面已经超出我们所能测试的范围。在这样的前景下,我们对于计算机视觉图像精密测量的发展趋势进行一个预估,其主要发展趋势有以下几方面:
3.1 测量精度
在我们日常生活中,我们常用的长度单位基本在毫米级别,但在现在生活中,毫米级别已经不能满足工业方面的要求,如航天航空方面。所以提高测量精度也是计算机视觉图像精密测量发展趋势的重要方向,主要在于提高测量精度,在向微米级及纳米级别发展,同时提高成像图像方面的分辨率,进而达到我们预测的目的。
3.2 图像技术
计算机的普遍对于各行各业的发展都具有时代性的意义,在计算机视觉图像精密测量中运用图像技术也是非常重要的,在提高图像处理技术做以提高。同时工程方面遥感测量的技术也是对于精密测量的一种推广。
4 结束语
在科技发展的现在,测量是生活中不可缺少的一部分,测量同时也影响着我们的衣食住行,在测量技术中加入计算机视觉图像技术是对测量技术的一种革新。在融入这种技术后,我相信在未来的工业及航天事业中计算机视觉图像技g能发挥出最大限度的作用,为改变人们的生活做出杰出的贡献。
参考文献
[1]汤剑.周芳芹.杨继隆.计算机视觉图像系统的技术改造[J].机电产品开发与创新周刊,2015,14(18):33-36.
[2]马玉真.程殿彬.范文兵,计算机视觉检测技术的发展及应用研究[J].济南大学学报,2014,18(23):222-227.
[3]李华.基于计算机视觉图像精密测量的关键技术分析[J].电脑知识与技术,2013(05):1211-1212.
一、计算机视觉检测技术含义
计算机的视觉又叫做机器视觉,通过利用计算机或者是其他的一些机械设备来帮助人们视线事物到图片的过程,从而进行三维世界的感知活动。计算机的快速发展,离不开神经心理学,心理学和认知科学方面的研究和发展,计算机视觉检测技术的发展方向就是对周围的三维空间进行感知和分析。一旦能够拥有这种能力,计算机不仅能感知到周围的总体环境,而且,还能够具有对物体进行描述,识别理解和储存的能力。
二、计算机视觉检测的基本原理
要实现人工智能对视觉的计算机处理是很重要的方面在计算机视觉应用领域中如果要让我们的计算机明白图像的信息就必须经过一系列的处理过程―――数字图像处理.数字图像的处理包括5个步骤:图像预处理(去除噪声)、分割处理分割后区域、测量、图像判读、图像技术.根据抽象程度和处理方法的不同图像技术可分为三个层次:图像处理、图像分析和图像理解.这三个层次的有机结合也称为图像工程.而计算机视觉(Computer vision)则是用计算机实现人的视觉功能对客观世界三维场景的感知、识别和理解.视觉检测按其所处理的数据类型又大致可分为二值图像、灰度图像、彩色图像和深度图像的视觉检测.另外还有X射线检测、超声波检测和红外线检测。
作为新兴检测技术计算机视觉检测充分利用了计算机视觉研究成果采用像传感器来实现对被测物体的尺寸及空间位置的三维测量能较好地满足现代制造业的发展需求.与一般意义上的图像处理相比计算机视觉检测更强调精度、速度和无损性以及工业现场环境下的可靠性.例如基于三角法的主动视觉测量理具有抗干扰能力强、效率高、精度合适等优点非常适合制造业生产现场的在线、非接触产品检测及生产监控.对人类视觉感知能力的计算机模拟促进了计算机视觉技术的产生和发展制造业上获取这些信息的目的有:(1)计算出观察点到目标物体的距离;(2)得出观察点到目标物体的运动参数;(3)甚至可以判断出目标物体的内部特性;(4)推断出目标物体的表面特征有时要求形成立体视觉。
三、亚像素检测技术
随着工业检测等应用对精度要求的不断提高,像素级精度已经不能满足实际检测的要求,因此需要更高精度的边缘提取算法,即亚像素算法。亚像素级精度的算法是在经典算法的基础上发展起来的,这些算法一般需要先用经典算法找出边缘像素的位置,然后使用周围像素的灰度值作为判断的补充信息,利用插值、拟合等方法,使边缘定位于更加精确的位置。现在的亚像素提取算法很多,如重心法、概率论法、解调测量法、多项式插值法、滤波重建法、矩法等。由于这些算法的精度、抗噪声能力和运算量各不相同,他们的应用场合也是各不相同的。
边缘是图像的基本特征,所谓边缘是指图像中灰度存在阶跃或尖顶状变化的像素的集合,边缘广泛存在于物体与物体、物体与背景之间。图像测量是通过处理被测物体图像中的边缘而获得物体的几何参数的过程,边缘的定位精度直接影响最终的测量结果。因此,图像边缘提取方法是检测的基础和关键之一。在视觉测量领域中,早期使用的都是像素级边缘检测方法,例如常用的梯度算子、Lapacian算子和门式算子等。以上的边缘检测方法的精度可以达到像素级精度,即可以判断出边缘位于某个像素内,但不能确定边缘在该像素内的更精确的位置。如果一个像素对应的实际长度较大,就会产生较大的误差,传统的整像素边缘检测方法就不再适用。
四、计算机视觉检测技术在机加工零件检测中的应用要素与过程
(一)曲阵CCD相机
面阵CCD是本项目图像采集系统中的主要设备之一,其主要功能是采集实验图像。该CCD相机主要由CCD感光芯片、驱动电路、信号处理路、电子接口电路和光学机械接口等构成。
(二)工业定焦镜头
在图像测量系统中,镜头的主要作用是将目标聚焦在图像传感器的光敏面上。镜头的质量直接影响到图像测量系统的整体性能,合理选择并安装光学镜头是图像测量系统设计的重要环节。
(三)数字图像采集卡
随着数字信号处理技术和嵌入式处理器技术在图像采集卡中的应用,使得图像采集卡向高速度、多功能和模块化方向不断发展。这类图像采集卡不仅具有高速图像采集功能,同时还具备部分图像处理功能,因此又可以称之为图像处理卡。
(四)标定板
为提高测量精度,需要进行摄像机标定。标定过程中,采用NANO公司的CBC75mm}.0型高精度标定板,外形尺寸为75mmx75mmx3.0mm,图形为棋盘格,其尺寸为2.0mmx2.0mm,精度为1级,即图形尺寸精度与图形位置精度为。
(五)背光源
背光方式只显示不透明物体的轮廓,所以这种方式用于被测物需要的信息可以从其轮廓得到的场合。因此,为精确提取轴的图像中的边缘特征,需采用背光源。为使图像边缘更锐利,光源颜色选择红色。
五、结语
随着计算机技术和光电技术的发展,已经出现了一种新的检测技术―基于计算机视觉的检测技术,利用CCD摄像机作为图像传感器,综合运用图像处理等技术进行非接触测量的方法,被广泛地应用于零件尺寸的精密测量中。本文以面阵CCD为传感器,研究了零件在线测量的方法,实现了零件尺寸的图像边缘亚像素定位测量,对面阵CCD在高精度测量方面的应用作了进一步的探索和研究,为面阵CCD在复杂零件尺寸高精度测量的实现打下了基础。
【参考文献】
随着计算机技术和网络技术的飞速发展,计算机已深入到社会的各个领域,并深刻的改变人们的工作、学习和生活方式。信息的获取、分析、处理、、应用能力已经成为社会中人们的一个必备的技能。多媒体技术也在发生着日新月异的变化,包括这多媒体技术的基本概念、图像、音频、视频、动画的常用处理工具等。其中人脸检测与识别技术在计算机视觉方面也是尤为重要的,人脸检测与识别技术主要是用于身份信息的识别,也可以用来对个人的隐私信息通过识别来进行保护。
诞生于20世纪40年代的电子计算机是人类最伟大的发明之一。并且一直以飞快的速度发展着。进入21世纪的现代社会,计算机已经进入各个行业,并成为各行业必不可少的工具。如今的计算机发展的更加智能化,就如今来说,人们最什么事情都非常重视信息,人类和社会的发展,时刻都离不开信息。计算机如今重视的方面就是对信息的阅读和控制,人脸检测与识别技术也是应运而生。
人脸识别的论述
人脸识别是人类视觉中的一大特色,因为能对身边的人进行识别,才不会对身边的信息进行混淆,简单来说,根据人脸可以对人的年龄,性别进行初步判断。随着计算机技术的智能化,计算机业已经通过视觉能进行人脸的识别。其中在对人脸识别的同时进行有关信息的收集、识别、提取、变换、存储、传递、处理、检索、检测、分析和利用等技术。如今人脸识别已经应用于很多的领域,但是要人脸检测与识别是需要基于本来已经收集和整理的信息本库才能进行。再加上现在计算机技术虽然已经接近成熟,然而在人脸识别方面的表情传达出什么信息还是无从下手进行编程和设计。所以,基于计算机视觉的人脸检测与识别技术还是会有很广的发展空间,再加上人脸识别还可以维护人们的财产安全和隐私保护,必然会引起社会各界人士的广泛关注。
从19世纪末开始就已经有人对人脸识别进行了研究,因为当时没有先进的科学技术做后盾,所以经过了数百年的研究仍然没有什么显著的进展和成果。直到20世纪90年代人脸识别才成立了自己的学科,在加上当时的科技发展水平已经达到了不错的水平,人脸识别这个学科得到了快速的发展。如今,我国的计算机技术也已经居于世界的前列,我国也已经拥有比较完善的一套东方面孔的人脸数据库。
人脸识别在发展过程中大概经历了三个阶段:第一阶段就是对人脸特征进行整理,整理出所需要的数据库,并且应用当时的计算机技术做出一套质量不错的人脸灰度模型,这个阶段的识别工作全部由操作人员来完成;第二阶段比第一阶段要先进,有了基础人机互交,将人脸的特征经过多维度的矢量在模型上表示出来,并也可以设计出一套人脸识别的系统,这个阶段的识别不再是仅仅依靠操作人员,而是操作者和计算机一起完成;第三个阶段是计算机智能识别的最高峰,一切操作和识别都依靠机器全自动化进行,在人脸识别过程中也不再是每台计算机都需要完成一整套的工作,也实现了计算机与计算机之间的互联,多台计算机一起完成人脸识别的过程,都人力也是一种解放。
积极践行人脸检测识别技术
人脸检测识别技术是计算机实现智能化特征后的又一重要发展方向之一,它已经在世界范围内得到了广泛的普及与应用。人们可以通过人脸识别来进行定位,来起到保护人们财产安全的作用,通过人脸识别来抵制社会中的造假率,之前曾经有一些不法分子利用假身份来做损害公共利益和侵犯人们隐私权的事情,有了人脸识别让不法分子没有可乘之机,也应用人脸识别来对财务密码进行联系,起到对人们的财产有绝对的保护作用,对社会的安定何尝不是一项有意义的发明。
人脸识别一直是计算机智能化发展过程中的一个重要领域,因为人脸的识别与检测是一个很难做到完善的项目,由于人类的面部表情丰富,要对人类的面部表情做出判断和分析会存在一定的困难。再加上人脸识别的过程中,每个独立存在的个体都有一张专属于自己的脸。它的轮廓没有明显的特征界限,同时对眼、鼻子、嘴等器官在脸上的分布情况也没有明确的界限,这就使得对人脸识别来进行算法设计有一定的困难,所以只有通过轮廓特征来进行初步的判断,分辩出各种器官,再根据器官来完成人脸的分布情况设计灰度模型的完成工作。
随着红外光的可利用率提高,也应用到了人脸识别的领域,在人脸识别过程中也加入不同光的效果来识别人脸,使得如今的人脸识别的准确度有了明显的提高。但是光的效果是不可控的,在环境不适宜和用户不配合的情况下,利用红外光技术来进行人脸识别又会将准确度拉到很低的成度。因此,在人脸检测与识别方面仍然有一些尚未解决的问题,值得人们关注和探索。
科学的进步、时代的进步,必将给发展赋予新的内容。这个社会已经成为了一个信息化社会,信息化代表了一种信息技术被高度重视,信息资源被高度共享,从而使得人的智力和潜力以及社会物质资源潜力被充分发挥。在这个信息化社会中最重要的就是信息。个人信息已经成为在社会中必备的物质。如此看来信息的保护也成为了发展的头等大事,基于计算机视觉的人脸检测与识别技术也有了发展的独特性,它的独特性由这个时代所决定。
关键词:计算机视觉;课程创新;教学改革
中图分类号:G642.0 文献标志码:A 文章编号:1674-9324(2016)20-0118-02
计算机视觉课程是人工智能学科的分支学科,对互联网技术的发展有着重要的推进作用。随着时代的飞速变迁,越来越多的学生对这一领域产生了浓厚的兴趣,计算机视觉课程在信息专业中也开始占据重要的地位。如何让学生对这门课程保持长久的兴趣,如何培养学生的专业能力和实践能力,是当前高校应该考虑的问题。经过近几年的教学实践后,很多高校已经逐步确定了通过实际应用培养学生兴趣的教学方法,在满足学生对计算机视觉应用需求的同时,加深了学生对理论知识的理解,这已经成为了当前高校计算机视觉课程教学的重要模式。
一、计算机视觉课程的特点
近年来,随着计算机网络的飞速发展,计算机视觉的应用也越来越广泛,成为了信息相关专业学生的一门必修课。计算机视觉课程涉及众多领域,包括人工智能与模式识别、应用数学等,其覆盖范围广,综合性较强。具体来说,计算机视觉课程有以下几个特点:一是内容广泛,理论抽象。计算机视觉是一门新技术,随着时代的变迁,互联网新技术的更新日新月异,这就使得课程内容的更新过快,内容广泛,教师很难在第一时间向学生输送所有的课程知识。二是计算机视觉课程涉及多个学科领域,并且所涉及的领域知识内容复杂,表达抽象,这对学生的学习来说是一个较大的障碍。三是实践性强。计算机视觉课程的知识内容来源于各种专业不同的领域,操作性极强,学生只有在具有一定的工程项目综合能力后,才能进行计算机视觉应用和操作。
二、计算机视觉与计算机图形学、数字图像处理之间的联系和区别
1.计算机视觉与计算机图形学的联系与区别。计算机视觉一般输入的都是图像或图像序列,其输入资料主要来自usb摄像头或是相机。经过处理后,计算机视觉输出的是对图像序列和图像对应的对真实世界的一种理解,在这一方面,计算机视觉有识别车牌、人脸的作用。而计算机图形学则是一种对虚拟场景的描述。它一般是由多个多边性数组组成,每个多边性有三个顶点,输出的是二维像素数组。在增强现实的应用中,人们不仅需要用计算机视觉来提高对物体识别和姿态获取的效率,还需要用到计算机图形学对虚拟三维物体的叠加方法。
2.计算机视觉与数字图像处理的联系和区别。首先,计算机视觉与数字图像处理之间的联系在于数字图像处理是计算机视觉处理的基础,而计算机视觉的研究成果也可以作为数字处理的素材。其次,计算机视觉与数字图像处理之间的区别在于图形是一种纯数字化、矢量的单位,而图像则不仅包括图形,有时还包括来自现实世界的信号,并且图形的处理不是一种简单的堆积,计算机视觉的处理要从图像中找到一些统计数据和信息,并做进一步的数据分析。
三、高校计算机视觉课程教学的创新策略
1.以工程应用为导向的课程内容。鉴于学习本课程的学生在毕业之后多数会进入相关工程企业或者研究院工作,因此,在对学生进行培养时,高校一方面要考虑到学生的知识接受度,另一方面要设置以工程应用为导向的课程内容,帮助学生更好的进入企业或研究院开展工作。高校在进行计算机视觉课程教学创新时,首先要创新课程教材,摒弃以往枯燥的理论书籍,多选取一些实践性和应用性强的教材。考虑到国内教材的滞后性和学生基础的薄弱性,高校应该选择以下两本书作为学生的专用教材:一本是我国著名教授贾云得编纂的《机器学习》,这部教材深刻体现了时展的教学要求,书中不仅详细讲述了计算机视觉中的一些基本知识,包括计算机视觉的基本概念、算法及其应用,还有一些经典的数字图像处理方法和视觉应用分析,对学生了解基础知识和实践内容有着重要的意义;另外一本是国内外十分推崇的计算机视觉著作,它是美国教授Richard Szeliski教授的作品。该书在2010年出版,获得了众多业界人士的好评。Richard Szeliski教授是华盛顿大学的兼职教授,也是微软研究院交互视觉与多媒体的主任,他对计算机视觉的发展和未来走向十分清楚,也深刻了解产业界和大学需要什么样的计算机视觉课程教材。因此,这本教材面向应用,与当今最新的科技成果紧密相连,综合论述了计算机视觉在各个领域的发展,展示了计算机视觉的最新研究成果和未来的发展趋势。此外,本书中还有详细的国外研究案例和更加深入的应用案例,适合学生开展探究性学习。两本教材都是遵循以工程应用为导向的原则,对学生开放性思维的培养有着重要的意义。
2.面向科技最新成果的课程定位。计算机视觉是一门新技术,科技创新是其发展的原动力,因此,高校在进行课程安排时,应该将当今计算机视觉领域的重要的科技成果作为计算机课程的基本教学内容。要想以科技最新成果定位计算机视觉课程,高校要做到以下两个方面:(1)选取涵盖最新成果的教材。考虑到不同学生的数字图像处理基础不一的问题,学校可以在课程中补充一些有关数字图像处理的基础内容。在选择教材内容时,计算机视觉课程的内容应该包括数字图像处理、视觉学习和模式识别这三大部分。数字图像处理是视觉课程的基础内容,主要向学生介绍数字图像处理和计算机视觉所涉及的一些基础知识,包括图像的分割和检测、图像滤波的处理等。数字图像处理是整个计算机课程学习的重要基础内容,其课时可占总课时的二分之一。其次,视觉部分是近几年来计算机视觉的最新科技成果,内容主要包括摄像机的几何设定和计算机摄影机的序列处理等。作为最前沿的科技领域,视觉部分将会是该课程后期的重点内容,与实践作业紧密结合。而模式识别则更多的是新技术的一种工程应用,学生会更多的涉及到实践操作,更好的培养学生的实践能力。(2)强化学生自学和调研能力。课程调研和实践是信息专业学生强化能力的重要方法之一,高校可以在课程项目中引入新技术的探究,在使课程在具有基础性、研究性的同时,具有一定的前沿性,还能让学生在第一时间了解到最新的科技成果和互联网应用技术。在课程调研和实践中,高校必须要强化学生的自学和调研能力,在调研时给每一个小组安排一位高年级研究生作为指导,每组学生独立完成任务,高年级研究生只做引导和辅助的作用。学生在自我设置调研程序,查找资料,理解和熟悉相关程序的时候,能够更加掌握最新科技成果的内容,同时还提高了学生的自学能力和团队协作能力。
3.工程实践化的教学形式。工程项目综合能力是信息专业的学生必须具备的素质之一,因此在计算机视觉课程的教学过程中,培养学生的工程实践能力是教学目标之一。高校可以采取以下两种方法:(1)选取适当的工程实例。对于信息专业的学生而言,计算机视觉课程各个独立的算法和方法较多,彼此没有过多的联系。这对学生来说过于抽象,不易理解,因此教师不应当仅仅限于知识的传授,还应该选取一些适当的工程实例,将知识体系串联在一起,加深学会对教学内容的理解,从而达到良好的教学效果。例如,在教学过程中,教师可以着重介绍手机制造的例子。手机是现在学生十分熟悉的产品,用手机举例更加贴近学生的生活,教师可以详细介绍手机键盘和主板的制造过程,并在这一过程中将所学的算法和理论融合进去,加深学生对知识的理解。其次,教师在手机讲解时,还可以引导学生思考类似的产品制造,从而引出数码相机的制造原理,和学生一起探讨其制造算法。这种做法不仅可以帮助学生学习,还可以让学生拓宽思路,发散思维,不断创新计算机视觉领域。(2)选择合适的实际应用。计算机视觉课程是一门实践性和操作性极强的学科,因此,为了学生更好的学习,教师要将理论工程实践化,选择合适的实际应用来提高学生的实践能力。教师可以安排学生进入手机制造厂房,给学生上一堂别开生面的实践课,详细介绍每个制造流程,并向学生不断抛出与课程有关的问题,引发学生的思考,比如选择什么样的模板匹配法可以更为简单。学生在不断的解答和提问中,对学科知识的了解也会逐步加深。其次,高校可以建立专门的实训基地,学生可以在基地里实践操作,将理论转化为实物,亲自尝试做出模型,这种做法可以极大地提高学生的实践能力,使学生更快的将理论转化为实际。
四、结语
在新形势下,高校应不断创新计算机视觉课程的教学模式,并以此展开教学活动,培养学生的实践能力和创新精神。将工程应用和科技最新成果结合的教学模式,有利于解决理论和实践相脱节的问题,在增强学生学习兴趣、提高学生独立分析能力的同时,还使学生接触了国际最新的研究成果,拓宽了学生的思路,这对学生未来的发展有着重要的意义。
参考文献:
[1]郭小勤,曹广忠.计算机视觉课程的CDIO教学改革实践[J].理工高教研究,2010,(05).
[2]伦向敏,侯一民.高校《计算机视觉》课程辅助教学系统的研究[J].教育教学论坛,2012,(18).
[3]陈芳林,刘亚东,沈辉.在《计算机视觉》课程中引入研讨式教学模式[J].当地教育理论和实践,2013,(07).
[4]杨晨.视觉传达设计专业插画设计课程创新与实践人才培养机制探究[J].艺术科技,2015,(05).
[5]蒋辰.基于数字媒体环境的视觉传达设计专业综合实验课程改革探证[J].文艺生活:中旬刊,2015,(07).
[6]张胜利.视觉传达设计专业中色彩风景写生课程多元立体化教学模式的构建[J].美术教育研究,2015,(08).
关键词: 危险气体罐车; 液位检测; 计算机视觉; 报警系统
中图分类号: TN948.64?34; TP216 文献标识码: A 文章编号: 1004?373X(2016)22?0067?0
0 引 言
随着自动化测试技术的发展,采用智能测试和计算机视觉方法进行液位检测和监控,借助的物理场有超声波、微波雷达、射线及激光等,能实现高低位报警功能,在工业控制场合中,固定位置处的液位监控是保障工业控制安全的重要技术,特别是在危险光车的运输过程中,需要对危险气体罐车的液位进行实时监控和识别,通过感应元件实现对液位的准确检测,通过检测发射和接收的时延来确定液位的高度。随着计算机视觉处理技术的发展,以及图像处理技术的应用,采用计算机视觉部监控方法进行危险气体罐车的液位监控识别成为未来实现液位准确监测和定位的重要发展方向,研究基于计算机视觉的危险罐车的液位检测监控报警系统,在保障危险罐车运输安全方面具有重要意义,相关的系统设计方法受到人们的重视[1?3]。
目前,对液位的检测方法按照测量液位的感应元件与被测液体是否接触,其可分为接触型和非接触型两大类。通过人工检尺法[4?6],加装浮子测量装置进行液位检测,微波雷达、射线及激光主要是应用在检测罐体为危险物质,将微波发射器和接收器安装在罐顶,利用超声技术并结合数字信号处理算法进行液位检测[7?9]。但是,上述设计方案因无法找到超声信号为零的位置,所以考虑使用灵敏度相同的另一液位检测传感器作为参考通道进行自适应噪声抵消,参考液位检测传感器应放置在对目标反射信号较小,更多的反映液位反射的超声信号的位置,但是对电磁波、光波等超声无法穿过的介质,液位检测的精度不高[10],难以实现有效的监控识别和报警。针对上述问题,本文进行危险气体罐车液位监控识别报警系统的改进设计,首先进行了液位检测原理分析,构建系统装置的总体结构模型,然后进行了危险气体罐车液位计算机视觉监控识别报警系统的硬件模块化设计和软件设计,最后通过实验分析验证了本文设计的液位监控识别报警系统的优越性能,得出有效性结论。
1 液位计算机视觉监控识别报警系统的总体设计
根据上述液位检测弊端分析,进行危险气体罐车液位计算机视觉监控识别报警系统设计,首先分析系统设计的总体架构模型,系统设计包括了系统的硬件设计和软件设计部分。硬件设计中,主要是在计算机视觉环境下完成液位视觉特征的获取,并对接收到的视觉特征进行相应的处理。本系统的硬件部分主要是数据采集和数字信号处理。接收探头采集的视觉特征通过信号采集电路进行高分辨率的A/D采样,液位视觉的差异性可以通过对分辨率和采样率的大小来判断。在对液位检测的超声信号检测的基础上,设计自适应滤波器进行信号滤波,通过自适应均衡方法得到基于视觉传感器的液位检测特征,为系统设计提供了准确的数据基础。因此,采集电路的设计必须采用高分辨率,硬件电路设计中,包括确定DSP处理器型号、Visual DSP++集成开发环境、器件以及连接关系。根据I/O设备的数据采集量确定液位监控识别系统的分辨率和基线恢复性能,采用ADI公司的ADSP21160处理器系统作为计算机视觉监控识别的主控芯片,数字信号处理器主要完成对整个硬件系统的电路控制,根据设计的功能指标得到本文设计的监控系统的计算机视觉的像素值的系统最低采样率为1 024 MHz, 则DSP的最低速度应大于[25×20=500 MHz]。
在进行罐体液位监控中,研究的罐体的厚度分别为5 mm平面罐体,20 mm平面罐体。由于本文构建的系统是一个高采样率的数据采集系统,在进行液位监控识别报警中,需要利用C8051F处理器发射频率为120 kHz左右的脉冲序列,作为原始声信号数据存入计算机系统,以此进行监控识别,根据上述描述,得到系统设计的模块构架如图1所示。
2 系统的设计与实现
2.1 硬件电路设计的指标分析
在上述进行了危险气体罐车液位计算机视觉监控识别报警系统的液位检测原理分析和系统设计总体构建描述的基础上,进行系统的硬件设计,系统的硬件模块主要包括了超声信号A/D采样电路、时钟电路、滤波电路、程序加载电路和电源电路等。系统的设计指标描述如下:
(1) 危险气体罐车液位计算机视觉监控识别报警系统的输出信号幅度
(2) 监控系统的整体功耗
(3) 计算机视觉监控接收机采样率不低于12 MHz;
(4) CAN总线对无液状态采集数据采样分辨率不低于8位;
(5) 有液状态采集数据中具有高压控制功能;
(6) 具有基线恢复功能。
根据上述设计的指标,进行硬件模块化设计。
2.2 系统硬件模块化设计与电路实现
首先设计图像信号A/D采样电路,A/D采样电路是实现罐车液位计算机视觉监控识别报警系统设计的基础,通过A/D采样电路上传图谱数据,使用AD公司一款高性能A/D芯片AD9225对上一个缓冲区数据进行峰值检测,利用A/D芯片内的采样保持器和参考电压进行计算机视觉特征监测和液位脉冲数据采样,结合视觉特征在危险气体罐车中传播可以进行信号转换,通过A/D采样电路转化为计算机视觉监控系统能识别的数字信号,A/D芯片通过时钟把脉冲信息输入到罐体液位监测系统的中央处理单元,数字输出包括12位数字输出和一个溢出指示位,采用多样化的数据捕捉和传送模式,罐车液位计算机视觉监控识别报警系统的PPI的所有操作与A/D、D/A转换器、视频编码/解码器进行并行串口通信,由此实现控制信号的无帧同步、内部触发。根据上述设计,得到罐车液位计算机视觉监控识别报警系统A/D采样的时序逻辑如图2所示。
罐车液位计算机视觉监控识别报警系统的输入超声信号采用的是单端输入,耦合方式可以是交流耦合,通过上述逻辑结构,构建A/D采样电路如图3所示。
图4中,WDO引脚产生的超声波将发生反射纵波(或横波),利用多层介质中超声波的传播规律进行计算机视觉监控识别,实现对罐体液位状态的检测。
2.3 软件算法的设计
由于是单峰液位突变特征,因此,可结合角点检测的特点,利用Harris角点检测方法能够实现丙烯聚合过程中非正常液位的检测和识别。角点能够描述液位图像中两个边缘的相交点,Harris角点检测方法主要通过液位图像中的特征点形状进行非正常液位的检测和识别,即使液位的颜色发生变化仍能进行有效的检测。
设置液位图像[I(x,y)],对其进行平移[(Δx,Δy)]后图像具有自相似性,这种自相似性能够用自相关函数进行评价,其公式如下:
[c(x,y;Δx,Δy)=(u,v)∈W(x,y)ω(u,v)[I(u,v)-I(u+Δx,v+Δy)]2] (1)
式中:[W(x,y)]为以[(x,y)]为中心模板的窗口;[ω(u,v)]为加权函数,可以将其设置为常数或者高斯函数。对泰勒公式进行展开,能够得到:
[I(u+Δx,v+Δy)≈I(u,v)+Ix(u,v)Δx+Iy(u,v)Δy =I(u,v)+[Ix(u,v)Iy(u,v)]ΔxΔy] (2)
则:
[c(x,y;Δx,Δy)=ω(u,v)[I(u,v)-I(u+Δx,v+Δy)]2 ≈[Ix(u,v)Iy(u,v)]ΔxΔy2ω(u,v) =[Δx,Δy]M(x,y)ΔxΔyω(u,v)](3)式中:
[M(x,y)=Ix(u,v)2Ix(u,v)Iy(u,v)Ix(u,v)Iy(u,v)Iy(u,v)2=ACCB] (4)
因此,对液位图像进行平移后得到的自相关函数能够近似于下述二次项函数:
[c(x,y;Δx,Δy)≈[Δx,Δy]M(x,y)ΔxΔy] (5)
进而能够得到丙烯聚合过程中液位的视觉方程:
[Δx,ΔyM(x,y)ΔxΔy=1] (6)
图像中液位图像的尺寸是由[M]矩阵的特征值决定的,特征值能描述液位图像中灰度变化的速度和方向。Harris角点法无需对[M]的特征值进行计算,只要计算出一个角点的响应即可,其计算公式如下:
[R=detM-α(traceM)2] (7)
式中,[α]为经验参数,通常取值为0.04~0.06。利用上述方法取得的全部Harris角点,计算全部的角点纵坐标的均值进行计算即可得到实际的液位高度,从而实现丙烯聚合过程中非正常液位的准确检测与识别。
3 系统软件开发仿真环境描述和系统调试结果分析
危险气体罐车液位计算机视觉监控识别报警系统的软件开发建立在嵌入式Linux开发系统基础上,系统软件需要实现的功能包括危险气体罐车液位超声采集、能谱测量、计算机视觉图像控制、CAN通信以及A/D采样E2PROM烧写。SPI E2PROM AT25HP512用于DSP的程序加载,正确配置DSP的SPI寄存器,采用DIP封装实现程序加载,根据上述软件开发环境,发送WREN指令直接通过烧写器烧写,进行危险气体罐车液位计算机视觉监控识别报警系统的仿真测试。首先采用层次聚类方法在计算机视觉环境下进行液位状态数据采集,然后进行信号转换,得到有液状态和无液状态下的采集结果如图5所示。
对上述原始数据进行信号处理,采用自适应滤波电路进行有用信息提取,得到提取结果如图6所示。
监控识别,由图6可见,采用本文设计的系统进行危险气体罐车的液位检测,在计算机视觉下能实时准确检测液位值,实现准确的监控识别和报警,性能可靠稳定。
4 结 语
本文进行了危险气体罐车液位计算机视觉监控识别报警系统优化设计,利用不同液位状态下声波在不同罐体环境中的传播特征的差异性,进行声波在不同罐体环境中的传播的差异性特征提取,判定液位状态。进行系统的硬件设计和软件设计,包括A/D采样电路、时钟电路、滤波电路、程序加载电路和电源电路等。通过危险气体罐车液位检测系统输入的参考信号对有液和无液的状态进行区别检测,采用计算机视觉监测方法,进行危险气体罐车液位内部状态特征的视觉监测。研究表明,该系统具有较好的液位检测性能,实现危险气体罐车液位的有效监控识别报警,具有较好的应用价值。
参考文献
[1] 刘茂旭,何怡刚,邓芳明,等.融合RFID的无线湿度传感器节点设计研究[J].电子测量与仪器学报,2015,29(8):1171?1178.
[2] 吕富勇,周瑞卿,阮世阳,等.高频磁场检测中采样保持器的设计及其性能分析[J].电子测量技术,2015,38(8):13?16.
[3] 郭静波,谭博,蔡雄.基于反相双峰指数模型的微弱瞬态极低频信号的估计与检测[J].仪器仪表学报,2015,36(8):1682?1691.
[4] JAFAR S A. Interference alignment: A new look at signal dimensions in a communication network [J]. Foundations and trends in communications and information theory, 2011, 7(1): 129?134.
[5] GOMA/DAM K, CA/DAMBE V R, JAFAR S A. A distributed numerical approach to interference alignment and applications to wireless interference networks [J]. IEEE transactions on information theory, 2011, 57(6): 3309?3322.
[6] PATCHARAMANEEPAKRON P, ARMOUR S, DOUFEXI A. Coordinated beamforming schemes based on modified signal?to? leakage?plus?noise ratio precoding designs [J]. IET communications, 2015, 9(4): 558?567.
[7] KALEVA J, TOLLI A, JUNTTI M. Weighted sum rate maximization for interfering broadcast channel via successive convex approximation [C]// Proceedings of IEEE Global Communications Conference. Anaheim, USA: IEEE, 2012: 3838?3843.
[8] LIU H, DING Z G, FAN P Z, et al. Precoding design for interference suppression in multi?cell multi?user networks [J]. IET communications, 2014, 8(9): 1534?1540.
[9] RATHEESH M, DAVID M J. System?level performance of interference alignment [J]. IEEE transactions on wireless communications, 2015, 14(2): 1060?1070.
【关键词】计算机视觉;构件;表面特征;检测
表面缺陷检测以及特征提取,所涉及的范围是非常广泛的,包括了铁轨表面缺陷、带钢表面缺陷以及织物表面缺陷等。因此加强对产品的表面缺陷提取以及质量检测显得尤为重要,目前基于计算机视觉的构件缺陷检测系统已经受到国内外研究人员的重视,如何更好地将计算机视觉技术引入到产品表面质量缺陷检测中去是未来发展的重点。笔者将在下文中就此展开详细的阐述。
1.计算机视觉的基本工作原理
1.1系统结构
计算机视觉是一项涉及范围广泛的技术,他通过图像采集装置将检测目标转化为图像信号,再经过专门性的额图像处理系统最终生成具体的表面特征。具体来讲在图像处理环节米旭涛根据图像的具体像素以及图像分布和颜色、亮度、饱和度等进行目标提取,再比照系统预设的参照值得出最终的检测结果,例如尺寸大小、颜色等师傅偶合格。计算机视觉处理系统包括了光源、镜头、计算机以及图像采集装置和处理系统等,这些系统综合组成共同推动了计算机视觉系统的正常稳定运行。
1.2计算机视觉硬件设计
计算机视觉系统的硬件平台包括了照明系统、镜头相机以及图像采集装置和工控机四个部分,这四个部分缺一不可,共同组成了整个计算机视觉系统。
1.2.1照明系统
照明系统是整个计算机视觉系统的关键,尤其是在光源和照明方案的配合上更是直接影响了整个系统运行的成败。因此在照明方案的制定以及光源的选择上应该尽可能的突出物体特征参量,综合考虑对比度以及亮度等因素,将计算机视觉系统的光源与照明方案相匹配,选择需要的几何形状以及均匀度等,同时还需要结合被检测物体的表面特征几何形状。针对构件表面缺陷的照明方案,笔者认为应该选择功率相对较大的LED光源,用低角度的方式进行照明。
1.2.2相机镜头
相机系统是成像的关键,因此在相机镜头的选择上应该适用于具体的构件。一般来说相机镜头包括了两方面内容,一是线扫,二是面扫。通过二者的综合运用实现更好地成像效果。
1.2.3图像采集卡
图像采集卡主要是指在计算机视觉系统中位于图像裁剪机设备和图像处理设备之间的重要接口。是成像的中间环节,发挥着不可或缺的作用。
2.基于计算机视觉的构件表面缺陷特征提取
基于计算机视觉的构件表面缺陷特征提取可以分为为三个重要部分,分别是图像预处理部分:主要是指针对构件进行区域的定位,将非构件的部分移出计算机视觉的缺陷提取技术中去,从而降低了后续工作的工作难度;其次是进行缺陷定位,主要是指通过特定的技术和算法将缺陷从结果当中直接分离出来。第三部分是缺陷特征的提取,也是系统处理的结果部分,是通过计算缺陷的程度以及缺陷大小,从而为后期的构件维护提供参考依据。具体来说,这三个部分的操作主要体现在以下几个方面:
2.1区域定位
区域定位是减少构件处理和选择时间的关键,能够大大提高构件缺陷提取的效率。构件的表面的基本特征和大致集合框架提取是区域定位和的第一步,要将计算机区域定位和缺陷提取结合起来,更好地实现缺陷分析。要做好构件的区域定位首先需要明确构件的基本种类和特征:一是根据构件的重用方式来说,可以分为白匣子、灰匣子、黑匣子从构件的使用范围来看又可以分为通用构件和专用构件;根据构件的粒度的大小可以分为小。中大三种不同粒度的构件;再次是从构件的功能上来看可以分为系统构件、支撑构件以及领域构件三个部分。四是从构件的基本结构特征来看可以分为原子构件以及组合构件。最后从构件的状态来说,又可以分为动态和静态构件。因此从不同种类的构件进行区域定位为视觉系统正常运行创造了优良的条件。
2.2缺陷提取
在进行缺陷提取的过程中,难免会受到客观的环境影响,比如噪声、温度以及湿度等对图像处理的结果产生影响,因此需要对区域定位中产生的区域进行滤波处理,然后再采用阈值分割的办法进行缺陷提取。具体操作步骤如下所示:
(1)计算出成像中的最小最大灰度值,并且设置初始阈值。
(2)根据阈值,结合图像的分割目标,将图像分割成为目标和背景两个部分,求导出平均灰度值。
(3)再根据新的平均灰度值计算出新的阈值。
(4)观察阈值的初始值与新阈值之间的关系,如歌二者相等则整个计算过程就结束,如果不相等,则就需要进一步计算。
通过阈值计算得出啊的最佳阈值分割效果图,能够进行初步的缺陷预判,但是初步预判当中还存在较多的不确定因素,主要包括两类,一是在边缘部分出现的细小毛刺,由于与缺陷的距离较近,因此在初步缺陷提取中容易形成误判、再次是在构件表面有一些非常细小的缺陷,这些缺陷的影响较小,不会对构件的性能造成影响,因此在进行缺陷提取的过程中需要将这两个因素排除在外,具体主要是指采用图像形态学中开运算和闭运算,从而达到对构件中的明了细节和暗色细节的过滤。具体来说缺陷的分割提取采用的是Sobel算子。主要是利用了图像像素点的上下左右灰度加权算法,对构件表面的缺陷进行检测。再采用二值图像边界跟踪法,将缺陷从构件图像中分离出来。
2.3缺陷特征提取
缺陷特征提取,又可以称之为缺陷的定量计算和定性过程,是将前期所得的数据结果以更加直观的形式展现出来,通过对比指标参数判断构件的表面质量是否合格,符合基本的生产标准。一般来说常用的表示缺陷特征的标准有以下几种:
(1)周长:周长是对缺陷的边界长度的描述,在图像特征上显示则是指构件成像上的缺陷区域的边界像素数量。
(2)面积:面积相对于周长能够更加直观地反映整体缺陷的大小,它是缺陷区域中的像素的总数,因此更高体现缺陷的影响规模。
(3)致密性:这是一个相对专业的缺陷指标概念主要是指每平方面积上的平方周仓,是一个双单位描述指标。
(4)区域的质心:区域质心是描述缺陷的影响关键也就是缺陷区域内的核心区域,是对整个区域的核心描述。
(5)最小外接矩形。
3.结语
综上所述,构件表面缺陷直接影响构件的最终使用效果,构件表面缺陷的检测应用领域也逐渐广泛,而计算机视觉技术在检测缺陷中的优越性更体现了基于计算机视觉的构件表面缺陷特征提取的研究价值。本文主要针对构件表面缺陷的检测,综合计算机视觉技术提出了具体的检测方法和检测工作原理,通过对表面缺陷的检测,力图提高构件的整体质量。
【参考文献】
[1]陈黎,黄心汉,王敏,何永辉,龚世强.带钢缺陷图像的自动阈值分割研究[J].计算机工程与应用,2002,(07).
[2]许豪,孔建益,汤勃,王兴东,刘源泂.基于数学形态学的带钢表面缺陷边缘提取[J].机械设计与制造,2012,(06).
关键词:计算机视觉;地图匹配;SLAM;机器人导航;路径规划
1概述
计算机视觉在人工智能学科占据重要地位,为自主移动机器人视觉导航做了深厚的理论铺垫。目前,机器人导航技术有很多种,传感器导航技术如里程计、激光雷达、超声波、红外线、微波雷达、陀螺仪、指南针、速度、加速度计或触觉等得到了普遍应用,与上述非计算机视觉导航技术相比较,计算机视觉导航技术如人眼般具有灵敏度高且可捕获的信息量大以及成本低等优点。由于室内相对室外空间比较狭小且内部环境复杂,所以普通移动机器人在作业过程中,完成躲避眼前障碍物、自主导航以及为自身找出一条可行路径等一系列操作会相对比较困难。计算机视觉导航技术可利用本身的摄像头获得室内周围的环境信息,实时对其周身的场景进行快速反馈,对视野前方障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文对计算机视觉导航技术进行分类研究,主要分为3类:第一类是环境地图事先已知,提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配;第二类是同时定位与地图构建,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航;第三类是不依赖环境地图,自主移动机器人不需要依赖任何的环境地图,其在作业活动时的可行区域主要取决于摄像头实时识别和检测的环境相对信息。
2环境地图的表示方法
目前,计算机视觉导航技术多采用栅格地图、几何地图、拓扑地图和混合地图构建环境地图信息。
2.1栅格地图
栅格地图,将栅格图像考虑为一矩形,均分为一系列栅格单元,将每个栅格单元赋予一个平均概率值,并利用传感信息估计每个单元内部内存障碍物的概率。构建栅格地图的优点是其地图表达形式直观,创建和维护比较容易;但当划分的栅格单元数量不断增多时,实时性就会慢慢变差;当划分的栅格单元越大时,环境地图的分辨率越低。
2.2几何地图
几何地图利用几何特征如点、直线、平面等来构成环境主要框架,需要知道这些特征在环境中信息的具置,所以几何地图通常使用其对应的三维空间坐标来表示。几何地图构建过程相对简单,保留了室内环境的各种重要信息,是基于计算机视觉的定位与地图构建算法中最常用的一种表示方式。但是为了完成环境的建模需要标记大量的特征,从而计算量也非常的大,降低了实时性,其重建的地图也容易出现与全局不一致的情况。
2.3拓扑地图
拓扑地图用许多节点和连接这些节点的曲线来表示环境信息。其中,每个节点相对应真实环境中的特征点(如门角、窗户、椅子、桌子角及拐角等),而节点之间的曲线表示两个节点对应的地点是相联通的。拓扑地图把环境信息表上在一线图上,不需要精确表示不同节点间的地理位置关系,图像较为抽象,表示起来方便且简单。机器人首先识别这些节点进而根据识别的节点选择节点与节点间的曲线作为可作业的路径。
2.4混合地图
混合地图主要包括3种形式:栅格一几何地图、几何一拓扑地图以及栅格一拓扑地图。混合地图采用多种地图表示,可结合多种地图的优势,与单一的地图表示相比更具有灵活性、准确性和鲁棒性,但其不同类别的地图结合起来管理会比较复杂,难以协调,增加了地图构建的难度。文献针对室内环境所建立的模型分为全局拓扑和局部几何表述部分,整体环境通过拓扑节点串连起来,维护了整体环境表述的全局一致性;而以每个拓扑节点为核心所采用的几何表述则可确保局部精确定位的实现,这样建立的几何一拓扑混合环境模型可将二者的优势都表现出来,使得移动机器人定位和地图构建同时进行,实现容易。
3基于计算机视觉的室内导航
基于计算机视觉的室内导航技术可利用摄像头捕获机器人周围环境的全部信息,对其周身的场景进行反馈,对障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文将计算机视觉室内导航技术主要分为3类:第一类是环境地图事先已知;第二类是定位与地图构建同时进行;第三类是不依赖环境地图。
3.1环境地图事先已知
提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配,即预存环境地图。在环境地图事先已知的导航中,路标信息保存在计算机内存的数据库中,视觉系统中心利用图像特征直接或间接向移动机器人提供一系列路标信息,一旦路标被确定后,通过匹配观察到的图像和所期望图像,机器人借助地图实现自身精确定位和导航。该导航技术过程可分为以下步骤:
a)图像获取:摄像头获取其周围的视频图像;
b)路标识别及检测:利用相关图像处理算法对图像进行一系列预处理如进行边缘检测和提取、平滑、滤波、区域分割;
c)路标匹配标志:在观察到的图像和所期望图像之间进行匹配,搜索现有的路标数据库进行标志路标;
d)位置计算:当有特征点进行匹配时,视觉系统会根据数据库中的路标位置进行自身精确定位和导航。
在基于计算机视觉的地图匹配定位过程中,主要有2种地图匹配较为典型。
①已知起点,已知地图。这种条件下的定位称为局部定位,采用的是一种相对定位的方法,如图1所示为其位姿估计过程,这种情况目前导航技术研究得最多。
②不知起点,已知地图。这种条件下的定位称为全局定位。当机器人需要重置时,通常使用这种定位方法来检索机器人的当前位置(即姿态初始化)。常用的辅助方法是在环境中添加一些人造信标,如无线收发器,几何信标,条码技术,红外或超声波接收系统进行位置识别,利用视觉系统识别自然标志,自主定位。
3.2定位与地图构建同时进行
不知起点,不知地图。SLAM技术最早由Smith等人于1986年提出,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航。在日后的导航研究中,混合地图中的几何一拓扑混合环境模型被得到广泛应用,主要用来解决SLAM问题。
2003年,在解决SLAM技术难题上,Arras等人采用基于Kalman滤波器和最邻近(nearest neighbor)匹配策略的随机地图创建方法。下面是该算法步骤:
a)数据采集:首先初始化系统,从摄像头传感器采集距离数据;
b)状态预测:视觉系统预测机器人运动状态,实时返回新位姿信息和协方差矩阵,预测地图;
c)观测:从原始捕获的信息中提取主要特征信息并将此信息返回给局部地图;
d)测量预测:预测机器人当前位姿的全局地图;
e)位置匹配:应用最邻近滤波器匹配局部地图中的观测点和预测点;
f)估计:使用扩展Kalman滤波器更新地图;
g)创建:将非相关的观测点加入地图,对机器人返回增量式地图;
h)输出地图。
制约机器人视觉系统性能的重要因素是信息实时处理的计算复杂度和处理效率,SLAM算法需要在地图密度与计算效率之间取得权衡。
3.3无环境地图
在这类系统中,机器人不需要依赖任何的环境地图信息,机器人的活动取决于其当时识别和提取出来的环境信息,这些环境信息可能是桌子、椅子和门等,不需要知道这些环境元素的绝对位置。无环境地图的导航技术典型的技术有3大类:基于光流的导航技术、基于外观信息的导航技术、基于目标识别的导航技术和基于目标跟踪的导航技术。
3.3.1基于光流的导航技术
光流是三维空间运动物体在观测成像面上的像素运动的瞬时速度,也是图像亮度的运动信息描述。光流法计算最初是由Horn和Schunck于1981年提出的,其利用二维速度场与灰度,引入光流约束方程,得到光流计算的基本算法。光流计算基于物体移动的光学特性提出了2个假设:①运动物体的灰度在很短的间隔时间内保持不变;②给定邻域内的速度向量场变化是缓慢的。如Santos-Victor等人研发了一种基于光流的robee视觉系统,该系统模拟了蜜蜂的视觉行为。在robee视觉系统中,使用单独的双目视觉方法来模拟蜜蜂的中心反射(Centering Reflex):当机器人移动到走廊两侧的墙壁中心时,左眼捕获场景的瞬时速度与右眼捕获场景的瞬时速度是相同的,几乎没有差别,那么机器人就可以知道他们在走廊的中心。如果眼睛两侧的眼睛的瞬时变化速度不同,则机器人移动到较慢的速度。在自动机器人导航的实现中,基于这个想法是测量摄像机捕获图像场景瞬时速度差异。这种导航技术只能用于室内单通道直走道导航,不能引导机器人改变方向,具有一定的局限性。
3.3.2基于外观信息的导航技术
基于外观的机器人导航方法,不需要构建真实的地图导航,机器人通过自身所携带的摄像头和传感器感知周围目标的外观信息进行自主定位和导航。其中,所述的外观信息多为目标信息的颜色、亮度、形状、空间大小和物理纹路等。机器人在导航时存储连续视频帧的环境图像信息,并将连续视频帧与控制指令相关联,从而再执行指令规划有效路径到达目的地。
3.3.3基于目标识别导航技术
为了达到目标点或是识别目标,机器人很多时候只能获取少量的图像信息。Kim等人提出了一种用符号代替导航各个位置的赋值方法。该赋值方法中,机器人执行命令如“去窗边”“去你后面的椅子旁”等。这样,通过相关的符号命令,机器人自动识别并建立路标,通过符号指令到达目标点。例如“去你后面的椅子旁”,这样的命令就是告诉机器人路标是椅子、路径向后。该导航技术的难点在于目标是否可以准确实时识别路标。第一,识别大量不同类别的物体,室内环境有许多不同类别的物体,需要将它们组织到一个在给定的容易搜索图像数据结构中去,起到容易识别是用什么度量来区分物体;第二,识别大量不同背景下的物体,一个合适的物体表达式有助于将图像组织成片断,而这些片断来自于物体的种类且与物体无关的;第三,在抽象层次上识别物体,机器人可以不需要在看到一个具体的杯子之前便能知道它是一个杯子,相关程序能够类似的物体进行识别和区分。
3.3.4基于目标跟踪的导航技术
基于目标跟踪的导航技术,为机器人构造一个虚拟地图,机器人通过摄像头获取连续的视频序定一个跟踪的目标,为了达到对目标的精确定位和实时跟踪,可以利用粒子滤波算法对需要跟踪的目标进行建模。基于粒子滤波的目标跟踪主要包含四个阶段,分别是初始化目标区域,概率转移,目标区域权重计算,目标区域重采样。在机器人导航之前,通过视频序列的当前几帧标注机器人所需要跟踪的目标,在导航时,机器人通过连续的视频帧感知周围的待跟踪目标,同时对所需要跟踪的目标散播粒子,当获取的视频帧对目标区域重采样后足以让机器人确定所需要跟踪的目标时,机器人通过确定的目标为自己规划最有效的路径到达目的地。获取视频序列目标跟踪是算机视觉领域中的重要分支,它在工业生产、交通导航、国防建设、航空导航等各个领域有着广泛的应用。
关键词:计算机视觉;课堂考勤;深度学习;MCV架构
前言
随着国家标准《智慧校园总体框架》(Smartcampusoverallframework)的,智慧校园的规划与设计成为了校园建设的重点项目[1]。而课堂考勤作为学校教学管理、学生评价的重要组成部分,随着物联网技术、人工智能和移动通信技术的水平的提高与发展,更应该向着智能化、准确化的方向发展[2]。本文研究了的当前应用的课堂考勤方式,并做了进一步的分析,最终根据社会技术的革新与发展[3],提出了一种基于计算机视觉的实时课堂考勤系统的设计。我们的主要工作是搭建了整个系统框架,包括数据库系统、服务器、计算机视觉模型、网络通信、图像采集系统、客户端和网络通信系统。
1课堂考勤方式现状
目前校园中主要的课堂考勤方式存在为两种,分别是传统的考勤方式和生物识别的考勤方式。如图1所示,其中传统的考勤方式包括点名考勤和通过校园卡进行考勤,点名考勤的方式仍然是高校中最常用的考勤手段,因它不受场地的限制,可以根据点名册直接核对现场的学生信息,但这种方式存在的缺点就是花费时间,影响上课效率,为此有些教师不进行点名,因此影响了考勤的效果。校园卡考勤解决了点名占用课堂时间的问题,但这种方式具有学生代考勤的漏洞,因为学生可以拿着别人的校园卡进行考勤。生物识别的考勤方式包括指纹考勤和人脸识别考勤,这些方式有效解决了传统考勤方式代考勤的弊端,但这种方式受设备硬件的影响,识别能力太慢,尤其是在下课后学生较多,考勤签退时容易发生拥挤等现象,具有安全隐患[4]。因此,为解决当前考勤方式存在的一些弊端,本文设计了一种基于计算机视觉的实时课堂考勤系统。
2系统设计基础
2.1系统开发环境
本文设计的实时课堂考勤系统主要是使用Python开发语言,Python是目前最流行开发语言之一,主要应用于Web服务设计、大数据、人工智能等领域,它的主要优点是开发效率高、可扩展性强、跨平台和具有可移植性等,满足了本文系统的设计要求。另外,在开发过程还用到了基于Python的第三方软件开发包,包括Flask用于搭建系统的Web服务器;PyQt5用于搭建系统的客户端;OpenCV用于系统中对图像视频的处理;Tensoflow用于开发计算机视觉模型,搭建深度学习模型,完成人脸检测和识别任务;Mysqlclient用于管理、访问、查询和更新Mysql数据库。
2.2系统开发框架
本文设计的实时课堂考勤系统通信基于Web应用,因此选择一个合适的服务架构有利于提高系统的开发和部署效率。目前较流行的Web应用主要有MVC(ModelViewController)和CMS(ContentManagementSystem)两种架构。本文使用了基于Python和Flask搭建的MVC架构[5],该架构如图2所示,主要包括模型层、视图层和控制器。使用该框架的优点是可将视图层和业务逻辑层进行分离开发,提高开发效率,方便系统的部署、维护和管理。
3系统设计方式
3.1系统总结构设计
本文设计的实时课堂考勤系统的总体结构如图3所示。根据MVC构架的设计,我们将该系统分为了模型层、控制器层和视图层,另外还包括网络通信设备。
3.2模型层设计
模型层主要是关系型数据库模,MySQL是目前使用最多的关系型数据库系统,也是学校管理系统使用最多的数据系统,为了更好地与学校管理系统兼容,我们选择了MySQL数据库,数据表之间的关系如图4所示。
3.3控制器层设计
控制器层主要包括服务器应用软件和计算机视觉模型,服务器应用软件的功能包括系统通信配置、数据业务处理和系统各模块间的调度。计算机视觉模型是实时课堂考勤系统的核心模块,基于深度学习卷积神经网络实现[6],主要作用是进行人脸检测和识别两个部分,计算机视觉模型的工作流程如图5所示。在人脸检测阶段使用VGG16检测器作为主干网络,为提高模型的检测准确率,通过引入注意力模型和多尺度特征融合对网络进行了优化,有效地从输入图片中提取人脸位置信息,得到人脸图像。在人脸识别阶段首先使用FaceNe人脸识别网络提取人脸图像的特征图,然后通过决策树算法与待检测的人脸特征进行匹配,从而识别图片中的学生信息。
3.4视图层设计
本文设计的实时考勤系统的模型层主要包括图像采集系统和客户端。目前各学校教室内都安装有监控设备,因此为节约成本和安装消耗,图像采集系统使用教室内的监控设备作为图像采集系统,负责采集教室现场图片。客户端设计首先在本系统中采用应用程序接口,然后在教学管理系统中设计图形化用户界面,通过应用程序接口调用本系统的功能,从而减少资源浪费,方便维护和管理。
4实时考勤功能的实现
实时考勤功能的实现方式如图6所示,首先系统启动后,用户可以随时更新考勤信息,比如在数据库中创建新的考勤表等。接着系统会自动读取考勤表的信息,比如课程所在教室、上课时间。然后启动考勤程序,进行签到、签退操作,并将考勤数据保存到考勤数据表中。整个系统启动完成后可以自动运行,直到关闭系统,而且可以实时进行课堂考勤。
关键词:计算机视觉;手势交互;肤色模型;静态识别
中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2016)35-0193-02
1 研究背景
随着信息化的高速发展,人们的生活也进入了网络时代。大数据,云计算也进入了人们的生活,其标志性的现象就是各类智能终端设备的不断涌现,它使人机交互的方式正发生着深层次改变。人机交互的方式正在从传统的鼠标搭配键盘的方式往触控、语音交互、动作识别等技术为主导的更自然的方式转变。其中语音与计算机视觉尤为突出,它使计算机变得更加的灵性化。而这两者中计算机视觉又更能够传情表意,它能够“看”明白用户的肢体语言或者表情。国内外的自然交互研究涉及了人脸识别、眼神识别、表情识别、手势识别、肢体语言识别等。手势识别作为一种人类普遍使用的交流方式,应用在计算机交互上能给人一种直观和自然的感觉。这种自然的输入方式把人们从传统的与输入设备接触交互方式中解放出来,使人们与计算机交互更加的轻松愉悦。
计算机视觉是让计算机可以替代人眼的技术。更进一步说,就是利用视频采集设备和电脑代替人眼对指定的目标进行识别,并进一步做出计算。其中,手势识别技术是计算机视觉的一个的重要的研究方向,它是一种常用并且合理的人机交互方式。随着计算机视觉,包括图像处理技术以及人工智能等技术,特别是虚拟现实技术的迅速发展,手势识别的实现更加成为可能。由于客观环境的多变及人手和手势的多样性,如何在限制较少的条件准确识别手势并能保证其精度、效率以及稳定性是研究的关键。
手势识别按照手势输入设备分类,可以分为基于数据手套的手势识别和基于视X的手势识别。基于视觉的手势识别中,最常见的手势分类是将手势分为静态手势和动态手势。静态手势是一种较简单的手势,当用户做出一个固定和静止的动作时计算机将其处理后识别出来。动态手势相对要复杂一些,它可以看做是由一系列的静态手势组成的序列。如果将静态手势和动态手势组合,将可以形成语义很丰富的手势系统。
1目前人机交互的不足
人与计算机之间的交互方式是人机交互研究的核心。从现在的姿势交互和语音交互往前追溯,有触摸交互、手写交互、鼠标和键盘交互。姿势交互又细分为手势交互、表情交互、身体姿势交互。
传统的输入设备有很多的不足之处。鼠标和键盘,由于它们的使用需要接触,在某些环境下使用不方便。用户在车站、餐厅、购物商场等场景下要与计算机交互时,使用传统交互方式十分的不便。而且在公共场合下,接触性的使用会有很大的卫生问题。不仅需要占用很大的空间,同时也会有设备损耗的问题。
手写交互和触摸交互改善了传统的机械性输入,它们是更符合人类的使用习惯的。但是它们任然要求用户要与设备接触,这不免会在接触设备的过程中损坏到设备。所以同样有着易损耗等问题。
基于视觉的手势交互很好克服了上述交互方式的不足之处。手势交互是不需要接触的,没有损耗问题,也不会有接触带来的卫生问题。手势交互有符合人类动作习惯和直观自然的优点,使其成为了下一代自然交互方式研究的焦点。
2目前国内外手势识别状况
基于视觉的手势识别不需要昂贵的设备,仅仅需要摄像头和PC机器就够了。其廉价的输入设备会使其将来应用范围十分广泛。手势识别在计算机视觉的研究中是热点。国内外都有很多的学者在不断研究。这些研究在手势的分割、跟踪、识别和应用中有很多的进展。
国外对基于视觉的手势识别的研究工作起步很早。L.H.Howe等人使用肤色阈值和帧相减的技术实现了手的检测和分割。J.Zaletel等人提出了静态手势特征的方法,这种方法是用于提取手指的位置的。它先计算出掌心的位置,然后将掌心的位置作为极坐标的原点,将手掌的轮廓映射到这个极坐标,然后利用极坐标上的局部最大值来提取手指的位置。Huang使用3D神经网络创建的手势识别系统实现了15个不同手势的识别[1]。
在技术的应用上面,从上世纪九十年代开始,国外的科学家就开始不断研究手势识别技术,并且研制出一些实体来进行试验,例如:可以模仿人进行手势操作的机器人;电视控制的传感系统,无需遥控,利用手势识别左右上下进行对电视的遥控;体感游戏,更是完美的利用手势识别,在信息交互中完全释放出手势识别的优势。
我国相对于国外的研究起步要晚,但是目前也取得了很大的研究成果。朱建伟[1]使用两个摄像头正交放置,实现了三维手势的识别,并实现了使用手势实现对照片的浏览。孙玉[3]使用Hu矩特征手势识别和CamShift算法对手势跟踪,实现了手势对Word的输入和操作。
3意义
本文主要研究基于视觉的手势识别技术和对这种技术的应用。目标跟踪识别是计算机视觉领域中的关键技术,多应用于人机交互。手势识别必将使人与机器之间的沟通变得智能化、信息化,与传统的输入设备相比,手势操作则显得直观和自然,更符合人类习惯。
手势识别作为新型的人机交互技术,手势识别技术越来越广泛应用到各个行业。体感游戏首先成熟使用的,改变了传统的手持物体操作。更加互动,真实。使得人与游戏美妙结合,身临其境。
手势识别还可以用于手语识别。手语是聋哑人使用的语言,是聋哑人与正常人交流的平台。在医疗领域中,具有语言交流障碍的患者,可以通过手势识别,在预设好系统中,自助挂号,表达病情。更加体现人性化。综上所述,手势识别技术越来越被研发人员重视,在日常生活中涉及的领域也越来越多,研究价值也越来越突出。这项技术也将被广泛的普及推广到人们生活中的方方面面。
4结束语
基于计算机视觉的识别的功能还可以不断拓展,可以实现摄像头检测人与电脑的距离(当计算机识别出人坐在计算机前时显示器显示,当人离开的时候关闭显示器,达到节约电能的作用)等等。手势识别还可以应用于虚拟键盘,使用一个投影的键盘,然后通过摄像头识别手在虚拟键盘上的相关操作。可以用在智慧医疗中,解决传统的诊疗挂号方式。从根本上寻找解决病人就医难的状况的合理方案将健康的养生知识传播到更远更广。
参考文献:
[1] Guan Ran and Xu Xiangmin, A Computer Vision-Based Gesture Detectio And Recognition Technique[J]. Computer Applications and Software.2013,30(1):155-164.
关键词 陶瓷设计,计算机视觉、触觉设计
1前 言
历经数十年发展,CAD/CAM技术已取得了巨大成功,并迎来了数字化设计、数字化制造的时代。NURBS曲线曲面(非均匀有理B样条)以其强大的形状表示能力和配套的计算、编辑算法,已成为事实上的产品表示标准。细分曲面、隐式曲面是近年曲面造型研究的热点,它们突破了NURBS在拓扑结构上的局限性,更容易表达某些复杂的形状。
在陶瓷设计领域,经常需要设计人体、动物等自然雕塑形体,现有的CAD系统可采用NURBS曲面、细分曲面、隐式曲面等来描述这些复杂对象[1],但如何能快速、精确地设计出来,目前尚无有效的数字化工具。人们认识、改变外在事物时,主要利用视觉与触觉的感官功能,通过手眼协调来设计出新的事物,设计师在设计新的对象时,也可如此操作。
近些年出现了一些价格较为便宜的触觉式设计系统,如FreeForm系统,它抽取了大型虚拟现实系统的单一触觉功能,可提供真实感的数字雕塑工具。但一般设计人员使用后的效果并不理想,虽可以在局部修修补补,但缺乏对整体形态的把握[2]。
本文提出了一套视觉与触觉相结合的数字设计系统,以数码相机和力感触觉系统为工具,快速实现复杂形体的数字建模。首先利用数码相机拍照,摄取参考对象的图像,通过一个专门设计的摄影测量与计算机视觉集成系统重构出参考对象的三维数字模型;然后将此模型输入到触觉设计系统,经局部的修正,得到新的设计模型。以下详述系统组成及原理,并给出设计实例予以验证。
2造型设计系统的组成
本文所提出的系统主要分为两个模块:视觉子系统与触觉子系统。其中触觉子系统是购置的,视觉子系统是独立开发的[3]。相机采用奥林巴斯CL5050,拍摄的照片经视觉反求系统处理后,得到VRML格式的三维模型,然后输入FreeForm触觉设计系统,进行再设计,最终输出改型设计后的数字模型。图1所示是视觉系统实物,图2是触觉系统的实物照片。
2.1 视觉系统[4]
本文提出的系统中,视觉系统为自主开发的,先讲述相关的主要原理。
本文采用的视觉系统结合了摄影测量法的高精度与计算机视觉法的灵活性。近年来由图片生成3D模型是一个热门的计算机视觉研究领域,并相应提出了诸多的研究方法,其核心问题包括:相机标定、对应点匹配及3D重构等;针对每个问题均有大量的研究算法,特别是相机标定技术几乎成为一个关键环节。
类似于测量系统控制网的概念,我们设计了一套控制特征点,相机直接根据控制特征点进行标定,可得到精度较高的相机内外参数。图3所示是控制点分布的实物图。
我们对控制点分布采取了特殊设计,使任意角度下拍照,均有10个(通常要求至少6个)以上特征点被摄取。对特征点,采用了高精度的专业摄影测量系统Aicon加以标定,其空间坐标保存于一个数据文件中,以备相机标定时采用。
有了高精度的相机参数,就可以利用成熟的计算机视觉方法重构3D模型。我们采用了遮挡轮廓法[1]及空间剥离法[2]这两种对环境要求较低、算法较为稳定的方法,处理标定过的图像,得到三维模型主要形态,可作为触觉设计的基础。
2.2 触觉系统
触觉子系统采用FreeForm触觉式虚拟设计系统,通常也亦称为3D Touch系统,采用了力回馈技术,手握触觉笔在空间旋转移动,屏幕里相应的雕刻刀便随之移动;当雕刻刀接触到模型时,会有力回馈到握笔的手上,让使用者感受到接触时的力量。在雕刻时可设定模型的软硬度,进而调整雕刻所需的力。常规的实物雕刻操作,在系统内均有对应的虚拟工具,无论是雕刻效果,还是虚拟雕刻过程中的感受,与实际雕刻几乎一样,提供了十分逼真的雕刻环境。
3陶瓷狗的造型设计
在陶瓷设计中,经常需要参考某种实物样品。本实验以图1中的玩具狗作为参考对象,借助视觉、触觉集成系统进行了两次造型、建模试验。视觉系统从不同角度摄取了10幅图片,由这10幅图片生成一个三维模型(见图4)。整个建模过程仅需十几分钟,方便快捷。输出的模型包含了参考对象的主要形态,稍加修整,即可得到新的改型设计。
以视觉系统的输出为骨架,在FreeForm系统中进行细部的修整与再设计,并可添加修饰色彩,得到新的设计结果,见图5。
在试验中,如果仅依靠触觉设计系统,即使熟练的操作人员,要设计出比例协调、结构合理的模型,也需要花费一天或数天时间。视觉系统的输入极大地简化了主体形态的构造,使不太熟练的设计人员也能利用触觉系统,很快设计出新的作品。
4总 结
本文提出了视觉、触觉相结合的方法,利用计算机视觉系统帮助设计人员观察、感知设计对象,并把结果以数字形式保存起来;触觉系统直接利用已有的观察结果,通过手眼协调完成最终设计。这种混合系统弥补了非专业人员所缺乏的空间形体洞察力及操纵力,使他们不用经过长期的专业训练,也可快速地设计出新的作品。本文给出的实例已验证了这一观点。
本文揭示了虚拟雕刻过程所忽略的视觉思维环节,并设计出计算机视觉系统来加以弥补,取得了良好的结果,这套视、触觉结合的设计系统可用于陶瓷产品的设计制造,可大幅度提高设计效率和设计质量。
参考文献
1 Potemesil M.Generating octree model of 3D objects from their silhouetttes in a sequence of
images[J].Computer Vision&Graphics Image Processing,1987,40(1):1~29
2 K.Kutulakos and S.Seitz. A theory of shape by space carving[J]. International Journal of Computer
Vision,2000, 38(3):199~218
关键词:机器视觉技术;大米;品质检测
中图分类号:TP391.4 文献标识码:A 文章编号:0439-8114(2012)05-0873-04
Application Progress of Machine Vision Technology in the Quality Inspection of Rice
WAN Peng,LONG Chang-jiang,REN Yi-lin
(College of Engineering, Huazhong Agricultural University, Wuhan 430070, China)
Abstract: The research dynamic of machine vision technology was reviewed from the aspects of rice varieties, germ, crack, yellow grain rice, and so on; and the shortcomings of the machine vision technology in rice quality inspection were proposed for its further application.
Key words: machine vision technology; rice; quality inspection
我国是世界上最大的稻米生产国,稻米年产量常年保持在1.8亿t左右,占世界稻米总产量的1/3,居世界第一位[1]。我国也是大米消费大国,有近2/3的人口以大米为主食,全国大米年消费总量保持在1.35亿t左右[2]。我国的水稻研究在世界上处于领先地位,但是在国内外贸易、加工和消费等领域中仍然存在诸多问题[3,4]。
我国曾经是世界三大稻米输出国之一,但是由于我国大米的品质不高,再加上大米的生产标准、质量技术标准、检验检疫技术等与发达国家存在较大差距,在相当程度上影响了我国大米在国际市场上的竞争优势,大米的年出口量已退居六七位。2008年以来,随着世界稻米产量的下降,各国对大米出口配额进行调整,导致国际大米的价格出现了疯涨,而我国出口的大米因品种不稳定、品质较差,在国际市场上竞争力较低,市场份额逐渐减小。
为了提高大米的品质,不但需要选育优质的稻米品种,还需要加强大米品质的检测。但是,由于我国对大米品质的检测研究起步较晚,同时也缺乏方便简单的检测方法和快捷准确的检测仪器,在对大米品质进行检测的过程中,主要依靠人工识别、感官评定等方法进行检测,这些方法主观性较强,准确度较低,可重复性较差,工作效率也较低,因此在实施过程中的有效性受到了质疑[5]。
机器视觉(Machine vision)又称计算机视觉,是指利用计算机实现人的视觉功能,是研究采用计算机模拟生物外显或宏观视觉功能的科学和技术,是一门涉及数学、光学、人工智能、神经生物学、心理物理学、计算机科学、图像处理、图像理解、模式识别等多个领域的交叉学科[6]。机器视觉技术在农业上的应用研究始于20世纪70年代末期,主要进行的是植物种类的鉴别、农产品品质检测和分级等。随着计算机软硬件技术、图像处理技术的迅速发展,它在农业上的应用研究有了较大的进展[7,8]。
目前,大部分的大米品质检测指标根据国家标准采用人工进行检测,容易产生许多问题。随着机器视觉技术的发展和在农产品无损检测领域的广泛应用,采用机器视觉技术对大米的品质进行检测,不仅能够提高大米品质的检测效率,而且能够克服主观因素的影响,降低检测误差,使得大米品质的检测变得更加快速和准确[9]。
1 基于机器视觉技术的大米品质检测装置
基于机器视觉技术的大米品质检测系统由检测箱、检测台、光源、CCD图像传感器、镜头、图像采集卡和计算机系统等几个部分组成[10,11](图1)。
大米品质检测系统是一个内空的箱体,箱子的底部是检测台,顶部为光源和摄像头;检测箱内表面粘贴有背景纸,使光在箱体内形成均匀的漫反射,避免样品在检测时形成镜面反射。光源提供样品检测照相时所需的亮度,为了提供充足的光线,同时尽量消除光源照射样品时在背景上产生的阴影,通常选用环形荧光灯管作为光源[12]。CCD图像传感器是获取数字米粒样品图像的关键部件之一,它将大米图像由光信号转换为表示R、G、B颜色值的模拟电信号,并输入图像处理设备进行后续处理[13]。计算机软件系统用于对采集到的数字图像进行分析、处理和识别,实现对特定目标的检测、评价等[14]。
2 基于机器视觉技术的大米粒形检测
大米的粒形是实现大米分级和质量检测的最基本参数。根据《GB1345-1986大米》中的规定,评价大米质量的检测指标主要有加工精度、不完善粒、杂质、碎米等,这些检测指标与大米的粒形直接或间接相关。由于人工评价是通过肉眼观察对大米粒形进行评价,因此受检测环境、视觉生理、视觉心理等诸多因素以及评价人员对大米标准理解程度不同的影响,即便是同一份大米样品,很难保证大米粒形检测结果的稳定,而采用计算机视觉技术进行检测则可以有效避免主观因素的影响,保证大米粒形检测结果的准确性[9,15]。
中国农业大学孙明等[16]借助于MATLAB图像处理工具箱对大米粒形进行测定。首先定义单粒大米子粒的粒长(A)与粒宽(B)的比值为粒形,检测时先求出大米粒的椭圆离心率R,通过公式:
■=sqrt■
将大米子粒的椭圆离心率转变为长宽比A/B,即求出大米子粒的粒形。试验结果表明,该方法具有操作简单、检测速度快、重复性好的优点。
武汉工业学院张聪等[17]提出了一种基于计算机图像分析识别大米破碎粒的方法,即先采用数码相机获取大米图片,再对大米图片进行分析处理。识别时先将大米图像的边缘曲线变换为极坐标形式,再结合大米粒形的一般形状,用椭圆模板定位米粒,获得一组与米粒平移、旋转和尺度无关的形状描述数据,再运用小波变换提取奇异点及特征参数。试验结果表明,该方法简单有效,用于米粒定位与识别时的可信度高。同时,刘光蓉等[18]也研究了通过扫描仪获取大米的图像,再采用计算机图像处理技术将彩色图像转化成灰度图像并进行进一步的处理,最后获得大米子粒的二值图像,然后利用八邻域分析法提取大米图像的轮廓。试验结果表明,这种方法的检测效果良好。
此外,袁佐云等[19]还提出了采用最小外接矩形计算大米粒形的方法。包晓敏等[20]分析了采用Roberts算子、Sobel算子、Prewitt算子、模板匹配法和快速模糊边缘检测法对大米粒形进行边缘检测,并通过对大米图像的分割试验验证了快速模糊边缘检测法最为有效。
3 基于机器视觉技术的大米加工精度检测
大米加工精度是指大米背沟和粒面留皮程度,即糙米皮层被碾去的程度。大米的加工精度是决定大米外观质量的主要因素,加工精度越高,米粒表面残留糠皮量就越少,胚乳表面光洁度、口感、外观品质也就越好。我国国家标准规定各类大米按加工精度分等级[9]。因此,大米加工精度的检测具有十分重要的意义。传统大米加工精度的测定有多种方法,国标中规定大米加工精度的判定采用试剂染色法[21],通过染色剂使米粒胚乳和胚乳表面残留糠皮呈现不同的颜色差异便于肉眼观测,该方法受到光照条件、视力、情绪等诸多因素以及各种染色参数的影响,操作繁琐、效率低、误差大,不能满足快速、客观检测的需要。
河南工业大学张浩等[22]研究了机器视觉技术结合数字图像处理技术检测大米加工精度的方法,首先获取大米的图像,利用米粒区域和背景区域的亮度差异将大米图像转化为灰度图像,再利用边缘检测函数求出分割阈值,将米粒从背景中分割出来,并计算米粒区域的面积;然后利用米粒区域中糠皮部分和胚乳部分R-B特征值差异,将大米图像分解为R、G、B分量图,以R-B矩阵代替大米图像,再将R-B矩阵转化为灰度图,用边缘检测函数求出分割阈值把糠皮部分分割出来,计算糠皮部分面积。最后测得大米留皮率为米粒糠皮部分面积与米粒区域面积之比。
江苏理工大学许俐等[23]将计算机图像处理技术与色度学理论相结合研究了大米加工精度的自动检测方法。检测时先将大米染色,然后采用机器视觉系统获取大米图像,再根据染色后大米的胚乳、皮层以及胚芽所呈现的不同颜色特征,采用不同的区分方法获取米粒不同部位的面积即像素的个数,然后根据胚乳面积与大米图像总面积的百分比计算大米的加工精度。
此外,无锡轻工大学田庆国[24]根据色度学原理,采用图像处理技术对染色后的大米进行检测,识别大米的加工精度,并建立了大米染色后的颜色值与加工精度之间的数据库。西华大学的刘建伟与日本岐阜大学的三轮精博[25]合作研究大米加工精度与碾白程度之间的关系时,采用改良后的大米精度鉴定NMG溶液,按照品红石碳酸溶液染色法(GB 5502-85)对大米进行染色获得米粒表皮呈绿色、糊粉层呈蓝色、胚乳呈蓝红色的大米样品,米粒干燥后采用测差计检测样品的颜色计算大米的加工精度。
4 基于机器视觉技术的大米垩白检测
垩白是指稻米粒胚乳中不透明的部分。垩白之所以不透明是因为稻米子粒中淀粉粒排列疏松,颗粒间充气引起光线折射所致。按其发生部位可将垩白区分为腹白、心白和背白等类型。通常用垩白粒率、垩白大小和垩白度等概念描述稻米的垩白状况。垩白是衡量稻米品质的重要性状之一,不仅直接影响稻米的外观品质和商品品质,而且还影响稻米的加工品质和蒸煮食味品质[9,26]。
黑龙江农业工程职业学院于润伟等[27]研究了采用机器视觉技术和图像处理技术检测稻米垩白的方法。先用机器视觉装置获取大米的原始图像,再采用图像处理方法对大米图像进行预处理,然后应用大津算法自动选取分割阈值对稻米图像进行两次分割,分别得到大米子粒的二值图像和垩白区域的二值图像,再根据区域内部像素点的联通性,将不同区域分别进行标记,计算出子粒数和垩白粒数,同时计算出二者对应的面积(像素点个数)。研究结果表明,该算法的自动检测结果与人工检测相关性大于90%。
中国农业大学侯彩云、日本东京大学Seiichi等[28]采用微切片三维图像处理系统对大米的品质特性进行探索性研究,结果表明借助于三维可视化技术分析大米的微切片,不仅可以观察大米垩白部分内部的组织结构以及在蒸煮过程中的变化,还可以利用灰度直方图定量计算出垩白米粒中各部分垩白的面积和体积。同时,侯彩云等[29]还利用自行研制开发的机器视觉图像处理系统对大米的垩白度及垩白粒率进行检测,试验结果表明所研制的装置具有客观、准确、快速和重现性好等特点,在大米的快速分等定级中具有良好的应用前景。
江苏大学黄星奕等[30]研究了采用遗传神经网络计算大米垩白度的方法。先采用机器视觉系统提取垩白米的图片,然后采用数字图像处理技术提取米粒的垩白区域与胚乳非垩白区域的交界区域内的像素,再采用遗传算法建立一个人工神经网络识别系统对这部分交界区域内的像素进行识别。试验结果表明,采用机器视觉系统的检测结果与人工检测结果的误差小于0.05。
此外,凌云等[31]提出了一种基于分形维数的垩白米检测算法。孙明等[32]采用了MATLAB软件开发平台构造了基于计算机视觉的大米垩白检测算法,完成了对大米垩白参数、垩白度以及垩白粒率的测定。吴建国等[33]从实际应用出发,采用计算机和扫描仪结合开发了机器视觉系统的垩白测定软件。而曾大力等[34]利用视频显微镜对大米粒进行扫描,结合计算机图形分析,直接计算大米的垩白大小和透明度,初步探讨了视频显微扫描技术在大米垩白分析中的应用。湖南农业大学萧浪涛等[35]开发了基于微软Windows 98平台的大米垩白度测定软件Chalkiness 1.0,该软件与计算机和图像扫描仪相结合能够组成一套高效的大米垩白度测定系统。
5 基于机器视觉技术的整精米率检测
整精米是指糙米碾磨成国家标准一级大米时米粒产生破碎,其中的完整米粒以及长度达到完整精米粒平均长度4/5以上(含4/5)的米粒。整精米率是指整精米占净稻谷试样质量的百分率,它是稻米加工品质优劣的指标,是稻米贸易中商家最关注的内容,与碾米厂的经济效益密切相关。正确识别整精米是检测整精米率的关键。目前整精米率主要采用人工方法进行检测,该方法难以满足对稻米品质快速、准确的检测要求[9,36]。
中国农业大学尚艳芬等[37]开发了一套基于机器视觉技术的整精米检测系统用于识别整精米和碎米。该方法通过提取并分析稻米的粒长、粒形等特征参数,提出了同一品种并在同一生长条件下生长的大米粒形具有相似性的前提假设,据此求得标准米,再通过偏差计算、粒长、粒形分析等对整精米和碎米进行识别。采用该方法开发的整精米识别系统对整精米和碎米识别的准确率与人工检测结果的相关系数可到达0.99。
于润伟等[38]首先通过图像识别系统采集大米的原始图像,再采取动态阈值分割等图像处理方法把米粒图像变成二值图像,然后根据区域内部像素的连通性计算出单个米粒的像素个数;再根据先期计算的整精米长度/面积比换算出米粒长度,最后根据米粒长度判断整精米和碎米。研究结果表明,该算法的自动检测与人工检测的相关性大于99%,可用于整精米的自动检测。
6 问题和展望
机器视觉技术在农产品的品质检测方面具有广泛的应用,国内外的学者在此领域进行过广泛研究。但机器视觉技术在大米品质检测领域的应用尚处于起步阶段,仍有许多等待解决的技术问题,需要进一步深入研究。
1)目前的大米品质检测装置多为静态检测装置,即将大米放于检测箱中通过机器视觉系统获取图片或通过扫描仪获取图片,大米相对于摄像头静止不动;获取图像之后再采用计算机软件系统对图像进行分析处理。这种检测方法效率低下,因此,动态地获取大米图像并进行分析检测是下一个要解决的难题。
2)采用机器视觉系统检测大米品质时,多采用的是串行化算法,即先获取大米图像,然后采用某种算法对大米图像进行处理,再检测大米的某项品质指标;之后再采用某种算法对大米图像处理大米的另一项品质指标,这种检测方法在处理群体米粒图像时极大地影响了检测速度,因此开发并行处理算法对大米图像进行分析检测可以有效提高机器视觉系统的工作效率。
3)目前对大米品质指标进行检测分析时缺少统一的检测装置,有的研究者采用CCD摄像头获取大米的图像进行分析检测,而有的研究者采用扫描仪获取图像进行分析检测,检测装置不同、检测条件不一致难以达到相同的检测结果,因此有必要研制具有实用价值的大米品质检测装置,使基于机器视觉技术的大米品质检测能够具有统一的标准。
总之,伴随着计算机科学技术的迅速发展,机器视觉技术在大米品质检测中的应用将越来越广泛。
参考文献:
[1] 庞乾林.稻米知识纵览[J].中国稻米,2004(3):44-47.
[2] 刘月好.陈米产生的原因与处理方法[J].粮食加工,2004(1):30-31.
[3] 庄丽娟,刁慕容.中国谷物外贸格局与发展趋向分析[J].中国农垦经济,2004(8):25-26.
[4] 山世英,彭玉珊.我国农产品出口遭遇技术性贸易壁垒的原因及对策[J].山东农业大学学报,2004,6(2):41-43.
[5] 李里特.粮油产品规格化、标准化是农业现代化的迫切任务[J].中国粮油学报,2001,16(5):1-5.
[6] 刘传才.图像处理与计算机视觉[M].厦门:厦门大学出版社,2002.
[7] 赵晓霞.计算机视觉技术在农业中的应用[J].科技情报开发与经济,2004,14(4):124-126.
[8] 熊利荣,陈 红,丁幼春.机器视觉技术在农产品破损检测上的应用[J].农机化研究,2005(5):204-205.
[9] 李天真,周柏清.基于计算机视觉技术的稻米检测研究[J].粮食与食品工业,2005,12(4):50-53,55.
[10] 凌 云,王一鸣,孙 明,等.基于机器视觉的大米外观品质检测装置[J].农业机械学报,2005,36(9):89-92.
[11] 张巧杰,王一鸣,凌 云,等.稻谷品质检测技术与装置研制[J].现代科学仪器,2006(1):128-130.
[12] 赵志强,熊元姣.计算机视觉检测系统的设计方案[J].工业控制计算机,2005,18(10):1-2.
[13] 唐向阳,张 勇,李江有,等.机器视觉关键技术的现状及应用展望[J].昆明理工大学学报(理工版),2004,29(2):36-39.
[14] 张纪明.基于PC的机器视觉系统研究[J].可编程控制器与工厂自动化,2006(11):107-110.
[15] 任宪忠,马小愚.农产品粒形识别研究进展及其在工程中应用现状[J].农业工程学报,2004,20(3):276-280.
[16] 孙 明,石庆兰,孙 红,等.基于计算机视觉的大米外观品质检测[J].沈阳农业大学学报,2005,36(6):659-662.
[17] 张 聪,管庶安.基于图像分析的大米形状识别[J].粮食与饲料工业,2006(6):5-7.
[18] 刘光蓉,周 红,管庶安.基于图像处理技术的大米轮廓检测[J].粮食与饲料工业,2004(6):14-15.
[19] 袁佐云,牛兴和,刘传云.基于最小外接矩形的稻米粒型检测方法[J].粮食与饲料工业,2006(9):7-8.
[20] 包晓敏,汪亚明,黄振.计算机视觉技术在大米轮廓检测上的应用[J].浙江工程学院学报,2003,20(2):104-107.
[21] 吕季璋,陈效贵,范慕蕙,等.GB/T 18105-2000米类加工精度异色相差分染色检验法[S].北京:国家质量技术监督局,2000.
[22] 张 浩,孟永成,周展明,等.基于图像处理技术大米加工精度的检测研究[J].中国粮油学报,2006,21(4):135-137.
[23] 许 俐,钱敏娟,方如明,等.大米加工精度的图象识别方法[J].农业工程学报,1996,12(3):172-175.
[24] 田庆国.图像处理技术在大米碾白精度测定中的应用[J].粮食与饲料工业,1997(10):10-11.
[25] 刘建伟,徐润琪,三轮精博,等.大米加工精度与碾白程度检测的研究[J].中国粮油学报,2004,19(3):5-8,61.
[26] 周新桥,邹冬生.稻米垩白研究综述[J].作物研究,2001(3):52-58.
[27] 于润伟,朱晓慧.基于图像处理的稻米垩白自动检测研究[J].中国粮油学报,2007,22(1):122-125.
[28] 侯彩云,SEIICHI O,YASUHISA S,等.三维图像处理系统在稻米品质检测中的应用研究[J].农业工程学报,2001,17(3):92-95.
[29] 侯彩云,王一鸣,凌 云,等.垩白米粒的计算机图像识别[J].农业工程学报,2002,18(5):165-168.
[30] 黄星奕,吴守一,方如明,等.遗传神经网络在稻米垩白度检测中的应用研究[J].农业工程学报,2003,19(3):137-139.
[31] 凌 云,王一鸣,孙 明,等.基于分形维数的垩白米图像检测方法[J].农业机械学报,2005,36(7):92-95,91.
[32] 孙 明,凌 云,王一鸣.在MATLAB环境中基于计算机视觉技术的大米垩白检测[J].农业工程学报,2002,18(4):146-149.
[33] 吴建国,刘长东,杨国花,等.基于计算机视觉的稻米垩白指标快速测定方法研究[J].作物学报,2005,31(5):670-672.
[34] 曾大力,藤 胜,钱 前,等.视频显微扫描技术在稻米垩白研究中的应用[J].中国农业科学,2001,34(4):451-453.
[35] 萧浪涛,李东晖,蔺万煌,等.一种测定稻米垩白性状的客观方法[J].中国水稻科学,2001,15(3):206-208.
[36] 郭英群.对国家标准中整精米率定义及检测方法的探讨[J].粮油仓储科技通讯,2005(6):52-53.