CN109600546A - 一种图像识别方法及移动终端 - Google Patents
一种图像识别方法及移动终端 Download PDFInfo
- Publication number
- CN109600546A CN109600546A CN201811419649.1A CN201811419649A CN109600546A CN 109600546 A CN109600546 A CN 109600546A CN 201811419649 A CN201811419649 A CN 201811419649A CN 109600546 A CN109600546 A CN 109600546A
- Authority
- CN
- China
- Prior art keywords
- attribute information
- mobile terminal
- image
- anaglyph
- enclosed region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012545 processing Methods 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 10
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 22
- 230000006854 communication Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 abstract description 5
- 238000004422 calculation algorithm Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 16
- 230000011218 segmentation Effects 0.000 description 10
- 241000406668 Loxodonta cyclotis Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 206010000496 acne Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种图像识别方法及移动终端,涉及通信技术领域,以解决现有的图像识别的算法复杂,导致识别过程较为繁琐的问题。其中,所述种图像识别方法包括:在移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像;将所述视差图像中属于同一视差范围内的像素点划分到闭合区域内;根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别。本发明实施例中的图像识别方法应用于移动终端中。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种图像识别方法及移动终端。
背景技术
随着移动终端的逐渐普及,移动终端的拍摄功能受到人们的青睐。其中,拍摄功能包括照相功能、录像功能和扫描功能等。
移动终端基于拍摄功能采集图像时,可实时分析识别所采集的图像内容,如识别人脸等拍摄主体。常见的,利用传统图像特征描述实现图像识别,如方向梯度直方图(Histogram of Oriented Gradient,简称HOG)、加速稳健特征(speeded up robustfeatures,简称SURF);还可利用神经网络卷积特征实现图像识别。
上述两种图像识别方法的过程为:先在采集的图像中提取特征,再根据提取到的特征进行匹配,以识别图像内容。其中,利用传统图像特征描述实现图像识别时,计算过程复杂耗时,且对图像的要求较高,通用性差;而利用神经网络卷积特征实现图像识别时,需预先通过海量样本针对特定目标训练对应的模型,操作繁琐。可见,现有的图像识别的算法复杂,导致识别过程较为繁琐。
发明内容
本发明实施例提供一种图像识别方法,以解决现有的图像识别的算法复杂,导致识别过程较为繁琐的问题。
为了解决上述技术问题,本发明是这样实现的:一种图像识别方法,应用于移动终端,包括:在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像;将所述视差图像中属于同一视差范围内的像素点划分到闭合区域内;根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别。
第一方面,本发明实施例还提供了一种移动终端,包括:视差图像生成模块,用于在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像;闭合区域划分模块,用于将所述视差图像中属于同一视差范围内的像素点划分到闭合区域内;目标对象识别模块,用于根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别。
第二方面,本发明实施例还提供了一种移动终端,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现所述图像识别方法的步骤。
第三方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述图像识别方法的步骤。
本发明实施例中,在移动终端进入拍摄预览界面的情况下,采集并识别所拍摄的图像,以将拍摄的图像显示在拍摄预览界面中。在采集拍摄图像的过程中,获取拍摄图像中各个像素点的图像视差信息,基于获取的图像视差信息生成视差图像。根据预设规则,将视差图像中视差接近的像素点划分到一个闭合区域内,从而视差图像被划分为包括若干个闭合区域,每个闭合区域表示一类目标,即一个目标对象,从而实现了图像分割。进一步地,根据分割后的闭合区域具有的属性信息,如形状、颜色、视差等,与数据库中存储的已识别对象的属性信息进行匹配,以确定与闭合区域的属性信息相似度较大的已识别对象,进而根据匹配到的已识别对象快速识别出闭合区域中的目标对象,最终达到识别所拍摄的图像中各个对象的目的。相比于现有技术,本实施例采用分割视差图像、属性匹配等技术手段进行图像识别,无需复杂的计算过程,简化图像识别,从而提高识别速度,确保移动终端的拍摄性能。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的图像识别方法的流程图之一;
图2是本发明实施例的图像识别方法的流程图之二;
图3是本发明实施例的图像识别方法的流程图之三;
图4是本发明实施例的图像识别方法的流程图之四;
图5是本发明实施例的移动终端的框图之一;
图6是本发明实施例的移动终端的框图之二。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,示出了本发明一个实施例的图像识别方法的流程图,应用于移动终端,包括:
步骤S1:在移动终端进入拍摄预览界面的情况下,获取拍摄预览界面中的图像视差信息,生成视差图像。
示例性地,在该步骤中,控制摄像头打开,移动终端进入拍摄预览界面,摄像头采集所拍摄的图像,并将采集到的拍摄图像显示在拍摄预览界面。
在此过程中,基于采集的拍摄图像,获取拍摄图像中的各个像素点的视差信息,获取方法可以分为两类:被动测距传感和主动深度传感。
在被动测距传感中,传感器不主动发送光信号,而是被动接收拍摄点的反射信号,然后计算其深度信息,根据深度信息得到视差信息。例如,单摄法、双摄法。
在主动深度传感中,传感器主动发送特定信号,并接收拍摄点反射回来的信号,再计算其深度信息,根据深度信息得到视差信息。例如,结构光、飞行时间(Time of Flight,简称TOF)技术。
相比而言,结构光、TOF的成本偏高,而双摄像头是当下绝大部分移动终端都具备的配置,通用性更高,因此本实施例可优选双摄法获取图像视差信息。
在双摄法中,移动终端的双摄像头分别获取拍摄点成像,然后根据成像的坐标,利用双目成像公示可以计算出拍摄点的视差信息。
在该步骤中,将一个拍摄点看作是一个像素点,从而基于获取的多个像素点的视差信息,形成视差图像。
步骤S2:将视差图像中属于同一视差范围内的像素点划分到闭合区域内。
将视差图像中视差接近的像素点划分到一个闭合区域内,因此在视差图像中,每个闭合区域对应一类目标,而不同闭合区域的视差不尽相同。为了便于理解,将一类目标认为一个拍摄的目标对象。从而在该步骤中通过视差图像实现了拍摄图像的对象分割和对象获取。如在一张图像中,通过分割划分出来的多个闭合区域,分别获取到人脸、台灯、书桌、纸箱、摄像机等拍摄的目标对象。
步骤S3:根据闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对闭合区域内的目标对象进行识别。
视差图像中的每个闭合区域具有若干属性信息,如视差值、几何属性(面积、长宽比、外接圆等)、颜色属性等,从而可根据每个闭合区域所有的属性信息在数据库中进行匹配,进而根据匹配结果识别每个闭合区域中对应的目标对象。
数据库中存储有大量已识别对象的属性信息,属性信息能够体现出已识别对象对应用户的客观特征,如用户的年龄段、性别等;属性信息还能够体现出用户的主观特征,如拍摄习惯等,拍摄习惯包括拍摄时间、拍摄地点、拍摄物体、拍摄镜头、拍摄参数等。
例如,对用户而言,不同年龄段用户有不同的拍照习惯,如老年人更多拍室外风景、中年人更多拍人物、年轻人更多自拍及食物;不同性别用户拍照习惯也不相同,男性用户更多拍物体(车辆、高科技品等)、女性用户更多拍人物(自拍、家人、食物等);而对于具体每个用户而言,个人有自己的拍照习惯,包括拍照时间(起床后、入睡前、饭前饭后)、拍照地点(餐厅、交通工具里、景点处等)、所拍物体(宠物、小孩、自然风景等)、前后置镜头及拍照参数(物距、焦距、感光度等)等。
从而在该步骤中,将闭合区域的属性信息在已识别对象的属性信息中进行匹配,逐步筛选出与闭合区域的属性信息最为接近的属性信息,并将该属性信息对应的已识别对象与闭合区域的目标对象相关联。
因属性信息包含的内容较多,在匹配时,可依次匹配多种属性信息,并综合每次匹配结果,最终获取相似度最大的属性信息对应的已识别对象。
例如,基于闭合区域的形状属性信息,可匹配到一系列与其形状属性信息相似的第一对象集合;进一步地,基于闭合区域的颜色属性信息,可匹配到一系列与其颜色属性信息相似的第二对象集合;进一步地,基于闭合区域在视差图像中的位置属性信息,可匹配到一系列与其位置属性信息相似的第三对象集合;以此类推,基于多种属性信息,可以得到多个对象集合,从而在多个对象集合确定共同包含的已识别对象,根据该已识别对象即识别出闭合区域中的目标对象。
又如,基于闭合区域的形状属性信息,可匹配到一系列与其形状属性信息相似的第一对象集合;进一步地,基于闭合区域的颜色属性信息,在第一对象集合中可匹配到一系列与其颜色属性信息相似的第二对象集合;进一步地,基于闭合区域在视差图像中的位置属性信息,在第二对象集合可匹配到一系列与其位置属性信息相似的第三对象集合;以此类推,基于多种属性信息,通过层层迭代,最后得到的已识别对象可用于识别闭合区域中的目标对象。
本发明实施例中,在移动终端进入拍摄预览界面的情况下,采集并识别所拍摄的图像,以将拍摄的图像显示在拍摄预览界面中。在采集拍摄图像的过程中,获取拍摄图像中各个像素点的图像视差信息,基于获取的图像视差信息生成视差图像。根据预设规则,将视差图像中视差接近的像素点划分到一个闭合区域内,从而视差图像被划分为包括若干个闭合区域,每个闭合区域表示一类目标,即一个目标对象,从而实现了图像分割。进一步地,根据分割后的闭合区域具有的属性信息,如形状、颜色、视差等,与数据库中存储的已识别对象的属性信息进行匹配,以确定与闭合区域的属性信息相似度较大的已识别对象,进而根据匹配到的已识别对象快速识别出闭合区域中的目标对象,最终达到识别所拍摄的图像中各个对象的目的。相比于现有技术,本实施例采用分割视差图像、属性匹配等技术手段进行图像识别,无需复杂的计算过程,简化图像识别,从而提高识别速度,确保移动终端的拍摄性能。
除此之外,在现有技术中,图像识别方法只是基于特征点计算而识别,没有考虑到图像本身的属性,使得识别结果与实际有出入,准确率较低,而本实施例克服这一缺点,综合考虑到图像本身具有的属性,提高图像识别的准确率。
在图1所示实施例的基础上,图2示出了本发明另一个实施例的图像识别方法的流程图,步骤S1之前,还包括:
步骤S4:获取移动终端中已识别对象。
本实施例提供了一种数据库的建立方法。在该步骤中,首先获取移动终端中的已识别对象。
步骤S5:分析已识别对象,得到已识别对象的属性信息。
已识别对象所表示的范围可大可小。例如,已识别对象可以是最小的可识别对象,如人脸中的眼睛;已识别对象还可以是可继续分割的对象,如人脸,人脸还可继续分割为眼睛、鼻子等。
若获取的已识别对象可继续分割,则可分割获取的已识别对象,以进一步得到多个对象,再依次分析得到各个对象的属性信息。
若获取的已识别对象是最小的可识别对象,则直接分析已识别对象的属性信息。
优选地,为了充分利用数据库存储的属性信息,在该步骤中可至少获取已识别对象的视差图像,再基于视差图像存储已识别对象的属性信息,这样使得已识别对象的属性信息包含的内容与闭合区域的属性信息包含的内容相似度较高,有利于提高图像识别的速度和准确率。
步骤S6:基于用户的识别码,将已识别对象的属性信息存储至公共数据库和/或本地数据库中。
考虑到已识别对象与各用户间的多样性存在,本实施例优选采用Spark分布式处理引擎来实现属性信息的存储,Spark分布式处理引擎通过提供能够在分布式环境下并行执行视差图像目标对象的分类任务,实现了结合已识别对象与用户间的多样性,对不同用户对应的已识别对象的属性信息进行存储。
具体的存储过程可为:首先使用表格,来建模用户拍照信息,用户拍照信息即得到的该用户对应的已识别对象的属性信息,这些信息是放在一个分布式集合(键,值),其中,键用于表示用户的识别码,如标识符,值用于表示用户所拍已识别对象的属性聚合表,属性聚合表可理解属性信息的结构表单,也即PairRDD,RDD为弹性分布式数据集(ResilientDistributed Dataset)的缩写,是Spark中的核心概念,一个RDD代表一系列的“记录”,这些记录被分配或被分区到一个集群的多个节点上。不同的关键字段会属于不同机器。
当获得新的聚类时,原始PairRDD被转换为一个新的PairRDD,并确定类簇属性。例如,当检测出新的类别时,如新的用户识别码,则生成一个新的类别表格,并将该类别表格的所有属性全都存储进该表格中,并完成对该表格的属性确定处理,如将该用户识别码对应的已识别对象的属性信息全都存储该用户识别码中。
这里的表格也可由其它内容形式替代。
其中,随着内存价格的下降,同时为了解决Map-Reduce在计算过程中的大量读写操作,Spark的原则是将数据尽可能存储在内存(in-memory)中,因为内存的操作速度要快于外存的读写速度。在spark过程中,将中间过程的数据存储在内存中,这样便会大大降低了读写数据的时间。
特别地,本实施例中包括两种数据库,本地数据库和公共数据库。对于公共数据库,存储有大量用户对应的属性信息,综合了较为全面的属性信息,为图像识别提供更多的参考依据;对于本地数据库,存储有该用户对应的属性信息,综合了较为全面的用户习惯,为图像识别提供更接近的参考依据。但无论是基于哪种数据库进行匹配,均可快速、准确地完成图像识别。
特别是对用户大量的视差图像数据结合机器学习的统计分析后,就可以得到具体用户拍照的习惯,也即用户照片中最大概率出现的物体及其空间分布,从而在未识别的视差图像中,可快速确定哪些物体在哪个区域经常被该用户拍取,进而识别对应的闭合区域的目标对象。可见通过分析用户大数据,可以预测用户拍照的行为,进一步提高识别速度和准确性。
在实际应用中,本发明实施例中的图像识别方法应用于识别人脸,例如人脸解锁识别、人脸支付识别等。通常用户会以习惯的姿势、距离等完成解锁或支付,使得每次动作生成的视差图像具有一定规律,因此基于视差图像可以实现快速检测人脸。
在实际应用中,本发明实施例中的图像识别方法应用于人脸美颜处理中,从用户拍照大数据中学习到拍照习惯,包括自拍角度、物距等参数,可以准确、实时地检测人脸区域以便处理。
在图1所示实施例的基础上,图3示出了本发明另一个实施例的图像识别方法的流程图,步骤S1之后,还包括:
步骤S7:对视差图像进行增强处理。
若步骤S2的过程为视差图像的处理过程,则步骤S7为视差图像的预处理过程,以通过对视差图像进行增强处理,从而更准确地获取深度信息,便于后续对视差图像进行处理。
例如,获取的视差图像存在噪声干扰,噪声干扰通常是一些随机噪声、以及在物体边缘和黑色表面等处所产生同形状的孔洞,即丢失了深度信息的区域。因此在该步骤中,对视差图像进行增强处理,增强处理包括孤立点消除和孔洞填充算法等。
在图1所示实施例的基础上,图4示出了本发明另一个实施例的图像识别方法的流程图,步骤S3之后,还包括:
步骤S8:根据识别到的目标对象的属性信息,对目标对象进行优化处理。
在识别到闭合区域的目标对象后,可为用户提供更个性化的服务。
例如,对目标对象进行图像降噪处理。降噪是为了提高图像的质量,图像不同区域的噪声大小是不一致的,例如不同纹理、不同材质的物体,噪声大小不一致。当通过视差图像并结合大数据利用机器学习获取了闭合区域的属性信息后,就可以估计其对相应的噪声水平,进而实现自适应去噪,可以获得更高质量(更清晰、鲜艳)的照片。
具体地,当识别到所拍图片是以动物(包括人)为中心时,降噪处理就会对动物所在的闭合区域更多保留高频,也即保留毛发和皮肤颜色;而识别到闭合区域为天空和大海时,就可以更多保留海浪纹理特征(水纹)。
又如,基于人脸美颜处理的应用中,当快速识别人脸区域后,可对人脸区域包含的人眼、眉毛、鼻子、嘴唇等进行美化处理,包括放大眼睛、抹红嘴唇、去鼻子黑头等实时美颜处理。
优选地,属性信息至少包括视差值、几何特征、颜色、名称和类型。
综上所述,在以上实施例提供的图像识别方法中,采集图像得到图像视差信息后,生成视差图像,并在视差图像中获取闭合区域,进一步获取闭合区域与真实对象间的对应规律,考虑到实际中对象的多样性以及不同对象检测处理的要求,采用机器学习方法并结合用户大数据统计用户拍照习惯,并结合用户拍照习惯,得到闭合区域与真实对象间的对应规律,从而实现图像的实时、准确检测识别,进而基于识别到的目标对象,智能、自动化提供个性化服务,以提高用户的使用体验。
图5示出了本发明另一个实施例的移动终端的框图,包括:
视差图像生成模块10,用于在移动终端进入拍摄预览界面的情况下,获取拍摄预览界面中的图像视差信息,生成视差图像;
闭合区域划分模块20,用于将视差图像中属于同一视差范围内的像素点划分到闭合区域内;
目标对象识别模块30,用于根据闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对闭合区域内的目标对象进行识别。
本发明实施例中,在移动终端进入拍摄预览界面的情况下,采集并识别所拍摄的图像,以将拍摄的图像显示在拍摄预览界面中。在采集拍摄图像的过程中,获取拍摄图像中各个像素点的图像视差信息,基于获取的图像视差信息生成视差图像。根据预设规则,将视差图像中视差接近的像素点划分到一个闭合区域内,从而视差图像被划分为包括若干个闭合区域,每个闭合区域表示一类目标,即一个目标对象,从而实现了图像分割。进一步地,根据分割后的闭合区域具有的属性信息,如形状、颜色、视差等,与数据库中存储的已识别对象的属性信息进行匹配,以确定与闭合区域的属性信息相似度较大的已识别对象,进而根据匹配到的已识别对象快速识别出闭合区域中的目标对象,最终达到识别所拍摄的图像中各个对象的目的。相比于现有技术,本实施例采用分割视差图像、属性匹配等技术手段进行图像识别,无需复杂的计算过程,简化图像识别,从而提高识别速度,确保移动终端的拍摄性能。
优选地,移动终端还包括:
已识别对象获取模块,用于获取移动终端中的已识别对象;
属性信息分析模块,用于分析已识别对象,得到已识别对象的属性信息;
属性信息存储模块,用于基于用户的识别码,将已识别对象的属性信息存储至公共数据库和/或本地数据库中。
优选地,移动终端还包括:
增强处理模块,用于对视差图像进行增强处理。
优选地,移动终端还包括:
优化处理模块,用于根据识别到的目标对象的属性信息,对目标对象进行优化处理。
优选地,属性信息至少包括视差值、几何特征、颜色、名称和类型。
本发明实施例提供的移动终端能够实现图1至图4的方法实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
图6为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图6中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,移动终端包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器110,用于在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像;将所述视差图像中属于同一视差范围内的像素点划分到闭合区域内;根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别。
本发明实施例中,在移动终端进入拍摄预览界面的情况下,采集并识别所拍摄的图像,以将拍摄的图像显示在拍摄预览界面中。在采集拍摄图像的过程中,获取拍摄图像中各个像素点的图像视差信息,基于获取的图像视差信息生成视差图像。根据预设规则,将视差图像中视差接近的像素点划分到一个闭合区域内,从而视差图像被划分为包括若干个闭合区域,每个闭合区域表示一类目标,即一个目标对象,从而实现了图像分割。进一步地,根据分割后的闭合区域具有的属性信息,如形状、颜色、视差等,与数据库中存储的已识别对象的属性信息进行匹配,以确定与闭合区域的属性信息相似度较大的已识别对象,进而根据匹配到的已识别对象快速识别出闭合区域中的目标对象,最终达到识别所拍摄的图像中各个对象的目的。相比于现有技术,本实施例采用分割视差图像、属性匹配等技术手段进行图像识别,无需复杂的计算过程,简化图像识别,从而提高识别速度,确保移动终端的拍摄性能。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
移动终端通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图6中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与移动终端100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,移动终端100包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种移动终端,包括处理器110,存储器109,存储在存储器109上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器110执行时实现上述图像识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述图像识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (10)
1.一种图像识别方法,应用于移动终端,其特征在于,包括:
在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像;
将所述视差图像中属于同一视差范围内的像素点划分到闭合区域内;
根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别。
2.根据权利要求1所述的方法,其特征在于,所述在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像之前,还包括:
获取所述移动终端中的已识别对象;
分析所述已识别对象,得到所述已识别对象的属性信息;
基于用户的识别码,将所述已识别对象的属性信息存储至公共数据库和/或本地数据库中。
3.根据权利要求1所述的方法,其特征在于,所述在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像之后,还包括:
对所述视差图像进行增强处理。
4.根据权利要求1所述的方法,其特征在于,所述根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别之后,还包括:
根据识别到的所述目标对象的属性信息,对所述目标对象进行优化处理。
5.根据权利要求1~4任一项所述的方法,其特征在于,所述属性信息至少包括视差值、几何特征、颜色、名称和类型。
6.一种移动终端,其特征在于,包括:
视差图像生成模块,用于在所述移动终端进入拍摄预览界面的情况下,获取所述拍摄预览界面中的图像视差信息,生成视差图像;
闭合区域划分模块,用于将所述视差图像中属于同一视差范围内的像素点划分到闭合区域内;
目标对象识别模块,用于根据所述闭合区域的属性信息,以及数据库中存储的已识别对象的属性信息,对所述闭合区域内的目标对象进行识别。
7.根据权利要求6所述的移动终端,其特征在于,还包括:
已识别对象获取模块,用于获取所述移动终端中的已识别对象;
属性信息分析模块,用于分析所述已识别对象,得到所述已识别对象的属性信息;
属性信息存储模块,用于基于用户的识别码,将所述已识别对象的属性信息存储至公共数据库和/或本地数据库中。
8.根据权利要求6所述的移动终端,其特征在于,还包括:
增强处理模块,用于对所述视差图像进行增强处理。
9.一种移动终端,其特征在于,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的图像识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的图像识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811419649.1A CN109600546A (zh) | 2018-11-26 | 2018-11-26 | 一种图像识别方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811419649.1A CN109600546A (zh) | 2018-11-26 | 2018-11-26 | 一种图像识别方法及移动终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109600546A true CN109600546A (zh) | 2019-04-09 |
Family
ID=65959718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811419649.1A Pending CN109600546A (zh) | 2018-11-26 | 2018-11-26 | 一种图像识别方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109600546A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036227A (zh) * | 2020-06-10 | 2020-12-04 | 北京中科慧眼科技有限公司 | 一种路面可行驶区域检测方法、装置以及自动驾驶系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103052968A (zh) * | 2010-08-03 | 2013-04-17 | 松下电器产业株式会社 | 物体检测装置、物体检测方法及程序 |
US9223404B1 (en) * | 2012-01-27 | 2015-12-29 | Amazon Technologies, Inc. | Separating foreground and background objects in captured images |
CN107403168A (zh) * | 2017-08-07 | 2017-11-28 | 青岛有锁智能科技有限公司 | 一种面部识别系统 |
CN107909010A (zh) * | 2017-10-27 | 2018-04-13 | 北京中科慧眼科技有限公司 | 一种道路障碍物检测方法与装置 |
CN108347558A (zh) * | 2017-12-29 | 2018-07-31 | 维沃移动通信有限公司 | 一种图像优化的方法、装置以及移动终端 |
-
2018
- 2018-11-26 CN CN201811419649.1A patent/CN109600546A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103052968A (zh) * | 2010-08-03 | 2013-04-17 | 松下电器产业株式会社 | 物体检测装置、物体检测方法及程序 |
US9223404B1 (en) * | 2012-01-27 | 2015-12-29 | Amazon Technologies, Inc. | Separating foreground and background objects in captured images |
CN107403168A (zh) * | 2017-08-07 | 2017-11-28 | 青岛有锁智能科技有限公司 | 一种面部识别系统 |
CN107909010A (zh) * | 2017-10-27 | 2018-04-13 | 北京中科慧眼科技有限公司 | 一种道路障碍物检测方法与装置 |
CN108347558A (zh) * | 2017-12-29 | 2018-07-31 | 维沃移动通信有限公司 | 一种图像优化的方法、装置以及移动终端 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036227A (zh) * | 2020-06-10 | 2020-12-04 | 北京中科慧眼科技有限公司 | 一种路面可行驶区域检测方法、装置以及自动驾驶系统 |
CN112036227B (zh) * | 2020-06-10 | 2024-01-16 | 北京中科慧眼科技有限公司 | 一种路面可行驶区域检测方法、装置以及自动驾驶系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8929600B2 (en) | Action recognition based on depth maps | |
CN110381371A (zh) | 一种视频剪辑方法及电子设备 | |
CN108717719A (zh) | 卡通人脸图像的生成方法、装置及计算机存储介质 | |
CN107835367A (zh) | 一种图像处理方法、装置及移动终端 | |
CN110059744A (zh) | 训练神经网络的方法、图像处理的方法、设备及存储介质 | |
CN108712603B (zh) | 一种图像处理方法及移动终端 | |
CN107833177A (zh) | 一种图像处理方法及移动终端 | |
CN109547694A (zh) | 一种图像显示方法及终端设备 | |
CN108989678A (zh) | 一种图像处理方法、移动终端 | |
CN109461117A (zh) | 一种图像处理方法及移动终端 | |
CN107832784A (zh) | 一种图像美化的方法和一种移动终端 | |
CN108121803A (zh) | 一种确定页面布局的方法和服务器 | |
CN110490897A (zh) | 模仿视频生成的方法和电子设备 | |
CN110505403A (zh) | 一种录像处理方法及装置 | |
CN109409244A (zh) | 一种物体摆放方案的输出方法和移动终端 | |
CN107864336B (zh) | 一种图像处理方法、移动终端 | |
CN108234882A (zh) | 一种图像虚化方法及移动终端 | |
CN110765525B (zh) | 生成场景图片的方法、装置、电子设备及介质 | |
CN108920119A (zh) | 一种分享方法及移动终端 | |
CN109063558A (zh) | 一种图像分类处理方法、移动终端及计算机可读存储介质 | |
CN109167914A (zh) | 一种图像处理方法及移动终端 | |
CN109410004A (zh) | 一种推荐方法、装置及移动终端 | |
CN109241832A (zh) | 一种人脸活体检测的方法及终端设备 | |
CN109669611A (zh) | 试衣方法及终端 | |
CN109495616A (zh) | 一种拍照方法及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190409 |