CN108073271A - 基于预定区域识别手部区域的方法及装置 - Google Patents

基于预定区域识别手部区域的方法及装置 Download PDF

Info

Publication number
CN108073271A
CN108073271A CN201611027787.6A CN201611027787A CN108073271A CN 108073271 A CN108073271 A CN 108073271A CN 201611027787 A CN201611027787 A CN 201611027787A CN 108073271 A CN108073271 A CN 108073271A
Authority
CN
China
Prior art keywords
hand region
pixel
value
presumptive area
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611027787.6A
Other languages
English (en)
Inventor
张霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tiji Technology Co Ltd
Original Assignee
Beijing Tiji Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tiji Technology Co Ltd filed Critical Beijing Tiji Technology Co Ltd
Priority to CN201611027787.6A priority Critical patent/CN108073271A/zh
Publication of CN108073271A publication Critical patent/CN108073271A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于预定区域识别手部区域的方法及装置,所述方法包括:分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,所述第一预定区域位于所述待识别的手部区域内;根据所述概率值确定手部区域。

Description

基于预定区域识别手部区域的方法及装置
技术领域
本发明涉及图像识别领域,具体涉及一种基于预定区域识别手部区域的方法及装置。
背景技术
随着软硬件相关科技的快速发展,腕式智能装置,如智能手表,智能手环等的集成度越来越高,功能越来越丰富,很大比例的手机功能可以通过智能手表,智能手环实现,大大简化用户接收和传递信息的方法。但和传统智能手机比较,腕式智能装置受限于小尺寸显示屏幕,一方面,使用者在使用时无法很好地利用触屏或者按键完成相关功能的操作,易造成误操作,另一方面,当智能手表佩戴在一只手上时,要对其进行操作,除了唤醒,休眠等简单操作不需要另一只手操作外,其余的较为复杂的操作都有另一只手完成,无法使用单手独立对智能手表进行操作,因此,智能手表在内容显示和操作上仍存在很大的缺陷。
针对上述问题,目前有一些产品提供了基于用户手部姿势的控制方式,用户可以通过佩戴手表的手指活动来控制设备,其原理是利用手表上设置的摄像装置采集手部图像,处理器根据图像的变化确定控制内容。此类方案需要从图像中准确地识别出用户的手部区域或轮廓,即需要剔除背景和其他噪声,只根据手部区域的变化确定控制内容。
现有的图像识别方案通常是根据目标物体的形状特征,根据预设的特征参数,利用机器学习模型等手段从图像中识别出目标物体。但是这种识别方式抵抗背景干扰的能力较差,例如用户所处环境背景十分复杂时,根据形状特征很可能出现误判,由此可见现有的图像识别方案准确性较差。
发明内容
本发明要解决的是现有的图像识别方案准确性较差的问题。
有鉴于此,本发明提供一种基于预定区域识别手部区域的方法,包括:分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,所述第一预定区域位于所述待识别的手部区域内;根据所述概率值确定手部区域。
优选地,在所述分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值之前,还包括:
在所述图像中确定待识别的手部区域;
从所述待识别的手部区域中剔除所述第一预定区域。
优选地,所述根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,包括:
确定所述像素与所述第一预定区域的欧几里得距离值L;
根据L和所述相似度值确定所述像素是手部区域内像素的概率值,其中所述概率值与L、所述相似度值呈负相关关系。
优选地,所述手部区域是利用主动轮廓线模型确定的,所述概率值作为所述主动轮廓线模型的输入值,所述主动轮廓线模型根据所述概率值、预定拉力参数、预定引力参数和预定初始轮廓得到手部区域。
优选地,所述相似度是根据RGB、HSV以及YCrCb空间下的颜色值的相似性指标信息的总和确定的相似度。
相应地,本发明还提供一种基于预定区域识别手部区域的装置,包括:比对单元,用于分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;判定单元,用于根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,所述第一预定区域位于所述待识别的手部区域内;确定单元,用于根据所述概率值确定手部区域。
优选地,还包括:
识别单元,用于在所述比对单元进行处理之前,在所述图像中确定待识别的手部区域;
剔除单元,用于从所述待识别的手部区域中剔除所述第一预定区域。
优选地,所述判定单元包括:
距离计算单元,用于确定所述像素与所述第一预定区域的欧几里得距离值L;
概率计算单元,根据L和所述相似度值确定所述像素是手部区域内像素的概率值,其中所述概率值与L、所述相似度值呈负相关关系。
优选地,所述手部区域是利用主动轮廓线模型确定的,所述概率值作为所述主动轮廓线模型的输入值,所述主动轮廓线模型根据所述概率值、预定拉力参数、预定引力参数和预定初始轮廓得到手部区域。
优选地,所述相似度是根据RGB、HSV以及YCrCb空间下的颜色值的相似性指标信息的总和确定的相似度。
根据本发明实施例提供的基于预定区域识别手部区域的方法及装置,通过将待识别的手部图像中的像素的颜色值与预定区域中的像素颜色进行比对,来确定图像中的各个像素是手部区域内的像素的概率值,进而根据该概率值以及各个像素与预定区域的距离来确定手部区域,相比于现有的根据形状特征确定手部区域的方案,本发明实施例具备更高的准确性。并且本方案还同时考虑各个像素与第一预定区域的距离,并由此来综合确定上述概率值,使得本方案具备较强的抗干扰能力。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种可穿戴设备的结构示意图;
图2为图1所示设备拍摄的图像;
图3是对图2进行去色处理后的图像;
图4为本发明实施例提供的基于预定区域识别手部区域的方法的流程图;
图5为本发明实施例提供的基于预定区域识别手部区域的装置的结构图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明实施例提供了一种基于预定区域识别手部区域的方法,该方法所处理的图像是由具有摄像装置的可穿戴设备拍摄的图像,该设备如图1所示,其中摄像装置01沿佩戴者手腕向手心方向采集佩戴者手部图像。其采集到的图像如图2所示,佩戴者的手掌在图像中的整体位置是比较固定的,只是手指区域在一个固定的范围内会随着用户的运动发生变化。如图3所示,本实施例提供的方法包括如下步骤:
S1,分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;
如图2所示,其中包含第一预定区域11、待识别的手部区域12和第二预定区域13,通常也称第一预定区域11为种子区域。关于上述三个区域的选取,可以预先设定固定的位置,只要用户正常佩戴,第一预定区域11必定是用户手掌的一部分,第二预定区域13必定不包括用户手掌。为了更清楚地描述本发明实施例涉及的各个区域,下面采用对图2进行去色后的图4进行说明,需要说明的是,本发明实施例需要依赖像素的颜色进行后续处理,所以图4只是为了清楚地说明所给出的图像,实际应用时不需要进行去色处理。
由于第二预定区域内的像素一定不是手部区域内的像素,而手部区域内的各个像素间的颜色相似度较高,且与背景颜色的相似度通常差别较大,因此被判断的像素与第二预定区域内的相似度越低,则表示目标像素是手部区域像素的概率越大。其中第二预定区域的颜色可以取其中所有像素颜色值的均值。
关于像素之间的颜色值比对,本发明实施例可以使用某一种颜色空间下的颜色值进行比对,也可以采用多种种颜色空间下的颜色值的结合进行比对,例如可以根据RGB、HSV以及YCrCb空间下的颜色值的相似性指标信息的总和来确定两个像素的相似度。
在此步骤中,将待识别的手部区域12中的像素与第二预定区域中的像素进行分别进行比对后,可以得到相应的相似度值。将待识别的手部区域12中的所有像素比对过后,每个像素都对应有1个相似度值w1。
S2,根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,如上所述,所述第一预定区域位于所述待识别的手部区域内。即针对待识别的手部区域12中的每一个像素,利用其对应的相似度值,和与第一预定区域(例如区域中心)的距离综合计算出一个概率值,该概率值越高则表示该像素是手部区域内的几率也大,反之则越小。距离与概率值呈负相关关系,即距离越远则概率值会相应降低。例如上述像素a对应距离L、相似度w1,综合计算后可以得到像素a是手部区域内像素的概率为n%。对所有像素综合计算完成后,每个像素均对应一个概率值。
S3,根据概率值确定手部区域,确定方式有多种,例如可以使用最简单的方式,通过设定概率阈值与每个像素对应的概率值比对,即可筛选出所有手部区域内的像素,这些像素的总和即为手部区域。优选地,在本实施例中,可以采用一种主动轮廓线模型(也称为snake模型)来识别手部区域。具体地,上述概率值作为主动轮廓线模型的输入值,主动轮廓线模型根据各个像素对应的概率值、预定拉力参数、预定引力参数和预定初始轮廓得到手部区域。模型上的每个点在引力和拉力作用下将运动至兴趣区域边缘,同时轮廓保持一定的曲率,具备光滑的特性。最终,每个点运动停止后,即标识出了兴趣区域(手部区域)的光滑的边缘,即得到的是连续平滑的手部区域外轮廓。
根据本发明实施例提供的基于预定区域识别手部区域的方法,通过将待识别的手部图像中的像素的颜色值与预定区域中的像素颜色进行比对,来确定图像中的各个像素是手部区域内的像素的概率值,进而根据该概率值以及各个像素与预定区域的距离来确定手部区域,相比于现有的根据形状特征确定手部区域的方案,本发明实施例具备更高的准确性。并且本方案还同时考虑各个像素与第一预定区域的距离,并由此来综合确定上述概率值,使得本方案具备较强的抗干扰能力。
作为一个优选的实施方式,在上述步骤S1之前,还可以包括如下步骤:
S01,在图像中确定待识别的手部区域。如上所述,根据图像的特点,待识别的手部区域12的位置也可以是预先标定的,例如是从图像边缘到图像1/2、3/4、4/5的区域等,具体可根据拍摄图像时的预定焦距和取景范围确定。
S02,从待识别的手部区域中剔除第一预定区域,由于第一预定区域必定是手掌的一部分,因此可以将此部分像素去除以减少计算量。
上述优选方案在图像中确定待识别的手部区域,并从其中剔除必定是手部区域的部分,使得后续步骤可以只针对剩余的区域进行计算,由此可以减小计算量,提高识别效率。
作为一个优选的实施方式,上述步骤S2可以包括如下步骤:
S201,确定像素与第一预定区域的欧几里得距离值L;
S202,根据L和所述相似度值确定像素是手部区域内像素的概率值,其中所述概率值与L、所述相似度值呈负相关关系。
上述优选方案利用欧几里得距离以及相似度值这两个数值来综合确定概率值,使得本方案具有较强的抗干扰能力。
本发明的另一个实施例还提供了一种基于预定区域识别手部区域的装置,如图5所示,该装置包括:
比对单元51,用于分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;
判定单元52,用于根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,所述第一预定区域位于所述待识别的手部区域内;
确定单元53,用于根据所述概率值确定手部区域。
根据本发明实施例提供的基于预定区域识别手部区域的装置,通过将待识别的手部图像中的像素的颜色值与预定区域中的像素颜色进行比对,来确定图像中的各个像素是手部区域内的像素的概率值,进而根据该概率值以及各个像素与预定区域的距离来确定手部区域,相比于现有的根据形状特征确定手部区域的方案,本发明实施例具备更高的准确性。并且本方案还同时考虑各个像素与第一预定区域的距离,并由此来综合确定上述概率值,使得本方案具备较强的抗干扰能力。
可选地,该装置还可以还包括:
识别单元501,用于在所述比对单元51进行处理之前,在所述图像中确定待识别的手部区域;
剔除单元502,用于从所述待识别的手部区域中剔除所述第一预定区域。
上述优选方案在图像中确定待识别的手部区域,并从其中剔除必定是手部区域的部分,使得后续步骤可以只针对剩余的区域进行计算,由此可以减小计算量,提高识别效率。
可选地,判定单元52可以包括:
距离计算单元,用于确定所述像素与所述第一预定区域的欧几里得距离值L;
概率计算单元,根据L和所述相似度值确定所述像素是手部区域内像素的概率值,其中所述概率值与L、所述相似度值呈负相关关系。
上述优选方案利用欧几里得距离以及相似度值这两个数值来综合确定概率值,使得本方案具有较强的抗干扰能力。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种基于预定区域识别手部区域的方法,其特征在于,包括:
分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;
根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,所述第一预定区域位于所述待识别的手部区域内;
根据所述概率值确定手部区域。
2.根据权利要求1所述的方法,其特征在于,在所述分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值之前,还包括:
在图像中确定待识别的手部区域;
从所述待识别的手部区域中剔除所述第一预定区域。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,包括:
确定所述像素与所述第一预定区域的欧几里得距离值L;
根据L和所述相似度值确定所述像素是手部区域内像素的概率值,其中所述概率值与L、所述相似度值呈负相关关系。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述手部区域是利用主动轮廓线模型确定的,所述概率值作为所述主动轮廓线模型的输入值,所述主动轮廓线模型根据所述概率值、预定拉力参数、预定引力参数和预定初始轮廓得到手部区域。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述相似度是根据RGB、HSV以及YCrCb空间下的颜色值的相似性指标信息的总和确定的相似度。
6.一种基于预定区域识别手部区域的装置,其特征在于,包括:
比对单元,用于分别将待识别的手部区域中每一个像素的颜色值与第二预定区域的颜色值进行比对以得到相似度值,其中所述第二预定区域与所述待识别的手部区域不重合;
判定单元,用于根据所述像素与第一预定区域的距离以及所述相似度值确定所述像素是手部区域内像素的概率值,所述第一预定区域位于所述待识别的手部区域内;
确定单元,用于根据所述概率值确定手部区域。
7.根据权利要求6所述的装置,其特征在于,还包括:
识别单元,用于在所述比对单元进行处理之前,在图像中确定待识别的手部区域;
剔除单元,用于从所述待识别的手部区域中剔除所述第一预定区域。
8.根据权利要求6或7所述的装置,其特征在于,所述判定单元包括:
距离计算单元,用于确定所述像素与所述第一预定区域的欧几里得距离值L;
概率计算单元,根据L和所述相似度值确定所述像素是手部区域内像素的概率值,其中所述概率值与L、所述相似度值呈负相关关系。
9.根据权利要求6-8中任一项所述的装置,其特征在于,所述手部区域是利用主动轮廓线模型确定的,所述概率值作为所述主动轮廓线模型的输入值,所述主动轮廓线模型根据所述概率值、预定拉力参数、预定引力参数和预定初始轮廓得到手部区域。
10.根据权利要求6-9中任一项所述的装置,其特征在于,所述相似度是根据RGB、HSV以及YCrCb空间下的颜色值的相似性指标信息的总和确定的相似度。
CN201611027787.6A 2016-11-18 2016-11-18 基于预定区域识别手部区域的方法及装置 Pending CN108073271A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611027787.6A CN108073271A (zh) 2016-11-18 2016-11-18 基于预定区域识别手部区域的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611027787.6A CN108073271A (zh) 2016-11-18 2016-11-18 基于预定区域识别手部区域的方法及装置

Publications (1)

Publication Number Publication Date
CN108073271A true CN108073271A (zh) 2018-05-25

Family

ID=62161129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611027787.6A Pending CN108073271A (zh) 2016-11-18 2016-11-18 基于预定区域识别手部区域的方法及装置

Country Status (1)

Country Link
CN (1) CN108073271A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110971815A (zh) * 2018-10-01 2020-04-07 卡西欧计算机株式会社 图像处理装置、机器人、图像处理方法以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080044064A1 (en) * 2006-08-15 2008-02-21 Compal Electronics, Inc. Method for recognizing face area
CN102915111A (zh) * 2012-04-06 2013-02-06 寇传阳 一种腕上手势操控系统和方法
CN103577800A (zh) * 2012-07-23 2014-02-12 中国航天员科研训练中心 一种基于彩色图像的人体手部形态参数测量方法
CN104301621A (zh) * 2014-09-28 2015-01-21 北京凌云光技术有限责任公司 图像处理方法、装置及终端
CN105139415A (zh) * 2015-09-29 2015-12-09 小米科技有限责任公司 图像前后景分割方法、装置及终端
CN105184763A (zh) * 2014-06-23 2015-12-23 索尼公司 图像处理方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080044064A1 (en) * 2006-08-15 2008-02-21 Compal Electronics, Inc. Method for recognizing face area
CN102915111A (zh) * 2012-04-06 2013-02-06 寇传阳 一种腕上手势操控系统和方法
CN103577800A (zh) * 2012-07-23 2014-02-12 中国航天员科研训练中心 一种基于彩色图像的人体手部形态参数测量方法
CN105184763A (zh) * 2014-06-23 2015-12-23 索尼公司 图像处理方法和装置
CN104301621A (zh) * 2014-09-28 2015-01-21 北京凌云光技术有限责任公司 图像处理方法、装置及终端
CN105139415A (zh) * 2015-09-29 2015-12-09 小米科技有限责任公司 图像前后景分割方法、装置及终端

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110971815A (zh) * 2018-10-01 2020-04-07 卡西欧计算机株式会社 图像处理装置、机器人、图像处理方法以及存储介质
CN110971815B (zh) * 2018-10-01 2021-07-30 卡西欧计算机株式会社 图像处理装置、机器人、图像处理方法以及存储介质

Similar Documents

Publication Publication Date Title
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
US11281288B2 (en) Eye and head tracking
US8957857B2 (en) Device and method for controlling mouse pointer
JP4238278B2 (ja) ジェスチャ・インターフェースの適応型追跡
CN102520796B (zh) 一种基于逐步回归分析映射模型的视线跟踪方法
US11921278B2 (en) Image status determining method an apparatus, device, system, and computer storage medium
US20180350070A1 (en) Recording medium storing computer program for pupil detection, information processing apparatus, and pupil detecting method
TWI499966B (zh) 互動式操作方法
JP2016106668A (ja) 情報処理装置、情報処理方法、およびプログラム
CN107368810A (zh) 人脸检测方法及装置
US9280209B2 (en) Method for generating 3D coordinates and mobile terminal for generating 3D coordinates
WO2005055143A1 (ja) 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
CN109819206A (zh) 基于影像的物件追踪方法及其系统与电脑可读取存储媒体
CN109328355A (zh) 用于智能群体肖像的方法和系统
KR20140132906A (ko) 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치
CN108073271A (zh) 基于预定区域识别手部区域的方法及装置
CN108073871A (zh) 基于两种预定区域识别手部区域的方法及装置
CN106933341B (zh) 一种在图像中确定手指所处区域的方法、装置及腕式设备
CN108073935A (zh) 基于临近像素和连通路径识别手部区域的方法及装置
JP6971788B2 (ja) 画面表示制御方法および画面表示制御システム
CN108073879A (zh) 基于图像种子区域识别手部区域的方法及装置
CN108073881A (zh) 基于预定区域和临近像素识别手部区域的方法及装置
CN108073877A (zh) 基于种子区域和临近像素识别手部区域的方法及装置
CN108073882A (zh) 基于连通路径的手部区域识别方法及装置
WO2019061713A1 (zh) 一种基于机器人的目标图像显示处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180525