CN106705837A - 一种基于手势的物体测量方法及装置 - Google Patents
一种基于手势的物体测量方法及装置 Download PDFInfo
- Publication number
- CN106705837A CN106705837A CN201510790469.4A CN201510790469A CN106705837A CN 106705837 A CN106705837 A CN 106705837A CN 201510790469 A CN201510790469 A CN 201510790469A CN 106705837 A CN106705837 A CN 106705837A
- Authority
- CN
- China
- Prior art keywords
- gesture
- measurement
- measured
- image information
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/28—Measuring arrangements characterised by the use of optical techniques for measuring areas
- G01B11/285—Measuring arrangements characterised by the use of optical techniques for measuring areas using photoelectric detection means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B2210/00—Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
- G01B2210/58—Wireless transmission of information between a sensor or probe and a control or evaluation unit
Abstract
本发明涉及人机交互技术领域,公开了一种基于手势的物体测量方法及装置,用以提高测量效率。该方法在采集到图像信息后,自动提取并分割待测量物体的轮廓信息,并在此基础上计算长度、面积、或体积等测量参数值,这样,不仅实现实时在线测量,使测量过程更加简捷方便、直观有效,可以提高AR测量效率,并且使得测量过程更和谐自然,更能接近人的意图,测量结果更加准确。
Description
技术领域
本发明涉及人机交互技术领域,特别涉及一种基于手势的物体测量方法及装置。
背景技术
增强现实(Augmented Reality,AR)技术是一种将真实世界信息和虚拟世界信息无缝集成的技术,是通过传感、计算和图形等科学技术将虚拟世界的信息应用到真实世界。
在生产和生活中,往往需要对真实世界中的物体进行距离、长度、面积、体积等的测量,如果用传统的方法,则需要携带专业的测量工具进行手动测量,并且测量数据需要人为记录,可见这种测量方法操作过程繁琐,效率也低。
现有技术中,引入AR技术对物体进行测量,例如,在一种AR测量方法中,用户人为控制摄像头采集待测物理的图像,进入测量模式后画面静止,点击屏幕选择待测点,就会在屏幕上输出待测点的距离、长度等测量结果,这种AR测量的方法是一种离线的测量方法;
又例如,另一种AR测量方法中,用户将测量装置固定在头部,用户通过输入到测量装置的视频流可以看到实时的画面,待测点始终固定在画面的中心位置,用户需要移动头部去定位需要测量的点,并且需要在额外辅助设备上点击确认按钮才能测量并输出测量结果。
由此看来,现有技术中的AR测量方法操作过程仍旧繁琐,不能实时测量,且操作效率不高,不能以更和谐、更自然人机交互方式实现AR测量。
发明内容
本发明实施例提供一种基于手势的物体测量方法及装置,用以解决现有技术中存在AR测量方法操作过程繁琐,不能实时测量,且操作效率不高,不能以更和谐、更自然人机交互方式实现AR测量的问题。
本发明实施例提供的具体技术方案如下:
第一方面,提供一种基于手势的物体测量方法,包括:
采集待测量物体的图像信息;
采集手势的信息;
在所述手势满足设定条件时,根据所述手势确定所述待测量物体的测量定位点;
获取将所述测量定位点映射到三维空间后的三维坐标值;
确定所述待测量物体的测量参数;
根据所述测量参数和所述三维坐标值,计算所述待测量物体的所述测量参数的值。
结合第一方面,在第一方面的第一种可能的实现方式中,确定所述待测量物体的测量参数,包括:
确定所述手势的手势类型;
在预先设置的手势类型与测量参数的对应关系中,查找确定的手势类型对应的测量参数,作为所述待测量物体的测量参数。
结合第一方面或第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值。
结合第一方面和第一方面的第一种至第二种可能的实现方式中的任一种,在第一方面的第三种可能的实现方式中,所述参数包括长度、面积、体积、距离采集图像信息的采集设备的距离中的至少一个。
第二方面,提供一种基于手势的物体测量方法,包括:
采集待测量物体的图像信息;
从采集到的图像信息中提取所述待测量物体的轮廓信息;
采集手势的信息;
在所述手势满足设定条件时,根据所述手势确定用户在所述图像信息中感兴趣的目标测量区域;
在提取到的轮廓信息中,分割出所述目标测量区域的轮廓信息;
获取将分割出的轮廓信息中包含的各端点映射到三维空间后的三维坐标值;
根据获取的三维坐标值,计算所述目标测量区域的轮廓信息对应的待测量物体的测量参数值。
结合第二方面,在第二方面的第一种可能的实现方式中,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值;或
所述手势在与所述图像信息映射的二维平面垂直的方向上平移的距离超过设定步长,其中,所述手势在平移过程中在所述图像信息映射的二维平面上的相对位置不变。
结合第二方面或第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,所述测量参数值包括长度值、面积值、体积值、距离采集图像信息的采集设备的距离中的至少一个。
第三方面,提供一种基于手势的物体测量装置,包括传感器、处理器、收发器、显示器,其中:
所述传感器,用于采集待测量物体的图像信息,以及采集手势的信息;
所述处理器,用于读取一组程序,执行以下过程:
在所述传感器采集的手势满足设定条件时,根据所述手势确定所述待测量物体的测量定位点;
获取将所述测量定位点映射到三维空间后的三维坐标值;
确定所述待测量物体的测量参数;
根据所述测量参数和所述三维坐标值,计算所述待测量物体的所述测量参数的值;
所述收发器,用于将所述处理器计算获得的测量参数的值向所述显示器发送;
所述显示器,用于将接收到的参数的值进行显示。
结合第三方面,在第三方面的第一种可能的实现方式中,所述处理器具体用于:
确定所述手势的手势类型;
在预先设置的手势类型与测量参数的对应关系中,查找确定的手势类型对应的测量参数,作为所述待测量物体的测量参数。
结合第三方面或第三方面的第一种可能的实现方式,在第三方面的第二种可能的实现方式中,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值。
结合第三方面和第三方面的第一种至第二种可能的实现方式中的任意一种,在第三方面的第三种可能的实现方式中,还包括存储器,用于存储所述处理器执行的程序。
结合第三方面和第三方面的第一种至第三种可能的实现方式中的任一种,在第一方面的第四种可能的实现方式中,所述参数包括长度、面积、体积、距离采集图像信息的采集设备的距离中的至少一个。
第四方面,提供一种基于手势的物体测量装置,包括传感器、处理器、收发器、显示器,其中:
所述传感器,用于采集待测量物体的图像信息,以及采集手势的信息;
所述处理器,用于读取一组程序,执行以下过程:
从所述传感器采集到的图像信息中提取所述待测量物体的轮廓信息;
在所述传感器采集的手势满足设定条件时,根据所述手势确定用户在所述图像信息中感兴趣的目标测量区域;
在提取到的轮廓信息中,分割出所述目标测量区域的轮廓信息;
获取将分割出的轮廓信息中包含的各端点映射到三维空间后的三维坐标值;
根据获取的三维坐标值,计算所述目标测量区域的轮廓信息对应的待测量物体的测量参数值;
所述收发器,用于将所述处理器计算获得的所述测量参数值向所述显示器发送;
所述显示器,用于将接收到的所述测量参数值进行显示。
结合第四方面,在第四方面的第一种可能的实现方式中,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值;或
所述手势在与所述图像信息映射的二维平面垂直的方向上平移的距离超过设定步长,其中,所述手势在平移过程中在所述图像信息映射的二维平面上的相对位置不变。
结合第四方面或第四方面的第一种可能的实现方式,在第四方面的第二种可能的实现方式中,还包括存储器,用于存储所述处理器执行的程序。
结合第四方面、第四方面的第一种或第二种可能的实现方式,在第二方面的第三种可能的实现方式中,所述测量参数值包括长度值、面积值、体积值、距离采集图像信息的采集设备的距离中的至少一个。
本申请中,在采集到图像信息后,自动提取并分割待测量物体的轮廓信息,并在此基础上计算长度、面积、或体积等测量参数值,这样,不仅实现实时在线测量,使测量过程更加简捷方便、直观有效,可以提高AR测量效率,并且使得测量过程更和谐自然,更能接近人的意图,测量结果更加准确。
附图说明
图1为本申请中测量装置结构图;
图2为本申请中一种测量装置示例图;
图3为本申请实施例一中测量方法流程图;
图4a和图4b为本申请中采集图像信息的示意图;
图5a和图5b为本申请中单眼、双眼浏览方式示意图;
图6为本申请实施例二中测量方法流程图;
图7a和图7b为本申请实施例二中采集图像示意图;
图8a和图8b为本申请实施例二中提取轮廓信息示意图;
图9a和图9b为本申请实施例二中定位目标区域示意图;
图10a和图10b为本申请实施例二中获取目标区域轮廓信息示意图;
图11a和图11b为本申请实施例二中显示测量结果示意图。
具体实施方式
鉴于现有技术中存在的AR测量操作效率低下,不能实现实时在线测量的问题,本申请中提供了一种基于手势的物体测量方法及装置,利用手势交互进行AR测量,用以提高AR测量效率,实现实时在线测量,使操作过程更加直观有效,测量过程更和谐自然,更能接近人的意图,测量结果更加准确。
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
本申请中所述的AR测量是指基于AR技术对环境和物体进行距离、长度、面积和体积等的测量,可应用于生产和生活中,例如,应用于物流货品的摆放过程中对货品尺寸等的测量,家居设计中对家具等尺寸的测量。所谓AR技术,即通过传感,计算和图形等科学技术,将虚拟的信息应用到真实世界。
本申请提供的如图1所示的用于AR测量的测量装置,用于执行后续实施例涉及的方法。
参阅图1所示,本申请提供的测量装置100包括:传感器110、处理器120、收发器130、显示器140,所述传感器110、所述处理器120、所述收发器130、以及所述显示器140之间通过有线或无线的方式连接。无线方式包括但不限于无线保真(Wireless Fidelity,WiFi)、蓝牙、ZigBee(紫蜂协议)中的其中一种或任意几种的结合。较佳地,测量装置100还包括存储器150,存储器150用于存储一组程序。
其中,传感器110用于采集图像信息和手势信息;
具体地,图像信息指红绿蓝颜色标准(RGB)图像信息。传感器110可以采用单目摄像头、立体视觉摄像头、或RGB彩色和深度(RGB-Depth,RGB-D)摄像头实时摄取视频流,可选地,立体视觉摄像头采用双目摄像头组成的视觉系统。单目摄像头可以直接采集RGB图像信息,双目摄像头的其中一路可以用于采集RGB图像信息,RGB-D摄像头可以直接采集RGB图像。
处理器120用于执行存储器150存储的程序,具体可用于对采集到的信息进行处理,分析,计算等过程,获得计算结果,并通过收发器130向显示器140输出获得的结果。
显示器140,用于将处理器120输出的结果显示出来,向用户呈现。
本申请中,传感器110、处理器120、收发器130、显示器140,可以均设置在同一个设备中,该设备可以是但不限于手机、平板电脑等可移动设备,或AR眼镜等可穿戴设备;也可以分别置于不同的设备中,本申请不作限制。
如图2所示,以AR眼镜为例,传感器110可以单独的设置在视觉传感器设备中,并将该视觉传感器设备固定在AR眼镜的镜腿上,与AR眼镜通过有线或无线方式连接;处理器120、收发器130设置于计算机中,该计算机可以位于AR眼镜中,也可以独立设置于AR眼镜外、与AR眼镜通过有线或无线方式连接,图2所示以计算机独立设置于AR眼镜外为例;显示器140处于AR眼镜内,用于呈现增强的信息,也就是用于显示处理结果。
基于图1所示的测量装置100,本申请提供了两种基于手势的物体测量方法的实施例,如下所述的实施例一和实施例二。下面结合附图进行详细说明。
实施例一、
本申请实施例一中提供了一种基于手势的物体测量方法,如图3所示,该方法的步骤包括:
步骤300:采集待测量物体的图像信息以及手势的信息。
本步骤中所采集信息是利用传感器中摄像头实时摄取的视频流中获取的图像信息,是一种动态信息。
实际应用中,传感器会摄取到用户感兴趣的场景的视频流,在确定好拍摄的大致位置后,会继续摄取到用户呈现的手势的信息,所述手势是指用户用手指作出的具有特定测量含义的动作。也就是说,根据测量目的不同,待测量物体具有多个测量参数,例如,测量参数可以是待测量物体的长、宽、高、面积、体积、距离采集图像信息的采集设备的距离中的至少一个;根据用户手指可作出的不同的动作,将手势分为不同的手势类型。
为了测量装置能够正确识别手势,在测量开始之前,预先设置不同手势类型与不同测量参数之间的对应关系,表1所示为设置不同手势类型与测量参数之间的对应关系的一种举例。
表1
步骤310:在步骤300中采集的手势满足设定条件时,根据满足设定条件的手势确定待测量物体的测量定位点。
具体地,对采集的图像信息进行检测,能够检测到手势的信息,由于所述手势为用户用手指比出,因此起初检测到的手势可能并不是用户真正的意图,也就不能作为测量的依据,只有在确定出手势满足设定条件时,才将满足设定条件的手势作为后续测量的依据。
其中,所述设定条件可以为:所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值。例如预设时长阈值为3s。
在满足设定条件后的手势上确定出预先设置的测量关键点,所述测量关键点为手势上用于映射到图像信息中带测量物体的测量定位点的点,例如,如表1所示,测量参数为距离时,手势上的测量关键点为右食指的顶点位置,测量参数为面积时,手势上的测量关键点为两只手比出的长方体区域的四个顶点的位置。
将确定的测量关键点分别映射到所述图像信息中包含的待测量物体上,得到待测量物体上的测量定位点。
步骤320:获取将所述测量定位点映射到三维空间后的三维坐标值;
所获得的三维坐标值为测量定位点映射到的三维空间坐标系中的坐标值。测量定位点为至少一个,根据手势类型的不同,测量定位点的数目不同。
如图4a所示,假设采集到的图像信息为图4a所示的场景中的图像信息,在步骤310中确定的该手势上的关键点为右食指的顶点位置,将此顶点位置映射到图像信息中包含的待测量物体上,如图可知待测量物体为长方体物体,得到该长方体物体上如虚线圈示的点为测量定位点;获取将所述测量定位点映射到三维空间后的三维坐标值。
如图4b所示,假设采集到的图像信息为图4b所示的场景中的图像信息,在步骤310中确定的该手势上的关键点为左右食指的顶点位置,将这两个顶点位置映射到图像信息中包含的待测量物体上,如图可知待测量物体为空心正方体物体,得到该空心正方体物体上如两个虚线圈示的点为两个测量定位点;分别获取将这两个测量定位点映射到三维空间后三维坐标值。
下面以测量装置100中包含AR眼镜为例对步骤310和步骤320进行一些说明,传感器110采集到的图像信息、手势信息以及最终的测量结果均显示在AR眼镜上,供用户查看。测量过程中包含人机交互,基于用户左右眼的结构,手势在图像信息中的相对位置在AR眼镜的左右区域的位置不一致,本申请中,设计了两种浏览方式,单眼浏览和双眼浏览。顾名思义,单眼浏览即用户闭上一只眼镜,用另外一只眼镜去查看AR眼镜上显示的画面。本申请中以左眼看到的画面为基准进行举例说明。
如图5a所示,如果选择单眼(即左眼)浏览方式,则处理器120将传感器110采集到的手势上的关键点直接映射到图像信息中的待测物体上,并获取测量定位点PL,获取将所述测量定位点PL映射到三维空间中后对应的点P的三维坐标值(x,y,z),用于后续对测量参数值的计算。
如图5b所示,如果选择双眼浏览方式,则处理器120将传感器110采集到的左眼中显示的图像信息中包含的手势上的关键点映射到图像信息中的待测物体上,获取测量定位点PL,获取将所述测量定位点PL映射到三维空间中对应的点P的三维坐标值(x,y,z),所述点P的三维坐标值(x,y,z)用于后续对测量参数值的计算。并,基于已知的左右眼的结构的参数,将所述P点的三维坐标值(x,y,z)映射到传感器110采集到的右眼中显示的图像信息中,得到测量定位点PR,较佳地,将所述测量定位点PL和PR在左右眼中显示的图像信息中进行显示,以便于用户对手势的位置进行正确的调整。
步骤330:确定所述待测量物体的测量参数。
具体地,确定所述手势对应的手势类型;
在预先设置的不同手势类型与不同测量参数的对应关系中,查找确定的手势类型对应的测量参数。
如图4a中,手势针对待测量的长方体物体的测量参数为距离,该距离具体可以为该长方体物体到采集图像信息的采集设备的距离。
又如图4b中,手势针对带测量的空心正方体物体的测量参数为两个测量定位点之间的长度。
步骤340:根据确定的测量参数和测量定位点的三维坐标值,计算所述待测物体的所述测量参数的值。
如图4a中,根据确定的测量定位点的三维坐标值,计算长方体物体到采集图像信息的采集设备的实际距离值。
又如图4b中,根据确定两个测量定位点的三维坐标值,计算空心正方体物体两个测量定位点之间的实际长度值。
综上所述,本申请的实施例一中提供的基于手势的物体测量方法,可以通过对手势对应的手势类别与测量参数之间的对应关系的定义,识别出手势,将手势上的关键点映射到图像中的待测量物体上,得到测量定位点,并进一步将测量定位点映射到实际三维空间场景中,获得三维坐标值,进行计算。实现了实时在线测量,提高了AR测量的操作效率,并且操作过程更加直观有效,使得测量过程更加接近用户的意图,更加和谐自然,并且,测量过程不受视角变化的影响,方便简捷。
实施例二、
在上述实施例一提供的方法中构思的基础上,本申请实施例二中提供了另一种基于手势的物体测量方法,如图6所示,该方法的步骤包括:
步骤600:采集待测量物体的图像信息。
利用采集图像信息的采集设备,采集彩色图像,或者采集深度图像。采集的彩色图像用如图7a所示的场景示例进行说明,采集的深度图像用如图7b所示的场景示例进行说明。需要说明的是,本申请附图中未体现彩色图像的颜色特征,用黑白图片示意。
步骤610:从采集到的图像信息中提取所述待测量物体的轮廓信息。
所述轮廓信息即待测量物体的边缘信息,例如,采集的图像信息为如图7a所示的彩色图像,提取到的轮廓信息如图8a所示;又例如,采集的图像信息为如图7b所示的深度图像,提取到的轮廓信息如图8b所示。
步骤620:采集手势的信息,在所采集的手势满足设定条件时,根据手势确定用户在所述图像信息中感兴趣的目标测量区域。
与实施例一不同的是,本实施例二中的手势可以只包含表1中第一种手势类型,即右食指,且该手势上设置的关键点为右食指的顶点位置。
其中,所述设定条件为:
(1)所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值;或
(2)所述手势在与所述图像信息映射到的二维平面垂直的方向上平移的距离超过设定步长,其中,所述手势在平移过程中在所述图像信息映射的二维平面上的相对位置不变。
如图9a或如图9b所示,将手势上设置的关键点的位置映射到所述图像中的带测量物体上,得到测量定位点,该测量定位点所在的区域即为目标测量区域。所述目标测量区域即用户感兴趣的待测量物体所对应的测量区域。
步骤630:在提取到的轮廓信息中,分割出所述目标测量区域的轮廓信息。
分割出的目标测量区域的轮廓信息即用户感兴趣的待测量物体的轮廓信息。该轮廓信息中包含一些由端点连成的线段。
如图10a所示,为分割出来的如图9a所示获取的目标测量区域的轮廓信息;如图10b所示,为分割出来的如图10b所示获取的目标测量区域的轮廓信息。
步骤640:获取将分割出的轮廓信息中包含的各端点映射到三维空间后的三维坐标值。
所述三维坐标值为在各端点映射到三维空间坐标系中的坐标值。
步骤650:根据获取的三维坐标值,计算所述目标测量区域的轮廓信息对应的待测量物体的测量参数值。
所述测量参数值包括长度值、面积值、体积值、距离采集图像信息的采集设备的距离中的至少一个,长度值又包括长、宽、高。
由各端点的坐标值可以分别得出任意两个端点之间的长度值,进一步获得待测量物体的面积值、体积值等。
由如图10a所示的目标测量区域的轮廓信息对应的两个端点之间的长度值为50cm,目标测量区域的轮廓信息对应的待测量物体的测量参数值即图7a所示的采集到的彩色图像中椅子腿的高度值,则所述椅子腿的高度值为50cm,如图11a所示将测量结果显示出来;
由如图10b所示的目标测量区域的轮廓信息对应的两个端点之间的长度值为160cm,目标测量区域的轮廓信息对应的待测量物体的测量参数值即图7b所示的采集到的深度图像中汽车头部的宽度值,则所述汽车头部的宽度值为160cm,如图11b所示将测量结果显示出来;
本申请实施例二中,在采集到图像信息后,自动提取并分割待测量物体的轮廓信息,并在此基础上计算长度、面积、体积等测量参数值,使测量过程更加简捷方便,省去了用户作出各种手势的复杂,以及降低由手势多个关键点产生误差而带来的对测量结果的影响,使得测量结果更加准确。
本申请中提供的如图1所示的测量装置100,在执行实施例一提供的测量方法时,具体各部分的执行过程如下所述。
传感器110,用于采集待测量物体的图像信息和手势的信息;
处理器120,用于读取存储器150存储的一组程序,执行以下过程:
在确定出传感器110采集的手势满足设定条件时,根据所述手势确定所述待测量物体的测量定位点;
获取将所述测量定位点映射到三维空间后的三维坐标值;
确定所述待测量物体的测量参数;
根据所述测量参数和所述三维坐标值,计算所述待测量物体的所述测量参数的值;
收发器130,用于将处理器120计算获得的测量参数的值向显示器140发送;
显示器140,用于将接收到的参数的值进行显示。
较佳地,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值。
较佳地,处理器120具体用于:
确定所述手势的手势类型;
在预先设置的手势类型与测量参数的对应关系中,查找确定的手势类型对应的测量参数,作为所述待测量物体的测量参数。
较佳地,所述参数包括长度、面积、体积、距离采集图像信息的采集设备的距离中的至少一个。
本申请中提供的如图1所示的测量装置100,在执行实施例二提供的测量方法时,具体各部分的执行过程如下所述。
传感器110,用于采集待测量物体的图像信息,以及采集手势的信息;
处理器120,用于读取存储器150存储的一组程序,执行以下过程:
从传感器110采集到的图像信息中提取待测量物体的轮廓信息;
在传感器110采集手势满足设定条件时,根据所述手势确定用户在所述图像信息中感兴趣的目标测量区域;
在提取到的轮廓信息中,分割出所述目标测量区域的轮廓信息;
获取将分割出的轮廓信息中包含的各端点映射到三维空间后的三维坐标值;
根据获取的三维坐标值,计算所述目标测量区域的轮廓信息对应的待测量物体的测量参数值;
收发器130,用于将处理器120计算获得的所述测量参数值向显示器140发送;
显示器140,用于将接收到的所述测量参数值进行显示。
较佳地,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值;或
所述手势在与所述图像信息映射的二维平面垂直的方向上平移的距离超过设定步长,其中,所述手势在平移过程中在所述图像信息映射的二维平面上的相对位置不变。
较佳地,所述测量参数值包括长度值、面积值、体积值、距离采集图像信息的采集设备的距离中的至少一个。
至此,本申请提供的基于手势的物体测量方法及装置介绍完毕。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (14)
1.一种基于手势的物体测量方法,其特征在于,包括:
采集待测量物体的图像信息;
采集手势的信息;
在所述手势满足设定条件时,根据所述手势确定所述待测量物体的测量定位点;
获取将所述测量定位点映射到三维空间后的三维坐标值;
确定所述待测量物体的测量参数;
根据所述测量参数和所述三维坐标值,计算所述待测量物体的所述测量参数的值。
2.如权利要求1所述的方法,其特征在于,确定所述待测量物体的测量参数,包括:
确定所述手势的手势类型;
在预先设置的手势类型与测量参数的对应关系中,查找确定的手势类型对应的测量参数,作为所述待测量物体的测量参数。
3.如权利要求1或2所述的方法,其特征在于,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值。
4.如权利要求1、2或3所述的方法,其特征在于,所述参数包括长度、面积、体积、距离采集图像信息的采集设备的距离中的至少一个。
5.一种基于手势的物体测量方法,其特征在于,包括:
采集待测量物体的图像信息;
从采集到的图像信息中提取所述待测量物体的轮廓信息;
采集手势的信息;
在所述手势满足设定条件时,根据所述手势确定用户在所述图像信息中感兴趣的目标测量区域;
在提取到的轮廓信息中,分割出所述目标测量区域的轮廓信息;
获取将分割出的轮廓信息中包含的各端点映射到三维空间后的三维坐标值;
根据获取的三维坐标值,计算所述目标测量区域的轮廓信息对应的待测量物体的测量参数值。
6.如权利要求5所述的方法,其特征在于,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值;或
所述手势在与所述图像信息映射的二维平面垂直的方向上平移的距离超过设定步长,其中,所述手势在平移过程中在所述图像信息映射的二维平面上的相对位置不变。
7.如权利要求5或6所述的方法,其特征在于,所述测量参数值包括长度值、面积值、体积值、距离采集图像信息的采集设备的距离中的至少一个。
8.一种基于手势的物体测量装置,其特征在于,包括传感器、处理器、收发器、显示器,其中:
所述传感器,用于采集待测量物体的图像信息,以及采集手势的信息;
所述处理器,用于读取一组程序,执行以下过程:
在所述传感器采集的手势满足设定条件时,根据所述手势确定所述待测量物体的测量定位点;
获取将所述测量定位点映射到三维空间后的三维坐标值;
确定所述待测量物体的测量参数;
根据所述测量参数和所述三维坐标值,计算所述待测量物体的所述测量参数的值;
所述收发器,用于将所述处理器计算获得的测量参数的值向所述显示器发送;
所述显示器,用于将接收到的参数的值进行显示。
9.如权利要求8所述的装置,其特征在于,所述处理器具体用于:
确定所述手势的手势类型;
在预先设置的手势类型与测量参数的对应关系中,查找确定的手势类型对应的测量参数,作为所述待测量物体的测量参数。
10.如权利要求8或9所述的装置,其特征在于,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值。
11.如权利要求8、9或10所述的装置,其特征在于,还包括存储器,用于存储所述处理器执行的程序。
12.一种基于手势的物体测量装置,其特征在于,包括传感器、处理器、收发器、显示器,其中:
所述传感器,用于采集待测量物体的图像信息,以及采集手势的信息;
所述处理器,用于读取一组程序,执行以下过程:
从所述传感器采集到的图像信息中提取所述待测量物体的轮廓信息;
在所述传感器采集的手势满足设定条件时,根据所述手势确定用户在所述图像信息中感兴趣的目标测量区域;
在提取到的轮廓信息中,分割出所述目标测量区域的轮廓信息;
获取将分割出的轮廓信息中包含的各端点映射到三维空间后的三维坐标值;
根据获取的三维坐标值,计算所述目标测量区域的轮廓信息对应的待测量物体的测量参数值;
所述收发器,用于将所述处理器计算获得的所述测量参数值向所述显示器发送;
所述显示器,用于将接收到的所述测量参数值进行显示。
13.如权利要求12所述的装置,其特征在于,所述手势满足设定条件,包括:
所述手势处于所述图像信息中的一个相对位置的持续时长超过预设时长阈值;或
所述手势在与所述图像信息映射的二维平面垂直的方向上平移的距离超过设定步长,其中,所述手势在平移过程中在所述图像信息映射的二维平面上的相对位置不变。
14.如权利要求12或13所述的装置,其特征在于,还包括存储器,用于存储所述处理器执行的程序。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510790469.4A CN106705837B (zh) | 2015-11-17 | 2015-11-17 | 一种基于手势的物体测量方法及装置 |
EP16192311.5A EP3176678B1 (en) | 2015-11-17 | 2016-10-05 | Gesture-based object measurement method and apparatus |
US15/344,218 US10262197B2 (en) | 2015-11-17 | 2016-11-04 | Gesture-based object measurement method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510790469.4A CN106705837B (zh) | 2015-11-17 | 2015-11-17 | 一种基于手势的物体测量方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106705837A true CN106705837A (zh) | 2017-05-24 |
CN106705837B CN106705837B (zh) | 2019-12-06 |
Family
ID=57442426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510790469.4A Active CN106705837B (zh) | 2015-11-17 | 2015-11-17 | 一种基于手势的物体测量方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10262197B2 (zh) |
EP (1) | EP3176678B1 (zh) |
CN (1) | CN106705837B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107786549A (zh) * | 2017-10-16 | 2018-03-09 | 北京旷视科技有限公司 | 音频文件的添加方法、装置、系统及计算机可读介质 |
CN107976183A (zh) * | 2017-12-18 | 2018-05-01 | 北京师范大学珠海分校 | 一种空间数据测量方法及装置 |
CN108204790A (zh) * | 2017-11-20 | 2018-06-26 | 国网山东省电力公司泰安供电公司 | 一种基于三维模型的测量装置和方法 |
CN108596969A (zh) * | 2018-04-28 | 2018-09-28 | 上海宝冶集团有限公司 | 一种受力钢筋间距验收方法 |
CN108682031A (zh) * | 2018-05-21 | 2018-10-19 | 深圳市酷开网络科技有限公司 | 基于增强现实技术的测量方法、智能终端及存储介质 |
CN108717724A (zh) * | 2018-04-02 | 2018-10-30 | 珠海格力电器股份有限公司 | 一种测量方法及装置 |
CN109540002A (zh) * | 2019-01-14 | 2019-03-29 | 上海德启信息科技有限公司 | 货物箱尺寸测量方法及装置 |
US10262197B2 (en) | 2015-11-17 | 2019-04-16 | Huawei Technologies Co., Ltd. | Gesture-based object measurement method and apparatus |
CN111435069A (zh) * | 2019-01-14 | 2020-07-21 | 顺丰科技有限公司 | 测量体积的方法和装置 |
CN111443802A (zh) * | 2020-03-25 | 2020-07-24 | 维沃移动通信有限公司 | 测量方法及电子设备 |
WO2020192535A1 (zh) * | 2019-03-26 | 2020-10-01 | 华为技术有限公司 | 一种测距方法及电子设备 |
CN112003995A (zh) * | 2020-08-06 | 2020-11-27 | 深圳市拔超科技有限公司 | 一种基于ar技术配置电视墙的方法及装置 |
CN112906427A (zh) * | 2019-11-19 | 2021-06-04 | 黄建龙 | 基于视觉检测的物体分类方法和装置 |
CN113237423A (zh) * | 2021-04-16 | 2021-08-10 | 北京京东乾石科技有限公司 | 物品体积测量设备 |
CN114923418A (zh) * | 2021-02-12 | 2022-08-19 | 苹果公司 | 基于点选择的测量 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI699756B (zh) * | 2017-09-13 | 2020-07-21 | 國立清華大學 | 基於彈性特徵影像尺的定位量測系統 |
CN108304119B (zh) * | 2018-01-19 | 2022-10-28 | 腾讯科技(深圳)有限公司 | 物体测量方法、智能终端及计算机可读存储介质 |
CN109828660B (zh) * | 2018-12-29 | 2022-05-17 | 深圳云天励飞技术有限公司 | 一种基于增强现实的控制应用操作的方法及装置 |
CN114593688B (zh) * | 2022-03-03 | 2023-10-03 | 惠州Tcl移动通信有限公司 | 基于ar眼镜的三维测量方法、装置、ar眼镜及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1031942A2 (en) * | 1999-02-22 | 2000-08-30 | Keyence Corporation | Image edge detection method, inspection system, and recording medium |
JP2005293291A (ja) * | 2004-03-31 | 2005-10-20 | Brother Ind Ltd | 画像入出力装置 |
CN102016756A (zh) * | 2008-04-21 | 2011-04-13 | 卡尔蔡司工业测量技术有限公司 | 根据对使用者手势的感测来显示工件测量结果 |
WO2012126103A1 (en) * | 2011-03-23 | 2012-09-27 | Mgestyk Technologies Inc. | Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use |
CN103135757A (zh) * | 2011-12-05 | 2013-06-05 | 纬创资通股份有限公司 | 手势检测方法、手势检测系统及计算机可读取储存媒体 |
CN103430042A (zh) * | 2011-03-22 | 2013-12-04 | 莱卡地球系统公开股份有限公司 | 有无需接触测量设备而作用的基于手势的测量触发的电光测距设备 |
WO2014179382A2 (en) * | 2013-05-01 | 2014-11-06 | Faro Technologies, Inc. | Method and apparatus for using gestures to control a laser tracker |
WO2014181725A1 (ja) * | 2013-05-07 | 2014-11-13 | シャープ株式会社 | 画像計測装置 |
CN104216506A (zh) * | 2013-05-30 | 2014-12-17 | 华为技术有限公司 | 基于手势操作的数据交互方法及装置 |
US9052804B1 (en) * | 2012-01-06 | 2015-06-09 | Google Inc. | Object occlusion to initiate a visual search |
CN105027031A (zh) * | 2013-12-19 | 2015-11-04 | 谷歌公司 | 使用在无触摸手势界面中的物体之间的距离 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19708240C2 (de) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
US7000469B2 (en) | 2000-04-21 | 2006-02-21 | Intersense, Inc. | Motion-tracking |
US6827579B2 (en) | 2000-11-16 | 2004-12-07 | Rutgers, The State University Of Nj | Method and apparatus for rehabilitation of neuromotor disorders |
CN101959322A (zh) | 2009-07-16 | 2011-01-26 | 萨基姆移动电话研发(宁波)有限公司 | 一种利用手机测量两点之间直线距离的方法 |
CN101799717A (zh) | 2010-03-05 | 2010-08-11 | 天津大学 | 基于手部行为捕捉的人机交互方法 |
CN101826129A (zh) | 2010-04-17 | 2010-09-08 | 中山大学 | 基于增强现实的虚拟测量原理及方法 |
CN201689383U (zh) | 2010-05-18 | 2010-12-29 | 孙敏 | 增强现实地理信息系统的智能交互实现装置 |
CN101833115B (zh) | 2010-05-18 | 2013-07-03 | 山东师范大学 | 基于增强现实技术的生命探测与救援系统及其实现方法 |
US20150035963A1 (en) | 2013-06-23 | 2015-02-05 | Eyelation, LLC | Dual-Camera Apparatus And Method For Deriving Dimensional Measurements |
KR101074678B1 (ko) | 2011-03-03 | 2011-10-18 | 배상모 | 휴대단말기에 구비된 카메라를 이용한 물체의 실제 크기 측정 방법 |
CN102891915A (zh) | 2011-07-18 | 2013-01-23 | 上海盛畅网络科技有限公司 | 移动终端的虚实互动娱乐系统和方法 |
KR20130022831A (ko) | 2011-08-26 | 2013-03-07 | 유민규 | 이동통신 단말기를 이용한 거리, 높이, 길이 측정 방법 |
US9747306B2 (en) * | 2012-05-25 | 2017-08-29 | Atheer, Inc. | Method and apparatus for identifying input features for later recognition |
CN102857633A (zh) | 2012-08-15 | 2013-01-02 | 苏州启智机电技术有限公司 | 手机测距系统 |
CN103595856A (zh) | 2012-08-18 | 2014-02-19 | 句容茂森智能机器设备有限公司 | 一种手机测量物体长度的方法 |
CN103167079B (zh) | 2012-09-14 | 2015-08-05 | 深圳市金立通信设备有限公司 | 一种手机测量系统及方法 |
US9477312B2 (en) | 2012-11-05 | 2016-10-25 | University Of South Australia | Distance based modelling and manipulation methods for augmented reality systems using ultrasonic gloves |
CN103017693A (zh) | 2012-12-03 | 2013-04-03 | 广东欧珀移动通信有限公司 | 一种智能手机测量面积的方法 |
EP2770783B1 (en) | 2013-02-21 | 2018-06-20 | Apple Inc. | A wearable information system having at least one camera |
CN104063039A (zh) | 2013-03-18 | 2014-09-24 | 朱慧灵 | 一种穿戴式计算机智能终端的人机交互方法 |
CN103398696B (zh) | 2013-07-15 | 2015-09-16 | 深圳市金立通信设备有限公司 | 一种终端摄像头测距方法及终端 |
CN104460951A (zh) | 2013-09-12 | 2015-03-25 | 天津智树电子科技有限公司 | 一种人机交互方法 |
US20150097719A1 (en) | 2013-10-03 | 2015-04-09 | Sulon Technologies Inc. | System and method for active reference positioning in an augmented reality environment |
CN103591894B (zh) | 2013-11-05 | 2017-07-11 | 广东欧珀移动通信有限公司 | 通过摄像头测量物体长度的方法与装置 |
CN104750969B (zh) | 2013-12-29 | 2018-01-26 | 刘进 | 智能机全方位增强现实信息叠加方法 |
CN103759701B (zh) | 2014-01-13 | 2016-03-09 | 南通大学 | 基于安卓平台的手机智能测距方法 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN104484053B (zh) | 2015-01-04 | 2017-10-27 | 北京远程视界眼科医院管理有限公司 | 基于穿戴式眼镜的单目视线范围测量的方法和系统 |
CN104596419A (zh) | 2015-01-22 | 2015-05-06 | 宇龙计算机通信科技(深圳)有限公司 | 一种基于双摄像头测量物体质量的方法、装置和终端 |
US9964398B2 (en) * | 2015-05-06 | 2018-05-08 | Faro Technologies, Inc. | Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform |
US11182600B2 (en) * | 2015-09-24 | 2021-11-23 | International Business Machines Corporation | Automatic selection of event video content |
CN106705837B (zh) | 2015-11-17 | 2019-12-06 | 华为技术有限公司 | 一种基于手势的物体测量方法及装置 |
-
2015
- 2015-11-17 CN CN201510790469.4A patent/CN106705837B/zh active Active
-
2016
- 2016-10-05 EP EP16192311.5A patent/EP3176678B1/en active Active
- 2016-11-04 US US15/344,218 patent/US10262197B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1031942A2 (en) * | 1999-02-22 | 2000-08-30 | Keyence Corporation | Image edge detection method, inspection system, and recording medium |
JP2005293291A (ja) * | 2004-03-31 | 2005-10-20 | Brother Ind Ltd | 画像入出力装置 |
CN102016756A (zh) * | 2008-04-21 | 2011-04-13 | 卡尔蔡司工业测量技术有限公司 | 根据对使用者手势的感测来显示工件测量结果 |
CN103430042A (zh) * | 2011-03-22 | 2013-12-04 | 莱卡地球系统公开股份有限公司 | 有无需接触测量设备而作用的基于手势的测量触发的电光测距设备 |
WO2012126103A1 (en) * | 2011-03-23 | 2012-09-27 | Mgestyk Technologies Inc. | Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use |
CN103135757A (zh) * | 2011-12-05 | 2013-06-05 | 纬创资通股份有限公司 | 手势检测方法、手势检测系统及计算机可读取储存媒体 |
US9052804B1 (en) * | 2012-01-06 | 2015-06-09 | Google Inc. | Object occlusion to initiate a visual search |
WO2014179382A2 (en) * | 2013-05-01 | 2014-11-06 | Faro Technologies, Inc. | Method and apparatus for using gestures to control a laser tracker |
WO2014181725A1 (ja) * | 2013-05-07 | 2014-11-13 | シャープ株式会社 | 画像計測装置 |
CN104216506A (zh) * | 2013-05-30 | 2014-12-17 | 华为技术有限公司 | 基于手势操作的数据交互方法及装置 |
CN105027031A (zh) * | 2013-12-19 | 2015-11-04 | 谷歌公司 | 使用在无触摸手势界面中的物体之间的距离 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262197B2 (en) | 2015-11-17 | 2019-04-16 | Huawei Technologies Co., Ltd. | Gesture-based object measurement method and apparatus |
CN107786549B (zh) * | 2017-10-16 | 2019-10-29 | 北京旷视科技有限公司 | 音频文件的添加方法、装置、系统及计算机可读介质 |
CN107786549A (zh) * | 2017-10-16 | 2018-03-09 | 北京旷视科技有限公司 | 音频文件的添加方法、装置、系统及计算机可读介质 |
CN108204790A (zh) * | 2017-11-20 | 2018-06-26 | 国网山东省电力公司泰安供电公司 | 一种基于三维模型的测量装置和方法 |
CN108204790B (zh) * | 2017-11-20 | 2021-08-24 | 国网山东省电力公司泰安供电公司 | 一种基于三维模型的测量装置和方法 |
CN107976183A (zh) * | 2017-12-18 | 2018-05-01 | 北京师范大学珠海分校 | 一种空间数据测量方法及装置 |
CN108717724A (zh) * | 2018-04-02 | 2018-10-30 | 珠海格力电器股份有限公司 | 一种测量方法及装置 |
CN108596969A (zh) * | 2018-04-28 | 2018-09-28 | 上海宝冶集团有限公司 | 一种受力钢筋间距验收方法 |
CN108682031A (zh) * | 2018-05-21 | 2018-10-19 | 深圳市酷开网络科技有限公司 | 基于增强现实技术的测量方法、智能终端及存储介质 |
CN111435069A (zh) * | 2019-01-14 | 2020-07-21 | 顺丰科技有限公司 | 测量体积的方法和装置 |
CN111435069B (zh) * | 2019-01-14 | 2022-07-08 | 顺丰科技有限公司 | 测量体积的方法和装置 |
CN109540002A (zh) * | 2019-01-14 | 2019-03-29 | 上海德启信息科技有限公司 | 货物箱尺寸测量方法及装置 |
US11847789B2 (en) | 2019-03-26 | 2023-12-19 | Huawei Technologies Co., Ltd. | Distance measurement method and electronic device |
WO2020192535A1 (zh) * | 2019-03-26 | 2020-10-01 | 华为技术有限公司 | 一种测距方法及电子设备 |
CN112906427A (zh) * | 2019-11-19 | 2021-06-04 | 黄建龙 | 基于视觉检测的物体分类方法和装置 |
CN111443802A (zh) * | 2020-03-25 | 2020-07-24 | 维沃移动通信有限公司 | 测量方法及电子设备 |
CN112003995A (zh) * | 2020-08-06 | 2020-11-27 | 深圳市拔超科技有限公司 | 一种基于ar技术配置电视墙的方法及装置 |
CN112003995B (zh) * | 2020-08-06 | 2023-06-06 | 深圳市拔超科技股份有限公司 | 一种基于ar技术配置电视墙的方法及装置 |
CN114923418A (zh) * | 2021-02-12 | 2022-08-19 | 苹果公司 | 基于点选择的测量 |
CN113237423A (zh) * | 2021-04-16 | 2021-08-10 | 北京京东乾石科技有限公司 | 物品体积测量设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3176678A3 (en) | 2017-08-16 |
CN106705837B (zh) | 2019-12-06 |
US10262197B2 (en) | 2019-04-16 |
EP3176678B1 (en) | 2020-02-05 |
EP3176678A2 (en) | 2017-06-07 |
US20170140216A1 (en) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106705837A (zh) | 一种基于手势的物体测量方法及装置 | |
CN104813340B (zh) | 从2d图像序列导出准确身体尺寸测量的系统和方法 | |
CN105556508B (zh) | 虚拟镜子的装置、系统和方法 | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
CN106662917B (zh) | 眼睛跟踪校准系统和方法 | |
CN104376594B (zh) | 三维人脸建模方法和装置 | |
US8970569B2 (en) | Devices, systems and methods of virtualizing a mirror | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN110363867B (zh) | 虚拟装扮系统、方法、设备及介质 | |
KR101643496B1 (ko) | 카메라 파라미터의 컨텍스트 기반 조절 | |
US20170206419A1 (en) | Visualization of physical characteristics in augmented reality | |
RU2019116179A (ru) | Система для измерения совокупности клинических параметров функции зрения | |
EP2919093A1 (en) | Method, system, and computer for identifying object in augmented reality | |
CN103399629B (zh) | 获取手势屏幕显示坐标的方法和装置 | |
CN104813258A (zh) | 数据输入装置 | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
CN104517100B (zh) | 手势预判方法和系统 | |
CN105843374B (zh) | 互动系统、遥控器及其运作方法 | |
CN108027656A (zh) | 输入设备、输入方法和程序 | |
CN104199548B (zh) | 一种三维人机交互操作装置、系统及方法 | |
CN108830943A (zh) | 一种图像处理方法及虚拟现实设备 | |
CN109949900B (zh) | 三维脉波的显示方法、装置、计算机设备及存储介质 | |
CN103761011B (zh) | 一种虚拟触摸屏的方法、系统及计算设备 | |
CN109933190B (zh) | 一种头戴显示设备及其交互方法 | |
CN103440036B (zh) | 三维图像的显示和交互操作方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |