CN114947816A - 非触摸式腕部测量 - Google Patents
非触摸式腕部测量 Download PDFInfo
- Publication number
- CN114947816A CN114947816A CN202210148660.9A CN202210148660A CN114947816A CN 114947816 A CN114947816 A CN 114947816A CN 202210148660 A CN202210148660 A CN 202210148660A CN 114947816 A CN114947816 A CN 114947816A
- Authority
- CN
- China
- Prior art keywords
- wrist
- depth
- implementations
- map images
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1075—Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
-
- A—HUMAN NECESSITIES
- A44—HABERDASHERY; JEWELLERY
- A44C—PERSONAL ADORNMENTS, e.g. JEWELLERY; COINS
- A44C5/00—Bracelets; Wrist-watch straps; Fastenings for bracelets or wrist-watch straps
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/022—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/08—Measuring arrangements characterised by the use of optical techniques for measuring diameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Geometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明题为“非触摸式腕部测量”。本文公开的各种具体实施包括使用由深度传感器从腕部的一个或多个旋转取向捕获的深度数据来确定腕部测量值或表带大小的设备、系统和方法。在一些具体实施中,获得由深度传感器捕获的深度数据,该深度数据包括来自不同角度的腕部的至少两个深度图图像。在一些具体实施中,基于将深度数据输入到机器学习模型中来生成输出,该输出对应于腕部的周长或腕部的表带大小。然后,基于输出来提供表带大小推荐。
Description
技术领域
本公开一般涉及执行非触摸式腕部测量的电子设备,并且具体地涉及使用由电子设备的深度传感器捕获的深度数据确定腕部测量值或表带大小的系统、方法和设备。
背景技术
现有的测量技术相对于测量人的腕部具有各种缺点。此类技术可能需要特殊的测量装备,诸如需要与人的腕部接触并且可能难以使用且容易出错的身体测量尺或卷尺。
发明内容
本文公开的各种具体实施包括使用由深度传感器捕获的深度数据来确定腕部测量值或表带大小的设备、系统和方法。在一些具体实施中,腕部测量技术是非触摸式的。在一些具体实施中,腕部测量技术由实体零售商店中的经训练的技术人员执行。另选地,腕部测量技术由个人使用电子设备(如包括深度传感器的智能手机)执行。例如,将电子设备放置在表面上,其中深度传感器朝上,并且用户可以在该电子设备上方旋转其手部/腕部,而在腕部扫描过程期间捕获腕部的至少两个深度图图像。在一些具体实施中,深度数据包括腕部的至少两个深度图图像,其来自充分分开的不同角度以准确地表示腕部的周长。例如,用户腕部深度图图像中的一个可以在手掌面向深度传感器时被捕获,并且用户腕部深度图图像中的另一个在手掌面向一侧时被捕获(例如,大约90°旋转)。在一些具体实施中,深度数据被输入到机器学习(ML)模型中,该模型输出对应于腕部周长和/或多个带大小中的表带大小的测量值。在一些具体实施中,ML模型是卷积神经网络(CNN)回归器。
在一些具体实施中,在具有处理器的电子设备处,一种方法包括获得由深度传感器捕获的深度数据,该深度数据包括来自不同角度的腕部的至少两个深度图图像。在一些具体实施中,基于将深度数据输入到机器学习模型中来生成输出,该输出对应于腕部周长或腕部表带大小,并且基于输出来提供表带大小推荐。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1至图5示出了根据一些具体实施的示例性腕部测量技术。
图6示出了根据一些具体实施的用于腕部测量的沿前臂的候选位置的示例。
图7示出了根据一些具体实施的用于腕部测量的候选松紧程度的示例。
图8是示出根据一些具体实施的使用由深度传感器捕获的深度数据来确定腕部测量值或表带大小的示例性方法的流程图。
图9示出了根据一些具体实施的示例性操作环境。
图10示出了根据一些具体实施的示例性电子设备。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将会知道,其他有效方面或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
本文公开的各种具体实施包括使用由深度传感器捕获的深度数据来确定腕部测量值和/或表带大小的设备、系统和方法。在一些具体实施中,腕部测量技术是非触摸式的。在一些具体实施中,腕部测量技术由个人使用电子设备(如包括深度传感器的智能手机)执行。可将电子设备放置在表面上,其中深度传感器朝上,并且用户可以在该电子设备上方旋转其手部/腕部,而在腕部扫描过程期间捕获腕部的至少两个深度图图像。在一些具体实施中,用户腕部深度图图像中的一个在手掌面向深度传感器时被捕获,并且用户腕部深度图图像中的另一个在手掌面向一侧时被捕获。在一些具体实施中,深度数据被输入到机器学习(ML)模型中,该模型输出对应于腕部周长和/或多个带大小中的表带大小的测量值。任选地,深度图图像可以包括手部的部分、手部整体和/或腕部上方的臂的部分的深度值。在一些具体实施中,提供了关于腕部定位的指导,而深度数据由深度传感器获得。
在一些具体实施中,表带呈多种尺寸。此外,基于腕部周长,第一表类型(例如,宽)可以呈第一多个固定大小,并且第二表类型(例如,窄)可以呈第二多个固定大小。然而,表带大小可以在第一表类型与第二表类型之间重叠。在一些具体实施中,表带不可调节(例如,没有扣钩、扣环、凹口等),尽管不可调节的表带可以稍微拉伸以从手部上方滑动到腕部上。准确的腕部测量特别适用于不可调节的表。
图1至图5示出了根据一些具体实施的示例性腕部测量技术。如图1所示,腕部测量技术可以在电子设备120中实施。在图1中,电子设备120包括面向用户100的腕部110的深度传感器122。在一些具体实施中,由深度传感器122捕获的腕部110的两个深度图像用于确定腕部测量值和/或表带大小。
在一些具体实施中,获得多于两个深度图图像的集合,并且基于确定两个深度图图像对应于视点上的至少阈值差(例如,50°、60°、70°、80°、90°)来从集合中选择两个深度图图像,该视点足以为预期用途情况提供足够的准确度水平。在一个示例中,基于确定所述差异足以识别表示腕部的形状和大小的两个不同的椭圆参数来选择视点上的阈值差,其中根据椭圆参数可以确定腕部周长。识别椭圆参数可能需要视点上的阈值差。任选地,深度图图像可以包括手部的部分、手部整体和/或臂的其他部分(例如最高至肘部的臂)的深度值。在一些具体实施中,在获得深度数据时,提供关于腕部或深度传感器的定位的指导。
在电子设备120中初始化腕部测量技术时,可以在电子设备120处提供初始化屏幕202。如图2所示,初始化屏幕202的第一图像202a包括腕部选择指示符212和腕部选择致动器216。在一些具体实施中,当用户100选择要在腕部选择致动器216处测量右腕部时,使用初始化屏幕202的第二图像202b中的腕部选择确认218在腕部选择图像202b中指示右腕部选择。在一些具体实施中,开始选择210在整个腕部测量技术期间连续可用。
在选择要测量的腕部时,可以在电子设备120处提供第一腕部测量屏幕204。如图3所示,第一腕部测量屏幕204包括指令区域310、固定指示符312a、可变指示符312b和第一腕部测量完成指示符312c。例如,指令区域310可以说“将您的右腕部手掌朝下放在下方视图的中心”以及“将实心圆点定位在中空圆圈内部以将其填充”(例如,相对于固定指示符312a移动可变指示符312b)。在一些具体实施中,固定指示符312a表示高于深度传感器122的预设高度。此外,可变指示符312b与腕部110一起移动并且随着可变指示符312b接近深度传感器122而增大。在一些具体实施中,第一腕部测量屏幕204包括深度传感器122上方的区域的视图(例如,右腕部110的第一深度测量进行的区域)。如图3所示,第一测量屏幕204的一系列示例性图像204a、204b、204c包括腕部110、固定指示符312a和可变指示符312b,直到在示例性图像204d中显示第一腕部测量完成指示符312c。
在完成第一腕部测量后,可以在电子设备处提供第二腕部测量屏幕206。如图4所示,第二腕部测量屏幕206包括指令区域410、固定指示符412a、可变指示符412b和第二腕部测量完成指示符412c。例如,指令区域410可以说“将您的手部转向一侧并且将您的腕部放在下方视图的中心”以及“将圆点定位在圆圈内部以将其填充”(例如,移动可变指示符412b以填充固定指示符412a)。在一些具体实施中,固定指示符412a表示高于深度传感器122的预设高度,并且可变指示符412b与腕部110一起移动以指示从腕部110到深度传感器122的距离。例如,可变指示符412b可以随着可变指示符412b接近深度传感器122而增大。在一些具体实施中,第二腕部测量屏幕206包括深度传感器122上方的区域的视图(例如,右腕部110的第二深度测量进行的区域)。如图4所示,第二测量屏幕206的一系列示例性图像206a、206b、206c包括腕部110、固定指示符412a和可变指示符412b,直到在示例性图像206d中显示第二腕部测量完成指示符412c。
在一些具体实施中,由深度传感器122捕获的腕部110的两个(或更多个)深度测量值或图像用于确定腕部测量值或表带大小。在一些具体实施中,测量值输出屏幕208包括测量值指示符。如图5所示,测量值指示符512a提供表带大小为“大小5”。在一些具体实施中,测量值输出屏幕508包括测量完整指示符510和测量置信度指示符512b。如图5所示,测量值指示符512a提供表带大小为“大小5”,以及“高”测量置信度指示符512b。
在一些另选具体实施中,腕部周长是腕部测量技术的输出。如图5所示,测量值指示符512a'提供可以以图形方式显示在用户100的腕部110的视图上的腕部周长。在其它具体实施中,带大小或腕部周长可以显示为3D虚拟对象(例如,利用表和/或腕部)。
在一些具体实施中,测量置信度指示符512b输出测量置信度指示符512b的相对值(例如,高、良好、平均、差),或者当置信度为腕部测量技术的输出是针对用户100重做腕部测量的推荐时,仅输出指示符。在一些具体实施中,测量置信度指示符512b输出零和100之间的数值。
在一些具体实施中,将腕部的两个深度图像输入到机器学习(ML)模型(例如,神经网络)中,该ML模型被训练为使用腕部的两个输入深度图像输出腕部测量值或多个表带大小中的1个大小(例如,当置信度低或周长测量值在两个大小之间相等/接近时,输出2个大小)来自多个表带大小。例如,两个输入深度图像是腕部的手掌朝向的深度图图像和侧向的深度图图像。在一些具体实施中,在从真人生成的左臂和右臂数据集、从包括腕部(例如,前臂、腕部或手部)的合成臂模型数据库生成的数据集、或它们的组合上训练ML模型。例如,来自有生命的受试者的地面真实腕部周长可以由数据受试者本身或辅助技术人员提供。在来自合成臂模型数据库的示例中,可以在前臂的最小周长或沿着臂模型的纵向轴线的范围内提供地面真实腕部周长(例如,横截面)。在一些具体实施中,训练卷积神经网络(CNN)以基于腕部的两个视图或几个(例如,5)视图或者围绕茎突骨的预设距离或范围(例如,10cm)内的前臂的3D网格来对腕部大小进行回归。在一些具体实施中,ML模型可以使用与深度图图像对准的RGB数据(例如,在扫描过程期间捕获的图像)。在一些具体实施中,识别对应于腕部的深度数据的部分的分割掩码被输入到ML模型,其中分割掩码是基于光强度传感器数据(例如,RGB数据)生成的。
在各种具体实施中,ML模型可以是但不限于深度神经网络(DNN)、编码器/解码器神经网络、卷积神经网络(CNN)或生成式对抗神经网络(GANN)。在一些具体实施中,用于测量腕部的图像数据被指定用于自动化处理(例如,机器查看而不是人类查看)以解决隐私问题。
如本文所述,可以使用包括可能的障碍物诸如衬衫袖子、饰品(例如,戒指、手镯等)或两者的数据集来训练ML网络。在一些具体实施中,训练ML网络以从多个带大小中输出一个带大小。另选地,训练ML网络以输出腕部周长,然后将其映射(例如,自动地)以输出带大小。
在一些具体实施中,将表佩戴在沿前臂的不同位置(例如,多个表/腕部位置)。在一些具体实施中,腕部位置是对ML网络的输入,并且基于用户选择沿前臂的多个(例如,三个、四个、五个)位置中的一个用于腕部测量(例如,周长)来进一步训练ML网络。如图6所示,可以相对于用户的茎突骨来限定多个可能的位置。例如,位置A位于茎突骨的前面,位置B位于茎突骨之上,位置C邻近茎突骨且位于其下方的位置,并且位置D远离茎突骨且位于其下方的位置。在另一示例中,前臂的最小周长是腕部位置(例如,通常位于茎突骨下方)。
在一些具体实施中,将表以不同的松紧程度(例如,舒适性)佩戴在前臂上(例如,多个松紧程度)。在一些具体实施中,松紧程度是对ML网络的输入,并且基于用户选择多于一个的松紧程度用于腕部测量(例如,周长)来进一步训练ML网络。如图7所示,多个松紧程度可以是程度A:紧贴并且使腕部周围的皮肤变形、程度B:舒适并且接触腕部周围的皮肤、或程度C:松动并且不接触沿腕部整个周长的皮肤。另选地,松紧程度可以通过诸如2mm的预设距离来修改腕部周长。
在一些具体实施中,腕部可以被表示为具有2个正交变量(例如,宽度和长度)的椭圆体。然而,宽度和长度测量值可以彼此独立地改变,并且因此,腕部的单个视图不足以正确确定腕部的周长。因此,需要腕部的至少两个视图,并且这两个视图必须在旋转中充分分开以确定腕部周长(例如,控制确定椭圆体的独立宽度和长度变量两者)。在一些具体实施中,腕部两个不同视图之间的旋转为至少45°、75°或90°。
在一些具体实施中,在第一深度测量之前、第一深度测量与第二深度测量之间或在第二深度测量之后的附加视图可以被捕获并用作ML网络的输入。
在一些具体实施中,腕部的两个深度图像包括手指和手部或最高至肘部的前臂的部分的深度数据。在一个示例中,将手部深度测量值(例如,拳头或手指)包括在腕部的两个深度图像中帮助确定旋转和对表示腕部的椭圆体进行准确建模。在另一示例中,将最高至肘部的前臂测量值包括在腕部的两个深度图像中似乎并未显著提高腕部测量的准确性。
在一些具体实施中,调整ML网络以聚焦在两个深度图像的腕部部分上。例如,距茎突骨预设距离内的输入数据或前臂的最小周长可被加权以对ML网络具有更大影响。在另一示例中,来自深度图像的手部或肘部区域的输入深度数据可被加权以对ML网络具有较小影响。
在一些具体实施中,深度图像对应于来自RGB图像传感器的图像并且与其配准。例如,RGB图像中的每个像素具有对应的深度值,并且组合的颜色和深度图像(例如,RGB-D)是用于每个深度图像的图像。
在一些具体实施中,腕部测量技术提供准确到+/-1mm、+/-3mm或+/-5mm之内的静止测量值。在一些具体实施中,腕部测量技术减少了随后被返回或更换的所购买的错误大小的表带的数量。在一项研究中,当使用可印刷测量工具或家用物品测量腕部时,腕部测量中存在至少七毫米(太大或太小)的平均值。
在一些具体实施中,本文所描述的腕部测量技术使用由深度传感器122捕获的腕部110的单个腕部测量(例如,深度测量、深度图像或深度数据)来实施。在一个示例中,可以在手掌朝下位于深度传感器122处捕获腕部110的单个腕部测量(例如,参见图2)。在另一示例中,可以在手掌朝向45°-90°位于深度传感器122上方处捕获腕部110的单个腕部测量(例如,参见图3)。在一个具体实施中,单个腕部测量使用组合的颜色和深度图像(例如,RGB-D)。在这些具体实施中,将腕部的单个深度测量输入到对应的ML模型中(例如,如本文所述),所述对应的ML模型被训练为使用单个深度测量输入(例如,腕部深度图像)输出腕部测量值或多个表带大小中的1个大小。在这些具体实施中,确定单个腕部测量的准确度足以识别单个表带大小(例如,+/-5mm),但比使用来自不同角度的腕部的两个深度测量值的具体实施更不准确。此外,显著减少(例如,至少50%)用于相对于深度传感器122定位腕部110的指导。因此,可以针对用户的子集(例如,盲人用户、幼儿)以第二操作模式(例如,可访问模式)实施单个腕部测量技术,因为单个腕部测量技术更容易执行。
如图1至图5所示,用于收集腕部的两个深度图像的用户指导是视觉指导,但是,应用程序不旨在被如此限制。在一些示例中,用于收集腕部的两个深度测量值的用户指导是声音指导。在一些具体实施中,声音指导根据距离对准的空间距离(例如,x/y和深度)而改变。在一个示例中,当腕部针对深度图像中的一个深度图像更接近对准时,蜂鸣声的频率可以改变(例如,增加,减少),并且然后在对准时,保持稳定(例如,为连续的或没有蜂鸣声)。在另一示例中,声音指导信号的音高随着腕部针对深度图像中的一个深度图像更接近对准而改变。在一些具体实施中,声音指导包括文字和方向,诸如“将您的腕部缓慢移动到右侧、……现在停止……、您已对准”。在一些具体实施中,指导由触觉信号或反馈提供,所述触觉信号或反馈通过施加力、振动或运动以将腕部针对深度图像之一引导至对准而产生触摸的体验。
在一些具体实施中,深度传感器122在腕部测量技术之前被校准。例如,温度波动或物理碰撞可以影响深度传感器并且对深度传感器122的深度测量值提供偏差。因此,可以通过在校准过程中将校准目标保持在深度传感器的设定距离和取向上来重新校准深度传感器。因此,在一些具体实施中,校准目标专用于深度传感器122或是具有已知大小的常见家居用品,诸如信用卡。
在一些具体实施中,深度传感器122是有源光立体检测系统。另选地,深度传感器122是多个深度传感器。在一些具体实施中,深度传感器122基于已知的2D或3D对象检测和定位算法、VIO信息、红外数据、深度检测数据、RGB-D数据、其它信息或其某种组合来检测腕部的深度。
图8是示出使用由深度传感器捕获的深度数据来确定腕部测量值或表带大小的示例性方法的流程图。在一些具体实施中,深度数据包括腕部的至少两个深度图图像,其来自充分分离的不同角度以准确地表示腕部周长。在一些具体实施中,测量体验是非触摸式的。在一些具体实施中,测量体验由个人使用电子设备来执行。在一些具体实施中,表带不可调节,并且准确的腕部测量是特别有用的。在一些具体实施中,方法800由设备(例如,图9和图10的电子设备920、1000)执行。可使用电子设备或由彼此通信的多个设备来执行方法800。在一些具体实施中,方法800由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法800由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。在一些具体实施中,方法800由具有处理器的电子设备执行。
在框810处,方法800获得由深度传感器捕获的深度数据,该深度数据包括来自不同角度的腕部的至少两个深度图图像。在一些具体实施中,深度传感器处于便携式电子设备(例如,智能手机、平板电脑等)中。在一些具体实施中,将电子设备放置在表面上,其中深度传感器朝上,并且在腕部扫描过程期间,用户可以在该电子设备上方旋转其手部/腕部。在一些具体实施中,基于确定两个深度图图像对应于视点上的至少阈值差(例如,90°)来选择该两个深度图图像,所述阈值差足以捕获用于表示腕部周长的两个不同椭圆。例如,用户腕部深度图图像中的一个在手掌面向深度传感器时被捕获,并且用户腕部深度图图像中的另一个在手掌面向一侧时被捕获。任选地,深度图图像可以包括手部的部分、手部整体和/或最高至肘部的臂的部分的深度值。在一些具体实施中,在获得深度数据时,提供关于腕部或深度传感器的定位的指导。
深度传感器可为一个或多个深度传感器(例如,结构光、飞行时间等)。另选地,深度数据可以包括两个深度图图像的双视图深度对。在一些具体实施中,深度数据包括在所述两个深度图图像之前、之间和之后捕获的附加深度图图像。在一个具体实施中,可以使用两个相机和立体成像技术(例如,三角测量)。在一个具体实施中,投影仪和图像传感器使用结构化光成像技术来确定深度数据。
在框820处,方法800基于将深度数据输入到机器学习(ML)模型中来生成输出,所述输出对应于腕部的周长或腕部的表带大小。在一些具体实施中,ML模型是卷积神经网络(CNN)回归器。在一些具体实施中,ML模型可以使用与深度图图像对准的RGB数据。在一些具体实施中,识别对应于腕部的深度数据的部分的分割掩码被输入到ML模型,其中分割掩码是基于光强度传感器数据(例如,RGB数据)生成的。在一些具体实施中,基于真实腕部的用户测量值使用真实接地真实数据和/或合成接地真实数据来训练ML模型,该数据识别沿前臂的纵向轴线的多个臂位置处的腕部周长(例如,靠近茎突骨或者沿前臂的最小周长)。此外,可以使用对应于表松紧度的训练数据来训练ML模型(例如,不接触沿周长一部分的皮肤、沿整个周长接触腕部、或部分地使皮肤变形)。另外,可以基于加权前臂测量值来训练ML模型,所述加权前臂测量值可以增加围绕腕部的测量值的相对显著性(例如,沿前臂的纵向轴线)。在一些具体实施中,ML模型还输出置信度值,其中低于该置信度值则推荐对腕部进行重新测量。另选地,该ML模型输出对应于腕部的周长或腕部的表带大小的置信度的置信度值。
在框830处,方法800基于该输出来提供表带大小推荐。在一些具体实施中,表带大小推荐是从多个表带大小(例如,5个大小、12个大小、15个大小)中选择的表带大小或者映射至腕部带大小的实际腕部周长测量值(例如,154mm)。在一个示例中,表带大小推荐以视觉形式、文字形式、听觉形式或它们的组合来提供给用户。
在一些具体实施中,方法800使用由深度传感器捕获的单个深度测量值来确定腕部测量值或表带大小。在这些具体实施中,在框810处获得腕部的单个深度图图像,在框820处将单个深度测量值输入到ML模型中,所述ML模型生成对应于腕部周长或腕部表带大小的输出,并且在框830处基于输出来提供表带大小推荐。在一个具体实施中,在框810处,捕获单个腕部测量值,其中手掌朝向深度传感器(例如,参见图2),该深度传感器捕获组合的颜色和深度数据(例如,RGB-D)作为单个深度测量值。
在一些具体实施中,电子设备是便携式电子设备,诸如智能手机或平板电脑。在一些具体实施中,电子设备为HMD。例如,本文公开的技术可以在HMD上实施,所述HMD提供周围物理环境的光学透视视图或视频透视视图。
图9示出了在物理环境905中使用电子设备920的示例性操作环境900。物理环境是指人们在没有电子系统帮助的情况下能够与其交互和/或对其感测的物理世界。物理环境是指人们在没有电子设备帮助的情况下能够对其感测和/或与其交互的物理世界。物理环境可包括物理特征,诸如物理表面或物理对象。例如,物理环境对应于包括物理树木、物理建筑物和物理人的物理公园。人们能够诸如通过视觉、触觉、听觉、味觉和嗅觉来直接感测物理环境和/或与物理环境交互。相反,扩展现实(XR)环境是指人们经由电子设备感测和/或交互的完全或部分模拟的环境。例如,XR环境可包括增强现实(AR)内容、混合现实(MR)内容、虚拟现实(VR)内容等。在XR系统的情况下,跟踪人的物理运动的一个子集或其表示,并且作为响应,以符合至少一个物理定律的方式调节在XR系统中模拟的一个或多个虚拟对象的一个或多个特征。例如,XR系统可以检测头部移动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。又如,XR系统可以检测呈现XR环境的电子设备(例如,移动电话、平板电脑、膝上型电脑等)的移动,并且作为响应,以类似于此类视图和声音在物理环境中将如何改变的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),XR系统可响应于物理运动的表示(例如,声音命令)来调节XR环境中图形内容的特征。
有许多不同类型的电子系统使人能够感测和/或与各种XR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为设计用于放置在人的眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或不具有触觉反馈的可穿戴或手持式控制器)、智能电话、平板电脑、以及台式/膝上型计算机。头戴式系统可具有集成不透明显示器和一个或多个扬声器。另选地,头戴式系统可被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。头戴式系统可具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过该媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或它们的任意组合。在一些具体实施中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
在图9的示例中,设备920被示出为单个设备。设备920的一些具体实施是手持式的。例如,设备920可以是移动电话、平板电脑、膝上型电脑等。在一些具体实施中,设备920由用户915穿戴。例如,设备920可以是表、头戴式设备(HMD)等。在一些具体实施中,设备920的功能经由两个或更多个设备(例如另外包括任选的基站)来实现。其他示例包括膝上型计算机、台式计算机、服务器或在功率、CPU能力、GPU能力、存储能力、存储器能力等方面包括附加能力的其他此类设备。可以用于实现设备920的功能的多个设备可以通过有线或无线通信彼此通信。
图10是示例性设备1000的框图。设备1000示出了设备920的示例性设备配置。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,电子设备1000包括一个或多个处理单元1002(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器1006、一个或多个通信接口1008(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、SPI、I2C或类似类型的接口)、一个或多个编程(例如,I/O)接口1010、一个或多个显示器1012、一个或多个面向内部或面向外部的传感器系统1014、存储器1020以及用于互连这些部件和各种其他部件的一条或多条通信总线1004。
在一些具体实施中,该一条或多条通信总线1004包括互连系统部件并控制系统部件之间的通信的电路。在一些具体实施中,该一个或多个I/O设备及传感器1006包括以下项中的至少一者:惯性测量单元(IMU)、加速度计、磁力计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎或者一个或多个深度传感器(例如,结构光、飞行时间等)或类似的装置。
在一些具体实施中,一个或多个显示器1012被配置为向用户呈现内容。在一些具体实施中,一个或多个显示器1012对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)或类似显示器类型。在一些具体实施中,一个或多个显示器1012对应于衍射、反射、偏振、全息等波导显示器。例如,电子设备1000可包括单个显示器。又如,电子设备1000包括针对用户的每只眼睛的显示器。
在一些具体实施中,一个或多个面向内部或面向外部的传感器系统1014包括捕获图像数据的图像捕获设备或阵列或者捕获音频数据的音频捕获设备或阵列(例如,麦克风)。该一个或多个图像传感器系统1014可以包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机等。在各种具体实施中,该一个或多个图像传感器系统1014还包括发射光的照明源,诸如闪光灯。在一些具体实施中,该一个或多个图像传感器系统1014还包括相机上图像信号处理器(ISP),其被配置为对图像数据执行多个处理操作。
存储器1020包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器1020包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器1020任选地包括与一个或多个处理单元1002远程定位的一个或多个存储设备。存储器1020包括非暂态计算机可读存储介质。
在一些具体实施中,存储器1020或存储器1020的非暂态计算机可读存储介质存储可选的操作系统1030和一个或多个指令集1040。操作系统1030包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些具体实施中,指令集1040包括由以电荷形式存储的二进制信息定义的可执行软件。在一些具体实施中,指令集1040是能够由一个或多个处理单元1002执行以实施本文所述技术中的一种或多种的软件。
在一些具体实施中,指令集1040包括深度测量值生成器1042,所述深度测量值生成器可由处理单元1002执行以根据本文公开的技术中的一者或多者从足以准确地表示腕部周长的不同角度捕获腕部的至少两个深度测量值。在一些具体实施中,指令集1040包括ML模型1044,所述ML模型可由处理单元1002执行以根据本文公开的技术中的一者或多者且基于腕部的至少两个深度测量值来输出腕部测量值。
尽管指令集1040被示出为驻留在单个设备上,但应当理解,在其他具体实施中,元件的任何组合可位于单独的计算设备中。图10更多地用作存在于特定具体实施中的各种特征部的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,指令集的实际数量和特定功能的划分以及如何在其中分配特征部将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定具体实施选择的硬件、软件或固件的特定组合。
应当理解,上文所描述的具体实施以示例的方式引用,并且本公开不限于上文已特别示出和描述的内容。相反地,范围包括上文所描述的各种特征的组合和子组合两者,以及本领域的技术人员在阅读前述描述时将想到的并且在现有技术中未公开的所述各种特征的变型和修改。
本领域的那些普通技术人员将意识到没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。此外,其他有效方面和/或变体不包括本文所述的所有具体细节。因此,描述了若干细节以便提供对附图中所示的示例性方面的透彻理解。此外,附图仅示出了本公开的一些示例性实施方案,因此不应被视为限制。
虽然本说明书包含许多具体实施细节,但是这些具体实施细节不应被理解为是对任何发明或可能要求保护的内容的范围的限制,而应被理解为对特定于特定发明的特定实施方案的特征的描述。本说明书中在不同实施方案的上下文中描述的某些特征也可以在单个实施方案中组合地实现。相反地,在单个实施例的上下文中描述的各种特征也可单独地或者以任何合适的子组合的形式在多个实施例中实现。此外,虽然某些特征可能在上面被描述为以某些组合来起作用并且甚至最初也这样地来要求保护,但是要求保护的组合的一个或多个特征在某些情况下可从该组合中去除,并且要求保护的组合可涉及子组合或子组合的变型。
类似地,虽然操作在附图中以特定次序示出,但不应将此理解为要求以相继次序或所示的特定次序来执行此类操作,或者要求执行所有所示的操作以实现期望的结果。在某些情况中,多任务和并行处理可能是有利的。此外,上述实施方案中各个系统部件的划分不应被理解为在所有实施方式中都要求此类划分,并且应当理解,所述程序部件和系统可一般性地一起整合在单个软件产品中或者封装到多个软件产品中。
因此,已经描述了主题的特定实施方案。其他实施例也在以下权利要求书的范围内。在某些情况下,权利要求书中所述的动作能够以不同的次序执行,并且仍能实现期望的结果。此外,附图中所示的过程未必要求所示的特定次序或者先后次序来实现期望的结果。在某些具体实施中,多任务和并行处理可能是有利的。
本说明书中描述的主题和操作的实施方案可在数字电子电路中或在计算机软件、固件或硬件中(包括本说明书中公开的结构及其结构等同物)或在它们中的一者或多者的组合中实现。本说明书中所述主题的实施方案可被实现为一个或多个计算机程序,即在计算机存储介质上编码的计算机程序指令的一个或多个模块,以用于由数据处理装置执行或控制数据处理装置的操作。另选地或除此之外,该程序指令可在人工生成的传播信号上被编码,例如机器生成的电信号、光信号或电磁信号,该电信号、光信号或电磁信号被生成以对信息进行编码以便传输到合适的接收器装置以供数据处理装置执行。计算机存储介质可以是计算机可读存储设备、计算机可读存储基板、随机或串行访问存储器阵列或设备,或者它们中的一者或多者的组合,或者包括在计算机可读存储设备、计算机可读存储基板、随机或串行访问存储器阵列或设备中。此外,虽然计算机存储介质并非传播信号,但计算机存储介质可以是在人工生成的传播信号中编码的计算机程序指令的源或目的地。计算机存储介质也可以是一个或多个单独的物理部件或介质(例如,多个CD、磁盘或其他存储设备),或者包括在一个或多个单独的物理部件或介质中。
术语“数据处理装置”涵盖用于处理数据的所有种类的装置、设备和机器,例如包括可编程处理器、计算机、片上系统、或前述各项中的多项或组合。该装置可包括专用逻辑电路(例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路))。除了硬件之外,该装置还可包括为所考虑的计算机程序创建执行环境的代码,例如构成处理器固件、协议栈、数据库管理系统、操作系统、跨平台运行环境、虚拟机或它们中的一者或多者的组合的代码。该装置和执行环境可实现各种不同的计算模型基础结构,诸如web服务、分布式计算和网格计算基础结构。除非另外特别说明,否则应当理解,在整个说明书中,利用诸如“处理”、“计算”、“计算出”、“确定”和“识别”等术语的论述是指计算设备的动作或过程,诸如一个或多个计算机或类似的电子计算设备,其操纵或转换表示为计算平台的存储器、寄存器或其他信息存储设备、传输设备或显示设备内的物理电子量或磁量的数据。
本文论述的一个或多个系统不限于任何特定的硬件架构或配置。计算设备可以包括部件的提供以一个或多个输入为条件的结果的任何合适的布置。合适的计算设备包括基于多用途微处理器的计算机系统,其访问存储的软件,该软件将计算系统从通用计算装置编程或配置为实现本发明主题的一种或多种具体实施的专用计算装置。可以使用任何合适的编程、脚本或其他类型的语言或语言的组合来在用于编程或配置计算设备的软件中实现本文包含的教导内容。
本文所公开的方法的具体实施可以在这样的计算设备的操作中执行。上述示例中呈现的框的顺序可以变化,例如,可以将框重新排序、组合和/或分成子块。某些框或过程可以并行执行。本说明书中描述的操作可以被实施为由数据处理装置对存储在一个或多个计算机可读存储设备上或从其它源接收的数据执行的操作。
本文中“适用于”或“被配置为”的使用意味着开放和包容性的语言,其不排除适用于或被配置为执行额外任务或步骤的设备。另外,“基于”的使用意味着开放和包容性,因为“基于”一个或多个所述条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出所述的值。本文包括的标题、列表和编号仅是为了便于解释而并非旨在为限制性的。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件,和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。
Claims (20)
1.一种方法,包括:
在具有处理器的电子设备处:
获得由深度传感器捕获的深度数据,所述深度数据包括来自不同角度的腕部的至少两个深度图图像;
基于将所述深度数据输入到机器学习模型中来生成输出,
所述输出对应于所述腕部的周长或所述腕部的表带大小;以及
基于所述输出来提供表带大小推荐。
2.根据权利要求1所述的方法,其中所述机器学习模型是卷积神经网络回归器。
3.根据权利要求1所述的方法,其中识别对应于所述腕部的所述深度数据的部分的分割掩码被输入到所述机器学习模型,其中所述分割掩码是基于光强度传感器数据生成的。
4.根据权利要求1所述的方法,其中所述机器学习模型是使用真实训练数据和合成训练数据来训练的。
5.根据权利要求1所述的方法,其中所述机器学习模型是使用识别多个臂位置处的腕部周长的训练数据来训练的。
6.根据权利要求1所述的方法,其中所述机器学习模型是使用对应于表松紧度的训练数据来训练的。
7.根据权利要求1所述的方法,其中所述机器学习模型是基于加权前臂测量值来训练的,其中所述加权前臂测量值的权重对应于所述加权前臂测量值沿着臂的轴线的相对显著性。
8.根据权利要求1所述的方法,其中所述机器学习模型进一步输出对应于所述腕部的周长或所述腕部的所述表带大小的置信度的置信度值。
9.根据权利要求1所述的方法,其中所述深度数据包括两个深度图图像的双视图深度对。
10.根据权利要求9所述的方法,其中所述深度数据包括在所述两个深度图图像之前、之间和之后的附加深度图图像。
11.根据权利要求1所述的方法,其中所述至少两个深度图图像是当所述腕部在所述深度传感器前面旋转时被捕获的。
12.根据权利要求11所述的方法,其中所述两个深度图图像是基于确定所述两个深度图图像对应于视点上的至少阈值差而选择的。
13.根据权利要求1所述的方法,其中在获得所述深度数据时,提供关于所述腕部或深度传感器的定位的指导。
14.根据权利要求1所述的方法,其中所述至少两个深度图图像各自包括手部的部分的深度值。
15.根据权利要求1所述的方法,其中所述电子设备是移动电话或平板电脑。
16.一种系统,包括:
存储器;和
一个或多个处理器,所述一个或多个处理器在耦接到所述存储器的设备处,其中所述存储器包括程序指令,所述程序指令在所述一个或多个处理器上执行时,使得所述系统执行包括以下各项的操作:
获得由深度传感器捕获的深度数据,所述深度数据包括来自不同角度的腕部的至少两个深度图图像;
基于将所述深度数据输入到机器学习模型中来生成输出,所述输出对应于所述腕部的周长或所述腕部的表带大小;以及
基于所述输出来提供表带大小推荐。
17.根据权利要求16所述的系统,其中所述两个深度图图像是基于确定所述两个深度图图像对应于所述腕部围绕臂的纵向轴线的旋转中的至少阈值差而选择的。
18.根据权利要求16所述的系统,其中所述机器学习模型进一步输出对应于所述腕部的周长或所述腕部的所述表带大小的置信度的置信度值。
19.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储能够经由一个或多个处理器执行以执行操作的程序指令,所述操作包括:
获得由深度传感器捕获的深度数据,所述深度数据包括来自不同角度的腕部的至少两个深度图图像;
基于将所述深度数据输入到机器学习模型中来生成输出,所述输出对应于所述腕部的周长或所述腕部的表带大小;以及
基于所述输出来提供表带大小推荐。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中所述深度数据包括两个深度图图像的双视图深度对。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163150621P | 2021-02-18 | 2021-02-18 | |
US63/150,621 | 2021-02-18 | ||
US17/670,686 US20220262025A1 (en) | 2021-02-18 | 2022-02-14 | Touchless wrist measurement |
US17/670,686 | 2022-02-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114947816A true CN114947816A (zh) | 2022-08-30 |
Family
ID=82801464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210148660.9A Pending CN114947816A (zh) | 2021-02-18 | 2022-02-18 | 非触摸式腕部测量 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220262025A1 (zh) |
KR (1) | KR20220118343A (zh) |
CN (1) | CN114947816A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102525661B1 (ko) * | 2023-01-18 | 2023-04-24 | 박장준 | 작업 장치의 원격 제어를 위한 실시간 훈련 방법 및 장치 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9341464B2 (en) * | 2011-10-17 | 2016-05-17 | Atlas5D, Inc. | Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics |
US20150302597A1 (en) * | 2014-04-18 | 2015-10-22 | Avyn, Inc. | Systems and methods for preparing custom clothing patterns |
US10002377B1 (en) * | 2014-12-22 | 2018-06-19 | Amazon Technologies, Inc. | Infrared driven item recommendations |
US10318008B2 (en) * | 2015-12-15 | 2019-06-11 | Purdue Research Foundation | Method and system for hand pose detection |
US10692237B2 (en) * | 2018-07-09 | 2020-06-23 | Mehul Sompura | Ring size measurement system and method for digitally measuring ring size |
CN113163912A (zh) * | 2018-11-26 | 2021-07-23 | 劳力士有限公司 | 用于配置手表表带的方法 |
RU2019125602A (ru) * | 2019-08-13 | 2021-02-15 | Общество С Ограниченной Ответственностью "Тексел" | Комплексная система и способ для дистанционного выбора одежды |
US11232629B1 (en) * | 2019-08-30 | 2022-01-25 | Amazon Technologies, Inc. | Two-dimensional image collection for three-dimensional body composition modeling |
US20210118038A1 (en) * | 2019-10-22 | 2021-04-22 | The Hillman Group, Inc. | Self-service kiosk for determining glove size |
US11721035B2 (en) * | 2020-06-16 | 2023-08-08 | Tailoru Llc | System and method of use of augmented reality in measuring body circumference for the use of apparel production |
EP4020391A1 (en) * | 2020-12-24 | 2022-06-29 | Applications Mobiles Overview Inc. | Method and system for automatic characterization of a three-dimensional (3d) point cloud |
-
2022
- 2022-02-14 US US17/670,686 patent/US20220262025A1/en active Pending
- 2022-02-17 KR KR1020220020835A patent/KR20220118343A/ko active IP Right Grant
- 2022-02-18 CN CN202210148660.9A patent/CN114947816A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220262025A1 (en) | 2022-08-18 |
KR20220118343A (ko) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12008151B2 (en) | Tracking and drift correction | |
KR102670987B1 (ko) | 눈 추적 교정 기술들 | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
US12032168B2 (en) | Geometry modeling of eyewear devices with flexible frames | |
WO2017074662A1 (en) | Tracking of wearer's eyes relative to wearable device | |
CN108369653A (zh) | 使用眼睛特征的眼睛姿态识别 | |
US11889291B2 (en) | Head-related transfer function | |
US10824247B1 (en) | Head-coupled kinematic template matching for predicting 3D ray cursors | |
US11175731B1 (en) | Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems | |
CN117337426A (zh) | 音频加强的增强现实 | |
US20240144533A1 (en) | Multi-modal tracking of an input device | |
CN114947816A (zh) | 非触摸式腕部测量 | |
US20230384860A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
US20230290096A1 (en) | Progressive body capture of user body for building an avatar of user | |
US11863963B2 (en) | Augmented reality spatial audio experience | |
US12093461B2 (en) | Measurement based on point selection | |
WO2023230088A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
CN118140126A (zh) | 使用反射识别透镜特性 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |