JP2023534664A - 高さ測定方法および装置、ならびに端末 - Google Patents

高さ測定方法および装置、ならびに端末 Download PDF

Info

Publication number
JP2023534664A
JP2023534664A JP2023501759A JP2023501759A JP2023534664A JP 2023534664 A JP2023534664 A JP 2023534664A JP 2023501759 A JP2023501759 A JP 2023501759A JP 2023501759 A JP2023501759 A JP 2023501759A JP 2023534664 A JP2023534664 A JP 2023534664A
Authority
JP
Japan
Prior art keywords
key
subject
skeleton
points
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023501759A
Other languages
English (en)
Inventor
ファン、ウェイ
ス、チ
ウ、ヤフェイ
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2023534664A publication Critical patent/JP2023534664A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Dentistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

高さ測定方法が提供され、画像処理技術分野に関する。方法は、被写体を含む画像と、画像を撮影する場合に用いられるカメラの姿勢を取得する段階(301)と、画像における被写体の少なくとも2つのキー骨格点の画素座標を取得する段階(302)と、カメラの姿勢およびキー骨格点の画素座標に基づいて、キー骨格点の3次元座標を取得する段階(303)と、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定する段階(304)と、を含む。本方法では、測定対象の高さデータを迅速かつ正確に取得することができる。

Description

本願は、画像処理技術分野に関し、特に、高さ測定方法および装置、ならびに端末に関する。
高さは、人体の基本データの重要な部分であり、常に多くの注目を集める。いかに測定対象の高さデータを迅速かつ正確に取得し、いかに複数の測定対象の高さデータを同時に取得するかは、常に、関連分野において、注目の研究テーマであった。
従来の高さ測定方法では、測定対象は、直立姿勢であることが必要とされる。高さデータは、標準尺度または赤外線または超音波の反射を用いることによって取得され、高さデータは、1つずつ測定することのみが可能である。さらに、姿勢要件が厳格である。直立姿勢が標準ではない場合、高さデータは不正確となる。
既存の高さ測定方法では、測定対象の高さは、参照対象を比例関係で拡大縮小することによって取得されてよい。例えば、図1に示すように、端末のプレビューインタフェースに仮想定規が表示され、端末デバイスと測定対象との間の距離が、端末の距離センサを用いることによって取得される。測定対象の高さは、距離値と定規との間の予め設定された対応関係に基づいて推定される。
高さ測定方法の測定結果は、仮想定規を用いて端末と測定対象との間の距離を比例関係で拡大することによって取得されるので、端末デバイスの解像度および端末デバイスの距離センサの正確性の両方が測定の正確性に影響し、解像度が不十分な場合、または測定対象の周辺環境が不規則な場合には、高さ測定結果の正確性が低下する。
本願の実施形態は、被写体の高さを測定するための高さ測定方法を提供し、これにより、測定結果の正確性を改善することができる。
本願の実施形態の第1態様は、被写体を含む画像と、画像を撮影する場合に用いられるカメラの姿勢とを取得する段階と、画像における被写体の少なくとも2つのキー骨格点の画素座標を取得する段階であって、キー骨格点は、骨格関節を含み、画素座標は、画像におけるキー骨格点の2次元位置情報を示す、段階と、カメラの姿勢および少なくとも2つのキー骨格点の画素座標に基づいて、少なくとも2つのキー骨格点の3次元座標を取得する段階であって、3次元座標は、座標系におけるキー骨格点の3次元位置情報を示し、少なくとも2つのキー骨格点の3次元座標は、少なくとも2つのキー骨格点の間の距離についての情報を示す、段階と、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定する段階と、を含む高さ測定方法を提供する。
本願の本実施形態において提供される高さ測定方法によれば、被写体を撮影することによって取得される2次元画像は、骨格検出アルゴリズム等に従って検出されてよい。画像におけるキー骨格点の画素座標が、取得されてよい。キー骨格点の画素座標は、2次元画像に対応するカメラの姿勢に基づいて、3次元空間における3次元座標に変換されてよい。3次元座標は、現実世界におけるキー骨格点の位置情報に対応する。したがって、被写体の高さデータが、直接取得されてよい。本解決手段において提供される高さ測定方法によれば、被写体の高さデータは、撮影された被写体の2次元画像に基づいて、非接触方式で取得されてよい。さらに、撮影シナリオにおいて、高さの参照対象が必要とされない。これにより、誤差を低減し、測定の正確性を改善することができる。
第1態様の可能な実装において、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定する段階は、具体的には、画像における被写体の少なくとも3つのキー骨格点の画素座標を取得する段階と、カメラの姿勢および少なくとも3つのキー骨格点の画素座標に基づいて、少なくとも3つのキー骨格点の3次元座標を取得する段階であって、3次元座標は、座標系におけるキー骨格点の3次元位置情報を示し、少なくとも3つのキー骨格点の3次元座標は、少なくとも3つのキー骨格点の間の距離についての情報を示す、段階と、少なくとも3つのキー骨格点の3次元座標に基づいて、少なくとも2つの骨格距離を決定し、少なくとも2つの骨格距離に基づいて、被写体の高さデータを決定する段階と、を含む。
第1態様の可能な実装において、座標系は、ワールド座標系を含む。
第1態様の可能な実装において、方法は、被写体の3次元点群情報を取得する段階をさらに含み、カメラの姿勢およびキー骨格点の画素座標に基づいて、被写体の少なくとも2つのキー骨格点の3次元座標を取得する段階は、具体的には、キー骨格点の画素座標、カメラの姿勢、および3次元点群情報に基づいて、衝撃検出アルゴリズムに従って、少なくとも2つのキー骨格点の3次元座標を取得する段階を含む。
本方法は、キー骨格点の画素座標をキー骨格点の3次元座標に、すなわち、2次元情報から3次元情報に変換するための具体的な解決手段を提供する。キー骨格点の3次元座標は、3次元点群情報および衝撃検出アルゴリズムに基づいて取得される。したがって、カメラの姿勢に基づいて実行される直接計算と比較して、本方法は、3次元座標の正確性を改善することができる。
第1態様の可能な実装において、被写体の3次元点群情報を取得する段階は、具体的には、
異なる向きから撮影された被写体の少なくとも2つの画像に基づいて、被写体の3次元点群情報を取得する段階を含む。
本方法は、3次元点群情報を取得するための具体的な方法を提供する。具体的には、被写体の3次元点群情報は、被写体の複数の画像を取得し、被写体の複数の画像の特徴点を検出およびマッチングすることによって取得されてよい。3次元点群情報は複数の画像についての情報に基づいて取得されるので、単一の画像と比較して、より豊富な情報が3次元点群情報に含まれる。これにより、3次元座標の正確性を改善することができる。
第1態様の可能な実装において、被写体の3次元点群情報を取得する段階は、具体的には、深度センサによって収集された被写体の3次元点群情報を取得する段階を含む。深度センサは、双眼カメラ、レーザレーダ、ミリ波レーダ、またはタイムオブフライト(time of flight、TOF)センサを含む。
本方法は、3次元点群情報を取得するための別の具体的な方法を提供する。3次元点群情報は、深度センサを用いることによって収集される。深度センサを用いることによって取得された3次元点群は高密度点群であってよいので、より豊富な情報を含むことができる。高密度の3次元点群に基づいて、キー骨格点の取得された3次元座標は、より正確となる。
第1態様の可能な実装において、被写体の画像と、画像が撮影される場合に用いられるカメラの姿勢とを取得する段階は、具体的には、異なる向きから撮影された被写体の少なくとも2つの画像を取得する段階であって、異なる向きから撮影された被写体の少なくとも2つの画像は、画像を含む、段階と、異なる向きから撮影された被写体の少なくとも2つの画像に基づいて、カメラの姿勢を取得する段階と、を含む。
本方法は、カメラの姿勢を取得する具体的な方式を提供する。具体的には、画像が撮影される場合に用いられるカメラの姿勢は、異なる向きから撮影された被写体の少なくとも2つの画像を取得し、特徴点を検出およびマッチングすることによって推定されてよい。
第1態様の可能な実装において、被写体の画像と、画像が撮影される場合に用いられるカメラの姿勢とを取得する段階は、具体的には、異なる向きから撮影された被写体の少なくとも2つの画像を取得する段階であって、異なる向きから撮影された被写体の少なくとも2つの画像は、被写体の画像を含む、段階と、異なる向きから撮影された被写体の少なくとも2つの画像に対応する、カメラの慣性測定ユニットデータを取得する段階と、慣性測定ユニットデータと、異なる向きから撮影された被写体の少なくとも2つの画像とに基づいて、カメラの姿勢を決定する段階と、を含む。
本方法は、カメラの姿勢を取得する具体的な方式を提供する。異なる向きから撮影された被写体の少なくとも2つの画像を取得する段階に加えて、さらに、慣性測定ユニットデータが収集されてよい。これにより、カメラの姿勢の計算の正確性を改善することができる。
第1態様の可能な実装において、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定する段階は、具体的には、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の骨格長さおよび被写体の姿勢情報を取得する段階と、姿勢情報に基づいて、骨格長さの予め設定された重みパラメータを決定する段階と、骨格長さおよび重みパラメータに基づいて、被写体の高さデータを決定する段階と、を含む。
本方法において提供される高さ測定方法によれば、キー骨格点の3次元座標が被写体の体表面から得られることを考慮すると、体の骨格に対応する実際の高さと、3次元座標に基づいて取得された骨格長さとの間に特定の誤差が存在する。したがって、計算された骨格長さを補正するために、重みパラメータが導入される。これにより、解決手段の精度を改善することができる。
第1態様の可能な実装において、骨格長さは、頭の骨格長さおよび脚の骨格長さを含む。骨格長さおよび重みパラメータに基づいて、被写体の高さデータを決定する段階は、具体的には、頭の骨格長さおよび予め設定された頭補償パラメータに基づいて、頭高さ補償値を決定する段階と、脚の骨格長さおよび予め設定された足補償パラメータに基づいて、足高さ補償値を決定する段階と、骨格長さ情報、重みパラメータ、頭高さ補償値、および足高さ補償値に基づいて、被写体の高さデータを決定する段階と、を含む。
本方法において提供される高さ測定方法によれば、頭および足の補償が導入される。これにより、高さ測定の正確性を、さらに改善することができる。
第1態様の可能な実装において、方法は、画像に対して顔検出を実行し、被写体の頭高さデータを取得する段階をさらに含む。頭高さデータは、2次元キー骨格点情報において、頭に対応するキー骨格点の画素座標を補正するために用いられる。
本方法において提供される高さ測定方法によれば、頭高さデータは、さらに、顔検出を通して取得されてよく、キー骨格点の画素座標が補正される。これにより、測定の正確性が改善される。
第1態様の可能な実装において、画像は、少なくとも2つの被写体を含む。方法は、画像に対して顔検出を実行し、少なくとも2つの被写体の各々のキー骨格点の画素座標を、画像分割アルゴリズムに従って、キー骨格点の画素座標から決定する段階をさらに含む。
本方法において提供される高さ測定方法によれば、画像における複数の被写体の高さを測定することができる。高さが1つずつ検出される従来技術と比較して、本方法では、オペレーションを簡略化することができる。これにより、測定の効率が改善される。
第1態様の可能な実装において、方法は、少なくとも2つの被写体についての情報をユーザに表示する段階であって、少なくとも2つの被写体についての情報は、少なくとも2つの被写体の画像情報、少なくとも2つの被写体のキー骨格点の画素座標でマーキングされた画像情報、および少なくとも2つの被写体の顔検出結果情報のうちの少なくとも1つを含む、段階と、ユーザ命令を取得する段階と、
をさらに含む。ユーザ命令は、少なくとも2つの被写体のうちの1または複数に対して高さ測定を実行するよう命令する。
本方法において提供される高さ測定方法によれば、さらに、ユーザとのインタラクションが実行されてよく、ユーザ命令に基づいて、画像に含まれる被写体から、ユーザが高さ検出を望む対象が選択される。これにより、ユーザエクスペリエンスが改善する。
第1態様の可能な実装において、キー骨格点は、重力方向に配置される。重力方向に配置されたキー骨格点は、高さ測定の正確性を改善するのに役立つ。
第1態様の可能な実装において、被写体は、非直立姿勢である。非直立姿勢は、座った姿勢、寝た姿勢、および膝立姿勢を含む。被写体が非直立姿勢の場合も、被写体の高さは、本願の本実装において測定することができる。
第1態様の可能な実装において、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定する段階は、具体的には、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の骨格長さ情報を取得する段階と、第1事前設定条件を満たす骨格長さ情報を削除する段階であって、第1事前設定条件は、骨格長さ情報における骨格長さが予め設定された範囲外にあること、または、対称部分間の骨格長さの差が予め設定された閾値範囲より大きいまたはこれに等しいことを含む、段階と、削除後に取得された骨格長さ情報に基づいて、被写体の高さデータを決定する段階と、を含む。
本方法において提供される高さ測定方法によれば、異常データは、削除されてもよい。これにより、測定結果の正確性が改善される。任意選択的に、人体の対称性に基づいて、左右の対称部分の骨格が、検証されてよい。例えば、左脚および右脚に対応する骨格長さの間の差は、小さいはずである。差が閾値より大きい場合、異常データは、削除されてよい。
第1態様の可能な実装において、方法は、画像において、被写体近傍で被写体の高さデータをラベリングし、高さデータをユーザに表示する段階、または、音声を通して、被写体の高さデータをブロードキャストする段階をさらに含む。
本方法において提供される高さ測定方法によれば、被写体の高さがリアルタイムに表示される画像においてマーキングされてよく、フィードバックがリアルタイムに提供される。これにより、ユーザエクスペリエンスが改善する。
第1態様の可能な実装において、方法は、被写体のキー骨格点が第2事前設定条件を満たさない場合、検出失敗情報をユーザに表示する、または、音声を通して検出失敗情報をユーザに提示する、または、振動を通して検出失敗情報をユーザに提示する段階をさらに含む。
本方法において提供される高さ測定方法によれば、検出に失敗した場合、フィードバックがユーザに提供されてよい。これにより、ユーザエクスペリエンスが改善する。
本願の実施形態の第2態様は、被写体を含む画像と、画像を撮影する場合に用いられるカメラの姿勢とを取得するように構成される取得モジュールであって、取得モジュールは、さらに、画像における被写体の少なくとも2つのキー骨格点の画素座標を取得するように構成され、キー骨格点は、骨格関節を含み、画素座標は、画像におけるキー骨格点の2次元位置情報を示し、取得モジュールは、さらに、カメラの姿勢およびキー骨格点の画素座標に基づいて、少なくとも2つのキー骨格点の3次元座標を取得するように構成され、3次元座標は、座標系におけるキー骨格点の3次元位置情報を示し、少なくとも2つのキー骨格点の3次元座標は、少なくとも2つのキー骨格点の間の距離についての情報を示す、取得モジュールと、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定するように構成される決定モジュールと、を含む高さ測定装置を提供する。
第2態様の可能な実装において、取得モジュールは、具体的には、画像における被写体の少なくとも3つのキー骨格点の画素座標を取得し、カメラの姿勢および少なくとも3つのキー骨格点の画素座標に基づいて、少なくとも3つのキー骨格点の3次元座標を取得するように構成される。3次元座標は、座標系におけるキー骨格点の3次元位置情報を示す。少なくとも3つのキー骨格点の3次元座標は、少なくとも3つのキー骨格点の間の距離についての情報を示す。
決定モジュールは、具体的には、少なくとも3つのキー骨格点の3次元座標に基づいて、少なくとも2つの骨格距離を決定し、少なくとも2つの骨格距離に基づいて、被写体の高さデータを決定するように構成される。
第2態様の可能な実装において、座標系は、ワールド座標系を含む。
第2態様の可能な実装において、取得モジュールは、さらに、被写体の3次元点群情報を取得するように構成される。カメラの姿勢およびキー骨格点の画素座標に基づいて、被写体の少なくとも2つのキー骨格点の3次元座標を取得する段階は、具体的には、キー骨格点の画素座標、カメラの姿勢、および3次元点群情報に基づいて、衝撃検出アルゴリズムに従って、少なくとも2つのキー骨格点の3次元座標を取得する段階を含む。
第2態様の可能な実装において、取得モジュールは、具体的には、異なる向きから撮影された被写体の少なくとも2つの画像に基づいて、被写体の3次元点群情報を取得するように構成される。
第2態様の可能な実装において、取得モジュールは、具体的には、深度センサによって収集された被写体の3次元点群情報を取得するように構成される。深度センサは、双眼カメラ、レーザレーダ、ミリ波レーダ、またはタイムオブフライトセンサを含む。
第2態様の可能な実装において、取得モジュールは、具体的には、異なる向きから撮影された被写体の少なくとも2つの画像を取得する手順で合って、異なる向きから撮影された被写体の少なくとも2つの画像は、画像を含む、手順と、異なる向きから撮影された被写体の少なくとも2つの画像に基づいて、カメラの姿勢を取得する手順とを実行するように構成される。
第2態様の可能な実装において、取得モジュールは、具体的には、異なる向きから撮影された被写体の少なくとも2つの画像を取得する手順であって、異なる向きから撮影された被写体の少なくとも2つの画像は、被写体の画像を含む、手順と、異なる向きから撮影された被写体の少なくとも2つの画像に対応する、カメラの慣性測定ユニットデータを取得する手順と、慣性測定ユニットデータと、異なる向きから撮影された被写体の少なくとも2つの画像とに基づいて、カメラの姿勢を決定する手順と、を実行するように構成される。
第2態様の可能な実装において、決定モジュールは、具体的には、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の骨格長さおよび被写体の姿勢情報を取得する手順と、姿勢情報に基づいて、骨格長さの予め設定された重みパラメータを決定する手順と、骨格長さおよび重みパラメータに基づいて、被写体の高さデータを決定する手順と、を実行するように構成される。
第2態様の可能な実装において、骨格長さは、頭の骨格長さおよび脚の骨格長さを含む。決定モジュールは、具体的には、頭の骨格長さおよび予め設定された頭補償パラメータに基づいて、頭高さ補償値を決定する手順と、脚の骨格長さおよび予め設定された足補償パラメータに基づいて、足高さ補償値を決定する手順と、骨格長さ情報、重みパラメータ、頭高さ補償値、および足高さ補償値に基づいて、被写体の高さデータを決定する手順と、を実行するように構成される。
第2態様の可能な実装において、画像は、少なくとも2つの被写体を含む。装置は、画像に対して顔検出を実行し、少なくとも2つの被写体の各々のキー骨格点の画素座標を、画像分割アルゴリズムに従って、キー骨格点の画素座標から決定するように構成される処理モジュールをさらに含む。
第2態様の可能な実装において、装置は、少なくとも2つの被写体についての情報をユーザに表示するように構成される出力モジュールをさらに含む。少なくとも2つの被写体についての情報は、少なくとも2つの被写体の画像情報、少なくとも2つの被写体のキー骨格点の画素座標でマーキングされた画像情報、および少なくとも2つの被写体の顔検出結果情報のうちの少なくとも1つを含む。取得モジュールは、さらに、ユーザ命令を取得するように構成される。ユーザ命令は、少なくとも2つの被写体のうちの1または複数に対して高さ測定を実行するよう命令する。
第2態様の可能な実装において、キー骨格点は、重力方向に配置される。重力方向に配置されたキー骨格点は、高さ測定の正確性を改善するのに役立つ。
第2態様の可能な実装において、被写体は、非直立姿勢である。非直立姿勢は、座った姿勢、寝た姿勢、および膝立姿勢を含む。被写体が非直立姿勢の場合も、被写体の高さは、本願の本実装において測定することができる。
第2態様の可能な実装において、決定モジュールは、具体的には、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の骨格長さ情報を取得する手順と、第1事前設定条件を満たす骨格長さ情報を削除する手順であって、第1事前設定条件は、骨格長さ情報における骨格長さが予め設定された範囲外にあること、または、対称部分間の骨格長さの差が予め設定された閾値範囲より大きいまたはこれに等しいことを含む、手順と、削除後に取得された骨格長さ情報に基づいて、被写体の高さデータを決定する手順と、を実行するように構成される。
第2態様の可能な実装において、装置は、画像において、被写体近傍で被写体の高さデータをラベリングし、高さデータをユーザに表示する、または、音声を通して、被写体の高さデータをブロードキャストするように構成される出力モジュールをさらに含む。
第2態様の可能な実装において、装置は、被写体のキー骨格点が第2事前設定条件を満たさない場合、検出失敗情報をユーザに表示する、または、音声を通して検出失敗情報をユーザに提示する、または、振動を通して検出失敗情報をユーザに提示するように構成される出力モジュールをさらに含む。
本願の実施形態の第3態様は、1または複数のプロセッサと、メモリとを含む端末を提供する。メモリは、コンピュータ可読命令を格納する。1または複数のプロセッサは、メモリのコンピュータ可読命令を読み出し、これにより、端末は、第1態様および可能な実装のいずれか一項に記載の方法を実装する。
本願の実施形態の第4態様は、命令を含むコンピュータプログラム製品を提供する。コンピュータプログラム製品がコンピュータ上で実行される場合、コンピュータは、第1態様および可能な実装のいずれか1つに記載の方法を実行可能にされる。
本願の実施形態の第5態様は、命令を含むコンピュータ可読記憶媒体を提供する。命令がコンピュータ上で実行される場合、コンピュータは、第1態様および可能な実装のいずれか1つに記載の方法を実行可能にされる。
本願の実施形態の第6態様は、プロセッサを含むチップを提供する。プロセッサは、メモリに格納されたコンピュータプログラムを読み出して実行するように構成され、前述の態様のいずれか1つの可能な実装に記載の方法を実行する。任意選択的に、チップは、メモリを含み、メモリおよびプロセッサは、回路または有線を用いることによって接続される。さらに、任意選択的に、チップは、通信インタフェースをさらに含み、プロセッサは、通信インタフェースに接続される。通信インタフェースは、処理される必要があるデータおよび/または情報を受信するように構成される。プロセッサは、通信インタフェースからデータおよび/または情報を取得し、データおよび/または情報を処理し、通信インタフェースを通して処理結果を出力する。通信インタフェースは、入力/出力インタフェースであってよい。
第2態様から第6態様の実装のいずれか1つによってもたらされる技術的効果については、第1態様における対応する実装によってもたらされる技術的効果を参照されたい。本明細書では詳細について改めて説明しない。
前述の技術的解決手段から、本願の実施形態が以下の利点を有することを認識することができる。
本願の本実施形態において提供される高さ測定方法によれば、被写体の画像と、画像が撮影される場合に用いられるカメラの姿勢とが取得され、画像における被写体の少なくとも2つのキー骨格点の画素座標を取得するために、画像に対して骨格検出が実行されてよく、次に、キー骨格点の画素座標は、カメラの姿勢に基づいて3次元空間に変換されて、少なくとも2つのキー骨格点の3次元座標を取得し、最後に、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータが決定される。本方法において、キー骨格点の2次元画素座標が3次元座標に変換され、被写体の高さデータが、参照対象を変換することなく直接取得される。これにより、被写体周りのシナリオが複雑な場合に参照対象の変換によって生じる測定誤差を回避することができ、高さ測定結果の正確性を改善することができる。
さらに、被写体の姿勢に関わらず、被写体のキー骨格点が示す骨格情報は変化しない。したがって、本願の本実施形態において提供される高さ測定方法は、様々な姿勢の被写体の高さ測定に適用されてよい。
高さ測定の実施形態の概略図である。
本願の実施形態に係る高さ測定方法の適用シナリオの実施形態の概略図である。
本願の実施形態に係る高さ測定方法の適用シナリオの実施形態の概略図である。
本願の実施形態に係る高さ測定方法の実施形態の概略図である。
本願の実施形態に係る高さ測定方法の別の実施形態の概略図である。
本願の実施形態に係る、2次元キー骨格点を3次元キー骨格点に変換する概略図である。
本願の実施形態に係る直立姿勢における高さ測定方法の概略図である。
本願の実施形態に係る座った姿勢における高さ測定方法の概略図である。
本願の実施形態に係る高さ測定方法の適用シナリオの概略図である。
本願の実施形態に係るSLAMシステムの点群の概略図である。
本願の実施形態に係る2次元キー骨格点検出結果の概略図である。
本願の実施形態に係る、異なる角度で測定中の高さ検出の概略図である。
本願の実施形態に係る高さ測定装置の実施形態の概略図である。
本願の実施形態に係る高さ測定装置の別の実施形態の概略図である。
本願の実施形態に係る高さ測定装置の別の実施形態の概略図である。
本願の実施形態に係る端末の実施形態の概略図である。
本願の実施形態は、複数の姿勢の被写体の高さを測定する高さ測定方法を提供し、これにより、高さデータの正確性を改善することができる。
理解を容易ならしめるために、以下、本願の実施形態におけるいくつかの技術用語を簡潔に説明する。
1.人のキー骨格点検出:すなわち、姿勢推定であり、主に、関節および顔の特徴のような人体のいくつかのキーポイントを検出し、キーポイントに基づいて骨格情報を提供する。キー骨格点は、骨格関節または関節とも称される。
2.固有および外部カメラパラメータ
固有カメラパラメータは、カメラ自体の特徴に関するパラメータであり、カメラの焦点距離、画素サイズ等を含む。カメラを備える電子デバイスの構成では、固有カメラパラメータは、通常、既知である。
外部カメラパラメータは、ワールド座標系におけるパラメータであり、カメラの位置および回転方向を含む。
固有カメラパラメータおよび外部カメラパラメータに基づいて、カメラによって撮影された画像における2次元画素が、ワールド座標系における3次元座標に対応すると決定されてよい。
3.カメラの姿勢
カメラが画像を撮影する場合のワールド座標系におけるカメラの位置および姿勢は、既知であり、外部カメラパラメータは、カメラの既知の姿勢に基づいて取得されてよい。カメラの姿勢は、6自由度(degree of freedom、DoF)を含む。位置に関する3自由度は、3次元空間におけるカメラの位置を決定するために用いられる。回転角に関する3自由度は、3次元空間におけるカメラの姿勢を決定するために用いられる。カメラの姿勢は、画像が撮影される場合のワールド座標系におけるカメラの位置および姿勢に対応する。カメラの姿勢を計算するために用いられる、連続撮影を通して取得される画像シーケンスでは、相対的移動がカメラと撮影対象との間で必要とされ、相対的な位置および姿勢の変化を含む。具体的には、撮影対象は静止してよく、カメラは移動してよい。代替的に、撮影対象は移動してよく、カメラは静止してよい。代替的に、撮影対象およびカメラの両方が移動してよく、撮影対象とカメラとの間に相対的な姿勢の変化が存在する。
以下では、添付図面を参照しながら本願の実施形態を説明する。説明される実施形態は、本願の実施形態の全部ではなく一部に過ぎないことが明らかである。当業者であれば、技術の発達および新たなシナリオの出現に伴い、本願の実施形態において提供される技術的解決手段が、同様の技術的課題にも適用可能であることを認識しよう。
本願の本明細書、特許請求の範囲、および添付図面において、「第1」、「第2」等の用語は、同様の対象間を区別することを意図するものであり、必ずしも具体的な順序または順番を示すものではない。このような方法で記述されるデータは、適切な状況で交換可能であり、これにより、本明細書において説明される実施形態は、本明細書において示されるまたは説明される順序と異なる順序で実装可能であることが理解されるべきである。さらに、「含む」、「含有する」という用語および任意の他の派生語は、非排他的包含をカバーする、例えば、列挙される段階またはモジュールを含む処理、方法、システム、製品、またはデバイスが必ずしもこれらの段階またはモジュールに限定されるものではないが、明示的に列挙されない、またはこのような処理、方法、製品、またはデバイスに固有の他の段階またはモジュールを含んでよいことを意味するものである。本願における段階の名称または番号は、方法の手順における段階が、その名称または番号が示す時間的/論理的順序で実行されることを必要とすることを意味するものではない。名称または番号を付与された手順における段階の実行順序は、同じまたは同様の技術的効果を実現である限りにおいて、実現すべき技術的目標に基づいて変更可能である。
本願の実施形態において提供される高さ測定方法によれば、測定される被写体は、脊椎動物であってよい。具体的には、人が、本願の実施形態における説明のための例として用いられる。
本願の実施形態において提供される高さ測定方法は、複数の高さ測定シナリオに適用可能である。以下では、説明のために例を使用する。
シナリオ1:拡張現実(augmented reality、AR)技術または仮想現実(virtual reality、VR)技術の用途において、高さ測定は、インテリジェント端末デバイスを用いることによって実行されてよい。例えば、図2aに示すように、スマートフォンが、測定対象(または被写体、測定対象等と称され、簡潔に対象と称されてよい)の周辺環境をスキャンするために用いられる。自己位置推定およびマッピングの同時実行(simultaneous localization and mapping、SLAM)システムが、カメラの姿勢を推定し、測定対象の周辺環境の3次元(3D)点群データを取得するために用いられる。画像における2次元(2D)キー骨格点、すなわち、キー骨格点の画素座標が、骨格検出アルゴリズムおよび顔認識アルゴリズムに従って取得される。3次元空間における少なくとも2つのキー骨格点の3次元座標は、3D点群データに基づいて取得される。データ統合が、1または複数の測定対象の高さデータを出力するために、キー骨格点の3次元情報に対して実行され、複数の姿勢の複数のユーザの高さを測定する。高さデータは、画像における測定対象近傍で重畳され、スマートフォンのディスプレイに出力されてもよい。以下の実施形態において、高さ測定方法は、例としてシナリオ1を用いることによって説明される。
シナリオ2:図2bに示すように、撮像デバイスが固定される。画像は、測定対象が予め定められた位置を歩く場合に撮像される。ワールド座標系におけるカメラの位置は既知であるので、2Dキー骨格点を取得するために、骨格検出が撮影された画像に対して実行され、2Dキー骨格点が3Dキー骨格点に変換された後、測定対象の高さデータをデータ統合および計算を通して出力することができる。
以下、高さ測定方法を詳細に説明する。
図3は、本願の実施形態に係る高さ測定方法の実施形態の概略図である。
301:対象の画像および画像を撮影するカメラの姿勢を取得する。
本願において、高さ測定装置は、端末であってよい。端末は、カメラのような撮像装置を用いることによって、対象の画像を取得してよい。カメラは、一般的な単眼カメラまたは双眼カメラを備えてよい。これは、本明細書では特に限定されるものではない。カメラは、端末内に構築されたコンポーネントであってよく、または、端末外のデバイスであってよい。画像データは、通信接続を通して端末に送信されてよい。固有カメラパラメータは既知であることに留意されたい。
端末は、さらに、画像に対応するカメラの姿勢を取得する。任意選択的に、端末は、少なくとも2つの対象の画像を取得するために、単眼カメラを用いることによって異なる向きから対象を撮影し、画像において同種の特徴点のペアを検出することによって、カメラの姿勢を計算する。代替的に、端末は、双眼カメラを用いることによって対象を撮影し、カメラの姿勢を取得する。慣性測定ユニット(IMU)は、対象の3軸姿勢角(または角速度)および加速度を測定するための装置である。任意選択的に、端末がIMUと、対象の画像を撮像するように構成されるカメラとを含む場合、カメラの姿勢は、カメラの撮像プロセスにおいて用いられるIMUデータに基づいて取得されてよい。任意選択的に、カメラの姿勢は、少なくとも2つの撮像された対象の画像と、画像が撮像される場合に用いられたIMUデータとに基づいて計算される。複数の対象の画像およびIMUデータに基づいて取得されたカメラの姿勢は、より正確であることが理解されよう。
任意選択的に、対象の画像は、1または複数の測定対象を含んでよい。
302:画像における対象のキー骨格点の画素座標を取得する。
キー骨格点は、骨格の関節を含む。キー骨格点認識は、様々な既存の骨格検出アルゴリズムに従って、画像に対して実行され、画像におけるターゲットの少なくとも2つのキー骨格点の画素座標を取得する。画素座標は、画像におけるキー骨格点の2次元位置情報を示してよい。画素座標(u,v)は、画像におけるキー骨格点の位置を示す。
キー骨格点は、骨格検出アルゴリズムに従って検出されてよい。具体的には、複数のキー骨格点検出アルゴリズム、例えば、RMPE (regional multi-person pose estimation)アルゴリズムおよびDeepCutアルゴリズムが存在する。キー骨格点の数は、例えば、14または21であってよい。
任意選択的に、対象の画像が複数の測定対象を含む場合、各測定対象の2次元キー骨格点情報は、別々に取得されてよい。2次元キー骨格点情報は、画像における各キー骨格点の画素座標を含み、各キー骨格点の識別子をさらに含む。
任意選択的に、被写体は、直立姿勢であってよい。直立姿勢は、被写体の全キー骨格点が重力方向に沿って配置されている、または、姿勢の鉛直方向に配置されていることを意味する。重力方向に配置された、または鉛直方向に配置されたキー骨格点は、高さ測定の正確性を改善するのに役立つ。
任意選択的に、被写体は、非直立姿勢であってよい。非直立姿勢は、被写体のいくつかのキー骨格点の画素座標が重力方向に配置されていない、または、姿勢の鉛直方向に配置されていない、すなわち、非直立姿勢のキー骨格点の全画素座標が鉛直方向の直線上に配置されてはいないことを意味する。非直立姿勢は、座った姿勢、寝た姿勢、膝立姿勢、または別の姿勢を含む。本解決手段において、被写体が非直立姿勢の場合も、高さを測定することができる。
303:カメラの姿勢およびキー骨格点の画素座標に基づいて、キー骨格点の3次元座標を取得する。
固有カメラパラメータは既知であるので、画像における2次元キー骨格点の画素座標が、少なくとも2つのキー骨格点の3次元座標を取得するために、カメラの姿勢に基づいて、ワールド座標系における3次元座標に変換されてよい。3次元座標は、ワールド座標系におけるキー骨格点の3次元位置情報を示す。3次元座標は、例えば、(x,y,z)である。さらに、少なくとも2つのキー骨格点の3次元座標が取得されるので、異なるキー骨格点間を区別するために、各キー骨格点の識別子がさらに取得されてよい。
少なくとも2つのキー骨格点の3次元座標は、少なくとも2つのキー骨格点の間の距離についての情報を示してよい。例えば、第1キー骨格点の3次元座標は(x1,y1,z1)であり、第2キー骨格点の3次元座標は(x2,y2,z2)であり、ワールド座標系における第1キー骨格点と第2キー骨格点との間の距離が計算されてよい。第1キー骨格点および第2キー骨格点が同じ骨格の2つの端点、すなわち、関連するキー骨格点である場合、2つのキー骨格点の3次元座標に基づいて、骨格長さが計算されてよいことが理解されよう。言い換えれば、少なくとも2つのキー骨格点の間の距離についての情報は、骨格長さ情報を含み、これにより、当該情報が、対象の高さを計算するために用いられてよい。
304:キー骨格点の3次元座標に基づいて、対象の高さデータを決定する。
骨格長さは、少なくとも2つのキー骨格点の3次元座標に基づいて、取得されてよい。具体的には、骨格長さは、2つの関連するキー骨格点の3次元座標に基づいて、計算されてよい。任意選択的に、少なくとも2つの骨格距離は、少なくとも3つのキー骨格点の3次元座標に基づいて、決定され、対象の骨格構造は、骨格長さ情報に基づいて連結計算を実行するために用いられ、これにより、対象の高さデータが、少なくとも2つの骨格距離に基づいて、取得されてよい。例えば、骨格長さは、骨格を形成する2つの関節の3D座標間の3次元空間のユークリッド距離に基づいて計算されてよい。
対象の高さデータを取得するために、複数の骨格長さが、通常は必要とされる。異なる骨格長さ情報間を区別するために、各骨格長さに対応する骨格の識別子が、さらに取得されてよい。骨格の識別子は、骨格に対応する人の胴体タイプ(例えば、「腕」または「脚」)であってよく、異なる骨格を示す。骨格の識別子と、キー骨格点の識別子との間には対応関係が存在する。例えば、右肩として識別されたキー骨格点と、右肘として識別されたキー骨格点とは、併せて、右上腕として識別される骨格を形成してよい。
骨格連結アルゴリズムは、骨格長さに基づいて、高さデータを取得するために用いられる。複数の具体的な計算方法が存在するが、これらは本明細書において限定されるものではない。
本願の本実施形態において提供される高さ測定方法によれば、画像における対象のキー骨格点の画素座標が検出され、次に、キー骨格点の3次元座標を取得するために、キー骨格点の画素座標が、カメラの姿勢に基づいて、3次元空間に変換され、最後に、対象の高さデータが、少なくとも2つのキー骨格点の3次元座標に基づいて、決定される。本方法において、キー骨格点の2次元画素座標が3次元座標に変換され、対象の高さデータが、参照対象を変換することなく直接取得される。これにより、対象周りのシナリオが複雑な場合に参照対象の変換によって生じる測定誤差を回避することができ、高さ測定結果の正確性を改善することができる。
図4は、本願の実施形態に係る高さ測定方法の別の実施形態の概略図である。
401:対象の画像を取得する。
端末は、少なくとも2つの対象の画像を取得する。少なくとも2つの対象の画像は、異なる姿勢でカメラを用いることによって撮影される。
任意選択的に、少なくとも2つの対象の画像が撮影される場合に用いられるIMUデータが、同時に取得されてよい。少なくとも2つの対象の画像が撮像される場合、カメラの姿勢が異なるので、IMUデータは、カメラの移動方向および移動距離を示してよい。
画像は、測定される高さを有する1または複数の対象を含んでよいことに留意されたい。各対象について、高さ測定を実行するために、少なくとも2つの対象の画像を取得する必要がある。
402:画像シーケンスにおいて、カメラの姿勢を決定する。
カメラの姿勢は、画像における同種の特徴点のペアを検出することによって、少なくとも2つの対象の画像に基づいて計算されてよい。代替的に、カメラの姿勢は、カメラの撮像プロセスにおいて用いられるIMUデータに基づいて、取得される。代替的に、カメラの姿勢は、少なくとも2つの対象の画像と、画像が撮像される場合に用いられたIMUデータとに基づいて計算される。複数の対象の画像およびIMUデータに基づいて取得されたカメラの姿勢は、より正確であることが理解されよう。
端末は、ターゲットの少なくとも2つの画像のいずれか1つに対応する、カメラの姿勢を取得してよい。
403:3次元点群情報を取得する。
端末は、3次元点群情報を取得する。3次元点群情報は、座標系における対象の可視部分の3次元座標を含む。任意選択的に、座標系は、ワールド座標系を含む。任意選択的に、3次元点群情報を取得するための方法は、LiDAR深度撮像方法、コンピュータステレオビジョン撮像方法、ストラクチャードライト方法等を含む。これは、本明細書では特に限定されるものではない。
例えば、3次元点群情報は、コンピュータステレオビジョン撮像方法を用いることによって取得される。具体的には、特徴抽出およびマッチングが、段階401で取得された少なくとも2つの対象の画像に対して実行され、特徴点のペアを取得する。対象の画像における画素に対応する3次元点群が、三角化アルゴリズムに従って、かつ、段階402において決定されたカメラの姿勢の特徴点のペアに基づいて、取得される。
例えば、3次元点群情報は、LiDAR深度撮像方法を用いることによって取得される。端末が深度センサ、例えば、レーザセンサを含む場合、3D点群情報は、直接取得されてよい。深度センサの具体的な構成に基づいて、3D点群情報の出力は、高密度3D点群または半高密度3D点群であってよい。
任意選択的に、3D点群情報は、前述の2つの方式との組み合わせで取得されてよい。すなわち、3D点群が対象の画像およびカメラの姿勢に基づいて計算される場合、点群深度は、深度センサによって取得された深度マップによって直接提供される。このように、3D点群の正確性を改善することができる。さらに、カメラの姿勢も最適化することができ、これにより、カメラの姿勢がより正確となる。
404:対象の画像に対して顔検出を実行する。
対象の画像は、測定される高さを有する1または複数の対象を含んでよいことに留意されたい。1または複数の測定対象の顔情報は、対象の画像に対して顔検出を実行することによって決定されてよい。
任意選択的に、対象の画像が複数の顔情報を含む場合、端末は、さらに、顔検出結果をユーザに提示する、例えば、各対象の顔情報をディスプレイ上に提示する、または、音声を通して、対象の数を出力してよい。
405:顔情報に基づいて画像分割を実行する。
1または複数の測定対象の顔情報は、段階404の顔検出結果に基づいて決定されてよい。
対象の画像が複数の顔情報を含む場合、複数の測定対象の画像部分を取得するために、画像分割が対象の画像に対して実行されてよい。複数の測定対象の画像部分は、それぞれ、複数の測定対象の高さを測定するために用いられてよい。
段階404および段階405は、任意選択的であり、実行されてもよく、または実行されなくてもよいことに留意されたい。これは、本明細書において限定されるものではない。
406:対象の画像に基づいて骨格検出を実行し、対象の2次元キー骨格点情報を取得する。
対象の画像の2次元キー骨格点情報が、キー骨格点検出アルゴリズムに従って取得される。本明細書における2次元キー骨格点情報は、キー骨格点の画素座標と、画素座標に対応するキー骨格点の識別子とを含む。
人のキー骨格点は、骨格検出アルゴリズムに従って検出されてよい。具体的には、複数のキー骨格点検出アルゴリズムが存在する。例えば、人のキー骨格点の数は、14または21であってよい。例えば、14点が例として用いられる。表1は、人のキー骨格点の意味および番号を示す。画像における各人のキー骨格点の画素座標は、骨格検出アルゴリズムに従って出力されてよく、予め設定された数によって識別される。
任意選択的に、画像が複数の測定対象を含む場合、各測定対象の2次元キー骨格点情報は、キー骨格点検出アルゴリズムに従って取得されてよい。任意選択的に、段階404が実行される場合、画像における全測定対象の人のキー骨格点を取得するために、骨格検出が対象の画像に対して実行され、次に、各測定対象の顔検出結果に対応する2次元キー骨格点情報が決定される。代替的に、骨格検出は、段階405の画像分割を通して決定された画像に対して別々に実行され、各測定対象に対応する2次元キー骨格点情報を取得する。
任意選択的に、画像が複数の測定対象を含む場合、全測定対象についての情報がユーザに表示される。測定対象についての情報は、測定対象の画像情報、測定対象の2次元キー骨格点情報、および測定対象の顔検出結果情報のうちの少なくとも1つを含む。次に、ユーザ命令が取得され、少なくとも2つの測定対象のうちの1または複数が、ユーザ命令に基づく高さ測定の対象として決定される。
任意選択的に、対象の2次元キー骨格点情報が、顔検出結果に基づいて検証される。具体的には、2次元キー骨格点情報において、頭に対応するキー骨格点は、通常、単一の関節であり、顔検出において認識される顔情報は、顎から生え際までの情報を示す。したがって、頭に対応する2次元キー骨格点の画素座標は、顔検出結果に基づおて検証されてよい。これにより、本解決手段において、高さ測定結果の正確性を改善することができる。
任意選択的に、対象の2次元キー骨格点情報が第2事前設定条件を満たさない場合、検出失敗情報がユーザに表示される、または、ユーザは、音声を通して、検出失敗情報を提示される、または、ユーザは、振動を通して、検出失敗情報を提示される。これは、本明細書では特に限定されるものではない。
任意選択的に、第2事前設定条件は、キー骨格点が検出されないことであってよい。代替的に、第2事前設定条件は、キー骨格点の数が予め設定された閾値、例えば、5、6または7より小さいまたはこれに等しいことであってよい。代替的に、第2事前設定条件は、検出されたキー骨格点が示す骨格の数が、予め設定された閾値、例えば、3または4より小さいまたはこれに等しいことである。代替的に、第2事前設定条件は、骨格タイプおよび検出されたキー骨格点が示す数が、予め設定された要件を満たさないことである。例えば、キー骨格点が示す骨格タイプは、上腕、前腕、腿、および脛に対応する骨格を含まない、または、キー骨格点が示す骨格タイプは、頭骨格を含まない、または、キー骨格点が示す上腕、前腕、腿、および脛に対応する骨格の数は、3より小さいまたはこれに等しい、等である。第2事前設定条件の具体的内容は、本明細書において限定されるものではない。
段階404および段階406は、実行順序に限定されるものではないことに留意されたい。
段階402および段階403および段階404から段階406は、実行順序に限定されるものではなく、段階402および段階403および段階404から段階406は、同時に実行されてよい、または、段階402および段階403は、段階404から段階406の前に実行されてよい、または、段階404から段階406は、段階402および段階403の前に実行されてよいことに留意されたい。
407:カメラの姿勢および3次元点群情報に基づいて、かつ衝撃検出アルゴリズムに従って、3次元キー骨格点情報を取得する。
2Dキー骨格点に対応する変換された3Dキー骨格点座標は、衝撃検出(HitTest)アルゴリズムに従って、かつ、段階402で取得されたカメラの姿勢と、段階403で取得された3次元点群情報とに基づいて、取得される。3次元キー骨格点情報は、キー骨格点の3次元座標と、3次元座標に対応するキー骨格点の識別子とを含む。
衝撃検出(HitTest)アルゴリズムの原則については、SLAM技術を参照されたい。図5は、本願の実施形態に係る、2次元キー骨格点を3次元キー骨格点に変換する概略図である。カメラの光学中心は、カメラの姿勢および3D点群情報に基づいて2Dキー骨格点を検出するために、仮想光線を発する始点として用いられる。衝撃検出(HitTest)は、2Dキー骨格点に対応する変換された3Dキー骨格点座標を取得するために、光線および3D点群に対して実行される。衝撃検出の具体的な方法は、従来技術である。詳細は、本明細書では説明しない。光線が3D点群と衝突した場合に、当該光線について衝撃結果が取得されない場合、光線を中心とした特定の範囲内で検索が実行されてよく、最終的な衝撃結果が隣接する3D点補間によって取得されることに留意されたい。最後に、2Dキー骨格点に対応する3Dキー骨格点情報が出力される。
任意選択的に、画像における2次元キー骨格点の画素座標は、対象の画像および画像に対応するカメラの姿勢に基づいて、ワールド座標系における3次元座標に直接変換される。3次元キー骨格点情報は、キー骨格点の3次元座標と、キー骨格点の識別子とを含む。
3次元点群情報は、コンピュータステレオビジョン撮像方法を用いることによって、かつ、複数の対象の画像に基づいて取得される、または、LiDAR深度撮像方法等を用いることによって取得される。したがって、衝撃検出アルゴリズムに従って、かつ、カメラの姿勢および3次元点群情報に基づいて取得されるキー骨格点の3次元座標の正確性は、キー骨格点の2次元座標をカメラの姿勢に基づいて直接変換することによって取得される3次元座標よりも高い。3次元点群は、より正確なキー骨格点の取得された3次元座標を示すことが理解されよう。
408:3次元キー骨格点情報に基づいて、骨格長さ情報を取得する。
骨格長さ情報は、3次元キー骨格点情報に基づいて取得される。骨格長さ情報は、骨格の識別子および骨格長さを含む。
具体的には、2つのキー骨格点毎に接続され、1つの骨格を形成する。各骨格の実際の長さは、3D関節間の3次元空間のユークリッド距離に基づいて取得される。骨格の識別子は、キー骨格点の識別子に基づいて決定されてよい。骨格の識別子は、骨格タイプを示す。例えば、左腿骨格の長さは、左腰関節の3次元座標および左膝関節の3次元座標に基づいて、取得されてよい。左脛骨格の長さは、左膝関節の3次元座標および左足首関節の3次元座標に基づいて、取得されてよい。検出されたキー骨格点の数は欠落していることがあるので、3次元キー骨格点情報に基づいて取得される骨格長さ情報は、1つのみの骨格の長さ情報を含んでよい、または、複数の骨格の長さ情報を含んでよいことに留意されたい。これは、本明細書では特に限定されるものではない。
任意選択的に、骨格長さ情報が第1事前設定条件を満たす場合、骨格長さ情報は削除される。例えば、第1事前設定条件が、骨格長さが予め設定された閾値範囲を超えることである場合、対応する骨格長さ情報は削除される。異なるタイプの骨格の骨格長さの閾値範囲は異なることが理解されよう。例えば、腿骨格の骨格長さの範囲は、前腕のものと異なる。さらに、測定対象の具体的なタイプ、例えば、大人、子供、または人以外の別の脊椎動物に基づいて、異なるタイプの測定対象の骨格長さの閾値範囲は、統計情報に基づいて、柔軟に設定されてよい。代替的に、第1事前設定条件は、対称部分間の骨格長さの差が、予め設定された閾値範囲より大きいまたはこれに等しいことであってよい。例えば、右腕骨格の長さに対する左腕骨格の長さの比が、2より大きいまたはこれに等しい、または0.5より小さいまたはこれに等しい場合、腕に対応する骨格長さ情報は削除される。
409:3次元キー骨格点情報に基づいて、対象の姿勢情報を取得する。
人体の姿勢が、段階408で取得された有効骨格長さ情報に基づいて推定され、対象の姿勢情報を決定する。姿勢情報は、RMPE (regional multi-person pose estimation)アルゴリズム、インスタンスセグメンテーション(Mask RCNN)アルゴリズム等に従って取得されてよい。これは、本願において限定されるものではない。姿勢情報は、人体の姿勢を示し、直立姿勢、座った姿勢、寝た姿勢等を区別してよい。
骨格長さ情報におけるいくつかのデータが欠落している場合、姿勢情報は不完全な姿勢である。考えられる原因は、対象の画像における胴体の一部が遮られ、骨格長さ情報におけるいくつかのデータが削除されたこと等である。
段階408および段階409は、実行順序に限定されるものではないことに留意されたい。
410:姿勢情報および骨格長さ情報に基づいて、対象の高さデータを決定する。
予め設定された重みパラメータは、段階409において対象の姿勢情報に基づいて決定され、加重計算が、重みパラメータおよび骨格長さ情報に基づいて実行され、対象の高さデータを決定する。
任意選択的に、対象の姿勢情報が完全な姿勢である、すなわち、全ての骨格長さ情報が有効である場合、高さのための加重高さ計算が、式(1)に従って実行される。
式(1)において、nは有効骨格の数、Lは第i骨格の長さ、αは第i骨格の長さの加重係数、βは補償パラメータである。任意選択的に、異なる姿勢の骨格の加重係数αは、動的に調整されてよい、または、異なる姿勢の全骨格に対応する加重係数は、予め格納されてよい。
任意選択的に、
f1は、顔と頭頂との間の距離に対する補償値である。任意選択的に、Lf1の値範囲は、2cmから3cmである。Lf2は、足首関節と足裏との間の距離に対する補償値である。任意選択的に、Lf2の値範囲は、3cmから5cmである。Lは、頭に対応する骨格長さであり、Ln-1は、腿に対応する骨格長さであり、Lは、脛に対応する骨格長さであり、τは、顔と頭頂との間の距離に対する補償因子であり、τは、足首関節と足裏との間の距離に対する補償因子である。
以下、高さデータ計算において、骨格長さに対して実行される加重計算を簡潔に説明する。例えば、図6および図7は、それぞれ、人体の直立姿勢および座った姿勢の高さ測定の概略図である。
3次元キー骨格点情報に基づいて取得される骨格長さ情報は、図6または図7に示す破線区域に対応する。破線区域の長さは、計算を通して取得された骨格長さ情報を表す。取得されることを期待される高さデータは、図6に示す実線区域に基づいて計算される必要がある。破線区域の長さから実線区域の長さへの変換を実装するために、本解決手段における加重係数に基づいて、計算が実行される。実線区域の長さは、加重係数および骨格長さに基づいて計算された実際の高さを表す。例えば、Laは、頭に対応する長さであり、La'は、加重計算を通して取得された実際の頭の高さであり、Lbは、脛に対応する長さであり、Lbは、加重計算を通して取得された実際の脛の高さである。
各加重係数の設定について、パラメータ調整は、経験値に基づいて実行されることに留意されたい。代替的に、各加重係数は、ニューラルネットワークを用いることによってトレーニングされてよい。一般的なモデルは、決定木、BP(back propagation)ニューラルネットワーク等を含む。これは、本願において限定されるものではない。
任意選択的に、対象の姿勢情報が不完全な姿勢である場合、骨格の加重係数は、有効骨格長さ情報に基づいて調整されてよく、高さデータが計算される。取得された有効骨格長さ情報が不完全である、すなわち、対象の姿勢情報が不完全な姿勢である場合、1または複数の有効骨格長さ情報が存在してよい。有効骨格長さ情報が1つのみ存在する場合、加重係数が、骨格に対して決定される。複数の有効骨格長さ情報が存在する場合、加重係数は、複数の有効骨格長さ情報における各有効骨格長さ情報に対して決定される。全有効骨格に対応する加重係数の値は、異なってよい。具体的な値は、本明細書において限定されるものではない。不完全な姿勢で計算された高さデータの誤差は増加することが理解されよう。任意選択的に、結果が表示される場合、ユーザは、現在の姿勢情報が不完全な姿勢であることを、画面表示、音声指示、振動提示等を含む複数の方式で提示されてよい。これは、本明細書において限定されるものではない。
任意選択的に、対象の高さデータが取得された後、端末は、ユーザの高さデータを、画面表示、音声指示、振動提示等を含む複数の方式で出力してよい。これは、本明細書において限定されるものではない。
任意選択的に、図8に示すように、測定が完了した場合、測定結果は、スクリーン上の対象の画像近傍に、目盛を通して表示される。複数の測定対象が同時に測定される場合、各測定対象の高さデータは、対象の画像における測定対象近傍に、別々に表示されてよい。
以下、図9aから図9cに示すように、高さ測定方法のシミュレーション実験結果を説明する。
周辺環境がスキャンされる。SLAMシステムは、計算を通して、測定対象に対応する3D点群を取得する。3D点群の分散を図9aに示す。測定対象が撮影された場合、骨格検出モジュールは、2D骨格点検出を実行する。(例では、15のキー骨格点が骨格検出アルゴリズムに従って検出される。)2D検出結果を図9bに示す。座標変換モジュールは、2D座標を3D座標に変換し、各3D骨格点の長さを計算する。実際の動作中の各骨格長さの計算を、図9cに示す。図9cは、2つの測定結果を別々に示す。測定が異なる距離および異なる角度から実行される場合、測定される骨格長さが変動し得ることが見て取れよう。この場合、データ統合モジュールは、加重を実行することを必要とされる。高さが、最後に計算される。以下、計算プロセスを説明する。2つの測定によって取得された骨格長さを表2に示す。単位はセンチメートル(cm)である。
重みおよび高さは、以下の通り計算される。
(1)高さ測定中、姿勢は、標準的な座った姿勢であり、全骨格が完全である。左/右肩、左/右肘、左./右手首、および腰骨に対応する骨格長さは、高さ計算に用いられない。したがって、重みは0に設定される。
(2)頭頂から首まで、首から腰骨まで、左/右膝から左/右腰まで、および左/右足首から左/右膝までの骨格長さに、それぞれ、遠近関係に起因して、異なる重みが割り当てられる。(重みは、カメラの撮影角度およびカメラと測定対象との間の距離に関連し、計算プロセスの詳細は本明細書では説明しない。)
(3)頭の補償値は、頭頂から首までの骨格長さに基づいて加重することによって取得される。足首の補償値は、左/右腰から左/右膝、左/右足首までの骨格長さの平均骨格長さに基づいて加重することによって取得される。
(4)例において、測定対象の実際の高さは、172cmである。本方法において、2つの測定値が加重された後に計算される高さは、それぞれ175.7cmおよび171.3cmであり、誤差の割合は、それぞれ2.15%および-0.42%であり、平均測定誤差は1.28%である。
前述の内容は、本願において提供される高さ測定方法を説明する。以下、高さ測定方法を実装する端末を説明する。
図10は、本願の実施形態に係る端末の実施形態の概略図である。
本願の本実施形態における端末は、携帯電話、タブレットコンピュータ、ノートブックコンピュータ、またはウェアラブルポータブルデバイスのような、様々なタイプの端末デバイスであってよい。これは、特に限定されるものではない。
端末は、以下のモジュール:入力モジュール1001、SLAMシステム1002、自動検出モジュール1003、座標変換モジュール1004、データ統合モジュール1005、および出力モジュール1006を含む。
入力モジュール1001は、リアルタイムの2次元(2D)画像およびIMUデータを取得する。
SLAMシステム1002は、2D画像が撮影される場合のカメラの対応する姿勢を取得するために、2D画像およびIMUデータに基づいて、姿勢推定を実行してよい。さらに、特徴抽出、特徴マッチング、および外れ値の除去のような処理が2D画像に対して実行され、画像間の特徴マッチングペアを出力する。姿勢推定結果に基づいて、3D点群生成モジュール(図10の三角化マッピング点に対応する)は、三角化のようなアルゴリズムに従って、画像と、推定を通して取得されたカメラの姿勢との間の特徴マッチングペアに基づいて、2D特徴点に対応する3次元(3D)点を計算する。最適化モジュール(図6のマッピング点最適化およびカメラ姿勢最適化に対応する)は、カメラの姿勢および3D点群データを入力し、カメラの姿勢および3D点群に対して共同最適化を実行する。前述の段階が実行された後、SLAMシステム1002は、リアルタイムのカメラの姿勢および3D点群データを、使用のために別のモジュールに出力する。SLAMシステムの具体的アルゴリズムは、従来技術のいずれか1つであってよい。これは、本願において限定されるものではない。
自動検出モジュール1003は、リアルタイムの画像データに基づいて、人体分割、骨格検出、および顔検出のようなアルゴリズムに従って、各対象の2Dキー関節(すなわち、2Dキー骨格点)を検出する。
座標変換モジュール1004は、カメラの姿勢および3D点群データに基づいて、2Dキー関節を3Dキー関節(すなわち、3Dキー骨格点)に変換する。
データ統合モジュール1005は、測定対象の胴体情報を取得するために、3Dキー関節についての情報に基づいて、キー関節連結を実行し、姿勢検出のために、3D胴体情報を姿勢検出モジュールに入力する。補償モジュールは、異なる検出された姿勢に基づいて、対応する補償を重畳する。測定されたユーザの測定結果が、最後に取得される。
出力モジュール1006は、複数の測定対象の高さ情報を出力する。
図11aは、本願の実施形態に係る端末の別の実施形態の概略図である。
端末は、取得モジュール1101および決定モジュール1102を含む。
取得モジュール1101は、被写体を含む画像と、画像が撮影される場合に用いられるカメラの姿勢とを取得するように構成される。
取得モジュール1101は、さらに、画像における被写体の少なくとも2つのキー骨格点の画素座標を取得するように構成される。画素座標は、画像におけるキー骨格点の2次元位置情報を示す。
取得モジュール1101は、さらに、カメラの姿勢およびキー骨格点の画素座標に基づいて、キー骨格点の3次元座標を取得するように構成される。3次元座標は、ワールド座標系におけるキー骨格点の3次元位置情報を示す。少なくとも2つのキー骨格点の3次元座標は、少なくとも2つのキー骨格点の間の距離についての情報を示す。
決定モジュール1102は、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定するように構成される。
任意選択的に、取得モジュール1101は、さらに、被写体の3次元点群情報を取得するように構成される。
カメラの姿勢およびキー骨格点の画素座標に基づいて被写体のキー骨格点の3次元座標を取得する段階は、具体的には、
キー骨格点の画素座標、カメラの姿勢、および3次元点群情報に基づいて、衝撃検出アルゴリズムに従って、キー骨格点の3次元座標を取得する段階
を含む。
任意選択的に、取得モジュール1101は、具体的には、
異なる向きから撮影された被写体の少なくとも2つの画像に基づいて、被写体の3次元点群情報を取得する
ように構成される。
任意選択的に、取得モジュール1101は、具体的には、
深度センサによって収集された被写体の3次元点群情報を取得する
ように構成される。深度センサは、双眼カメラ、レーザレーダ、ミリ波レーダ、またはタイムオブフライトセンサを含む。
任意選択的に、取得モジュール1101は、具体的には、
異なる向きから撮影された被写体の少なくとも2つの画像を取得する手順で合って、異なる向きから撮影された被写体の少なくとも2つの画像は、画像を含む、手順と、異なる向きから撮影された被写体の少なくとも2つの画像に基づいて、カメラの姿勢を取得する手順とを実行する
ように構成される。
任意選択的に、取得モジュール1101は、具体的には、
異なる向きから撮影された被写体の少なくとも2つの画像を取得する手順であって、異なる向きから撮影された被写体の少なくとも2つの画像は、被写体の画像を含む、手順と、
異なる向きから撮影された被写体の少なくとも2つの画像に対応する、カメラの慣性測定ユニットデータを取得する手順と、
慣性測定ユニットデータと、異なる向きから撮影された被写体の少なくとも2つの画像とに基づいて、カメラの姿勢を決定する手順と、
を実行するように構成される。
任意選択的に、決定モジュール1102は、具体的には、
キー骨格点の3次元座標に基づいて、被写体の骨格長さおよび被写体の姿勢情報を取得する手順と、
姿勢情報に基づいて、骨格長さの予め設定された重みパラメータを決定する手順と、
骨格長さおよび重みパラメータに基づいて、被写体の高さデータを決定する手順と、
を実行するように構成される。
任意選択的に、骨格長さは、頭の骨格長さおよび脚の骨格長さを含む。
決定モジュール1102は、具体的には、
頭の骨格長さおよび予め設定された頭補償パラメータに基づいて、頭高さ補償値を決定する手順と、
脚の骨格長さおよび予め設定された足補償パラメータに基づいて、足高さ補償値を決定する手順と、
骨格長さ情報、重みパラメータ、頭高さ補償値、および足高さ補償値に基づいて、被写体の高さデータを決定する手順と、
を実行するように構成される。
任意選択的に、画像は、少なくとも2つの被写体を含む。
装置は、画像に対して顔検出を実行し、少なくとも2つの被写体の各々のキー骨格点の画素座標を、画像分割アルゴリズムに従って、キー骨格点の画素座標から決定するように構成される処理モジュール1103をさらに含む。
任意選択的に、装置は、
少なくとも2つの被写体についての情報をユーザに表示するように構成される出力モジュール1104
をさらに含み、
少なくとも2つの被写体についての情報は、少なくとも2つの被写体の画像情報、少なくとも2つの被写体のキー骨格点の画素座標でマーキングされた画像情報、および少なくとも2つの被写体の顔検出結果情報のうちの少なくとも1つを含む。
取得モジュール1101は、さらに、ユーザ命令を取得するように構成される。ユーザ命令は、少なくとも2つの被写体のうちの1または複数に対して高さ測定を実行するよう命令する。
任意選択的に、決定モジュール1102は、具体的には、
キー骨格点の3次元座標に基づいて、被写体の骨格長さ情報を取得する手順と、
第1事前設定条件を満たす骨格長さ情報を削除する手順であって、第1事前設定条件は、骨格長さ情報における骨格長さが予め設定された範囲外にあること、または、対称部分間の骨格長さの差が予め設定された閾値範囲より大きいまたはこれに等しいことを含む、手順と、
削除後に取得された骨格長さ情報に基づいて、被写体の高さデータを決定する手順と、
を実行するように構成される。
任意選択的に、装置は、
画像において、被写体近傍で被写体の高さデータをラベリングし、高さデータをユーザに表示する、または、
音声を通して、被写体の高さデータをブロードキャストする
ように構成される出力モジュール1104をさらに含む。
任意選択的に、装置は、
被写体のキー骨格点が第2事前設定条件を満たさない場合、検出失敗情報をユーザに表示する、または、音声を通して検出失敗情報をユーザに提示する、または、振動を通して検出失敗情報をユーザに提示する
ように構成される出力モジュール1104をさらに含む。
本願の本実施形態において提供される端末は、高さを検出するために用いられてよい。取得モジュールは、画像における被写体のキー骨格点の画素座標を取得し、3次元空間におけるキー骨格点の3次元座標を取得するために用いられる。決定モジュールは、少なくとも2つのキー骨格点の3次元座標に基づいて、被写体の高さデータを決定してよい。装置は、キー骨格点の2次元画素座標を3次元座標に変換し、参照対象を変換することなく、被写体の高さデータを直接取得する。これにより、被写体周りのシナリオが複雑な場合に参照対象の変換によって生じる測定誤差を回避することができ、高さ測定結果の正確性を改善することができる。
図11bは、本願の実施形態に係る端末のさらに別の実施形態の概略図である。
本願における端末は、センサユニット1110、計算ユニット1120、ストレージユニット1140、およびインタラクションユニット1130を含む。
センサユニット1110は、概して、シナリオの2D画像情報を取得するように構成される視覚センサ(例えば、カメラ)と、直線加速度および角速度のような端末の動き情報を取得するように構成される慣性センサ(IMU)と、シナリオの深度情報を取得するように構成される(任意選択的な)深度センサ/レーザセンサとを含む。
計算ユニット1120は、通常、CPU、GPU、キャッシュ、レジスタ等を含み、主に、オペレーティングシステムを実行し、SLAMシステム、骨格検出、および顔認識のような本願におけるアルゴリズムモジュールを処理するように構成される。
ストレージユニット1140は、主に、メモリおよび外部ストレージを含み、主に、ユーザのローカルおよび一時データの読み出しおよび書き込みを実行するように構成される。
インタラクションユニット1130は、主に、ディスプレイ、タッチパッド、スピーカ、マイクロフォン等を含み、主に、ユーザとインタラクションし、入力を取得し、アルゴリズム効果の表示を実装する等を実行するように構成される。
図12は、本願の実施形態に係る端末の実施形態の概略図である。
理解を容易ならしめるために、以下、例を用いることによって、本願の実施形態において提供される端末100の構造を説明する。
図12は、本願の実施形態に係る端末の構造の概略図である。
図12に示すように、端末100は、プロセッサ110、外部メモリインタフェース120、内部メモリ121、ユニバーサルシリアルバス(universal serial bus、USB)インタフェース130、充電管理モジュール140、電力管理モジュール141、バッテリ142、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、オーディオモジュール170、スピーカ170A、レシーバ170B、マイクロフォン170C、ヘッドセットジャック170D、センサモジュール180、ボタン190、モータ191、インジケータ192、カメラ193、ディスプレイ194、加入者識別モジュール(subscriber identification module、SIM)、カードインタフェース195等を含んでよい。センサモジュール180は、圧力センサ180A、ジャイロスコープセンサ180B、気圧センサ180C、磁気センサ180D、加速度センサ180E、距離センサ180F、光学近接センサ180G、指紋センサ180H、温度センサ180J、タッチセンサ180K、周辺光センサ180L、および骨伝導センサ180M等を含んでよい。
本願の本実施形態に示す構造は、端末100の具体的限定を構成しないことが理解されよう。本願のいくつかの他の実施形態において、端末100は、図に示すものより多くのまたはより少ないコンポーネントを含んでよい、またはいくつかのコンポーネントを組み合わせてよい、または、いくつかのコンポーネントを分割してよい、または、異なるコンポーネント構成を有してよい。図に示すコンポーネントは、ハードウェア、ソフトウェア、または、ソフトウェアおよびハードウェアの組み合わせによって実装され得る。
プロセッサ110は1または複数の処理ユニットを含んでよい。例えば、プロセッサ110は、アプリケーションプロセッサ(application processor、AP)、モデムプロセッサ、グラフィックス処理ユニット(graphics processing unit、GPU)、画像信号プロセッサ(image signal processor、ISP)、コントローラ、メモリ、ビデオコーデック、デジタル信号プロセッサ(digital signal processor、DSP)、ベースバンドプロセッサ、ニューラルネットワーク処理ユニット(Neural-network Processing Unit、NPU)等を含んでよい。異なる処理ユニットは、独立したコンポーネントであってよい、または、1または複数のプロセッサに統合され得る。
コントローラは、端末100の中枢部および司令部であってよい。コントローラは、命令オペレーションコードおよび時系列信号に基づき動作制御信号を生成して、命令の読み出しおよび命令の実行の制御を完了し得る。
メモリはさらに、プロセッサ110に配置され得、命令およびデータを格納するように構成される。いくつかの実施形態において、プロセッサ110内のメモリは、キャッシュメモリである。メモリは、プロセッサ110によって使用されたばかりの、または、周期的に使用される命令またはデータを格納し得る。プロセッサ110が命令またはデータを再使用する必要がある場合に、プロセッサは命令またはデータをメモリから直接的に呼び出すことができる。これにより繰り返しアクセスを回避し、プロセッサ110の待機時間を低減し、システム効率を改善する。
いくつかの実施形態において、プロセッサ110は1または複数のインタフェースを含んでよい。このインタフェースは、集積回路間(inter-integrated circuit、I2C)インタフェース、集積回路間サウンド(inter-integrated circuit sound、I2S)インタフェース、パルス符号変調(pulse code modulation、PCM)インタフェース、汎用非同期式受信機/送信器(universal asynchronous receiver/transmitter、UART)インタフェース、モバイルインダストリプロセッサインタフェース(mobile industry processor interface、MIPI)、汎用入力/出力(general-purpose input/output、GPIO)インタフェース、加入者識別モジュール(subscriber identity module、SIM)インタフェース、および/またはユニバーサルシリアルバス(universal serial bus、USB)インタフェース等を含んでよい。
本願の実施形態に示すモジュール間のインタフェース接続関係は、説明のための例に過ぎず、端末100の構造に対する限定を構成しないことが理解されよう。本願のいくつかの他の実施形態において、端末100は、代替的に、前述の実施形態におけるものと異なるインタフェース接続方式を用いてよい、または、複数のインタフェース接続方式の組み合わせを用いてよい。
充電管理モジュール140は、充電入力を充電器から受信するように構成される。充電器は、無線充電器または有線充電器であってよい。有線充電のいくつかの実施形態において、充電管理モジュール140はUSBインタフェース130を通じて有線充電器の充電入力を受信し得る。
電力管理モジュール141は、バッテリ142および充電管理モジュール140をプロセッサ110に接続するように構成される。電力管理モジュール141は、バッテリ142および/または充電管理モジュール140の入力を受信し、プロセッサ110、内部メモリ121、外部メモリ、ディスプレイ194、カメラ193、無線通信モジュール160等に電力を供給する。
端末100の無線通信機能は、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、モデムプロセッサ、ベースバンドプロセッサ等を用いることによって実装されてよい。
いくつかの実現可能な実装において、端末100は、無線通信機能を用いることによって、別のデバイスと通信してよい。例えば、端末100は、第2電子デバイスと通信してよい。端末100は、第2電子デバイスへの投影接続を確立する。端末100は、投影データを第2電子デバイス等に出力する。端末100によって出力された投影データは、オーディオまたはビデオデータであってよい。
アンテナ1およびアンテナ2は、電磁波信号を送信および受信するように構成される。端末100の各アンテナは、1または複数の通信周波数帯をカバーするように構成されてよい。アンテナ利用率を改善するために異なるアンテナがさらに多重化され得る。例えば、アンテナ1は、無線ローカルエリアネットワークのダイバーシティアンテナとして多重化されてよい。いくつかの他の実施形態において、アンテナは、チューニングスイッチと組み合わせて用いられ得る。
モバイル通信モジュール150は、端末100に適用される1G/3G/4G/5G等を含む無線通信解決手段を提供してよい。モバイル通信モジュール150は、少なくとも1つのフィルタ、スイッチ、電力増幅器、低ノイズ増幅器(low noise amplifier、LNA)等を含んでよい。モバイル通信モジュール150は、アンテナ1を通じて電磁波を受信し、受信された電磁波に対してフィルタリングまたは増幅のようなの処理を実行し、復調のために電磁波をモデムプロセッサへ送信し得る。モバイル通信モジュール150はさらに、モデムプロセッサによって変調された信号を増幅し、アンテナ2を通じた放射のために信号を電磁波に変換し得る。いくつかの実施形態において、モバイル通信モジュール150における少なくともいくつかの機能モジュールはプロセッサ110に配置され得る。いくつかの実施形態において、モバイル通信モジュール150の少なくともいくつかの機能モジュールおよびプロセッサ110の少なくともいくつかのモジュールは同じコンポーネントに配置され得る。
モデムプロセッサは、変調器および復調器を含んでよい。変調器は、送信予定の低周波数ベースバンド信号を中高周波信号に変調するように構成される。復調器は、受信された電磁波信号を低周波数ベースバンド信号に復調するように構成される。次に、復調器は、復調を介して取得された低周波数ベースバンド信号を、処理のためにベースバンドプロセッサへ送信する。低周波数ベースバンド信号は、ベースバンドプロセッサによって処理され、次に、アプリケーションプロセッサに送信される。アプリケーションプロセッサは、オーディオデバイス(スピーカ170A、レシーバ170B等に限定されるものではない)によって音信号を出力する、または、画像またはビデオをディスプレイ194に表示する。いくつかの実施形態において、モデムプロセッサは、独立したコンポーネントであってよい。いくつかの他の実施形態において、モデムプロセッサは、プロセッサ110から独立し得、モバイル通信モジュール150または別の機能モジュールと共に同じデバイスとして配置される。
無線通信モジュール160は、無線ローカルエリアネットワーク(wireless local area network、WLAN)(例えば、ワイヤレスフィデリティ(wireless fidelity、Wi-Fi(登録商標))ネットワーク、Bluetooth(登録商標)(Bluetooth、BT)、全球測位衛星システム(global navigation satellite system、GNSS)、周波数変調(frequency modulation、FM)、近距離無線通信(near field communication、NFC)技術、赤外線(infrared、IR)技術等)を含む、端末100に適用される無線通信解決手段を提供してよい。無線通信モジュール160は、少なくとも1つの通信処理モジュールを統合する1または複数のコンポーネントであってよい。無線通信モジュール160は、アンテナ1を通じて電磁波を受信し、電磁波信号に対して周波数変調およびフィルタリング処理を実行し、処理された信号をプロセッサ110へ送信する。無線通信モジュール160はさらに、送信対象信号をプロセッサ110から受信し、信号に対して周波数変調および増幅を実行し、アンテナ2を通じた放射のために信号を電磁波に変換し得る。
いくつかの実施形態において、端末100のアンテナ1は、モバイル通信モジュール150に結合され、アンテナ2は、無線通信モジュール160に結合され、これにより、端末100は、無線通信技術を用いることによって、ネットワークおよび別のデバイスと通信してよい。無線通信技術は、グローバルシステム・フォー・モバイルコミュニケーションズ(global system for mobile communications, GSM(登録商標))、汎用パケット無線サービス(general packet radio service, GPRS)、符号分割多重アクセス(code division multiple access, CDMA)、広帯域符号分割多重アクセス(wideband code division multiple access, WCDMA(登録商標))、時分割符号分割多重アクセス(time-division code division multiple access, TD-SCDMA)、ロングタームエボリューション(long term evolution, LTE)、BT、GNSS、WLAN、NFC、FM、IR技術等を含んでよい。GNSSは、グローバルポジショニングシステム(global positioning system、GPS)、全球測位衛星システム(global navigation satellite system、GLONASS)、北斗衛星導航系統(BeiDou navigation satellite system、BDS)、準天頂衛星システム(quasi-zenith satellite system、QZSS)、および/または衛星航法補強システム(satellite based augmentation system、SBAS)を含んでよい。
端末100は、GPU、ディスプレイ194、アプリケーションプロセッサ等を通して表示機能を実装する。GPUは、画像処理のためのマイクロプロセッサであり、ディスプレイ194およびアプリケーションプロセッサに接続される。GPUは、数学的および幾何学的計算を実行し、画像をレンダリングするように構成されている。プロセッサ110は、プログラム命令を実行して表示情報を生成または変更する1または複数のGPUを含んでよい。
ディスプレイ194は、画像およびビデオ等を表示するように構成される。ディスプレイ194は表示パネルを含む。表示パネルは、液晶ディスプレイ(Liquid Crystal Display, LCD)、有機発光ダイオード(Organic Light-Emitting Diode, OLED)、アクティブマトリクス式有機発光ダイオード(Active-Matrix Organic Light-Emitting Diode, AMOLED)、フレキシブル発光ダイオード(Flexible Light-Emitting Diode, FLED)、mini-LED、micro-LED、micro-OLED、または量子ドット発光ダイオード(Quantum Dot Light-Emitting Diode, QLED)等であってよい。いくつかの実施形態において、端末100は、1またはN個のディスプレイ194を含んでよく、Nは1より大きい正の整数である。
いくつかの実現可能な実装において、ディスプレイ194は、端末100のシステムによって出力された各インタフェースを表示するように構成されてよい。端末100によって出力された各インタフェースについては、以下の実施形態における関連説明を参照されたい。
端末100は、ISP、カメラ193、ビデオコーデック、GPU、ディスプレイ194、アプリケーションプロセッサ等を用いることによって撮影機能を実装し得る。
ISPは、カメラ193によってフィードバックされるデータを処理するように構成される。例えば、撮影中に、シャッタがタッチされ、光がレンズを通してカメラの感光素子に送信される。光信号は電気信号へと変換され、カメラの感光素子は、電気信号を可視画像へと変換するための処理のために、電気信号をISPに送信する。ISPはさらに、画像のノイズ、輝度、および、色に対してアルゴリズム最適化を実行し得る。ISPはさらに、撮影シナリオの露光および色温度のようなパラメータを最適化し得る。いくつかの実施形態において、ISPはカメラ193内に配置され得る。
カメラ193は、静止画像またはビデオを撮像するように構成されている。対象の光学画像は、レンズを介して生成され、感光素子に投影される。感光素子は、電荷結合素子(charge coupled device, CCD)または相補型金属酸化物半導体(complementary metal-oxide-semiconductor, CMOS)フォトトランジスタであってよい。感光素子は、光信号を電気信号に変換し、次に、電気信号をデジタル画像信号に変換するために電気信号をISPに送信する。ISPは、処理のためにデジタル画像信号をDSPへ出力する。DSPは、デジタル画像信号をRGBまたはYUVのような標準形式の画像信号に変換する。いくつかの実施形態において、端末100は、1またはN個のカメラ193を含んでよく、Nは1より大きい正の整数である。
デジタル信号プロセッサは、デジタル信号を処理するように構成され、上記デジタル画像信号に加えて別のデジタル信号を処理してよい。
ビデオコーデックは、デジタルビデオを圧縮または展開するように構成される。端末100は、1または複数のビデオコーデックをサポートし得る。このように、端末100は、複数の符号化フォーマット、例えば、ムービングピクチャーエクスパーツグループ(Moving Picture Experts Group, MPEG)-1、MPEG-2、MPEG-3、およびMPEG-4でビデオを再生または記録できる。
NPUは、生物学的ニューラルネットワークの構造を参照することにより、例えば、人間の脳神経細胞間の伝達モードを参照することにより、入力情報を迅速に処理するニューラルネットワーク(neural-network, NN)コンピューティングプロセッサであり、さらに自己学習を継続的に実行し得る。端末100のインテリジェントコグニションのような用途は、NPU、例えば、画像認識、顔認識、音声認識、およびテキスト理解を用いることによって実装されてよい。
外部メモリインタフェース120は、端末100の格納能力を拡張するために、micro SDカードのような外部メモリカードに接続するように構成されてよい。外部メモリカードは、外部メモリインタフェース120を通じてプロセッサ110と通信し、データストレージ機能を実装する。例えば、音楽およびビデオのようなファイルが外部メモリカードに格納される。
内部メモリ121は、コンピュータ実行可能プログラムコードを格納するように構成され得る。実行可能プログラムコードは命令を含む。プロセッサ110は、内部メモリ121に格納された命令を実行し、端末100の様々な機能アプリケーションおよびデータ処理を実行する。内部メモリ121は、プログラム格納領域およびデータ格納領域を含んでよい。プログラム格納領域は、オペレーティングシステム、少なくとも1つの機能(例えば、音声再生機能または画像再生機能)によって必要とされるアプリケーション等を格納し得る。データ格納領域は、端末100の使用中に作成された(オーディオデータおよび電話帳のような)データ等を格納してよい。さらに、内部メモリ121は、高速ランダムアクセスメモリを含んでよく、または、不揮発性メモリ、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリ、または汎用フラッシュストレージ(universal flash storage,UFS)を含んでよい。
端末100は、オーディオモジュール170、スピーカ170A、レシーバ170B、マイクロフォン170C、ヘッドセットジャック170D、アプリケーションプロセッサ等を通して、音楽再生および録音のようなオーディオ機能を実装してよい。いくつかの実現可能な実装において、オーディオモジュール170は、ビデオに対応する音を再生するように構成されてよい。例えば、ディスプレイ194がビデオ再生画像を表示する場合、オーディオモジュール170は、ビデオ再生音を出力する。
オーディオモジュール170は、デジタルオーディオ情報を出力のためのアナログオーディオ信号に変換するように構成され、また、アナログオーディオ入力をデジタルオーディオ信号に変換するように構成される。
「ホーン」とも称されるスピーカ170Aは、オーディオ電気信号を音信号に変換するように構成される。
「イヤホン」とも称されるレシーバ170Bは、オーディオ電気信号を音信号に変換するように構成される。
「マイク(mike)」または「マイク(mic)」とも称されるマイクロフォン170Cは、音信号を電気信号に変換するように構成される。
ヘッドセットジャック170Dは有線ヘッドセットに接続するように構成される。ヘッドセットジャック170Dは、USBインタフェース130であってよく、または、3.5mmオープンモバイル端末プラットフォーム(open mobile terminal platform,OMTP)標準のインタフェース、または米国セルラ通信工業会(cellular telecommunications industry association of the USA,CTIA)標準のインタフェースであってよい。
圧力センサ180Aは、圧力信号を検知するように構成され、圧力信号を電気信号に変換できる。いくつかの実施形態において、圧力センサ180Aは、ディスプレイ194に配置され得る。
ジャイロスコープセンサ180Bは、端末100の動作姿勢を決定するように構成され得る。
気圧センサ180Cは気圧を測定するように構成される。
加速度センサ180Eは、様々な方向(3軸または6軸を含む)における端末100の加速度の大きさを検出してよい。重力の大きさおよび方向は、端末100が静止している場合に検出されてよい。加速度センサ180Eは、さらに、端末の姿勢を識別するように構成され、歩数計または横長モードと縦長モードとの間での画面切り替えのような用途において用いられる。
距離センサ180Fは、距離を測定するように構成される。
周辺光センサ180Lは、周辺光輝度を検知するように構成される。
指紋センサ180Hは指紋を収集するように構成される。
温度センサ180Jは、温度を検出するように構成される。
タッチセンサ180Kは、「タッチパネル」とも称される。タッチセンサ180Kは、ディスプレイ194に配置されてよく、タッチセンサ180Kおよびディスプレイ194は、「タッチスクリーン」とも称されるタッチスクリーンを形成する。タッチセンサ180Kは、タッチセンサ上またはタッチセンサの近くで実行されたタッチ操作を検出するように構成される。タッチセンサは、検出したタッチ操作をアプリケーションプロセッサに伝達して、タッチイベントのタイプを決定することができる。タッチ操作に関する視覚的出力は、ディスプレイ194を通じて提供され得る。いくつかの他の実施形態において、タッチセンサ180Kは、代替的に、端末100の表面上の、ディスプレイ194と異なる位置に配置されてよい。
ボタン190は、電源ボタン、音量ボタン等を含む。ボタン190は機械的ボタンであってよい、または、タッチボタンであってよい。端末100はボタン入力を受信し、端末100のユーザ設定および機能制御に関連するボタン信号入力を生成し得る。
モータ191は振動提示を生成し得る。
インジケータ192はインジケータライトであってよく、充電ステータスおよび電力変化を示すように構成され得る、または、メッセージ、不在着信、通知等を示すように構成され得る。
SIMカードインタフェース195は、SIMカードに接続されるように構成される。
当業者によれば、説明の容易性および簡潔性のために、前述のシステム、装置、およびユニットの詳細な動作プロセスについては、前述した方法の実施形態における対応するプロセスを参照すべきであることが明確に理解されよう。本明細書では詳細について改めて説明しない。
本願において提供されたいくつかの実施形態において開示されるシステム、装置、および方法は、別の方式で実装され得ることが理解されるべきである。例えば、説明される装置の実施形態は例に過ぎない。例えば、ユニットへの分割は、論理的機能の分割に過ぎず、実際の実装では他の分割であってよい。例えば、複数のユニットまたはコンポーネントを組み合わせてもよいし、または別のシステムに統合してもよいし、または、いくつかの機能を無視してもよいし、または実行されなくてもよい。さらに、表示または論じられた相互結合または直接結合または通信接続は、いくつかのインタフェースを通じて実装され得る。装置またはユニット間の間接結合または通信接続は、電子的形態、機械的形態、または他の形式で実装されてよい。
別個の部分として説明されるユニットは、物理的に別個あってよく、またはそうでなくてよく、ユニットとして表示される部分は、物理的ユニットでよく、またはそうでなくてよく、1つの位置に位置してよく、または、複数のネットワークユニット上に分散されてよい。ユニットの一部または全部は、実施形態の解決手段の目的を実現するための実際の要件に基づいて選択され得る。
さらに、本願の実施形態における機能ユニットが統合されて1つの処理ユニットになってもよいし、または、これらのユニットの各々が物理的に単独で存在してもよいし、または、2つまたはそれより多くのユニットが統合されて1つのユニットになってもよい。統合ユニットは、ハードウェアの形態で実装されてもよく、または、ソフトウェア機能ユニットの形態で実装されてもよい。
統合ユニットがソフトウェア機能ユニットの形で実装され、独立した製品として販売または使用される場合、統合ユニットは、コンピュータ可読記憶媒体に格納され得る。このような理解に基づいて、本願における技術的解決手段は本質的に、または従来技術に寄与する部分は、または技術的解決手段の全部または一部は、ソフトウェア製品の形態で実装されてよい。コンピュータソフトウェア製品は、記憶媒体に格納され、コンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスであってよい)に、本願の実施形態において説明された方法の段階の全部または一部を実行するよう命令するためのいくつかの命令を含む。前述の記憶媒体は、プログラムコードを格納可能な任意の媒体、例えば、USBフラッシュドライブ、リムーバブルハードディスク、リードオンリメモリ(read-only memory、ROM)、ランダムアクセスメモリ(random access memory、RAM)、フロッピディスク、またはコンパクトディスクを含む。
前述の実施形態は、本願を限定するのではなく、本願の技術的解決手段を説明することを意図しているに過ぎない。本願は前述の実施形態を参照して詳細に説明されているが、当業者であれば、本願の実施形態の技術的解決手段の主旨および範囲から逸脱することなく、前述の実施形態において説明された技術的解決手段にさらに修正を加えてよいこと、または、そのいくつかの技術的特徴に均等な置換をさらに行ってよいことを理解しよう。
他の可能な項目
1.高さ測定方法であって、
被写体を含む画像と、前記画像を撮影する場合に用いられるカメラの姿勢とを取得する段階と、
前記画像における前記被写体の少なくとも2つのキー骨格点の画素座標を取得する段階であって、前記キー骨格点は、骨格関節を含み、前記画素座標は、前記画像における前記キー骨格点の2次元位置情報を示す、段階と、
前記カメラの前記姿勢および前記少なくとも2つのキー骨格点の前記画素座標に基づいて、前記少なくとも2つのキー骨格点の3次元座標を取得する段階であって、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも2つのキー骨格点の前記3次元座標は、前記少なくとも2つのキー骨格点の間の距離についての情報を示す、段階と、
前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する段階と、
を備える方法。
2.前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する前記段階は、具体的には、
前記画像における前記被写体の少なくとも3つのキー骨格点の画素座標を取得する段階と、
前記カメラの前記姿勢および前記少なくとも3つのキー骨格点の前記画素座標に基づいて、前記少なくとも3つのキー骨格点の3次元座標を取得する段階であって、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも3つのキー骨格点の前記3次元座標は、前記少なくとも3つのキー骨格点の間の距離についての情報を示す、段階と、
前記少なくとも3つのキー骨格点の前記3次元座標に基づいて、少なくとも2つの骨格距離を決定し、前記少なくとも2つの骨格距離に基づいて、前記被写体の前記高さデータを決定する段階と、
を含む、項目1に記載の方法。
3.前記座標系は、ワールド座標系を含む
項目1または2に記載の方法。
4.前記方法は、
前記被写体の3次元点群情報を取得する段階
をさらに備え、
前記カメラの前記姿勢および前記キー骨格点の前記画素座標に基づいて、前記被写体の前記少なくとも2つのキー骨格点の3次元座標を取得する前記段階は、具体的には、
前記キー骨格点の前記画素座標、前記カメラの前記姿勢、および前記3次元点群情報に基づいて、衝撃検出アルゴリズムに従って、前記少なくとも2つのキー骨格点の前記3次元座標を取得する段階
を含む、項目1から3のいずれか一項に記載の方法。
5.前記被写体の3次元点群情報を取得する前記段階は、具体的には、
異なる向きから撮影された前記被写体の少なくとも2つの画像に基づいて、前記被写体の前記3次元点群情報を取得する段階
を含む、項目4に記載の方法。
6.前記被写体の3次元点群情報を取得する前記段階は、具体的には、
深度センサによって収集された前記被写体の前記3次元点群情報を取得する段階であって、前記深度センサは、双眼カメラ、レーザレーダ、ミリ波レーダ、またはタイムオブフライトセンサを含む、段階
を含む、項目4に記載の方法。
7.被写体を含む画像と、前記画像が撮影される場合に用いられるカメラの姿勢とを取得する前記段階は、具体的には、
異なる向きから撮影された前記被写体の少なくとも2つの画像を取得する段階であって、異なる向きから撮影された前記被写体の前記少なくとも2つの画像は、前記画像を含む、段階と、
異なる向きから撮影された前記被写体の前記少なくとも2つの画像に基づいて、前記カメラの前記姿勢を取得する段階と、
を含む、項目1から6のいずれか一項に記載の方法。
8.被写体を含む画像と、前記画像が撮影される場合に用いられるカメラの姿勢とを取得する前記段階は、具体的には、
異なる向きから撮影された前記被写体の少なくとも2つの画像を取得する段階であって、異なる向きから撮影された前記被写体の前記少なくとも2つの画像は、前記被写体の前記画像を含む、段階と、
異なる向きから撮影された前記被写体の前記少なくとも2つの画像に対応する、前記カメラの慣性測定ユニットデータを取得する段階と、
前記慣性測定ユニットデータと、異なる向きから撮影された前記被写体の前記少なくとも2つの画像とに基づいて、前記カメラの前記姿勢を決定する段階と、
を含む、項目1から6のいずれか一項に記載の方法。
9.前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する前記段階は、具体的には、
前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の骨格長さおよび前記被写体の姿勢情報を取得する段階と、
前記姿勢情報に基づいて、前記骨格長さの予め設定された重みパラメータを決定する段階と、
前記骨格長さおよび前記重みパラメータに基づいて、前記被写体の前記高さデータを決定する段階と、
を含む、項目1から8のいずれか一項に記載の方法。
10.前記骨格長さは、頭の骨格長さおよび脚の骨格長さを含み、
前記骨格長さおよび前記重みパラメータに基づいて、前記被写体の前記高さデータを決定する前記段階は、具体的には、
前記頭の前記骨格長さおよび予め設定された頭補償パラメータに基づいて、頭高さ補償値を決定する段階と、
前記脚の前記骨格長さおよび予め設定された足補償パラメータに基づいて、足高さ補償値を決定する段階と、
前記骨格長さ情報、前記重みパラメータ、前記頭高さ補償値、および前記足高さ補償値に基づいて、前記被写体の前記高さデータを決定する段階と、
を含む、項目9に記載の方法。
11.前記画像は、少なくとも2つの被写体を含み、
前記方法は、
前記画像に対して顔検出を実行し、前記少なくとも2つの被写体の各々のキー骨格点の画素座標を、画像分割アルゴリズムに従って、前記キー骨格点の前記画素座標から決定する段階
をさらに備える、項目1から10のいずれか一項に記載の方法。
12.前記方法は、
前記少なくとも2つの被写体についての情報をユーザに表示する段階であって、前記少なくとも2つの被写体についての前記情報は、前記少なくとも2つの被写体の画像情報、前記少なくとも2つの被写体のキー骨格点の画素座標でマーキングされた画像情報、および前記少なくとも2つの被写体の顔検出結果情報のうちの少なくとも1つを含む、段階と、
ユーザ命令を取得する段階であって、前記ユーザ命令は、前記少なくとも2つの被写体のうちの1または複数に対して高さ測定を実行するよう命令する、段階と、
をさらに備える、項目11に記載の方法。
13.前記キー骨格点は、重力方向に配置される、項目1から12のいずれか一項に記載の方法。
14.前記被写体は、非直立姿勢である、項目1から13のいずれか一項に記載の方法。
15.前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する前記段階は、具体的には、
前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の骨格長さ情報を取得する段階と、
第1事前設定条件を満たす骨格長さ情報を削除する段階であって、前記第1事前設定条件は、骨格長さ情報における骨格長さが予め設定された範囲外にあること、または、対称部分間の骨格長さの差が予め設定された閾値範囲より大きいまたはこれに等しいことを含む、段階と、
削除後に取得された骨格長さ情報に基づいて、前記被写体の前記高さデータを決定する段階と、
を含む、項目1から14のいずれか一項に記載の方法。
16.前記方法は、
前記画像において、前記被写体近傍で前記被写体の前記高さデータをラベリングし、前記高さデータをユーザに表示する段階、または、
音声を通して、前記被写体の前記高さデータをブロードキャストする段階
をさらに備える、項目1から15のいずれか一項に記載の方法。
17.前記方法は、
前記被写体の前記キー骨格点が第2事前設定条件を満たさない場合、検出失敗情報を前記ユーザに表示する、または、音声を通して前記検出失敗情報を前記ユーザに提示する、または、振動を通して前記検出失敗情報を前記ユーザに提示する段階
をさらに備える、項目1から16のいずれか一項に記載の方法。
18.被写体を含む画像と、前記画像を撮影する場合に用いられるカメラの姿勢とを取得するように構成される取得モジュールであって、
前記取得モジュールは、さらに、前記画像における前記被写体の少なくとも2つのキー骨格点の画素座標を取得するように構成され、前記キー骨格点は、骨格関節を含み、前記画素座標は、前記画像における前記キー骨格点の2次元位置情報を示し、
前記取得モジュールは、さらに、前記カメラの前記姿勢および前記キー骨格点の前記画素座標に基づいて、前記少なくとも2つのキー骨格点の3次元座標を取得するように構成され、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも2つのキー骨格点の前記3次元座標は、前記少なくとも2つのキー骨格点の間の距離についての情報を示す、
取得モジュールと、
前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定するように構成される決定モジュールと、
を備える高さ測定装置。
19.前記取得モジュールは、具体的には、
前記画像における前記被写体の少なくとも3つのキー骨格点の画素座標を取得する手順と、
前記カメラの前記姿勢および前記少なくとも3つのキー骨格点の前記画素座標に基づいて、少なくとも3つのキー骨格点の3次元座標を取得する手順であって、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも3つのキー骨格点の前記3次元座標は、前記少なくとも3つのキー骨格点の間の距離についての情報を示す、手順と、
を実行ように構成され、
前記決定モジュールは、具体的には、
前記少なくとも3つのキー骨格点の前記3次元座標に基づいて、少なくとも2つの骨格距離を決定し、前記少なくとも2つの骨格距離に基づいて、前記被写体の前記高さデータを決定する
ように構成される、
項目18に記載の装置。
20.前記座標系は、ワールド座標系を含む
項目18または19に記載の装置。
21.前記取得モジュールは、さらに、前記被写体の3次元点群情報を取得するように構成され、
前記カメラの前記姿勢および前記キー骨格点の前記画素座標に基づいて、前記被写体の前記少なくとも2つのキー骨格点の3次元座標を取得する前記手順は、具体的には、
前記キー骨格点の前記画素座標、前記カメラの前記姿勢、および前記3次元点群情報に基づいて、衝撃検出アルゴリズムに従って、前記少なくとも2つのキー骨格点の前記3次元座標を取得する手順
を含む
項目18から20のいずれか一項に記載の装置。
22.前記取得モジュールは、具体的には、
異なる向きから撮影された前記被写体の少なくとも2つの画像に基づいて、前記被写体の前記3次元点群情報を取得するように構成される
項目21に記載の装置。
23.前記取得モジュールは、具体的には、
前記深度センサによって収集された前記被写体の前記3次元点群情報を取得する手順であって、前記深度センサは、双眼カメラ、レーザレーダ、ミリ波レーダ、またはタイムオブフライトセンサを含む、手順
を実行するように構成される
項目21に記載の装置。
24.前記取得モジュールは、具体的には、
異なる向きから撮影された前記被写体の少なくとも2つの画像を取得する手順で合って、異なる向きから撮影された前記被写体の前記少なくとも2つの画像は、前記画像を含む、手順と、
異なる向きから撮影された前記被写体の前記少なくとも2つの画像に基づいて、前記カメラの前記姿勢を取得する手順と、
を実行するように構成される
項目18から23のいずれか一項に記載の装置。
25.前記取得モジュールは、具体的には、
異なる向きから撮影された前記被写体の少なくとも2つの画像を取得する手順であって、異なる向きから撮影された前記被写体の前記少なくとも2つの画像は、前記被写体の前記画像を含む、手順と、
異なる向きから撮影された前記被写体の前記少なくとも2つの画像に対応する、前記カメラの慣性測定ユニットデータを取得する手順と、
前記慣性測定ユニットデータと、異なる向きから撮影された前記被写体の前記少なくとも2つの画像とに基づいて、前記カメラの前記姿勢を決定する手順と、
を実行するように構成される、項目18から23のいずれか一項に記載の装置。
26.前記決定モジュールは、具体的には、
前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の骨格長さおよび前記被写体の姿勢情報を取得する手順と、
前記姿勢情報に基づいて、前記骨格長さの予め設定された重みパラメータを決定する手順と、
前記骨格長さおよび前記重みパラメータに基づいて、前記被写体の前記高さデータを決定する手順と、
を実行するように構成される、項目18から25のいずれか一項に記載の装置。
27.前記骨格長さは、頭の骨格長さおよび脚の骨格長さを含み、
前記決定モジュールは、具体的には、
前記頭の前記骨格長さおよび予め設定された頭補償パラメータに基づいて、頭高さ補償値を決定する手順と、
前記脚の前記骨格長さおよび予め設定された足補償パラメータに基づいて、足高さ補償値を決定する手順と、
前記骨格長さ情報、前記重みパラメータ、前記頭高さ補償値、および前記足高さ補償値に基づいて、前記被写体の前記高さデータを決定する手順と、
を実行するように構成される
項目26に記載の装置。
28.前記画像は、少なくとも2つの被写体を含み、
前記装置は、
前記画像に対して顔検出を実行し、画像分割アルゴリズムに従って、前記キー骨格点の前記画素座標から、前記少なくとも2つの被写体の各々のキー骨格点の画素座標を決定するように構成される処理モジュール
をさらに備える
項目18から27のいずれか一項に記載の装置。
29.前記装置は、
前記少なくとも2つの被写体についての情報をユーザに表示するように構成される出力モジュールであって、前記少なくとも2つの被写体についての前記情報は、前記少なくとも2つの被写体の画像情報、前記少なくとも2つの被写体のキー骨格点の画素座標でマーキングされた画像情報、および前記少なくとも2つの被写体の顔検出結果情報のうちの少なくとも1つを含む、出力モジュール
をさらに備え、
前記取得モジュールは、さらに、ユーザ命令を取得するように構成され、前記ユーザ命令は、前記少なくとも2つの被写体のうちの1または複数に対して高さ測定を実行するよう命令する
項目28に記載の装置。
30.前記キー骨格点は、重力方向に配置される、項目18から29のいずれか一項に記載の装置。
31.前記被写体は、非直立姿勢である、項目18から30のいずれか一項に記載の装置。
32.前記決定モジュールは、具体的には、
前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の骨格長さ情報を取得する手順と、
第1事前設定条件を満たす骨格長さ情報を削除する手順であって、前記第1事前設定条件は、骨格長さ情報における骨格長さが予め設定された範囲内にないこと、または、対称部分間の骨格長さの差が予め設定された閾値範囲より大きいまたはこれに等しいことを含む、手順と、
削除後に取得された骨格長さ情報に基づいて、前記被写体の前記高さデータを決定する手順と、
を実行するように構成される
項目18から31のいずれか一項に記載の装置。
33.前記装置は、
前記画像において、前記被写体近傍で前記被写体の前記高さデータをラベリングし、前記高さデータを前記ユーザに表示する、または、音声を通して、前記被写体の前記高さデータをブロードキャストするように構成される出力モジュール
をさらに含む、項目18から32のいずれか一項に記載の装置。
34.前記装置は、
前記被写体の前記キー骨格点が第2事前設定条件を満たさない場合、検出失敗情報をユーザに表示する、または、音声を通して検出失敗情報をユーザに提示する、または、振動を通して検出失敗情報をユーザに提示するように構成される出力モジュール
をさらに備える、項目18から33のいずれか一項に記載の装置。
35.1または複数のプロセッサおよびメモリを備える端末であって、
前記メモリは、コンピュータ可読命令を格納し、
前記1または複数のプロセッサは、前記コンピュータ可読命令を読み出すように構成され、これにより、前記端末は、項目1から17のいずれか一項に記載の方法を実装する
端末。
36.コンピュータプログラム製品であって、前記コンピュータプログラム製品がコンピュータ上で実行された場合、前記コンピュータは、項目1から17のいずれか一項に記載の方法を実行可能になる、コンピュータプログラム製品。
37.コンピュータ可読命令を備えるコンピュータ可読記憶媒体であって、前記コンピュータ可読命令がコンピュータ上で実行された場合、前記コンピュータは、項目1から17のいずれか一項に記載の方法を実行可能になる、コンピュータ可読記憶媒体。

Claims (20)

  1. 高さ測定方法であって、
    被写体を含む画像と、前記画像を撮影する場合に用いられるカメラの姿勢とを取得する段階と、
    前記画像における前記被写体の少なくとも2つのキー骨格点の画素座標を取得する段階であって、前記キー骨格点は、骨格関節を含み、前記画素座標は、前記画像における前記キー骨格点の2次元位置情報を示す、段階と、
    前記カメラの前記姿勢および前記少なくとも2つのキー骨格点の前記画素座標に基づいて、前記少なくとも2つのキー骨格点の3次元座標を取得する段階であって、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも2つのキー骨格点の前記3次元座標は、前記少なくとも2つのキー骨格点の間の距離についての情報を示す、段階と、
    前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する段階と、
    を備える方法。
  2. 前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する前記段階は、具体的には、
    前記画像における前記被写体の少なくとも3つのキー骨格点の画素座標を取得する段階と、
    前記カメラの前記姿勢および前記少なくとも3つのキー骨格点の前記画素座標に基づいて、前記少なくとも3つのキー骨格点の3次元座標を取得する段階であって、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも3つのキー骨格点の前記3次元座標は、前記少なくとも3つのキー骨格点の間の距離についての情報を示す、段階と、
    前記少なくとも3つのキー骨格点の前記3次元座標に基づいて、少なくとも2つの骨格距離を決定し、前記少なくとも2つの骨格距離に基づいて、前記被写体の前記高さデータを決定する段階と、
    を含む、請求項1に記載の方法。
  3. 前記座標系は、ワールド座標系を含む
    請求項1または2に記載の方法。
  4. 前記方法は、
    前記被写体の3次元点群情報を取得する段階
    をさらに備え、
    前記カメラの前記姿勢および前記キー骨格点の前記画素座標に基づいて、前記被写体の前記少なくとも2つのキー骨格点の3次元座標を取得する前記段階は、具体的には、
    前記キー骨格点の前記画素座標、前記カメラの前記姿勢、および前記3次元点群情報に基づいて、衝撃検出アルゴリズムに従って、前記少なくとも2つのキー骨格点の前記3次元座標を取得する段階
    を含む、請求項1または2に記載の方法。
  5. 前記被写体の3次元点群情報を取得する前記段階は、具体的には、
    異なる向きから撮影された前記被写体の少なくとも2つの画像に基づいて、前記被写体の前記3次元点群情報を取得する段階
    を含む、請求項4に記載の方法。
  6. 前記被写体の3次元点群情報を取得する前記段階は、具体的には、
    深度センサによって収集された前記被写体の前記3次元点群情報を取得する段階であって、前記深度センサは、双眼カメラ、レーザレーダ、ミリ波レーダ、またはタイムオブフライトセンサを含む、段階
    を含む、請求項4に記載の方法。
  7. 被写体の画像と、前記画像が撮影される場合に用いられるカメラの姿勢とを取得する前記段階は、具体的には、
    異なる向きから撮影された前記被写体の前記少なくとも2つの画像を取得する段階であって、異なる向きから撮影された前記被写体の前記少なくとも2つの画像は、前記画像を含む、段階と、
    異なる向きから撮影された前記被写体の前記少なくとも2つの画像に基づいて、前記カメラの前記姿勢を取得する段階と、
    を含む、請求項1または2に記載の方法。
  8. 被写体の画像と、前記画像が撮影される場合に用いられるカメラの姿勢とを取得する前記段階は、具体的には、
    異なる向きから撮影された前記被写体の前記少なくとも2つの画像を取得する段階であって、異なる向きから撮影された前記被写体の前記少なくとも2つの画像は、前記被写体の前記画像を含む、段階と、
    異なる向きから撮影された前記被写体の前記少なくとも2つの画像に対応する、前記カメラの慣性測定ユニットデータを取得する段階と、
    前記慣性測定ユニットデータと、異なる向きから撮影された前記被写体の前記少なくとも2つの画像とに基づいて、前記カメラの前記姿勢を決定する段階と、
    を含む、請求項1または2に記載の方法。
  9. 前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する前記段階は、具体的には、
    前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の骨格長さおよび前記被写体の姿勢情報を取得する段階と、
    前記姿勢情報に基づいて、前記骨格長さの予め設定された重みパラメータを決定する段階と、
    前記骨格長さおよび前記重みパラメータに基づいて、前記被写体の前記高さデータを決定する段階と、
    を含む、請求項1または2に記載の方法。
  10. 前記骨格長さは、頭の骨格長さおよび脚の骨格長さを含み、
    前記骨格長さおよび前記重みパラメータに基づいて、前記被写体の前記高さデータを決定する前記段階は、具体的には、
    前記頭の前記骨格長さおよび予め設定された頭補償パラメータに基づいて、頭高さ補償値を決定する段階と、
    前記脚の前記骨格長さおよび予め設定された足補償パラメータに基づいて、足高さ補償値を決定する段階と、
    前記骨格長さ情報、前記重みパラメータ、前記頭高さ補償値、および前記足高さ補償値に基づいて、前記被写体の前記高さデータを決定する段階と、
    を含む、請求項9に記載の方法。
  11. 前記画像は、少なくとも2つの被写体を含み、
    前記方法は、
    前記画像に対して顔検出を実行し、前記少なくとも2つの被写体の各々のキー骨格点の画素座標を、画像分割アルゴリズムに従って、前記キー骨格点の前記画素座標から決定する段階
    をさらに備える、請求項1または2に記載の方法。
  12. 前記キー骨格点は、重力方向に配置される、請求項1または2に記載の方法。
  13. 前記被写体は、非直立姿勢である、請求項1または2に記載の方法。
  14. 前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定する前記段階は、具体的には、
    前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の骨格長さ情報を取得する段階と、
    第1事前設定条件を満たす骨格長さ情報を削除する段階であって、前記第1事前設定条件は、骨格長さ情報における骨格長さが予め設定された範囲外にあること、または、対称部分間の骨格長さの差が予め設定された閾値範囲より大きいまたはこれに等しいことを含む、段階と、
    削除後に取得された骨格長さ情報に基づいて、前記被写体の前記高さデータを決定する段階と、
    を含む、請求項1または2に記載の方法。
  15. 前記方法は、
    前記画像において、前記被写体近傍で前記被写体の前記高さデータをラベリングし、前記高さデータをユーザに表示する段階、または、
    音声を通して、前記被写体の前記高さデータをブロードキャストする段階
    をさらに備える、請求項1または2に記載の方法。
  16. 前記方法は、
    前記被写体の前記キー骨格点が第2事前設定条件を満たさない場合、検出失敗情報をユーザに表示する、または、音声を通して前記検出失敗情報をユーザに提示する、または、振動を通して前記検出失敗情報をユーザに提示する段階
    をさらに備える、請求項1または2に記載の方法。
  17. 被写体を含む画像と、前記画像を撮影する場合に用いられるカメラの姿勢とを取得するように構成される取得モジュールであって、
    前記取得モジュールは、さらに、前記画像における前記被写体の少なくとも2つのキー骨格点の画素座標を取得するように構成され、前記キー骨格点は、骨格関節を含み、前記画素座標は、前記画像における前記キー骨格点の2次元位置情報を示し、
    前記取得モジュールは、さらに、前記カメラの前記姿勢および前記キー骨格点の前記画素座標に基づいて、前記少なくとも2つのキー骨格点の3次元座標を取得するように構成され、前記3次元座標は、座標系における前記キー骨格点の3次元位置情報を示し、前記少なくとも2つのキー骨格点の前記3次元座標は、前記少なくとも2つのキー骨格点の間の距離についての情報を示す、
    取得モジュールと、
    前記少なくとも2つのキー骨格点の前記3次元座標に基づいて、前記被写体の高さデータを決定するように構成される決定モジュールと、
    を備える高さ測定装置。
  18. 1または複数のプロセッサおよびメモリを備える端末であって、
    前記メモリは、コンピュータ可読命令を格納し、
    前記1または複数のプロセッサは、前記コンピュータ可読命令を読み出すように構成され、これにより、前記端末は、請求項1または2に記載の方法を実装する
    端末。
  19. コンピュータに請求項1または2に記載の方法を実行させるコンピュータプログラム。
  20. コンピュータ可読命令を備えるコンピュータ可読記憶媒体であって、前記コンピュータ可読命令がコンピュータ上で実行された場合、前記コンピュータは、請求項1または2に記載の方法を実行可能にされる、コンピュータ可読記憶媒体。
JP2023501759A 2020-07-15 2021-01-23 高さ測定方法および装置、ならびに端末 Pending JP2023534664A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010679662.1 2020-07-15
CN202010679662.1A CN114022532A (zh) 2020-07-15 2020-07-15 身高测量方法、身高测量装置和终端
PCT/CN2021/073455 WO2022012019A1 (zh) 2020-07-15 2021-01-23 身高测量方法、身高测量装置和终端

Publications (1)

Publication Number Publication Date
JP2023534664A true JP2023534664A (ja) 2023-08-10

Family

ID=79556083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023501759A Pending JP2023534664A (ja) 2020-07-15 2021-01-23 高さ測定方法および装置、ならびに端末

Country Status (5)

Country Link
US (1) US20230152084A1 (ja)
JP (1) JP2023534664A (ja)
KR (1) KR20230035382A (ja)
CN (1) CN114022532A (ja)
WO (1) WO2022012019A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348885B (zh) * 2019-08-09 2024-07-26 华为技术有限公司 视觉特征库的构建方法、视觉定位方法、装置和存储介质
US20220398772A1 (en) * 2021-06-11 2022-12-15 Sony Group Corporation Object and feature detection in images
CN115633956A (zh) * 2022-11-08 2023-01-24 华南理工大学 一种婴儿身高自动测量方法、系统、装置和存储介质
CN117315792B (zh) * 2023-11-28 2024-03-05 湘潭荣耀智能科技有限公司 一种基于卧姿人体测量的实时调控系统
CN117434570B (zh) * 2023-12-20 2024-02-27 绘见科技(深圳)有限公司 坐标的可视化测量方法、测量设备及存储介质
CN118274763B (zh) * 2024-06-04 2024-09-03 歌尔股份有限公司 补偿值测量方法、装置、设备、介质和产品

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2258265A3 (en) * 2009-06-03 2012-02-15 MINIMEDREAM Co., Ltd. Human body measurement system and information provision method using the same
CN102657532B (zh) * 2012-05-04 2014-09-17 深圳泰山在线科技有限公司 基于人体姿态识别的身高测量方法及装置
CN106780619B (zh) * 2016-11-25 2020-03-13 青岛大学 一种基于Kinect深度相机的人体尺寸测量方法
CN106361345A (zh) * 2016-11-29 2017-02-01 公安部第三研究所 基于摄像头标定的视频图像中人体身高测量的系统及方法
CN107256565A (zh) * 2017-05-19 2017-10-17 安徽信息工程学院 基于Kinect的人体主要体型参数的测量方法和系统
CN110717391A (zh) * 2019-09-05 2020-01-21 武汉亘星智能技术有限公司 一种基于视频图像的身高测量方法、系统、装置和介质

Also Published As

Publication number Publication date
WO2022012019A1 (zh) 2022-01-20
KR20230035382A (ko) 2023-03-13
CN114022532A (zh) 2022-02-08
US20230152084A1 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
JP2023534664A (ja) 高さ測定方法および装置、ならびに端末
US11782554B2 (en) Anti-mistouch method of curved screen and electronic device
CN111325842B (zh) 地图构建方法、重定位方法及装置、存储介质和电子设备
CN111445583B (zh) 增强现实处理方法及装置、存储介质和电子设备
WO2022170863A1 (zh) 超宽带定位方法及系统
US20220319136A1 (en) Augmented reality processing method, storage medium, and electronic device
CN112270754B (zh) 局部网格地图构建方法及装置、可读介质和电子设备
WO2021169394A1 (zh) 基于深度的人体图像美化方法及电子设备
WO2020192535A1 (zh) 一种测距方法及电子设备
CN111784765B (zh) 物体测量、虚拟对象处理方法及装置、介质和电子设备
WO2022042275A1 (zh) 测量距离的方法、装置、电子设备及可读存储介质
CN110505403A (zh) 一种录像处理方法及装置
WO2021175097A1 (zh) 一种非视距物体的成像方法和电子设备
WO2022206494A1 (zh) 目标跟踪方法及其装置
CN108564613A (zh) 一种深度数据获取方法及移动终端
CN112085647A (zh) 一种人脸校正方法及电子设备
CN113711123B (zh) 一种对焦方法、装置及电子设备
CN115526983A (zh) 一种三维重建方法及相关设备
CN109345636B (zh) 获取虚拟人脸图的方法和装置
CN110956571A (zh) 基于slam进行虚实融合的方法及电子设备
CN115147492A (zh) 一种图像处理方法以及相关设备
WO2021036562A1 (zh) 用于健身训练的提示方法和电子设备
JP2015156540A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111385481A (zh) 图像处理方法及装置、电子设备及存储介质
CN111982293B (zh) 体温测量方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240827

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240917