JP6549620B2 - ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 - Google Patents

ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 Download PDF

Info

Publication number
JP6549620B2
JP6549620B2 JP2016575462A JP2016575462A JP6549620B2 JP 6549620 B2 JP6549620 B2 JP 6549620B2 JP 2016575462 A JP2016575462 A JP 2016575462A JP 2016575462 A JP2016575462 A JP 2016575462A JP 6549620 B2 JP6549620 B2 JP 6549620B2
Authority
JP
Japan
Prior art keywords
target object
depth
model
pixel
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016575462A
Other languages
English (en)
Other versions
JP2017525029A (ja
Inventor
▲衛▼▲東▼ 唐
▲衛▼▲東▼ 唐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2017525029A publication Critical patent/JP2017525029A/ja
Application granted granted Critical
Publication of JP6549620B2 publication Critical patent/JP6549620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、データ取得の分野に関し、詳細には、ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末に関する。
インテリジェント端末上で「見たままが得られる(what you see is what you get)」を実現することは常に、ほとんどのユーザの夢である。たとえば、2009年にGoogleが、ストリートビューに基づく「Google Maps Navigation」というナビゲーションおよびジオロケーションサービスを開始している。しかしながら、このサービスは、背景の強力なジオグラフィックイメージデータ、検索および計算能力、ならびにユビキタスな高速ネットワークリンクによってサポートされる必要があり、狭いネットワークカバレッジを有する多くのエリアにおいては、そのようなサービスは、実施されることがほとんど不可能である。
本発明の実施形態は、ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末を提供する。ターゲットオブジェクトのものであるパターンおよびフレームワークが、ターゲットオブジェクトの撮影されたイメージから復元され、ターゲットオブジェクトのサインデータが、さまざまなローカルまたはクラウドの検索アプリケーションに関連してユーザに提示されて、ユーザのために「見たままが得られる」の経験を実現する。
第1の態様によれば、本発明は、ターゲットオブジェクトのサインデータを取得するための方法であって、
ターゲットオブジェクトの3D奥行きイメージを取得することであって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、ことと、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得することであって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、ことと、
ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得することと、
ターゲットオブジェクトの少なくとも1つの実際のサイズを取得することと、
3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得することとを含む方法を提供する。
第1の態様に関連して、第1の態様の第1の可能な実施様式においては、ターゲットオブジェクトの3D奥行きイメージを取得することは、
基準パターンをターゲットオブジェクトに送信することと、
基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信することと、
基準パターンに対する2次パターンのオフセット値を計算することと、
オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、その距離情報を使用することによって3D奥行きイメージを取得することとを含む。
第1の態様、または第1の態様の第1の可能な実施様式に関連して、第1の態様の第2の可能な実施様式においては、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのグラフィック輪郭を取得することは、
3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含み、
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのうちのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値のうちの少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセルの中に存在するかどうかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセルの中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
第1の態様の任意の実施態様から第1の態様の第2の可能な実施態様に関連して、第1の態様の第3の可能な実施態様においては、
ターゲットオブジェクトの3D奥行きイメージを取得することの後に、この方法は、
3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することをさらに含み、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の態様の第3の可能な実施態様に関連して、第1の態様の第4の可能な実施態様においては、3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することは、
奥行きしきい値を設定することと、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成することとを含む。
第1の態様の第4の可能な実施態様に関連して、第1の態様の第5の可能な実施態様においては、第1の3Dターゲット奥行きイメージを取得することの後に、この方法は、
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することをさらに含み、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の態様の第5の可能な実施態様に関連して、第1の態様の第6の可能な実施態様においては、第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することは、
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化することと、
ピクセル奥行きセグメント間隔を設定することと、
ピクセルブロックのうちのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのうちのそれぞれのピクセル平均値を取得することと、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得することとを含む。
第1の態様の任意の実施態様から第1の態様の第6の可能な実施態様に関連して、第1の態様の第7の可能な実施態様においては、ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのフレームワークパラメータを取得することは、
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得することと、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算することと、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算することと、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成することであって、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータである、こととを含む。
第1の態様の第7の可能な実施態様に関連して、第1の態様の第8の可能な実施態様においては、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得することは、
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算することであって、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角である、ことと、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得することと、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得することであって、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルである、ことと、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得することとを含む。
第1の態様の第8の可能な実施態様に関連して、第1の態様の第9の可能な実施態様においては、3Dモデルライブラリは、3Dモデルのすべての視角のグラフィック輪郭を含み、3Dモデルの少なくとも正面ビューのグラフィック輪郭を含む。
第1の態様の第9の可能な実施態様に関連して、第1の態様の第10の可能な実施態様においては、ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することは、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得することと、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得することと、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用することとを含む。
第1の態様の任意の実施態様から第1の態様の第10の可能な実施態様に関連して、第1の態様の第11の可能な実施態様においては、ターゲットオブジェクトの少なくとも1つの実際のサイズを取得することは、
音波信号をターゲットオブジェクトに送信することと、
ターゲットオブジェクトによって反射された音波信号を受信することと、
音波信号の送信時間を取得することであって、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分である、ことと、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算することと、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算することとを含む。
第2の態様によれば、本発明は、ターゲットオブジェクトのサインデータを取得するための装置であって、ターゲットオブジェクトの3D奥行きイメージを取得するように構成される撮像モジュールであって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、撮像モジュールと、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるグラフィック輪郭およびフレームワークパラメータ取得モジュールであって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、グラフィック輪郭およびフレームワークパラメータ取得モジュールと、
ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するように構成されるパラメータ比率取得モジュールと、
ターゲットオブジェクトの少なくとも1つの実際のサイズを取得するように構成される実際のサイズ取得モジュールと、
3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するように構成されるサインデータ取得モジュールとを含む、装置を提供する。
第2の態様に関連して、第2の態様の第1の可能な実施態様においては、撮像モジュールは、
基準パターンをターゲットオブジェクトに送信するように構成される送信ユニットと、
基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信するように構成される受信ユニットと、
基準パターンに対する2次パターンのオフセット値を計算するように構成される計算ユニットと、
オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、距離情報を使用することによって3D奥行きイメージを取得するように構成されるイメージ取得ユニットとを含む。
第2の態様、または第2の態様の第1の可能な実施態様に関連して、第2の態様の第2の可能な実施態様においては、グラフィック輪郭およびフレームワークパラメータ取得モジュールは、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得するように特に構成され、
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
第2の態様の任意の可能な実施態様から第2の態様の第2の可能な実施態様に関連して、第2の態様の第3の可能な実施態様においては、装置は、ノイズ除去モジュールをさらに含み、
ノイズ除去モジュールは、
3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するように構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第2の態様の第3の可能な実施態様に関連して、第2の態様の第4の可能な実施態様においては、ノイズ除去モジュールは、
奥行きしきい値を設定し、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成される。
第2の態様の第4の可能な実施態様に関連して、第2の態様の第5の可能な実施態様においては、ノイズ除去モジュールは、
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第2の態様の第5の可能な実施態様に関連して、第2の態様の第6の可能な実施態様においては、ノイズ除去モジュールは、
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのうちのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのうちのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成される。
第2の態様の任意の実施態様から第2の態様の第6の可能な実施態様に関連して、第2の態様の第7の可能な実施態様においては、グラフィック輪郭およびフレームワークパラメータ取得モジュールは、
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成される。
第2の態様の第7の可能な実施態様に関連して、第2の態様の第8の可能な実施態様においては、パラメータ比率取得モジュールは、
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成される。
第2の態様の第8の可能な実施態様に関連して、第2の態様の第9の可能な実施態様においては、3Dモデルライブラリは、3Dモデルのすべての視角のグラフィック輪郭を含み、3Dモデルの少なくとも正面ビューのグラフィック輪郭を含む。
第2の態様の第9の可能な実施態様に関連して、第2の態様の第10の可能な実施態様においては、パラメータ比率取得モジュールは、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得し、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成される。
第2の態様の任意の実施態様から第2の態様の第10の可能な実施態様に関連して、第2の態様の第11の可能な実施態様においては、実際のサイズ取得モジュールは、
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成される。
第3の態様によれば、本発明は、ターゲットオブジェクトのサインデータを取得するための端末であって、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成される3Dセンサであって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、3Dセンサと、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるプロセッサであって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、プロセッサとを含み、プロセッサは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するようにさらに構成され、プロセッサは、ターゲットオブジェクトの少なくとも1つの実際のサイズを取得し、3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するようにさらに構成される、端末を提供する。
第3の態様に関連して、第3の態様の第1の可能な実施態様においては、3Dセンサは、
基準パターンをターゲットオブジェクトに送信し、基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信し、基準パターンに対する2次パターンのオフセット値を計算し、オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、距離情報を使用することによって3D奥行きイメージを取得するように特に構成される。
第3の態様、または第3の態様の第1の可能な実施態様に関連して、第3の態様の第2の可能な実施態様においては、プロセッサは、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得するように特に構成され、
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのうちのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値のうちの少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
第3の態様の任意の実施態様から第3の態様の第2の可能な実施態様に関連して、第3の態様の第3の可能な実施態様においては、プロセッサは、3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することを行うようにさらに構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第3の態様の第3の可能な実施態様に関連して、第3の態様の第4の可能な実施態様においては、プロセッサは、
奥行きしきい値を設定し、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成される。
第3の態様の第4の可能な実施態様に関連して、第3の態様の第5の可能な実施態様においては、プロセッサは、
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第3の態様の第5の可能な実施態様に関連して、第3の態様の第6の可能な実施態様においては、プロセッサは、
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成される。
第3の態様の任意の実施態様から第3の態様の第6の可能な実施態様に関連して、第3の態様の第7の可能な実施態様においては、プロセッサは、
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成される。
第3の態様の第7の可能な実施態様に関連して、第3の態様の第8の可能な実施態様においては、プロセッサは、
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成される。
第3の態様の第8の可能な実施態様に関連して、第3の態様の第9の可能な実施態様においては、3Dモデルライブラリは、3Dモデルのすべての視角のグラフィック輪郭を含み、3Dモデルの少なくとも正面ビューのグラフィック輪郭を含む。
第3の態様の第9の可能な実施態様に関連して、第3の態様の第10の可能な実施態様においては、プロセッサは、ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得し、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成される。
第3の態様の任意の実施態様から第3の態様の第10の可能な実施態様に関連して、第3の態様の第11の可能な実施態様においては、プロセッサは、
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成される。
本発明の実施形態においては、ターゲットオブジェクトの3D奥行きイメージが取得され、ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭が取得され、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルが、3Dモデルライブラリから取り出され、3Dモデルのパラメータ比率が取得され、ターゲットオブジェクトの少なくとも1つの実際のサイズが取得され、それによって、3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータが取得される。本発明においては、端末およびローカル3Dモデルライブラリまたはクラウド内の3Dモデルライブラリのリアルタイムでの取得に関連して、ターゲットオブジェクトのサインデータが、リアルタイムな様式で人々に提示され、人々の「見たままが得られる」の夢が実現される。
本発明の実施形態における技術的な解決策をより明確に説明するために、以下、それらの実施形態を説明するために必要とされる添付の図面について簡単に説明する。明らかに、以下の説明における添付の図面は、本発明のいくつかの実施形態を単に示しているにすぎず、当業者はなお、創造的な努力を伴わずにこれらの添付の図面からその他の図面を導き得る。
本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための方法の概略フローチャートである。 本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための方法の特定のステップの参照図である。 本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための方法の特定のステップの別の参照図である。 本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための方法の特定のステップのさらに別の参照図である。 本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための装置の第1の概略図である。 本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための装置の第2の概略図である。 本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための端末の概略図である。
以下、本発明の実施形態における添付の図面を参照しながら、本発明の実施形態における技術的な解決策について明確に説明する。明らかに、説明する実施形態は、本発明の実施形態のうちの一部にすぎず、すべてではない。当業者によって本発明の実施形態に基づいて創造的な努力を伴わずに得られる他のすべての実施形態は、本発明の保護範囲内に入るものとする。
本発明の実施形態は、ターゲットオブジェクトのサインデータを取得するための方法を提供する。ターゲットオブジェクトのものであるパターンおよびフレームワークが、ターゲットオブジェクトの撮影されたイメージから復元され、ターゲットオブジェクトのサインデータが、さまざまなローカルまたはクラウドの検索アプリケーションに関連してユーザに提示されて、人々の「見たままが得られる」の夢を実現する。
実施形態1
図1を参照すると、図1は、本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための方法を示し、この方法は、以下を含む。すなわち、
S101.ターゲットオブジェクトの3D奥行きイメージを取得し、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む。
特定の実施態様において、ターゲットオブジェクトは、端末のカメラを使用することによって撮影されて、3D奥行きイメージを取得するようにしてよい。任意選択で、この取得プロセスは、下記の態様で実施されてよい。
まず、端末は、基準パターンを前述のターゲットオブジェクトに送信する。本明細書では基準パターンに関しては、複数の選択肢、たとえば、方形ラスタパターン、セルラーラスタパターンが存在してよく、または基準パターンは、分散された斑点を含むパターンであってよく、これは、本明細書では限定されない。加えて、ターゲットオブジェクトの保護のために、基準パターンの光発生源は、ビームパワーコントロールを実行することができる赤外線ビーム発生器であり、したがって、ターゲットオブジェクトが人体または動物の体であるときに、基準パターンの光発生源は、その人体または動物の体に害をもたらさない。
上述のように、端末は、基準パターンをターゲットオブジェクトに送信し、基準パターンの特徴サイズパラメータが事前設定される。たとえば、基準パターンがラスターパターンであるときに、ラスターの形状および間隔の両方が事前設定され得る。
次いで、基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンが受信される。本明細書では、受信は、端末が、内蔵されているまたは外部から接続されているカメラを使用することによってターゲットオブジェクトを撮影して、前述の基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを取得することであることであり得る。ターゲットオブジェクトの2次元のイメージがともに取得される。カメラによってオブジェクトの2次元の平面イメージを取得することは、成熟した技術であるので、技術を実現するための方法は、本明細書では説明されず、または限定されない。
さらに、基準パターンに対する2次パターンのオフセット値が計算される。基準パターンの特徴サイズパラメータが事前設定されているので、2次パターンが取得された後に、基準パターンに対する2次パターンのオフセット値が計算される。オフセット値はまた、値を使用することによって反射された基準パターンに対して生成される2次パターンの変形値、すなわち変形量と呼ばれ得る。
最後に、距離情報が、オフセット値に対してフーリエ変換を実行することによって取得され、3D奥行きイメージが、距離情報を使用することによって取得される。
前述の取得されたオフセット値に基づいて、オフセット値が、フーリエ変換を使用することによって処理されて、距離情報を取得する。本明細書では、距離情報は、撮像カメラと、撮影されるターゲットオブジェクトとの間における距離を記述するために使用され、ターゲットオブジェクトの2次元のイメージにおけるそれぞれのピクセルと、撮像カメラとの間における距離として特に具体化され得る。この距離情報に基づいて、およびターゲットオブジェクトの前述の撮影されて取得された2次元のイメージに関連して、距離情報を有する3D奥行きイメージが取得され得る。
S102.ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得する。奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である。
ターゲットオブジェクトの3D奥行きイメージは、イメージを形成するすべてのピクセルを含む。S101に従って取得される距離情報は、これらのピクセルと撮像カメラとの間における距離の距離情報、すなわち、本明細書ではピクセル奥行き値を記述するために使用され得る。さらに、ピクセル奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭が取得される。特定の実施プロセスにおいては、ピクセル奥行き値に従ってターゲットオブジェクトのグラフィック輪郭を取得することは、下記の方法に従って実施され得る。
3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算が実行されて、ターゲットオブジェクトのグラフィック輪郭を取得する。特に、本明細書では、差分計算は、下記のステップを含み得る。
まず、3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分が計算されて、4つの第1の奥行き差分値を取得し、本明細書では、第1のピクセルは、3D奥行きイメージからランダムに選択されるピクセルであり得る。第1のピクセルに接続されている4つの隣接ピクセルと、第1のピクセルとの間における位置関係は、個別に左、右、上、および下であり得る。
次いで、4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、当該少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルが、輪郭の位置としてマークされ、本明細書では、第1の差分しきい値は、経験に従って事前設定され得る。
次いで、輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーが行われ、輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算が別々に実行されて、第2の奥行き差分値を取得する。第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルが、輪郭の位置としてマークされ、本明細書では、第2のピクセルは、3D奥行きイメージにおける任意のピクセルであってもよく、本明細書では、第2の差分しきい値は、経験に従って事前設定され得る。輪郭の位置としてマークされたピクセルが、第2のピクセルに接続されている8つの隣接ピクセル中に存在するときに、第2のピクセルのピクセル奥行き値と、輪郭の位置としてマークされるものとして示されたピクセル以外のピクセルのピクセル奥行き値との間における差分計算が別々に実行される。計算を用いて取得された差分計算結果が、第2の差分しきい値よりも大きいと、第2のピクセルが、輪郭の位置としてマークされる。
最後に、ターゲットオブジェクトのグラフィック輪郭が、輪郭の位置としてマークされたピクセルに従って取得される。前述のステップに基づいて、前述の3D奥行きイメージにおけるピクセルは、輪郭の位置としてマークされるピクセル、および輪郭の位置としてマークされないピクセルにグループ化され、輪郭の位置としてマークされるすべてのピクセルが、ターゲットオブジェクトのグラフィック輪郭を形成する。加えて、ターゲットオブジェクトのフレームワークパラメータが、ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って取得される。まず、フレームワークパラメータの原理が理解されるべきである。一例として人体フレームワークパラメータが使用され、人体解剖学におけるフレームワーク構造は、特定の自然な比率の特徴を満たしている。西洋人または東洋人、男性または女性、および未成年者または成人にかかわらず、その骨格の長さはさまざまであるが、基本的な骨格構造は同じである。図2は、18個のノードからなる人体フレームワークモデルを示しており、これが一例として使用される。任意の2つの人体フレームワークモデルにおいて、前腕、上腕、胴体、頭、腰、臀部、大腿部、および脚を含むすべての同じ人体部位における隣接して相互接続されたノード間における距離の、人体フレームワークの基準(中心軸)に対する比率が同じである場合には、2つの人体フレームワークは完全に同じである。図2に示されているように、再構築された人体フレームワークモデル1601のそれぞれの部位における任意の隣接して相互接続されたノード間における距離の、フレームワークの基準(中心軸)に対する比率、および標準的な人体フレームワークモデル1602の同じ部位の同じフレームワークの、フレームワークの基準(中心軸)に対する比率は、同じであるまたは非常に類似していると想定され、フレームワーク1601およびフレームワーク1602は、同じ3Dモデルであるとみなされてよく、すなわち、
Figure 0006549620
であり、ここで、Zは、ターゲットオブジェクトのフレームワークの長さを指し、Baseは、ターゲットオブジェクトのフレームワークの基準長さを指し、Ziは、3Dモデルライブラリ内で番号がiであるモデルのフレームワークの長さを指し、Base iは、3Dモデルライブラリ内で番号がiであるモデルのフレームワークの基準長さを指し、Δは、許容可能な差分であり、許容可能な差分の値は、経験値に従って取得され、または特定の状況に従って選択され得る。
特定の実施プロセスにおいては、ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのフレームワークパラメータを取得することは、下記のステップを使用することによって特に実施され得る。
まず、ターゲットオブジェクトの中心軸が、ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって取得される。前述のターゲットオブジェクトが人体であるときに、中心軸は一般には、当該人体の脊椎である。
次いで、ターゲットオブジェクトのグラフィック輪郭の横の厚さが、中心軸に垂直な複数の第1のラインに沿って計算される。上述のように、中心軸が人体の脊椎であるときに、人体の横のフレームワークは、脊椎に垂直な複数の第1のラインに沿って延ばすことによって取得される。
ターゲットオブジェクトのグラフィック輪郭の縦の厚さは、中心軸に平行な複数の第2のラインに沿って計算される。上述のように、中心軸が人体の脊椎であるときに、人体の縦のフレームワークは、脊椎に平行な複数の第2のラインに沿って延ばすことによって取得される。
ターゲットオブジェクトのフレームワークは、第1のラインおよび第2のラインによって限定されたエリアを使用することによって構成され、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータである。
S103.ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得する。
ターゲットオブジェクトのものである前述の取得されたフレームワークパラメータおよびグラフィック輪郭に基づいて、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭の両方と合致する3Dモデルが、3Dモデルライブラリから取り出される。本明細書では、3Dモデルライブラリは、クラウドサーバ内に格納されている標準モデルライブラリ、またはローカルに格納されている標準モデルライブラリであってよく、ターゲットオブジェクトのものである前述の取得されたフレームワークパラメータおよびグラフィック輪郭との最も高いマッチング度合いを有するモデルが、そのような標準モデルライブラリから取り出される。事前に格納されるモデルライブラリデータは、サードパーティーデータプロバイダによって提供される人体3Dデータからのものであってよく、データは一般に、世界中のすべての国、エリア、および人種のさまざまな典型的な体型3Dデータを含む。任意選択で、事前に格納されるモデルライブラリデータは、マシンの自動学習結果からのものであってよく、たとえば、インテリジェント端末の所有者は、期間内で特定のターゲットを測定、計算、および調整することによって自動学習3Dモデルデータを取得し得る。人体3Dデータに加えて、動物の体または目に見える別のターゲットオブジェクトの3Dデータが存在し得るということが理解されてよく、詳細は、本明細書においては説明されない。
本発明の技術分野においては、複数の関連したアルゴリズムが、3Dモデルの取り出しおよびマッチングをサポートする。しかしながら、端末における、およびクラウドにおける計算を簡略化して、応答速度を向上させるために、本発明のこの実施形態においては、事前に格納される3Dモデルは、少なくとも2つのタイプのパラメータ、すなわちグラフィック輪郭およびフレームワークパラメータを含む。図3に示されているように、この例における雄牛の3Dモデルの2D輪郭パラメータは、1横、2前、4左前、5左後ろ、6右前、および7右後ろからの投影輪郭を含む、ターゲットの方向から投影することによって記録されるターゲットのグラフィック輪郭を別々に示している。3真上からの投影輪郭は、一般に必須ではない。あるいは、マッチング精度を高めるために、グラフィック輪郭は、左真ん前、左真後ろ、右真ん前、右真後ろなどのすべての角度から記録されるターゲットの投影グラフィック輪郭(不図示)を含み得る。マッチング計算中に、チェンアルゴリズム、すなわち、2Dツェルケモーメント記述子およびフーリエ記述子(FDFourier Descriptor)が使用されて、比較を用いて、同じターゲットオブジェクトの1または複数のターゲットオブジェクトグラフィック輪郭と、3Dモデルライブラリのそれぞれの方向におけるグラフィック輪郭との間における類似性を取得し、最も高い類似性を有するグラフィック輪郭が取り出され、グラフィック輪郭に対応する3D標準モデルの投影の視角値が返される。図3に示されているように、ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の雄牛の3Dモデルのグラフィック輪郭との間における類似性が最も高く、ターゲットオブジェクトのグラフィック輪郭は、X座標のマイナス方向に沿った雄牛の3Dモデルの投影であるということが、返される観察結果である。
特に、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、その3Dモデルのパラメータ比率を取得することは、
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算することであって、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角である、ことと、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得することと、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得することであって、その類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルである、ことと、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得することとを特に含む。
上述のように、3Dモデルライブラリは、3Dモデルのすべての視角のグラフィック輪郭を含み、3Dモデルの少なくとも正面ビューのグラフィック輪郭を含む。
さらに、ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することは、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得することと、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得することと、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用することとを含む。
図3に示されているように、標準3Dモデルライブラリ内のフレームワークデータは、X軸のマイナス方向に回転および投影されて、正確なフレームワーク類似性の取り出しおよびマッチングを実施する必要がある。
環境が変化するときでさえ、この取り出し方法を使用することによって、理想的な効果が実現されることが可能である。一般に、人体ターゲットによって着用されるさまざまな衣類および人体ターゲットのさまざまな姿勢が、3D奥行きイメージを使用することによって計算を用いて取得される人体グラフィック輪郭に影響を与える。たとえば、夏には軽い衣服が着用され、冬には重い衣服が着用されるので、計算を用いて取得される人体グラフィック輪郭間には、大きな差がある。類似性の取り出しが、人体グラフィック輪郭に従ってのみ実行される場合には、取得される3Dモデルは、大きなずれを有し、したがって、本明細書においてはフレームワークパラメータが導入される。ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭の両方が特定される場合においては、取得される3Dモデルの精度は高い。
S104.ターゲットオブジェクトの少なくとも1つの実際のサイズを取得する。
S103において取り出しを用いて取得される、ターゲットオブジェクトのものである3Dモデルは、標準ユニットモデルであり、3Dモデルのパラメータ比率は、ターゲットオブジェクトの少なくとも1つの実際の幾何学的パラメータ(たとえば、ユーザの実際の身長または腕の長さ)によって乗算されることがさらに必要であり、ターゲットオブジェクトと完全に合致する3Dモデルは、同じ比率の増幅が実行された後にのみ取得することができる。特定のオペレーションにおいては、ターゲットオブジェクトの少なくとも1つの実際のサイズは、次のステップ、すなわち、
音波信号をターゲットオブジェクトに送信するステップと、
ターゲットオブジェクトによって反射された音波信号を受信するステップと、
音波信号の送信時間を取得するステップであって、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分である、ステップと、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算するステップと、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するステップとを使用することによって取得され得る。
特に、ほとんどの使用状況においては、ユーザおよび撮影者は、ターゲットオブジェクトの実際の幾何学的パラメータを知らず、したがって、ターゲットオブジェクトの少なくとも1つの実際の幾何学的パラメータ(本明細書においては、実際のサイズとも呼ばれる)は、リアルタイムの測定態様で取得される必要がある。任意選択の態様は、カメラを使用することによってターゲットオブジェクトのイメージを記録する方法を使用することによってターゲットの高さを測定および計算することである。モバイル端末が、撮影および3D奥行き測定アプリケーションを有効にしているときに、モバイル端末のスピーカーコンポーネントが、音波信号をターゲットに定期的に送信し、この送信アクションは、3Dセンサの検知アクションと同時であり得る。この音波信号は、ユーザおよび人体ターゲットへの干渉を引き起こすことを回避するために人体の聴覚の周波数範囲(20Hから20KH)を超えることがあり得る。音波信号が、ターゲットオブジェクトにぶつかった後に返されたときに、音波信号は、マイクロフォンコンポーネントによって受信される。音波信号の伝搬時間△tを計算することによって、ターゲットと撮影者との間における距離D1=1/2×V×△tが取得されてよく、Vは、周囲空気におけるこの周波数音波の伝搬速度である。加えて、ターゲットオブジェクトのイメージが、カメラコンポーネントにおいて記録される。ターゲットオブジェクトのイメージの高さhが、イメージ輪郭識別技術を使用することによって計算を用いて取得されてよい。特定されたモバイル端末に関しては、カメラコンポーネントのイメージ距離D2が、唯一の特定されたハードウェアパラメータである。この方法においては、ターゲットオブジェクトの実際の高さHが、下記式に従った計算を用いて取得されてよい。
Figure 0006549620
同じ原理に基づいて、この解決策はまた、ターゲットの長さまたは幅などの別の幾何学的パラメータを測定するために使用されてもよく、詳細は、本明細書においては説明されない。
ターゲットオブジェクトの少なくとも1つの実際のサイズは、前述の測定方法に加えて、たとえば別の方法を使用することによって測定され得る。すなわち、
ユーザが、モバイル端末を操作してターゲットオブジェクトに対して撮影および3D測定を実行したときに、モバイル端末は、ターゲットオブジェクトの少なくとも2枚の写真を同時に記録し、これらの写真は、異なる焦点距離パラメータを有するカメラコンポーネントを使用することによって取り込まれる。図4に示されている実施形態においては、端末カメラが、3つの異なる焦点距離を使用することによって異なるイメージ距離を伴って3枚の写真を取得している。そのうちの2枚の写真が、一例として使用され、2枚の写真に別々に対応しているイメージ距離が、D21およびD22であり、撮像高さが、h1およびh2であり、2つの撮影パラメータのレンズ距離の変化が、Δである。ターゲットオブジェクトの実際の高さが一意に特定されるので、写真は、明らかに下記の幾何学的な式を満たす。
Figure 0006549620
Figure 0006549620
D11=D12+Δ
D22=D21+Δ
カメラモジュールのハードウェアパラメータが特定される場合においては、D21およびD22の両方は、知られているパラメータであり、h1およびh2は、ピクセル方法を使用することによって計算を用いて取得され得る。ターゲットオブジェクトの高さHが、下記式に従って計算を用いて取得され得る。
Figure 0006549620
S105.3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得する。
特定のオペレーションにおいては、取り出しを用いて取得された、最も高いマッチング度合いを有する3Dモデルのパラメータ比率は、ターゲットの実際の高さHによって乗算されてよく、それによって、ターゲットの実際のフレームワークモデルが取得され得る。
この実施形態の別の実行可能なソリューションにおいては、人体ターゲットオブジェクトのサインデータは、モバイル電話のI/Oインターフェースのタッチスクリーンから直接入力される、ターゲットのものである実際の幾何学的パラメータを使用することによって計算を用いてさらに取得されてよく、実際の幾何学的パラメータは、身長、腕の長さ、または肩幅などの一片のデータであり得る。あるいは、ユーザは、ターゲットの入力された実際の幾何学的パラメータを動的に調整することによって計算を用いてターゲットオブジェクトの比較的正確なサインデータを取得し得る。さらに、任意選択で、この実施形態においては、人体ターゲット420の体重、胸、ウエスト、およびヒップのサイズ、腕の長さ、ならびに肩幅などのさまざまなサインパラメータが、サイン特徴パラメータライブラリ内の特定のパラメータ(密度など)に従って計算を用いて取得されてよく、ユーザ入力/出力インターフェース上に表示される。あるいは、さまざまなビジネスデータベースおよびユーザの習慣的な設定を参照して、さまざまなサインパラメータが、衣類のサイズおよびマッチングの提案、プッシュ広告などのために使用され得る。
この実施形態は、ターゲットオブジェクトを撮影するプロセスにおいてサインデータ測定に適用され得るだけでなく、モバイルターゲットオブジェクトのビデオ撮影において3D測定およびサインデータ取得プロセスに適用され得るということに留意されたい。
本発明のこの実施形態においては、ターゲットオブジェクトの3D奥行きイメージが取得され、3D奥行きイメージに従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭が復元され、したがって、グラフィック輪郭およびフレームワークパラメータに基づいて、ターゲットオブジェクトに対応する3Dモデルが取り出され、さらに、3Dモデルを使用することによって、ターゲットオブジェクトのサインデータが取得され、それによってユーザは、端末を使用することによって仮想再構築を実行することによって、見られているオブジェクトのサインパラメータをいつでもどこでも取得することができ、「見たままが得られる」のユーザ経験が実現される。
ほとんどの撮影用途において、主なターゲットが人体である場合には、計算を用いて取得される結果は正確であるということに留意されたい。しかしながら、実際のシナリオにおいて、2人以上の人が現れて互いに重なり合うまたは互いを隠す場合には、処理中に別々の人体オブジェクトが別々に処理される必要がある。簡単な方法は、重なり合わされた人体ターゲットを背景ノイズ態様で、およびイメージ奥行きフィルタリングアルゴリズムを使用することによって処理することであり、別の実行可能な方法は、重なり合わされたイメージを分離して計算を実行することである。この実施形態に含まれている技術的な解決策においては、単一のターゲットオブジェクト、または分離後に取得された独立したターゲットオブジェクトが主に含まれるということに留意されたい。
新たな実施形態においては、ターゲットオブジェクトの取得されるグラフィック輪郭がより正確になることを可能にするために、この実施形態においては、背景ノイズ除去が、背景ノイズ除去処理に基づいて3D奥行きイメージに対して実行されて、第1の3Dターゲット奥行きイメージを取得して、ターゲットオブジェクトの独立したグラフィック輪郭を取得し、これは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを特に含む。
特に、3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することは、
奥行きしきい値を設定することと、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成することとを含む。
さらに、新たな一実施形態においては、前述の取得された第1の3Dターゲット奥行きイメージは、さらに処理されてよく、すなわち、
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得し、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
したがって、明確なエッジを有する独立したグラフィック輪郭が取得され得る。
特に、第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することは、
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化することと、
ピクセル奥行きセグメント間隔を設定することと、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得することと、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得することとを含む。
実施形態2
図5を参照すると、図5は、本発明の一実施形態による、ターゲットオブジェクトのサインデータを取得するための装置300を示し、この装置は、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成される撮像モジュール302であって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、撮像モジュール302と、ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるグラフィック輪郭およびフレームワークパラメータ取得モジュール304であって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、グラフィック輪郭およびフレームワークパラメータ取得モジュール304と、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するように構成されるパラメータ比率取得モジュール306と、
ターゲットオブジェクトの少なくとも1つの実際のサイズを取得するように構成される実際のサイズ取得モジュール308と、
3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するように構成されるサインデータ取得モジュール310とを含む。
本発明のこの実施形態においては、撮像装置が、ターゲットオブジェクトの3D奥行きイメージを取得し、グラフィック輪郭およびフレームワークパラメータ取得モジュールが、その3D奥行きイメージに従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を復元し、パラメータ比率取得モジュールが、そのグラフィック輪郭およびフレームワークパラメータに基づいて、ターゲットオブジェクトに対応する3Dモデルを取り出し、サインデータ取得モジュールが、その3Dモデルに従ってターゲットオブジェクトのサインデータを取得する。したがって、ユーザは、端末を使用することによって仮想再構築を実行することによって、見られているオブジェクトのサインパラメータをいつでもどこでも取得することができ、「見たままが得られる」のユーザ経験が実現される。
実施形態2に基づいて、さらに、別の実施形態においては、撮像モジュール302は、特に、
基準パターンをターゲットオブジェクトに送信するように構成される送信ユニットと、
基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信するように構成される受信ユニットと、
基準パターンに対する2次パターンのオフセット値を計算するように構成される計算ユニットと、
オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、その距離情報を使用することによって3D奥行きイメージを取得するように構成されるイメージ取得ユニットとを含み得る。
前述の実施形態に基づいて、さらに、別の実施形態においては、グラフィック輪郭およびフレームワークパラメータ取得モジュールは、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得するように特に構成され、
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
前述の実施形態に基づいて、さらに、図6を参照すると、別の実施形態においては、前述の装置300は、ノイズ除去モジュール312をさらに含み、
ノイズ除去モジュール312は、
3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するように構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
さらに、ノイズ除去モジュール312は、
奥行きしきい値を設定しと、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成される。
さらに、ノイズ除去モジュール312は、
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成されてよく、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
さらに、任意選択で、ノイズ除去モジュール312は、
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成される。
前述の実施形態に基づいて、さらに、別の実施形態においては、グラフィック輪郭およびフレームワークパラメータ取得モジュール304は、
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成されている。
前述の実施形態に基づいて、さらに、別の実施形態においては、パラメータ比率取得モジュール306は、
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成される。
3Dモデルライブラリは、3Dモデルのすべての視角のグラフィック輪郭を含み、3Dモデルの少なくとも正面ビューのグラフィック輪郭を含む。
前述の実施形態に基づいて、さらに、別の実施形態においては、パラメータ比率取得モジュール306は、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得し、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成される。
前述の実施形態に基づいて、さらに、別の実施形態においては、実際のサイズ取得モジュール308は、
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成されている。
実施形態3
図7を参照すると、図7は、本発明の一実施形態による、ターゲットオブジェクトのサインデータを取得するための端末400を示し、この端末は、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成される3Dセンサ402であって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、3Dセンサ402と、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるプロセッサ404であって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、プロセッサ404とを含み、プロセッサは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するようにさらに構成され、プロセッサは、ターゲットオブジェクトの少なくとも1つの実際のサイズを取得し、3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するようにさらに構成される。
実施形態3に基づいて、任意選択で、3Dセンサ402は、
基準パターンをターゲットオブジェクトに送信し、基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信し、基準パターンに対する2次パターンのオフセット値を計算し、オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、距離情報を使用することによって3D奥行きイメージを取得するように特に構成され得る。
前述の実施形態に基づいて、さらに、任意選択で、プロセッサ404は、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得するように特に構成され、
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
前述の実施形態に基づいて、さらに、任意選択で、プロセッサ404は、3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するようにさらに特に構成されてよく、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
さらに、プロセッサ404は、
奥行きしきい値を設定し、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成され得る。
前述の実施形態に基づいて、さらに、任意選択で、プロセッサ404は、
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに特に構成されてよく、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
さらに、プロセッサ404は、
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成され得る。
さらに、プロセッサ404は、
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成され得る。
さらに、プロセッサ404は、
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成され得る。
3Dモデルライブラリは、3Dモデルのすべての視角のグラフィック輪郭を含み、3Dモデルの少なくとも正面ビューのグラフィック輪郭を含む。
さらに、プロセッサ404は、ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得し、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成され得る。
さらに、プロセッサ404は、
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成され得る。
前述の実施形態はすべて、同じ発明性のある概念から由来しており、実施形態の説明は、それらのそれぞれの焦点を有しているということに留意されたい。実施形態において詳細に説明されていない部分に関しては、他の実施形態における関連した説明を参照されたい。
実施形態における方法のステップのうちのすべてまたはいくつかは、関連するハードウェアに命令するプログラムによって実施され得るということを当業者は理解し得る。プログラムは、コンピュータ可読記憶媒体において格納され得る。記憶媒体は、フラッシュメモリ、読み取り専用メモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク、および光ディスクを含み得る。
本発明の実施形態において提供されるアクティビティー識別方法およびシステムが、上記で詳細に説明されている。本明細書においては、本発明の原理および実施態様は、特定の例を通じて本明細書において説明されている。実施形態についての前述の説明は、本発明の方法および核となるアイディアを理解するのに役立つことを意図されているにすぎない。加えて、当業者は、本発明のアイディアに従って特定の実施態様および適用範囲に関して修正を行うことができる。結論として、本明細書の内容は、本発明に対する限定と解釈されてはならない。

Claims (36)

  1. ターゲットオブジェクトデータを取得するための方法であって、前記データは、前記ターゲットオブジェクトに係る人体の体重、胸サイズ、ウエストサイズ、ヒップサイズ、腕の長さ、および肩幅のうちの少なくとも1つを含み、
    ターゲットオブジェクトの3D奥行きイメージを取得することであって、前記3D奥行きイメージは、距離情報を有する2次元のイメージであり、前記距離情報は、前記ターゲットオブジェクトと撮像デバイスとの間における距離を含む、ことと、
    前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得することであって、前記奥行き値は、前記距離情報に従って取得される、前記ターゲットオブジェクト上の点と前記撮像デバイスとの間における距離である、ことと、
    前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、前記3Dモデルのパラメータ比率を取得すことと、
    前記ターゲットオブジェクトの少なくとも1つの実際のサイズを取得することと、
    前記3Dモデルの前記パラメータ比率および前記少なくとも1つの実際のサイズに従って前記ターゲットオブジェクトのデータを取得することと
    を含むことを特徴とする方法。
  2. ターゲットオブジェクトの3D奥行きイメージを前記取得することは、
    前記ターゲットオブジェクトに基準パターンを送信することと、
    前記基準パターンが前記ターゲットオブジェクトによって反射された後に取得される2次パターンを受信することと、
    前記基準パターンに対する前記2次パターンのオフセット値を計算することと、
    前記オフセット値に対してフーリエ変換を実行することによって前記距離情報を取得し、前記距離情報を使用することによって前記3D奥行きイメージを取得することとを含むことを特徴とする請求項1に記載の方法。
  3. 前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのグラフィック輪郭を前記取得することは、
    前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含み、
    特に、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行することは、
    前記3D奥行きイメージにおける第1のピクセルの奥行き値と、前記第1のピクセルに接続されている4つの隣接ピクセルのそれぞれの奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
    前記4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、前記少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
    輪郭の位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
    輪郭位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、前記第2のピクセルの奥行き値と、前記第2のピクセルに接続されている前記8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルの奥行き値との間における差分計算を実行して、第2の奥行き差分値を取得することと、
    前記第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、前記第2のピクセルを輪郭の位置としてマークすることと、
    輪郭の位置としてマークされたピクセルに従って前記ターゲットオブジェクトの前記グラフィック輪郭を取得することとを含むことを特徴とする請求項1または2に記載の方法。
  4. ターゲットオブジェクトの3D奥行きイメージを前記取得することの後に、前記方法は、
    前記3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することをさらに含み、
    それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して前記差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項1乃至3のいずれか一項に記載の方法。
  5. 前記3D奥行きイメージに対して背景ノイズ除去処理を前記実行して、第1の3Dターゲット奥行きイメージを取得することは、
    奥行きしきい値を設定することと、
    前記3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を前記奥行きしきい値と比較し、前記3D奥行きイメージ内にあり、かつ奥行き値が前記奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して前記第1の3Dターゲット奥行きイメージを形成することとを含むことを特徴とする請求項4に記載の方法。
  6. 前記第1の3Dターゲット奥行きイメージを前記取得することの後に、前記方法は、
    前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することをさらに含み、
    それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項5に記載の方法。
  7. 前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を前記実行して、第2の3Dターゲット奥行きイメージを取得することは、
    前記第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化することと、
    ピクセル奥行きセグメント間隔を設定することと、
    前記ピクセルブロックのそれぞれにおけるすべてのピクセルの奥行き値に対して平均処理を実行して、前記ピクセルブロックのそれぞれのピクセル平均値を取得することと、
    前記ピクセル平均値を、前記ピクセル奥行きセグメント間隔内の対応する間隔にマッピングし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、前記第2の3Dターゲット奥行きイメージを取得することとを含むことを特徴とする請求項6に記載の方法。
  8. 前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのフレームワークパラメータを前記取得することは、
    前記ターゲットオブジェクトの前記3D奥行きイメージにおけるすべてのピクセルの奥行き値に従って、および線形最小二乗法を使用することによって、前記ターゲットオブジェクトの中心軸を取得することと、
    前記中心軸に垂直な複数の第1のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の横の厚さを計算することと、
    前記中心軸に平行な複数の第2のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の縦の厚さを計算することと、
    前記第1のラインおよび前記第2のラインによって限定されたエリアを使用することによって前記ターゲットオブジェクトのフレームワークを構成することであって、対応する横の厚さおよび縦の厚さは、前記ターゲットオブジェクトの前記フレームワークパラメータである、こととを含むことを特徴とする請求項1乃至7のいずれか一項に記載の方法。
  9. 前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから前記取り出し、前記3Dモデルのパラメータ比率を取得することは、
    前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することと、
    前記3Dモデルの前記グラフィック輪郭が、前記3Dモデルの正面ビューのグラフィック輪郭ではないときに、前記3Dモデルの前記グラフィック輪郭に従って前記3Dモデルの前記正面ビューのグラフィック輪郭を取得することと、
    前記3Dモデルの前記グラフィック輪郭および前記3Dモデルの前記正面ビューのグラフィック輪郭に従って前記3Dモデルの視角パラメータを計算することであって、前記視角パラメータは、前記3Dモデルの前記正面ビューのグラフィック輪郭に基づく前記3Dモデルの前記グラフィック輪郭のものである視角である、ことと、
    前記視角パラメータに基づいて前記3Dモデルの前記正面ビューのグラフィック輪郭を回転させて、前記3Dモデルのフレームワークパラメータを取得することと、
    比較を用いて、前記ターゲットオブジェクトの前記フレームワークパラメータと、前記3Dモデルの前記フレームワークパラメータとの間における類似性を取得することであって、前記類似性が事前設定値よりも小さいときに、前記3Dモデルは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する前記3Dモデルである、ことと、
    前記3Dモデルを使用することによって前記3Dモデルの前記パラメータ比率を取得することとを含むことを特徴とする請求項8に記載の方法。
  10. 前記3Dモデルライブラリは、前記3Dモデルのすべての視角のグラフィック輪郭を含み、前記3Dモデルの少なくとも前記正面ビューのグラフィック輪郭を含むことを特徴とする請求項9に記載の方法。
  11. 前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを前記実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することは、
    ツェルニケモーメント記述子およびフーリエ記述子を使用することによって前記ターゲットオブジェクトの前記グラフィック輪郭を表現、第1の記述情報を取得することと、
    前記ツェルニケモーメント記述子および前記フーリエ記述子を使用することによって前記3Dモデルライブラリ内の前記3Dモデルの前記グラフィック輪郭を表現して、第2の記述情報を取得することと、
    前記第1の記述情報および前記第2の記述情報を比較し、事前設定しきい値だけ前記第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、前記最も高いマッチング度合いを有する前記3Dモデルの前記グラフィック輪郭として使用することとを含むことを特徴とする請求項10に記載の方法。
  12. 前記ターゲットオブジェクトの少なくとも1つの実際のサイズを前記取得することは、
    音波信号を前記ターゲットオブジェクトに送信することと、
    前記ターゲットオブジェクトによって反射された音波信号を受信することと、
    前記音波信号の送信時間を取得することであって、前記送信時間は、前記音波信号を送信する時刻と、前記音波信号を受信する時刻との間における差分である、ことと、
    前記音波信号の前記送信時間および伝搬速度を使用することによって、前記ターゲットオブジェクトの表面と、前記撮像デバイスとの間における距離を計算することと、
    前記撮像デバイスの前記距離およびイメージ距離を使用することによって前記ターゲットオブジェクトの前記少なくとも1つの実際のサイズを計算することとを含むことを特徴とする請求項1乃至11のいずれか一項に記載の方法。
  13. ターゲットオブジェクトのデータを取得するための装置であって、前記データは、前記ターゲットオブジェクトに係る人体の体重、胸サイズ、ウエストサイズ、ヒップサイズ、腕の長さ、および肩幅のうちの少なくとも1つを含み、
    ターゲットオブジェクトの3D奥行きイメージを取得するように構成された撮像モジュールであって、前記3D奥行きイメージは、距離情報を有する2次元のイメージであり、前記距離情報は、前記ターゲットオブジェクトと撮像デバイスとの間における距離を含む、撮像モジュールと、
    前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されたグラフィック輪郭およびフレームワークパラメータ取得モジュールであって、前記奥行き値は、前記距離情報に従って取得される、前記ターゲットオブジェクト上のポイントと前記撮像デバイスとの間における距離である、グラフィック輪郭およびフレームワークパラメータ取得モジュールと、
    前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、前記3Dモデルのパラメータ比率を取得するように構成されたパラメータ比率取得モジュールと、
    前記ターゲットオブジェクトの少なくとも1つの実際のサイズを取得するように構成された実際のサイズ取得モジュールと、
    前記3Dモデルの前記パラメータ比率および前記少なくとも1つの実際のサイズに従って、前記ターゲットオブジェクトのデータを取得するように構成されたデータ取得モジュールと
    を含むことを特徴とする装置。
  14. 前記撮像モジュールは、
    基準パターンを前記ターゲットオブジェクトに送信するように構成された送信ユニットと、
    前記基準パターンが前記ターゲットオブジェクトによって反射された後に取得される2次パターンを受信するように構成された受信ユニットと、
    前記基準パターンに対する前記2次パターンのオフセット値を計算するように構成された計算ユニットと、
    前記オフセット値に対してフーリエ変換を実行することによって前記距離情報を取得し、前記距離情報を使用することによって前記3D奥行きイメージを取得するように構成されたイメージ取得ユニットとを含むことを特徴とする請求項13に記載の装置。
  15. 前記グラフィック輪郭およびフレームワークパラメータ取得モジュールは、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得するように特に構成されており、
    特に、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行することは、
    前記3D奥行きイメージにおける第1のピクセルの奥行き値と、前記第1のピクセルに接続されている4つの隣接ピクセルのそれぞれの奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
    前記4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、前記少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
    輪郭の位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
    輪郭の位置としてマークされた前記ピクセルが、前記3D奥行きイメージにおける前記第2のピクセルに接続されている前記8つの隣接ピクセル中に存在する場合には、前記第2のピクセルの奥行き値と、前記第2のピクセルに接続されている前記8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルの奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
    前記第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、前記第2のピクセルを輪郭の位置としてマークすることと、
    輪郭の位置としてマークされたピクセルに従って、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することとを含むことを特徴とする請求項13または14に記載の装置。
  16. 前記装置は、ノイズ除去モジュールをさらに含み、
    前記ノイズ除去モジュールは、
    前記3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するように構成され、
    それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項13乃至15のいずれか一項に記載の装置。
  17. 前記ノイズ除去モジュールは、
    奥行きしきい値を設定し、
    前記3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を前記奥行きしきい値と比較し、前記3D奥行きイメージ内にあり、かつ奥行き値が前記奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して前記第1の3Dターゲット奥行きイメージを形成するように特に構成されていることを特徴とする請求項16に記載の装置。
  18. 前記ノイズ除去モジュールは、
    前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成され、
    それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項17に記載の装置。
  19. 前記ノイズ除去モジュールは、
    前記第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
    ピクセル奥行きセグメント間隔を設定し、
    前記ピクセルブロックのそれぞれにおけるすべてのピクセルの奥行き値に対して平均処理を実行して、前記ピクセルブロックのそれぞれのピクセル平均値を取得し、
    前記ピクセル平均値を、前記ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、前記第2の3Dターゲット奥行きイメージを取得するように特に構成されていることを特徴とする請求項18に記載の装置。
  20. 前記グラフィック輪郭およびフレームワークパラメータ取得モジュールは、
    前記ターゲットオブジェクトの前記3D奥行きイメージにおけるすべてのピクセルの奥行き値に従って、および線形最小二乗法を使用することによって、前記ターゲットオブジェクトの中心軸を取得し、
    前記中心軸に垂直な複数の第1のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の横の厚さを計算し、
    前記中心軸に平行な複数の第2のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の縦の厚さを計算し、
    前記第1のラインおよび前記第2のラインによって限定されたエリアを使用することによって前記ターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、前記ターゲットオブジェクトの前記フレームワークパラメータであるように特に構成されていることを特徴とする請求項13乃至19のいずれか一項に記載の装置。
  21. 前記パラメータ比率取得モジュールは、
    前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
    前記3Dモデルの前記グラフィック輪郭が、前記3Dモデルの正面ビューのグラフィック輪郭ではないときに、前記3Dモデルの前記グラフィック輪郭に従って前記3Dモデルの前記正面ビューのグラフィック輪郭を取得し、
    前記3Dモデルの前記グラフィック輪郭および前記3Dモデルの前記正面ビューのグラフィック輪郭に従って前記3Dモデルの視角パラメータを計算し、前記視角パラメータは、前記3Dモデルの前記正面ビューのグラフィック輪郭に基づく前記3Dモデルの前記グラフィック輪郭のものである視角であり、
    前記視角パラメータに基づいて前記3Dモデルの前記正面ビューのグラフィック輪郭を回転させて、前記3Dモデルのフレームワークパラメータを取得し、
    比較を用いて、前記ターゲットオブジェクトの前記フレームワークパラメータと、前記3Dモデルの前記フレームワークパラメータとの間における類似性を取得し、前記類似性が事前設定値よりも小さいときに、前記3Dモデルは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する前記3Dモデルであり、
    前記3Dモデルを使用することによって前記3Dモデルの前記パラメータ比率を取得するように特に構成されていることを特徴とする請求項20に記載の装置。
  22. 前記3Dモデルライブラリは、前記3Dモデルのすべての視角のグラフィック輪郭を含み、前記3Dモデルの少なくとも前記正面ビューのグラフィック輪郭を含むことを特徴とする請求項21に記載の装置。
  23. 前記パラメータ比率取得モジュールは、
    ツェルニケモーメント記述子およびフーリエ記述子を使用することによって前記ターゲットオブジェクトの前記グラフィック輪郭を表現して、第1の記述情報を取得し、
    前記ツェルニケモーメント記述子および前記フーリエ記述子を使用することによって前記3Dモデルライブラリ内の前記3Dモデルの前記グラフィック輪郭を表現して、第2の記述情報を取得し、
    前記第1の記述情報および前記第2の記述情報を比較し、事前設定しきい値だけ前記第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、前記最も高いマッチング度合いを有する前記3Dモデルの前記グラフィック輪郭として使用するように特に構成されていることを特徴とする請求項22に記載の装置。
  24. 前記実際のサイズ取得モジュールは、
    音波信号を前記ターゲットオブジェクトに送信し、
    前記ターゲットオブジェクトによって反射された音波信号を受信し、
    前記音波信号の送信時間を取得し、前記送信時間は、前記音波信号を送信する時刻と、前記音波信号を受信する時刻との間における差分であり、
    前記音波信号の前記送信時間および伝搬速度を使用することによって、前記ターゲットオブジェクトの表面と、前記撮像デバイスとの間における距離を計算し、
    前記撮像デバイスの前記距離およびイメージ距離を使用することによって前記ターゲットオブジェクトの前記少なくとも1つの実際のサイズを計算するように特に構成されていることを特徴とする請求項13乃至23のいずれか一項に記載の装置。
  25. ターゲットオブジェクトのデータを取得するための端末であって、前記データは、前記ターゲットオブジェクトに係る人体の体重、胸サイズ、ウエストサイズ、ヒップサイズ、腕の長さ、および肩幅のうちの少なくとも1つを含み、
    ターゲットオブジェクトの3D奥行きイメージを取得するように構成された3Dセンサであって、前記3D奥行きイメージは、距離情報を有する2次元のイメージであり、前記距離情報は、前記ターゲットオブジェクトと撮像デバイスとの間における距離を含む、3Dセンサと、
    前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されたプロセッサであって、前記奥行き値は、前記距離情報に従って入手される、前記ターゲットオブジェクト上のポイントと前記撮像デバイスとの間における距離である、プロセッサとを含み、前記プロセッサは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、前記3Dモデルのパラメータ比率を取得するようにさらに構成され、前記プロセッサは、前記ターゲットオブジェクトの少なくとも1つの実際のサイズを取得し、前記3Dモデルの前記パラメータ比率および前記少なくとも1つの実際のサイズに従って前記ターゲットオブジェクトのデータを取得するようにさらに構成されていることを特徴とする端末。
  26. 前記3Dセンサは、
    基準パターンを前記ターゲットオブジェクトに送信し、前記基準パターンが前記ターゲットオブジェクトによって反射された後に取得される2次パターンを受信し、前記基準パターンに対する前記2次パターンのオフセット値を計算し、前記オフセット値に対してフーリエ変換を実行することによって前記距離情報を取得し、前記距離情報を使用することによって前記3D奥行きイメージを取得するように特に構成されていることを特徴とする請求項25に記載の端末。
  27. 前記プロセッサは、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得し、
    特に、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行することは、
    前記3D奥行きイメージにおける第1のピクセルの奥行き値と、前記第1のピクセルに接続されている4つの隣接ピクセルのそれぞれの奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
    前記4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、前記少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
    輪郭の位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
    輪郭の位置としてマークされた前記ピクセルが、前記3D奥行きイメージにおける前記第2のピクセルに接続されている前記8つの隣接ピクセル中に存在する場合には、前記第2のピクセルの奥行き値と、前記第2のピクセルに接続されている前記8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルの奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
    前記第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、前記第2のピクセルを輪郭の位置としてマークすることと、
    輪郭の位置としてマークされたピクセルに従って前記ターゲットオブジェクトの前記グラフィック輪郭を取得することとを含むことを特徴とする請求項25または26に記載の端末。
  28. 前記プロセッサは、前記3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するようにさらに構成され、
    それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項25乃至27のいずれか一項に記載の端末。
  29. 前記プロセッサは、
    奥行きしきい値を設定し、
    前記3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を前記奥行きしきい値と比較し、前記3D奥行きイメージ内にあり、かつ奥行き値が前記奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して前記第1の3Dターゲット奥行きイメージを形成するように特に構成されていることを特徴とする請求項28に記載の端末。
  30. 前記プロセッサは、
    前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することを行うようにさらに構成され、
    それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項29に記載の端末。
  31. 前記プロセッサは、
    前記第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
    ピクセル奥行きセグメント間隔を設定し、
    前記ピクセルブロックのそれぞれにおけるすべてのピクセルの奥行き値に対して平均処理を実行して、前記ピクセルブロックのそれぞれのピクセル平均値を取得し、
    前記ピクセル平均値を、前記ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、前記第2の3Dターゲット奥行きイメージを取得するように特に構成されていることを特徴とする請求項30に記載の端末。
  32. 前記プロセッサは、
    前記ターゲットオブジェクトの前記3D奥行きイメージにおけるすべてのピクセルの奥行き値に従って、および線形最小二乗法を使用することによって、前記ターゲットオブジェクトの中心軸を取得し、
    前記中心軸に垂直な複数の第1のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の横の厚さを計算し、
    前記中心軸に平行な複数の第2のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の縦の厚さを計算し、
    前記第1のラインおよび前記第2のラインによって限定されたエリアを使用することによって前記ターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、前記ターゲットオブジェクトの前記フレームワークパラメータであるように特に構成されていることを特徴とする請求項25乃至31のいずれか一項に記載の端末。
  33. 前記プロセッサは、
    前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
    前記3Dモデルの前記グラフィック輪郭が、前記3Dモデルの正面ビューのグラフィック輪郭ではないときに、前記3Dモデルの前記グラフィック輪郭に従って前記3Dモデルの前記正面ビューのグラフィック輪郭を取得し、
    前記3Dモデルの前記グラフィック輪郭および前記3Dモデルの前記正面ビューのグラフィック輪郭に従って前記3Dモデルの視角パラメータを計算し、前記視角パラメータは、前記3Dモデルの前記正面ビューのグラフィック輪郭に基づく前記3Dモデルの前記グラフィック輪郭のものである視角であり、
    前記視角パラメータに基づいて前記3Dモデルの前記正面ビューのグラフィック輪郭を回転させて、前記3Dモデルのフレームワークパラメータを取得し、
    比較を用いて、前記ターゲットオブジェクトの前記フレームワークパラメータと、前記3Dモデルの前記フレームワークパラメータとの間における類似性を取得し、前記類似性が事前設定値よりも小さいときに、前記3Dモデルは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する前記3Dモデルであり、
    前記3Dモデルを使用することによって前記3Dモデルの前記パラメータ比率を取得するように特に構成されていることを特徴とする請求項32に記載の端末。
  34. 前記3Dモデルライブラリは、前記3Dモデルのすべての視角のグラフィック輪郭を含み、前記3Dモデルの少なくとも前記正面ビューのグラフィック輪郭を含むことを特徴とする請求項33に記載の端末。
  35. 前記プロセッサは、ツェルニケモーメント記述子およびフーリエ記述子を使用することによって前記ターゲットオブジェクトの前記グラフィック輪郭を表現して、第1の記述情報を取得し、
    前記ツェルニケモーメント記述子および前記フーリエ記述子を使用することによって前記3Dモデルライブラリ内の前記3Dモデルの前記グラフィック輪郭を表現して、第2の記述情報を取得することと、
    前記第1の記述情報および前記第2の記述情報を比較し、事前設定しきい値だけ前記第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、前記最も高いマッチング度合いを有する前記3Dモデルの前記グラフィック輪郭として使用するように特に構成されていることを特徴とする請求項34に記載の端末。
  36. 前記プロセッサは、
    音波信号を前記ターゲットオブジェクトに送信し、
    前記ターゲットオブジェクトによって反射された音波信号を受信し、
    前記音波信号の送信時間を取得し、前記送信時間は、前記音波信号を送信する時刻と、前記音波信号を受信する時刻との間における差分であり、
    前記音波信号の前記送信時間および伝搬速度を使用することによって、前記ターゲットオブジェクトの表面と、前記撮像デバイスとの間における距離を計算し、
    前記撮像デバイスの前記距離およびイメージ距離を使用することによって前記ターゲットオブジェクトの前記少なくとも1つの実際のサイズを計算するように特に構成されていることを特徴とする請求項25乃至35のいずれか一項に記載の端末。
JP2016575462A 2014-06-27 2015-06-26 ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 Active JP6549620B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410301461.2 2014-06-27
CN201410301461.2A CN105336005B (zh) 2014-06-27 2014-06-27 一种获取目标物体体征数据的方法、装置及终端
PCT/CN2015/082539 WO2015197026A1 (zh) 2014-06-27 2015-06-26 一种获取目标物体体征数据的方法、装置及终端

Publications (2)

Publication Number Publication Date
JP2017525029A JP2017525029A (ja) 2017-08-31
JP6549620B2 true JP6549620B2 (ja) 2019-07-24

Family

ID=54936983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016575462A Active JP6549620B2 (ja) 2014-06-27 2015-06-26 ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末

Country Status (7)

Country Link
US (1) US9984461B2 (ja)
EP (1) EP3144900B1 (ja)
JP (1) JP6549620B2 (ja)
KR (1) KR101922039B1 (ja)
CN (1) CN105336005B (ja)
BR (1) BR112016030027B1 (ja)
WO (1) WO2015197026A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201600122898A1 (it) * 2016-12-02 2018-06-02 Ecole Polytechnique Fed Lausanne Epfl Metodi e apparati per codificare e decodificare immagini o flussi video digitali
JP2018136896A (ja) * 2017-02-24 2018-08-30 キヤノン株式会社 情報処理装置、システム、情報処理方法、および物品の製造方法
CN107270829B (zh) * 2017-06-08 2020-06-19 南京华捷艾米软件科技有限公司 一种基于深度图像的人体三围测量方法
CN109658515B (zh) * 2017-10-11 2022-11-04 阿里巴巴集团控股有限公司 点云网格化方法、装置、设备及计算机存储介质
CN108229332B (zh) * 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
FR3076028B1 (fr) * 2017-12-21 2021-12-24 Commissariat Energie Atomique Methode de reconnaissance d'objets dans une scene observee en trois dimensions
TWI672937B (zh) * 2018-02-05 2019-09-21 廣達電腦股份有限公司 三維影像處理之裝置及方法
CN110910393B (zh) * 2018-09-18 2023-03-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
CN111768878A (zh) * 2020-06-30 2020-10-13 杭州依图医疗技术有限公司 可视化指引病灶的方法及计算机可读存储介质
CN114842147A (zh) * 2022-05-16 2022-08-02 聚好看科技股份有限公司 一种测量人体参数的方法及电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US7298415B2 (en) * 2001-07-13 2007-11-20 Xenogen Corporation Structured light imaging apparatus
US7113217B2 (en) 2001-07-13 2006-09-26 Xenogen Corporation Multi-view imaging apparatus
KR100488366B1 (ko) 2002-03-13 2005-05-11 주식회사 에스알에스텍 초음파를 이용한 수소유기균열 및 부식 측정 시스템과안전성 평가 방법
US7128024B2 (en) * 2003-07-15 2006-10-31 Doyle Ii John Conan System and method for measuring animals
CN101288105B (zh) 2005-10-11 2016-05-25 苹果公司 用于物体重现的方法和系统
JP5167248B2 (ja) * 2006-05-11 2013-03-21 プライムセンス リミテッド 深度マップによるヒューマノイド形状のモデル化
KR101640039B1 (ko) * 2009-09-22 2016-07-18 삼성전자주식회사 영상 처리 장치 및 방법
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US20120050480A1 (en) 2010-08-27 2012-03-01 Nambi Seshadri Method and system for generating three-dimensional video utilizing a monoscopic camera
US8810565B2 (en) 2010-08-27 2014-08-19 Broadcom Corporation Method and system for utilizing depth information as an enhancement layer
US8994792B2 (en) 2010-08-27 2015-03-31 Broadcom Corporation Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
JP5597087B2 (ja) * 2010-10-04 2014-10-01 パナソニック株式会社 仮想物体操作装置
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
EP2864961A4 (en) * 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
WO2014022608A2 (en) * 2012-08-02 2014-02-06 Microsoft Corporation Avatar-based virtual dressing room
CN103294996B (zh) * 2013-05-09 2016-04-27 电子科技大学 一种3d手势识别方法
CN103745218B (zh) * 2014-01-26 2017-02-15 清华大学 一种深度图像中的姿势识别方法及装置

Also Published As

Publication number Publication date
JP2017525029A (ja) 2017-08-31
US9984461B2 (en) 2018-05-29
EP3144900B1 (en) 2023-04-05
BR112016030027A2 (pt) 2017-08-22
WO2015197026A1 (zh) 2015-12-30
KR101922039B1 (ko) 2018-11-26
KR20170019430A (ko) 2017-02-21
EP3144900A1 (en) 2017-03-22
CN105336005B (zh) 2018-12-14
BR112016030027B1 (pt) 2023-10-10
CN105336005A (zh) 2016-02-17
EP3144900A4 (en) 2017-07-26
US20170109885A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6549620B2 (ja) ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末
CN113412614B (zh) 使用深度图像的三维定位
CN110599540B (zh) 多视点相机下的实时三维人体体型与姿态重建方法及装置
JP6295645B2 (ja) 物体検出方法及び物体検出装置
CN111325796B (zh) 用于确定视觉设备的位姿的方法和装置
JP2019534510A5 (ja)
WO2020063987A1 (zh) 三维扫描方法、装置、存储介质和处理器
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
CN105654547B (zh) 三维重建方法
JP2021530821A (ja) 三次元無線モデル構築を実行するための方法、装置およびコンピュータプログラム
JP2013535013A5 (ja)
US20200349754A1 (en) Methods, devices and computer program products for generating 3d models
CN113657357B (zh) 图像处理方法、装置、电子设备及存储介质
KR101593316B1 (ko) 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치
CN112837207A (zh) 全景深度测量方法、四目鱼眼相机及双目鱼眼相机
Nakazawa et al. Dynamic scene reconstruction using asynchronous multiple kinects
CN113424522A (zh) 使用半球形或球形可见光深度图像进行三维跟踪
JP6770208B2 (ja) 情報処理装置
JP2012122816A (ja) 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム
Siddique et al. 3d object localization using 2d estimates for computer vision applications
JP2010238134A (ja) 画像処理装置及びプログラム
Jin et al. StageAR: Markerless Mobile Phone Localization for AR in Live Events
CN113424524B (zh) 使用半球形或球形可见光深度图像的三维建模
Higuchi et al. TweetGlue: Leveraging a crowd tracking infrastructure for mobile social augmented reality
Huang et al. AR Mapping: Accurate and Efficient Mapping for Augmented Reality

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180511

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180611

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190627

R150 Certificate of patent or registration of utility model

Ref document number: 6549620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250