JP6549620B2 - ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 - Google Patents
ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 Download PDFInfo
- Publication number
- JP6549620B2 JP6549620B2 JP2016575462A JP2016575462A JP6549620B2 JP 6549620 B2 JP6549620 B2 JP 6549620B2 JP 2016575462 A JP2016575462 A JP 2016575462A JP 2016575462 A JP2016575462 A JP 2016575462A JP 6549620 B2 JP6549620 B2 JP 6549620B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- depth
- model
- pixel
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 77
- 238000004364 calculation method Methods 0.000 claims description 76
- 238000003384 imaging method Methods 0.000 claims description 52
- 230000005540 biological transmission Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 15
- 238000012935 Averaging Methods 0.000 claims description 9
- 230000037396 body weight Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 210000000481 breast Anatomy 0.000 claims 2
- 210000000038 chest Anatomy 0.000 claims 1
- 230000005236 sound signal Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005477 standard model Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 244000309464 bull Species 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000012080 ambient air Substances 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/273—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/431—Frequency domain transformation; Autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
- G06V2201/121—Acquisition of 3D measurements of objects using special illumination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Vascular Medicine (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Description
ターゲットオブジェクトの3D奥行きイメージを取得することであって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、ことと、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得することであって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、ことと、
ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得することと、
ターゲットオブジェクトの少なくとも1つの実際のサイズを取得することと、
3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得することとを含む方法を提供する。
基準パターンをターゲットオブジェクトに送信することと、
基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信することと、
基準パターンに対する2次パターンのオフセット値を計算することと、
オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、その距離情報を使用することによって3D奥行きイメージを取得することとを含む。
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのグラフィック輪郭を取得することは、
3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含み、
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのうちのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値のうちの少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセルの中に存在するかどうかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセルの中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
ターゲットオブジェクトの3D奥行きイメージを取得することの後に、この方法は、
3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することをさらに含み、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
奥行きしきい値を設定することと、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成することとを含む。
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することをさらに含み、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化することと、
ピクセル奥行きセグメント間隔を設定することと、
ピクセルブロックのうちのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのうちのそれぞれのピクセル平均値を取得することと、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得することとを含む。
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得することと、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算することと、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算することと、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成することであって、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータである、こととを含む。
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算することであって、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角である、ことと、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得することと、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得することであって、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルである、ことと、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得することとを含む。
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得することと、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得することと、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用することとを含む。
音波信号をターゲットオブジェクトに送信することと、
ターゲットオブジェクトによって反射された音波信号を受信することと、
音波信号の送信時間を取得することであって、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分である、ことと、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算することと、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算することとを含む。
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるグラフィック輪郭およびフレームワークパラメータ取得モジュールであって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、グラフィック輪郭およびフレームワークパラメータ取得モジュールと、
ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するように構成されるパラメータ比率取得モジュールと、
ターゲットオブジェクトの少なくとも1つの実際のサイズを取得するように構成される実際のサイズ取得モジュールと、
3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するように構成されるサインデータ取得モジュールとを含む、装置を提供する。
基準パターンをターゲットオブジェクトに送信するように構成される送信ユニットと、
基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信するように構成される受信ユニットと、
基準パターンに対する2次パターンのオフセット値を計算するように構成される計算ユニットと、
オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、距離情報を使用することによって3D奥行きイメージを取得するように構成されるイメージ取得ユニットとを含む。
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
ノイズ除去モジュールは、
3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するように構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
奥行きしきい値を設定し、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成される。
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのうちのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのうちのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成される。
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成される。
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成される。
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得し、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成される。
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成される。
ターゲットオブジェクトの3D奥行きイメージを取得するように構成される3Dセンサであって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、3Dセンサと、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるプロセッサであって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、プロセッサとを含み、プロセッサは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するようにさらに構成され、プロセッサは、ターゲットオブジェクトの少なくとも1つの実際のサイズを取得し、3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するようにさらに構成される、端末を提供する。
基準パターンをターゲットオブジェクトに送信し、基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信し、基準パターンに対する2次パターンのオフセット値を計算し、オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、距離情報を使用することによって3D奥行きイメージを取得するように特に構成される。
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのうちのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値のうちの少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
奥行きしきい値を設定し、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成される。
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成される。
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成される。
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成される。
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成される。
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成される。
図1を参照すると、図1は、本発明の実施形態による、ターゲットオブジェクトのサインデータを取得するための方法を示し、この方法は、以下を含む。すなわち、
S101.ターゲットオブジェクトの3D奥行きイメージを取得し、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む。
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得することと、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算することであって、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角である、ことと、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得することと、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得することであって、その類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルである、ことと、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得することとを特に含む。
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得することと、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得することと、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用することとを含む。
音波信号をターゲットオブジェクトに送信するステップと、
ターゲットオブジェクトによって反射された音波信号を受信するステップと、
音波信号の送信時間を取得するステップであって、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分である、ステップと、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算するステップと、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するステップとを使用することによって取得され得る。
ユーザが、モバイル端末を操作してターゲットオブジェクトに対して撮影および3D測定を実行したときに、モバイル端末は、ターゲットオブジェクトの少なくとも2枚の写真を同時に記録し、これらの写真は、異なる焦点距離パラメータを有するカメラコンポーネントを使用することによって取り込まれる。図4に示されている実施形態においては、端末カメラが、3つの異なる焦点距離を使用することによって異なるイメージ距離を伴って3枚の写真を取得している。そのうちの2枚の写真が、一例として使用され、2枚の写真に別々に対応しているイメージ距離が、D21およびD22であり、撮像高さが、h1およびh2であり、2つの撮影パラメータのレンズ距離の変化が、Δである。ターゲットオブジェクトの実際の高さが一意に特定されるので、写真は、明らかに下記の幾何学的な式を満たす。
D22=D21+Δ
奥行きしきい値を設定することと、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成することとを含む。
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得し、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化することと、
ピクセル奥行きセグメント間隔を設定することと、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得することと、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得することとを含む。
図5を参照すると、図5は、本発明の一実施形態による、ターゲットオブジェクトのサインデータを取得するための装置300を示し、この装置は、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成される撮像モジュール302であって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、撮像モジュール302と、ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるグラフィック輪郭およびフレームワークパラメータ取得モジュール304であって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、グラフィック輪郭およびフレームワークパラメータ取得モジュール304と、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するように構成されるパラメータ比率取得モジュール306と、
ターゲットオブジェクトの少なくとも1つの実際のサイズを取得するように構成される実際のサイズ取得モジュール308と、
3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するように構成されるサインデータ取得モジュール310とを含む。
基準パターンをターゲットオブジェクトに送信するように構成される送信ユニットと、
基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信するように構成される受信ユニットと、
基準パターンに対する2次パターンのオフセット値を計算するように構成される計算ユニットと、
オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、その距離情報を使用することによって3D奥行きイメージを取得するように構成されるイメージ取得ユニットとを含み得る。
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
ノイズ除去モジュール312は、
3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するように構成され、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
奥行きしきい値を設定しと、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成される。
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成されてよく、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成される。
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成されている。
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成される。
ツェルニケモーメント記述子およびフーリエ記述子を使用することによってターゲットオブジェクトのグラフィック輪郭を表現して、第1の記述情報を取得し、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成される。
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成されている。
図7を参照すると、図7は、本発明の一実施形態による、ターゲットオブジェクトのサインデータを取得するための端末400を示し、この端末は、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成される3Dセンサ402であって、3D奥行きイメージは、距離情報を有する2次元のイメージであり、距離情報は、ターゲットオブジェクトと撮像デバイスとの間における距離を含む、3Dセンサ402と、
ターゲットオブジェクトの3D奥行きイメージにおけるピクセルの奥行き値に従って、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されるプロセッサ404であって、奥行き値は、距離情報に従って取得される、ターゲットオブジェクト上のポイントと撮像デバイスとの間における距離である、プロセッサ404とを含み、プロセッサは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、3Dモデルのパラメータ比率を取得するようにさらに構成され、プロセッサは、ターゲットオブジェクトの少なくとも1つの実際のサイズを取得し、3Dモデルのパラメータ比率および少なくとも1つの実際のサイズに従ってターゲットオブジェクトのサインデータを取得するようにさらに構成される。
基準パターンをターゲットオブジェクトに送信し、基準パターンがターゲットオブジェクトによって反射された後に取得される2次パターンを受信し、基準パターンに対する2次パターンのオフセット値を計算し、オフセット値に対してフーリエ変換を実行することによって距離情報を取得し、距離情報を使用することによって3D奥行きイメージを取得するように特に構成され得る。
特に、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行することは、
3D奥行きイメージにおける第1のピクセルのピクセル奥行き値と、第1のピクセルに接続されている4つの隣接ピクセルのそれぞれのピクセル奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされたピクセルが、3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、第2のピクセルのピクセル奥行き値と、第2のピクセルに接続されている8つの隣接ピクセル中にあり、非輪郭の位置であるピクセルのピクセル奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従ってターゲットオブジェクトのグラフィック輪郭を取得することとを含む。
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
奥行きしきい値を設定し、
3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を奥行きしきい値と比較し、3D奥行きイメージ内にあり、ピクセル奥行き値が奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して第1の3Dターゲット奥行きイメージを形成するように特に構成され得る。
第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに特に構成されてよく、
それに対応して、3D奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することは、第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、ターゲットオブジェクトのグラフィック輪郭を取得することを含む。
第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
ピクセルブロックのそれぞれにおけるすべてのピクセルのピクセル奥行き値に対して平均処理を実行して、ピクセルブロックのそれぞれのピクセル平均値を取得し、
ピクセル平均値を、ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、第2の3Dターゲット奥行きイメージを取得するように特に構成され得る。
ターゲットオブジェクトの3D奥行きイメージにおけるすべてのピクセルのピクセル奥行き値に従って、および線形最小二乗法を使用することによって、ターゲットオブジェクトの中心軸を取得し、
中心軸に垂直な複数の第1のラインに沿ってターゲットオブジェクトのグラフィック輪郭の横の厚さを計算し、
中心軸に平行な複数の第2のラインに沿ってターゲットオブジェクトのグラフィック輪郭の縦の厚さを計算し、
第1のラインおよび第2のラインによって限定されたエリアを使用することによってターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、ターゲットオブジェクトのフレームワークパラメータであるように特に構成され得る。
ターゲットオブジェクトのグラフィック輪郭と、3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭が、3Dモデルの正面ビューのグラフィック輪郭ではないときに、3Dモデルのグラフィック輪郭に従って3Dモデルの正面ビューのグラフィック輪郭を取得し、
3Dモデルのグラフィック輪郭および3Dモデルの正面ビューのグラフィック輪郭に従って3Dモデルの視角パラメータを計算し、視角パラメータは、3Dモデルの正面ビューのグラフィック輪郭に基づく3Dモデルのグラフィック輪郭のものである視角であり、
視角パラメータに基づいて3Dモデルの正面ビューのグラフィック輪郭を回転させて、3Dモデルのフレームワークパラメータを取得し、
比較を用いて、ターゲットオブジェクトのフレームワークパラメータと、3Dモデルのフレームワークパラメータとの間における類似性を取得し、類似性が事前設定値よりも小さいときに、3Dモデルは、ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭と合致する3Dモデルであり、
3Dモデルを使用することによって3Dモデルのパラメータ比率を取得するように特に構成され得る。
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって3Dモデルライブラリ内の3Dモデルのグラフィック輪郭を表現して、第2の記述情報を取得し、
第1の記述情報および第2の記述情報を比較し、事前設定しきい値だけ第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭として使用するように特に構成され得る。
音波信号をターゲットオブジェクトに送信し、
ターゲットオブジェクトによって反射された音波信号を受信し、
音波信号の送信時間を取得し、送信時間は、音波信号を送信する時刻と、音波信号を受信する時刻との間における差分であり、
音波信号の送信時間および伝搬速度を使用することによって、ターゲットオブジェクトの表面と、撮像デバイスとの間における距離を計算し、
撮像デバイスの距離およびイメージ距離を使用することによってターゲットオブジェクトの少なくとも1つの実際のサイズを計算するように特に構成され得る。
Claims (36)
- ターゲットオブジェクトのデータを取得するための方法であって、前記データは、前記ターゲットオブジェクトに係る人体の体重、胸サイズ、ウエストサイズ、ヒップサイズ、腕の長さ、および肩幅のうちの少なくとも1つを含み、
ターゲットオブジェクトの3D奥行きイメージを取得することであって、前記3D奥行きイメージは、距離情報を有する2次元のイメージであり、前記距離情報は、前記ターゲットオブジェクトと撮像デバイスとの間における距離を含む、ことと、
前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得することであって、前記奥行き値は、前記距離情報に従って取得される、前記ターゲットオブジェクト上の点と前記撮像デバイスとの間における距離である、ことと、
前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、前記3Dモデルのパラメータ比率を取得することと、
前記ターゲットオブジェクトの少なくとも1つの実際のサイズを取得することと、
前記3Dモデルの前記パラメータ比率および前記少なくとも1つの実際のサイズに従って前記ターゲットオブジェクトのデータを取得することと
を含むことを特徴とする方法。 - ターゲットオブジェクトの3D奥行きイメージを前記取得することは、
前記ターゲットオブジェクトに基準パターンを送信することと、
前記基準パターンが前記ターゲットオブジェクトによって反射された後に取得される2次パターンを受信することと、
前記基準パターンに対する前記2次パターンのオフセット値を計算することと、
前記オフセット値に対してフーリエ変換を実行することによって前記距離情報を取得し、前記距離情報を使用することによって前記3D奥行きイメージを取得することとを含むことを特徴とする請求項1に記載の方法。 - 前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのグラフィック輪郭を前記取得することは、
前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含み、
特に、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行することは、
前記3D奥行きイメージにおける第1のピクセルの奥行き値と、前記第1のピクセルに接続されている4つの隣接ピクセルのそれぞれの奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
前記4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、前記少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在する場合には、前記第2のピクセルの奥行き値と、前記第2のピクセルに接続されている前記8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルの奥行き値との間における差分計算を実行して、第2の奥行き差分値を取得することと、
前記第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、前記第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従って前記ターゲットオブジェクトの前記グラフィック輪郭を取得することとを含むことを特徴とする請求項1または2に記載の方法。 - ターゲットオブジェクトの3D奥行きイメージを前記取得することの後に、前記方法は、
前記3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得することをさらに含み、
それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して前記差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項1乃至3のいずれか一項に記載の方法。 - 前記3D奥行きイメージに対して背景ノイズ除去処理を前記実行して、第1の3Dターゲット奥行きイメージを取得することは、
奥行きしきい値を設定することと、
前記3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を前記奥行きしきい値と比較し、前記3D奥行きイメージ内にあり、かつ奥行き値が前記奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して前記第1の3Dターゲット奥行きイメージを形成することとを含むことを特徴とする請求項4に記載の方法。 - 前記第1の3Dターゲット奥行きイメージを前記取得することの後に、前記方法は、
前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することをさらに含み、
それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項5に記載の方法。 - 前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を前記実行して、第2の3Dターゲット奥行きイメージを取得することは、
前記第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化することと、
ピクセル奥行きセグメント間隔を設定することと、
前記ピクセルブロックのそれぞれにおけるすべてのピクセルの奥行き値に対して平均処理を実行して、前記ピクセルブロックのそれぞれのピクセル平均値を取得することと、
前記ピクセル平均値を、前記ピクセル奥行きセグメント間隔内の対応する間隔にマッピングし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、前記第2の3Dターゲット奥行きイメージを取得することとを含むことを特徴とする請求項6に記載の方法。 - 前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのフレームワークパラメータを前記取得することは、
前記ターゲットオブジェクトの前記3D奥行きイメージにおけるすべてのピクセルの奥行き値に従って、および線形最小二乗法を使用することによって、前記ターゲットオブジェクトの中心軸を取得することと、
前記中心軸に垂直な複数の第1のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の横の厚さを計算することと、
前記中心軸に平行な複数の第2のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の縦の厚さを計算することと、
前記第1のラインおよび前記第2のラインによって限定されたエリアを使用することによって前記ターゲットオブジェクトのフレームワークを構成することであって、対応する横の厚さおよび縦の厚さは、前記ターゲットオブジェクトの前記フレームワークパラメータである、こととを含むことを特徴とする請求項1乃至7のいずれか一項に記載の方法。 - 前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから前記取り出し、前記3Dモデルのパラメータ比率を取得することは、
前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することと、
前記3Dモデルの前記グラフィック輪郭が、前記3Dモデルの正面ビューのグラフィック輪郭ではないときに、前記3Dモデルの前記グラフィック輪郭に従って前記3Dモデルの前記正面ビューのグラフィック輪郭を取得することと、
前記3Dモデルの前記グラフィック輪郭および前記3Dモデルの前記正面ビューのグラフィック輪郭に従って前記3Dモデルの視角パラメータを計算することであって、前記視角パラメータは、前記3Dモデルの前記正面ビューのグラフィック輪郭に基づく前記3Dモデルの前記グラフィック輪郭のものである視角である、ことと、
前記視角パラメータに基づいて前記3Dモデルの前記正面ビューのグラフィック輪郭を回転させて、前記3Dモデルのフレームワークパラメータを取得することと、
比較を用いて、前記ターゲットオブジェクトの前記フレームワークパラメータと、前記3Dモデルの前記フレームワークパラメータとの間における類似性を取得することであって、前記類似性が事前設定値よりも小さいときに、前記3Dモデルは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する前記3Dモデルである、ことと、
前記3Dモデルを使用することによって前記3Dモデルの前記パラメータ比率を取得することとを含むことを特徴とする請求項8に記載の方法。 - 前記3Dモデルライブラリは、前記3Dモデルのすべての視角のグラフィック輪郭を含み、前記3Dモデルの少なくとも前記正面ビューのグラフィック輪郭を含むことを特徴とする請求項9に記載の方法。
- 前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを前記実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得することは、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって前記ターゲットオブジェクトの前記グラフィック輪郭を表現、第1の記述情報を取得することと、
前記ツェルニケモーメント記述子および前記フーリエ記述子を使用することによって前記3Dモデルライブラリ内の前記3Dモデルの前記グラフィック輪郭を表現して、第2の記述情報を取得することと、
前記第1の記述情報および前記第2の記述情報を比較し、事前設定しきい値だけ前記第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、前記最も高いマッチング度合いを有する前記3Dモデルの前記グラフィック輪郭として使用することとを含むことを特徴とする請求項10に記載の方法。 - 前記ターゲットオブジェクトの少なくとも1つの実際のサイズを前記取得することは、
音波信号を前記ターゲットオブジェクトに送信することと、
前記ターゲットオブジェクトによって反射された音波信号を受信することと、
前記音波信号の送信時間を取得することであって、前記送信時間は、前記音波信号を送信する時刻と、前記音波信号を受信する時刻との間における差分である、ことと、
前記音波信号の前記送信時間および伝搬速度を使用することによって、前記ターゲットオブジェクトの表面と、前記撮像デバイスとの間における距離を計算することと、
前記撮像デバイスの前記距離およびイメージ距離を使用することによって前記ターゲットオブジェクトの前記少なくとも1つの実際のサイズを計算することとを含むことを特徴とする請求項1乃至11のいずれか一項に記載の方法。 - ターゲットオブジェクトのデータを取得するための装置であって、前記データは、前記ターゲットオブジェクトに係る人体の体重、胸サイズ、ウエストサイズ、ヒップサイズ、腕の長さ、および肩幅のうちの少なくとも1つを含み、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成された撮像モジュールであって、前記3D奥行きイメージは、距離情報を有する2次元のイメージであり、前記距離情報は、前記ターゲットオブジェクトと撮像デバイスとの間における距離を含む、撮像モジュールと、
前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されたグラフィック輪郭およびフレームワークパラメータ取得モジュールであって、前記奥行き値は、前記距離情報に従って取得される、前記ターゲットオブジェクト上のポイントと前記撮像デバイスとの間における距離である、グラフィック輪郭およびフレームワークパラメータ取得モジュールと、
前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、前記3Dモデルのパラメータ比率を取得するように構成されたパラメータ比率取得モジュールと、
前記ターゲットオブジェクトの少なくとも1つの実際のサイズを取得するように構成された実際のサイズ取得モジュールと、
前記3Dモデルの前記パラメータ比率および前記少なくとも1つの実際のサイズに従って、前記ターゲットオブジェクトのデータを取得するように構成されたデータ取得モジュールと
を含むことを特徴とする装置。 - 前記撮像モジュールは、
基準パターンを前記ターゲットオブジェクトに送信するように構成された送信ユニットと、
前記基準パターンが前記ターゲットオブジェクトによって反射された後に取得される2次パターンを受信するように構成された受信ユニットと、
前記基準パターンに対する前記2次パターンのオフセット値を計算するように構成された計算ユニットと、
前記オフセット値に対してフーリエ変換を実行することによって前記距離情報を取得し、前記距離情報を使用することによって前記3D奥行きイメージを取得するように構成されたイメージ取得ユニットとを含むことを特徴とする請求項13に記載の装置。 - 前記グラフィック輪郭およびフレームワークパラメータ取得モジュールは、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得するように特に構成されており、
特に、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行することは、
前記3D奥行きイメージにおける第1のピクセルの奥行き値と、前記第1のピクセルに接続されている4つの隣接ピクセルのそれぞれの奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
前記4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、前記少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされた前記ピクセルが、前記3D奥行きイメージにおける前記第2のピクセルに接続されている前記8つの隣接ピクセル中に存在する場合には、前記第2のピクセルの奥行き値と、前記第2のピクセルに接続されている前記8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルの奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
前記第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、前記第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従って、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することとを含むことを特徴とする請求項13または14に記載の装置。 - 前記装置は、ノイズ除去モジュールをさらに含み、
前記ノイズ除去モジュールは、
前記3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するように構成され、
それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項13乃至15のいずれか一項に記載の装置。 - 前記ノイズ除去モジュールは、
奥行きしきい値を設定し、
前記3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を前記奥行きしきい値と比較し、前記3D奥行きイメージ内にあり、かつ奥行き値が前記奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して前記第1の3Dターゲット奥行きイメージを形成するように特に構成されていることを特徴とする請求項16に記載の装置。 - 前記ノイズ除去モジュールは、
前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得するようにさらに構成され、
それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項17に記載の装置。 - 前記ノイズ除去モジュールは、
前記第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
前記ピクセルブロックのそれぞれにおけるすべてのピクセルの奥行き値に対して平均処理を実行して、前記ピクセルブロックのそれぞれのピクセル平均値を取得し、
前記ピクセル平均値を、前記ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、前記第2の3Dターゲット奥行きイメージを取得するように特に構成されていることを特徴とする請求項18に記載の装置。 - 前記グラフィック輪郭およびフレームワークパラメータ取得モジュールは、
前記ターゲットオブジェクトの前記3D奥行きイメージにおけるすべてのピクセルの奥行き値に従って、および線形最小二乗法を使用することによって、前記ターゲットオブジェクトの中心軸を取得し、
前記中心軸に垂直な複数の第1のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の横の厚さを計算し、
前記中心軸に平行な複数の第2のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の縦の厚さを計算し、
前記第1のラインおよび前記第2のラインによって限定されたエリアを使用することによって前記ターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、前記ターゲットオブジェクトの前記フレームワークパラメータであるように特に構成されていることを特徴とする請求項13乃至19のいずれか一項に記載の装置。 - 前記パラメータ比率取得モジュールは、
前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
前記3Dモデルの前記グラフィック輪郭が、前記3Dモデルの正面ビューのグラフィック輪郭ではないときに、前記3Dモデルの前記グラフィック輪郭に従って前記3Dモデルの前記正面ビューのグラフィック輪郭を取得し、
前記3Dモデルの前記グラフィック輪郭および前記3Dモデルの前記正面ビューのグラフィック輪郭に従って前記3Dモデルの視角パラメータを計算し、前記視角パラメータは、前記3Dモデルの前記正面ビューのグラフィック輪郭に基づく前記3Dモデルの前記グラフィック輪郭のものである視角であり、
前記視角パラメータに基づいて前記3Dモデルの前記正面ビューのグラフィック輪郭を回転させて、前記3Dモデルのフレームワークパラメータを取得し、
比較を用いて、前記ターゲットオブジェクトの前記フレームワークパラメータと、前記3Dモデルの前記フレームワークパラメータとの間における類似性を取得し、前記類似性が事前設定値よりも小さいときに、前記3Dモデルは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する前記3Dモデルであり、
前記3Dモデルを使用することによって前記3Dモデルの前記パラメータ比率を取得するように特に構成されていることを特徴とする請求項20に記載の装置。 - 前記3Dモデルライブラリは、前記3Dモデルのすべての視角のグラフィック輪郭を含み、前記3Dモデルの少なくとも前記正面ビューのグラフィック輪郭を含むことを特徴とする請求項21に記載の装置。
- 前記パラメータ比率取得モジュールは、
ツェルニケモーメント記述子およびフーリエ記述子を使用することによって前記ターゲットオブジェクトの前記グラフィック輪郭を表現して、第1の記述情報を取得し、
前記ツェルニケモーメント記述子および前記フーリエ記述子を使用することによって前記3Dモデルライブラリ内の前記3Dモデルの前記グラフィック輪郭を表現して、第2の記述情報を取得し、
前記第1の記述情報および前記第2の記述情報を比較し、事前設定しきい値だけ前記第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、前記最も高いマッチング度合いを有する前記3Dモデルの前記グラフィック輪郭として使用するように特に構成されていることを特徴とする請求項22に記載の装置。 - 前記実際のサイズ取得モジュールは、
音波信号を前記ターゲットオブジェクトに送信し、
前記ターゲットオブジェクトによって反射された音波信号を受信し、
前記音波信号の送信時間を取得し、前記送信時間は、前記音波信号を送信する時刻と、前記音波信号を受信する時刻との間における差分であり、
前記音波信号の前記送信時間および伝搬速度を使用することによって、前記ターゲットオブジェクトの表面と、前記撮像デバイスとの間における距離を計算し、
前記撮像デバイスの前記距離およびイメージ距離を使用することによって前記ターゲットオブジェクトの前記少なくとも1つの実際のサイズを計算するように特に構成されていることを特徴とする請求項13乃至23のいずれか一項に記載の装置。 - ターゲットオブジェクトのデータを取得するための端末であって、前記データは、前記ターゲットオブジェクトに係る人体の体重、胸サイズ、ウエストサイズ、ヒップサイズ、腕の長さ、および肩幅のうちの少なくとも1つを含み、
ターゲットオブジェクトの3D奥行きイメージを取得するように構成された3Dセンサであって、前記3D奥行きイメージは、距離情報を有する2次元のイメージであり、前記距離情報は、前記ターゲットオブジェクトと撮像デバイスとの間における距離を含む、3Dセンサと、
前記ターゲットオブジェクトの前記3D奥行きイメージにおけるピクセルの奥行き値に従って、前記ターゲットオブジェクトのものであるフレームワークパラメータおよびグラフィック輪郭を取得するように構成されたプロセッサであって、前記奥行き値は、前記距離情報に従って入手される、前記ターゲットオブジェクト上のポイントと前記撮像デバイスとの間における距離である、プロセッサとを含み、前記プロセッサは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する3Dモデルを3Dモデルライブラリから取り出し、前記3Dモデルのパラメータ比率を取得するようにさらに構成され、前記プロセッサは、前記ターゲットオブジェクトの少なくとも1つの実際のサイズを取得し、前記3Dモデルの前記パラメータ比率および前記少なくとも1つの実際のサイズに従って前記ターゲットオブジェクトのデータを取得するようにさらに構成されていることを特徴とする端末。 - 前記3Dセンサは、
基準パターンを前記ターゲットオブジェクトに送信し、前記基準パターンが前記ターゲットオブジェクトによって反射された後に取得される2次パターンを受信し、前記基準パターンに対する前記2次パターンのオフセット値を計算し、前記オフセット値に対してフーリエ変換を実行することによって前記距離情報を取得し、前記距離情報を使用することによって前記3D奥行きイメージを取得するように特に構成されていることを特徴とする請求項25に記載の端末。 - 前記プロセッサは、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得し、
特に、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行することは、
前記3D奥行きイメージにおける第1のピクセルの奥行き値と、前記第1のピクセルに接続されている4つの隣接ピクセルのそれぞれの奥行き値との間における奥行き値差分を計算して、4つの第1の奥行き差分値を取得することと、
前記4つの第1の奥行き差分値における少なくとも1つの第1の奥行き差分値が、第1の差分しきい値よりも大きいときに、前記少なくとも1つの第1の奥行き差分値に対応する隣接ピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルが、前記3D奥行きイメージにおける第2のピクセルに接続されている8つの隣接ピクセル中に存在するかについてクエリーを行うことと、
輪郭の位置としてマークされた前記ピクセルが、前記3D奥行きイメージにおける前記第2のピクセルに接続されている前記8つの隣接ピクセル中に存在する場合には、前記第2のピクセルの奥行き値と、前記第2のピクセルに接続されている前記8つの隣接ピクセル中にあり、かつ非輪郭の位置であるピクセルの奥行き値との間における差分計算を別々に実行して、第2の奥行き差分値を取得することと、
前記第2の奥行き差分値の少なくとも1つが、第2の差分しきい値よりも大きいときに、前記第2のピクセルを輪郭の位置としてマークすることと、
輪郭の位置としてマークされたピクセルに従って前記ターゲットオブジェクトの前記グラフィック輪郭を取得することとを含むことを特徴とする請求項25または26に記載の端末。 - 前記プロセッサは、前記3D奥行きイメージに対して背景ノイズ除去処理を実行して、第1の3Dターゲット奥行きイメージを取得するようにさらに構成され、
それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第1の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項25乃至27のいずれか一項に記載の端末。 - 前記プロセッサは、
奥行きしきい値を設定し、
前記3D奥行きイメージにおけるそれぞれのピクセルの奥行き値を前記奥行きしきい値と比較し、前記3D奥行きイメージ内にあり、かつ奥行き値が前記奥行きしきい値よりも大きいピクセルを除去し、残りのピクセルを取得して前記第1の3Dターゲット奥行きイメージを形成するように特に構成されていることを特徴とする請求項28に記載の端末。 - 前記プロセッサは、
前記第1の3Dターゲット奥行きイメージに対してエッジノイズ除去処理を実行して、第2の3Dターゲット奥行きイメージを取得することを行うようにさらに構成され、
それに対応して、前記3D奥行きイメージにおける前記ピクセルの前記奥行き値に対して差分計算を前記実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することは、前記第2の3Dターゲット奥行きイメージにおけるピクセルの奥行き値に対して差分計算を実行して、前記ターゲットオブジェクトの前記グラフィック輪郭を取得することを含むことを特徴とする請求項29に記載の端末。 - 前記プロセッサは、
前記第1の3Dターゲット奥行きイメージを複数のピクセルブロックにセグメント化し、
ピクセル奥行きセグメント間隔を設定し、
前記ピクセルブロックのそれぞれにおけるすべてのピクセルの奥行き値に対して平均処理を実行して、前記ピクセルブロックのそれぞれのピクセル平均値を取得し、
前記ピクセル平均値を、前記ピクセル奥行きセグメント間隔内の対応する間隔にマップし、同じ間隔内のすべてのピクセル平均値に対応するピクセルブロックを結合して、前記第2の3Dターゲット奥行きイメージを取得するように特に構成されていることを特徴とする請求項30に記載の端末。 - 前記プロセッサは、
前記ターゲットオブジェクトの前記3D奥行きイメージにおけるすべてのピクセルの奥行き値に従って、および線形最小二乗法を使用することによって、前記ターゲットオブジェクトの中心軸を取得し、
前記中心軸に垂直な複数の第1のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の横の厚さを計算し、
前記中心軸に平行な複数の第2のラインに沿って前記ターゲットオブジェクトの前記グラフィック輪郭の縦の厚さを計算し、
前記第1のラインおよび前記第2のラインによって限定されたエリアを使用することによって前記ターゲットオブジェクトのフレームワークを構成し、対応する横の厚さおよび縦の厚さは、前記ターゲットオブジェクトの前記フレームワークパラメータであるように特に構成されていることを特徴とする請求項25乃至31のいずれか一項に記載の端末。 - 前記プロセッサは、
前記ターゲットオブジェクトの前記グラフィック輪郭と、前記3Dモデルライブラリ内の3Dモデルのグラフィック輪郭との間におけるマッチングを実行して、最も高いマッチング度合いを有する3Dモデルのグラフィック輪郭を取得し、
前記3Dモデルの前記グラフィック輪郭が、前記3Dモデルの正面ビューのグラフィック輪郭ではないときに、前記3Dモデルの前記グラフィック輪郭に従って前記3Dモデルの前記正面ビューのグラフィック輪郭を取得し、
前記3Dモデルの前記グラフィック輪郭および前記3Dモデルの前記正面ビューのグラフィック輪郭に従って前記3Dモデルの視角パラメータを計算し、前記視角パラメータは、前記3Dモデルの前記正面ビューのグラフィック輪郭に基づく前記3Dモデルの前記グラフィック輪郭のものである視角であり、
前記視角パラメータに基づいて前記3Dモデルの前記正面ビューのグラフィック輪郭を回転させて、前記3Dモデルのフレームワークパラメータを取得し、
比較を用いて、前記ターゲットオブジェクトの前記フレームワークパラメータと、前記3Dモデルの前記フレームワークパラメータとの間における類似性を取得し、前記類似性が事前設定値よりも小さいときに、前記3Dモデルは、前記ターゲットオブジェクトのものである前記フレームワークパラメータおよび前記グラフィック輪郭と合致する前記3Dモデルであり、
前記3Dモデルを使用することによって前記3Dモデルの前記パラメータ比率を取得するように特に構成されていることを特徴とする請求項32に記載の端末。 - 前記3Dモデルライブラリは、前記3Dモデルのすべての視角のグラフィック輪郭を含み、前記3Dモデルの少なくとも前記正面ビューのグラフィック輪郭を含むことを特徴とする請求項33に記載の端末。
- 前記プロセッサは、ツェルニケモーメント記述子およびフーリエ記述子を使用することによって前記ターゲットオブジェクトの前記グラフィック輪郭を表現して、第1の記述情報を取得し、
前記ツェルニケモーメント記述子および前記フーリエ記述子を使用することによって前記3Dモデルライブラリ内の前記3Dモデルの前記グラフィック輪郭を表現して、第2の記述情報を取得することと、
前記第1の記述情報および前記第2の記述情報を比較し、事前設定しきい値だけ前記第1の記述情報とは異なる第2の記述情報に対応する3Dモデルのグラフィック輪郭を、前記最も高いマッチング度合いを有する前記3Dモデルの前記グラフィック輪郭として使用するように特に構成されていることを特徴とする請求項34に記載の端末。 - 前記プロセッサは、
音波信号を前記ターゲットオブジェクトに送信し、
前記ターゲットオブジェクトによって反射された音波信号を受信し、
前記音波信号の送信時間を取得し、前記送信時間は、前記音波信号を送信する時刻と、前記音波信号を受信する時刻との間における差分であり、
前記音波信号の前記送信時間および伝搬速度を使用することによって、前記ターゲットオブジェクトの表面と、前記撮像デバイスとの間における距離を計算し、
前記撮像デバイスの前記距離およびイメージ距離を使用することによって前記ターゲットオブジェクトの前記少なくとも1つの実際のサイズを計算するように特に構成されていることを特徴とする請求項25乃至35のいずれか一項に記載の端末。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410301461.2 | 2014-06-27 | ||
CN201410301461.2A CN105336005B (zh) | 2014-06-27 | 2014-06-27 | 一种获取目标物体体征数据的方法、装置及终端 |
PCT/CN2015/082539 WO2015197026A1 (zh) | 2014-06-27 | 2015-06-26 | 一种获取目标物体体征数据的方法、装置及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017525029A JP2017525029A (ja) | 2017-08-31 |
JP6549620B2 true JP6549620B2 (ja) | 2019-07-24 |
Family
ID=54936983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016575462A Active JP6549620B2 (ja) | 2014-06-27 | 2015-06-26 | ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9984461B2 (ja) |
EP (1) | EP3144900B1 (ja) |
JP (1) | JP6549620B2 (ja) |
KR (1) | KR101922039B1 (ja) |
CN (1) | CN105336005B (ja) |
BR (1) | BR112016030027B1 (ja) |
WO (1) | WO2015197026A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT201600122898A1 (it) * | 2016-12-02 | 2018-06-02 | Ecole Polytechnique Fed Lausanne Epfl | Metodi e apparati per codificare e decodificare immagini o flussi video digitali |
JP2018136896A (ja) * | 2017-02-24 | 2018-08-30 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法、および物品の製造方法 |
CN107270829B (zh) * | 2017-06-08 | 2020-06-19 | 南京华捷艾米软件科技有限公司 | 一种基于深度图像的人体三围测量方法 |
CN109658515B (zh) * | 2017-10-11 | 2022-11-04 | 阿里巴巴集团控股有限公司 | 点云网格化方法、装置、设备及计算机存储介质 |
CN108229332B (zh) * | 2017-12-08 | 2020-02-14 | 华为技术有限公司 | 骨骼姿态确定方法、装置及计算机可读存储介质 |
FR3076028B1 (fr) * | 2017-12-21 | 2021-12-24 | Commissariat Energie Atomique | Methode de reconnaissance d'objets dans une scene observee en trois dimensions |
TWI672937B (zh) * | 2018-02-05 | 2019-09-21 | 廣達電腦股份有限公司 | 三維影像處理之裝置及方法 |
CN110910393B (zh) * | 2018-09-18 | 2023-03-24 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
CN111768878A (zh) * | 2020-06-30 | 2020-10-13 | 杭州依图医疗技术有限公司 | 可视化指引病灶的方法及计算机可读存储介质 |
CN114842147A (zh) * | 2022-05-16 | 2022-08-02 | 聚好看科技股份有限公司 | 一种测量人体参数的方法及电子设备 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4954962A (en) * | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
US7298415B2 (en) * | 2001-07-13 | 2007-11-20 | Xenogen Corporation | Structured light imaging apparatus |
US7113217B2 (en) | 2001-07-13 | 2006-09-26 | Xenogen Corporation | Multi-view imaging apparatus |
KR100488366B1 (ko) | 2002-03-13 | 2005-05-11 | 주식회사 에스알에스텍 | 초음파를 이용한 수소유기균열 및 부식 측정 시스템과안전성 평가 방법 |
US7128024B2 (en) * | 2003-07-15 | 2006-10-31 | Doyle Ii John Conan | System and method for measuring animals |
CN101288105B (zh) | 2005-10-11 | 2016-05-25 | 苹果公司 | 用于物体重现的方法和系统 |
JP5167248B2 (ja) * | 2006-05-11 | 2013-03-21 | プライムセンス リミテッド | 深度マップによるヒューマノイド形状のモデル化 |
KR101640039B1 (ko) * | 2009-09-22 | 2016-07-18 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US20120050480A1 (en) | 2010-08-27 | 2012-03-01 | Nambi Seshadri | Method and system for generating three-dimensional video utilizing a monoscopic camera |
US8810565B2 (en) | 2010-08-27 | 2014-08-19 | Broadcom Corporation | Method and system for utilizing depth information as an enhancement layer |
US8994792B2 (en) | 2010-08-27 | 2015-03-31 | Broadcom Corporation | Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information |
JP5597087B2 (ja) * | 2010-10-04 | 2014-10-01 | パナソニック株式会社 | 仮想物体操作装置 |
KR101815975B1 (ko) * | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
EP2864961A4 (en) * | 2012-06-21 | 2016-03-23 | Microsoft Technology Licensing Llc | AVATAR CONSTRUCTION USING A DEPTH CAMERA |
WO2014022608A2 (en) * | 2012-08-02 | 2014-02-06 | Microsoft Corporation | Avatar-based virtual dressing room |
CN103294996B (zh) * | 2013-05-09 | 2016-04-27 | 电子科技大学 | 一种3d手势识别方法 |
CN103745218B (zh) * | 2014-01-26 | 2017-02-15 | 清华大学 | 一种深度图像中的姿势识别方法及装置 |
-
2014
- 2014-06-27 CN CN201410301461.2A patent/CN105336005B/zh active Active
-
2015
- 2015-06-26 BR BR112016030027-0A patent/BR112016030027B1/pt active IP Right Grant
- 2015-06-26 EP EP15810950.4A patent/EP3144900B1/en active Active
- 2015-06-26 JP JP2016575462A patent/JP6549620B2/ja active Active
- 2015-06-26 WO PCT/CN2015/082539 patent/WO2015197026A1/zh active Application Filing
- 2015-06-26 KR KR1020177001223A patent/KR101922039B1/ko active IP Right Grant
-
2016
- 2016-12-27 US US15/391,068 patent/US9984461B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017525029A (ja) | 2017-08-31 |
US9984461B2 (en) | 2018-05-29 |
EP3144900B1 (en) | 2023-04-05 |
BR112016030027A2 (pt) | 2017-08-22 |
WO2015197026A1 (zh) | 2015-12-30 |
KR101922039B1 (ko) | 2018-11-26 |
KR20170019430A (ko) | 2017-02-21 |
EP3144900A1 (en) | 2017-03-22 |
CN105336005B (zh) | 2018-12-14 |
BR112016030027B1 (pt) | 2023-10-10 |
CN105336005A (zh) | 2016-02-17 |
EP3144900A4 (en) | 2017-07-26 |
US20170109885A1 (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6549620B2 (ja) | ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末 | |
CN113412614B (zh) | 使用深度图像的三维定位 | |
CN110599540B (zh) | 多视点相机下的实时三维人体体型与姿态重建方法及装置 | |
JP6295645B2 (ja) | 物体検出方法及び物体検出装置 | |
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
JP2019534510A5 (ja) | ||
WO2020063987A1 (zh) | 三维扫描方法、装置、存储介质和处理器 | |
KR101791590B1 (ko) | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 | |
CN105654547B (zh) | 三维重建方法 | |
JP2021530821A (ja) | 三次元無線モデル構築を実行するための方法、装置およびコンピュータプログラム | |
JP2013535013A5 (ja) | ||
US20200349754A1 (en) | Methods, devices and computer program products for generating 3d models | |
CN113657357B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
KR101593316B1 (ko) | 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치 | |
CN112837207A (zh) | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 | |
Nakazawa et al. | Dynamic scene reconstruction using asynchronous multiple kinects | |
CN113424522A (zh) | 使用半球形或球形可见光深度图像进行三维跟踪 | |
JP6770208B2 (ja) | 情報処理装置 | |
JP2012122816A (ja) | 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム | |
Siddique et al. | 3d object localization using 2d estimates for computer vision applications | |
JP2010238134A (ja) | 画像処理装置及びプログラム | |
Jin et al. | StageAR: Markerless Mobile Phone Localization for AR in Live Events | |
CN113424524B (zh) | 使用半球形或球形可见光深度图像的三维建模 | |
Higuchi et al. | TweetGlue: Leveraging a crowd tracking infrastructure for mobile social augmented reality | |
Huang et al. | AR Mapping: Accurate and Efficient Mapping for Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180511 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180611 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6549620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |