JP2017208126A - オブジェクト認識装置、分類ツリー学習装置及びその動作方法 - Google Patents
オブジェクト認識装置、分類ツリー学習装置及びその動作方法 Download PDFInfo
- Publication number
- JP2017208126A JP2017208126A JP2017146234A JP2017146234A JP2017208126A JP 2017208126 A JP2017208126 A JP 2017208126A JP 2017146234 A JP2017146234 A JP 2017146234A JP 2017146234 A JP2017146234 A JP 2017146234A JP 2017208126 A JP2017208126 A JP 2017208126A
- Authority
- JP
- Japan
- Prior art keywords
- classification tree
- object part
- data
- hidden
- visible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 28
- 238000004458 analytical method Methods 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000008901 benefit Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 210000003205 muscle Anatomy 0.000 claims description 2
- 210000000653 nervous system Anatomy 0.000 claims description 2
- 210000000748 cardiovascular system Anatomy 0.000 claims 1
- 239000000284 extract Substances 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 238000005266 casting Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000006693 Cassia laevigata Nutrition 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000735631 Senna pendula Species 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 229940124513 senna glycoside Drugs 0.000 description 1
- 210000002356 skeleton Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
Description
(例えば、Δ0.5である場合)
ii.分類ツリーのレベルが基準値以上である場合
(例えば、分類ツリーのレベルが25以上である場合)
iii.可視オブジェクトパートデータ及び隠しオブジェクトパートデータの量が基準値以下である場合
(例えば、データに属するボクセルの数が10個以下である場合)
分類ツリー生成部746は、現在ノードが停止基準を満足すると、現在ノードをリーフノードとして決定し、当該データセットに対して学習する動作を終了してもよい。可視オブジェクトパートの後に数回重畳した隠しオブジェクトパートがある場合、分類ツリー生成部746は、1つのリーフノードのうち隠しオブジェクトパートに対するヒストグラムを複数生成してもよい。再び説明すると、重畳したパートが数個ある場合、隠しオブジェクトパートは重畳した数だけ数個存在するが、分類ツリー生成部746は、隠しオブジェクトパートに対するヒストグラムを1つのリーフノードのうち複数生成することによって複数の隠しオブジェクトパートそれぞれに関する情報を格納してもよい。
121、122 学習ツリー
301、401、501 可視オブジェクトパート
302、402、502 隠しオブジェクトパート
Claims (28)
- 分析対象に対する深度映像が入力される入力部と、
分類ツリーを用いて前記深度映像から前記分析対象の可視オブジェクトパート及び前記分析対象の隠しオブジェクトパートを認識する処理部と、
を備えることを特徴とするオブジェクト認識装置。 - 前記認識された可視オブジェクトパート及び前記認識された隠しオブジェクトパートを用いて、1つのデータ空間に前記分析対象のボリュームを構成するボリューム構成部をさらに備えることを特徴とする請求項1に記載のオブジェクト認識装置。
- 前記処理部は、前記ボリュームに基づいて前記分析対象に対する付加情報を抽出することを特徴とする請求項1または2に記載のオブジェクト認識装置。
- 前記付加情報は、前記分析対象の形状、姿勢、キージョイント、及び構造のうち少なくとも1つに関する情報を含むことを特徴とする請求項3に記載のオブジェクト認識装置。
- 前記ボリューム構成部は、前記分類ツリーのリーフノードに格納された相対的深度値を用いて前記ボリュームを構成し、
前記相対的深度値は、前記認識された可視オブジェクトパートに対する深度値と前記認識された隠しオブジェクトパートに対する深度値との間の差値を示すことを特徴とする請求項2に記載のオブジェクト認識装置。 - 前記処理部は、
前記分類ツリーに前記深度映像を入力し、
前記分類ツリーの現在ノードがスプリットノードであれば、前記スプリットノードに格納された特徴の値及び閾値を読み出し、前記特徴の値及び前記閾値をスプリット関数に入力して結果値を演算し、前記演算された結果値に基づいて前記現在ノードに対する左側子ノード及び右側子ノードのいずれか1つのノードを探索し、
前記現在ノードがリーフノードであれば、前記リーフノードに格納された前記可視オブジェクトパートに対する第1ヒストグラム及び前記隠しオブジェクトパートに対する第2ヒストグラムを読み出し、前記第1ヒストグラムに基づいて前記深度映像から前記可視オブジェクトパートを認識して前記第2ヒストグラムに基づいて前記深度映像から前記隠しオブジェクトパートを認識することを特徴とする請求項1乃至5のいずれか一項に記載のオブジェクト認識装置。 - 前記処理部は、前記演算された結果値が前記閾値よりも小さければ、前記左側子ノードを探索し、前記演算された結果値が前記閾値と同一であるか大きければ、前記右側子ノードを探索することを特徴とする請求項6に記載のオブジェクト認識装置。
- 前記分析対象に対するオブジェクトモデルの幅及び高さのうち少なくとも1つの大きさを調整する大きさ調整部をさらに備えることを特徴とする請求項1乃至7のいずれか一項に記載のオブジェクト認識装置。
- 前記分類ツリーは、前記可視オブジェクトパートの確率値及び前記隠しオブジェクトパートの確率値を含むことを特徴とする請求項1乃至8のいずれか一項に記載のオブジェクト認識装置。
- 前記分類ツリーは、前記可視オブジェクトパートと前記隠しオブジェクトパートの相対的深度値を含むことを特徴とする請求項1乃至8のいずれか一項に記載のオブジェクト認識装置。
- 前記分類ツリーは、前記隠しオブジェクトパートの少なくとも一部分を複数のレイヤに表現することを特徴とする請求項1乃至8のいずれか一項に記載のオブジェクト認識装置。
- オブジェクト認識装置が分析対象の可視オブジェクトパート及び隠しオブジェクトパートを認識するとき用いる分類ツリーを生成する分類ツリー学習装置において、
前記分析対象に関するトレーニングデータを用いて前記分類ツリーを生成する学習部を備えることを特徴とする分類ツリー学習装置。 - 前記学習部は、
仮想カメラを用いて前記分析対象の3次元オブジェクトモデルの複数のボクセルに向かって光線を出力する出力部と、
前記光線が前記3次元オブジェクトモデルの表面を透過する度毎に順次に映像レイヤを生成する映像レイヤ生成部と、
前記複数の各映像レイヤごとに前記光線が透過する表面のボクセルを識別子(Voxel ID)及び深度値(Depth Value)を収集し、前記収集したボクセルを識別子及び深度値を前記複数の映像レイヤそれぞれに格納する収集部と、
前記仮想カメラとの距離が最小である映像レイヤを前記可視オブジェクトパートに対するデータに設定し、残りの映像レイヤを前記隠しオブジェクトパートに対するデータに設定して前記トレーニングデータを生成するトレーニングデータ生成部と、
を備えることを特徴とする請求項12に記載の分類ツリー学習装置。 - 前記学習部は、
複数の特徴セットのいずれか1つの特徴を任意に選択する特徴選択部と、
前記選択した特徴を用いて前記可視オブジェクトパートに対するデータ及び前記隠しオブジェクトパートに対するデータを特徴空間に変換する特徴空間変換部と、
前記特徴空間の最小値と最大値の範囲内で閾値を任意に選択する閾値選択部と、
前記閾値、前記特徴空間、及び前記可視オブジェクトパートに対するデータをスプリット関数に入力し、前記可視オブジェクトパートに対するデータを左側可視オブジェクトパートに対するデータ及び右側可視オブジェクトパートに対するデータに分割し、前記隠しオブジェクトパートに対するデータを左側隠しオブジェクトパートに対するデータ及び右側隠しオブジェクトパートに対するデータに分割する分割部と、
前記左側可視オブジェクトパートに対するデータ、前記右側可視オブジェクトパートに対するデータ、前記左側隠しオブジェクトパートに対するデータ、及び前記右側隠しオブジェクトパートに対するデータに関する情報利益を演算する情報利益演算部と、
前記情報利益が最適基準範囲内である場合、前記分類ツリーの現在ノードに前記選択した特徴の値、前記閾値、前記左側可視オブジェクトパートに対するデータ、前記右側可視オブジェクトパートに対するデータ、前記左側隠しオブジェクトパートに対するデータ、及び前記右側隠しオブジェクトパートに対するデータを格納して前記学習された分類ツリーを生成する分類ツリー生成部と、
を備えることを特徴とする請求項12または13に記載の分類ツリー学習装置。 - 前記情報利益演算部は、
前記左側可視オブジェクトパートに対するデータ及び前記右側可視オブジェクトパートに対するデータの第1中間情報利益と、前記左側隠しオブジェクトパートに対するデータ及び前記右側隠しオブジェクトパートに対するデータの第2中間情報利益を演算し、
前記第1中間情報利益及び前記第2中間情報利益に基づいて前記情報利益を演算することを特徴とする請求項14に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記情報利益が前記最適基準範囲の外である場合、前記複数の特徴セットのいずれか1つの特徴を任意に再び選択し、前記閾値を任意に再び選択して前記現在ノードに対して前記分類ツリーの学習を再び行うように前記特徴選択部、前記特徴空間変換部、前記閾値選択部、前記分割部、及び前記情報利益演算部の動作を制御することを特徴とする請求項14または15に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記現在ノードが停止基準を満足するかを判断し、
前記現在ノードが前記停止基準を満足しなければ、前記左側可視オブジェクトパートに対するデータ及び前記左側隠しオブジェクトパートに対するデータを入力として左側子ノードを学習し、前記右側可視オブジェクトパートに対するデータ及び前記右側隠しオブジェクトパートに対するデータを入力として右側子ノードを学習し、
前記現在ノードが前記停止基準を満足すれば、前記現在ノードをリーフノードとして決定して前記分類ツリーを学習する動作を終了することを特徴とする請求項14乃至16のいずれか一項に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記現在ノードが前記リーフノードとして決定されれば、前記分析対象に対する複数のオブジェクトパートそれぞれが前記可視オブジェクトパートに決定される確率を表示する第1ヒストグラムを生成し、前記複数のオブジェクトパートそれぞれが前記隠しオブジェクトパートに決定される確率を表示する第2ヒストグラムを生成し、前記第1ヒストグラム及び前記第2ヒストグラムを前記現在ノードに格納することを特徴とする請求項14乃至17のいずれか一項に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記現在ノードが前記リーフノードとして決定されれば、前記可視オブジェクトパートに対する深度値と前記隠しオブジェクトパートに対する深度値との間の差値を示す相対的深度値を演算して前記現在ノードに格納することを特徴とする請求項14乃至17のいずれか一項に記載の分類ツリー学習装置。 - 分析対象に対する深度映像が入力されるステップと、
分類ツリーを用いて前記深度映像から前記分析対象の可視オブジェクトパート及び前記分析対象の隠しオブジェクトパートを認識するステップと、
を含むことを特徴とするオブジェクト認識装置の動作方法。 - オブジェクト認識装置が分析対象の可視オブジェクトパート及び隠しオブジェクトパートを認識するとき用いる分類ツリーを生成する分類ツリー学習装置の動作方法において、
前記分析対象に関するトレーニングデータを用いて前記分類ツリーを生成するステップを含むことを特徴とする分類ツリー学習装置の動作方法。 - プログラムが記録されたコンピュータで読み出し可能な記録媒体であって、
プロセッサによって前記プログラムが実行されると、請求項20または21に記載の方法を実行する、
コンピュータで読み出し可能な記録媒体。 - 前記処理部は、単一深度映像に基づいて前記可視オブジェクトパート及び前記隠しオブジェクトパートを認識することを特徴とする請求項1に記載のオブジェクト認識装置。
- 前記分類ツリーは、前記隠しオブジェクトパートの少なくとも一部分を複数のレイヤに表現し、
前記処理部は、前記リーフノードから複数の隠しオブジェクトヒストグラムを読み出し、前記複数の隠しオブジェクトヒストグラムに基づいて前記深度映像から少なくとも1つの隠しオブジェクトパートを認識することを特徴とする請求項7に記載のオブジェクト認識装置。 - 前記複数の隠しオブジェクトヒストグラムは、人体の筋肉を表現する隠しオブジェクトヒストグラム、人体の骨格を表現する隠しオブジェクトヒストグラム、人体の内装を表現する隠しオブジェクトヒストグラム、人体の心血管を表現する隠しオブジェクトヒストグラム、人体の神経系を表現する隠しオブジェクトヒストグラムのうち少なくとも1つを含むことを特徴とする請求項24に記載のオブジェクト認識装置。
- 前記学習部は、前記分類ツリーの複数のノードそれぞれのための可視及び隠しオブジェクトパートを考慮し、前記分析対象に関するトレーニングデータを用いて前記分類ツリーを生成することを特徴とする請求項12に記載の分類ツリー学習装置
- 分類ツリーを取得するステップであり、前記分類ツリーは、前記分類ツリーの複数のノードそれぞれのための可視及び隠しオブジェクトパートを考慮して学習されるステップと、
前記分類ツリー及びオブジェクトの深度映像に基づいて前記オブジェクトの可視オブジェクトパートと隠しオブジェクトパートを認識するステップと、
を含むことを特徴とするオブジェクト認識方法。 - 前記分類ツリーの複数のノードそれぞれのための可視及び隠しオブジェクトパートを考慮した学習によって前記分類ツリーを生成するステップをさらに含むことを特徴とする請求項27に記載のオブジェクト認識方法。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0003585 | 2012-01-11 | ||
KR20120003585 | 2012-01-11 | ||
KR20120006181 | 2012-01-19 | ||
KR10-2012-0006181 | 2012-01-19 | ||
KR1020120106183A KR101919831B1 (ko) | 2012-01-11 | 2012-09-25 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
KR10-2012-0106183 | 2012-09-25 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552125A Division JP6357421B2 (ja) | 2012-01-11 | 2013-01-09 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017208126A true JP2017208126A (ja) | 2017-11-24 |
JP6522060B2 JP6522060B2 (ja) | 2019-05-29 |
Family
ID=48993724
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552125A Active JP6357421B2 (ja) | 2012-01-11 | 2013-01-09 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
JP2017146234A Active JP6522060B2 (ja) | 2012-01-11 | 2017-07-28 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552125A Active JP6357421B2 (ja) | 2012-01-11 | 2013-01-09 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9508152B2 (ja) |
EP (1) | EP2804111B1 (ja) |
JP (2) | JP6357421B2 (ja) |
KR (1) | KR101919831B1 (ja) |
CN (1) | CN103890752B (ja) |
WO (1) | WO2013105783A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474793B2 (en) * | 2013-06-13 | 2019-11-12 | Northeastern University | Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching |
US10228242B2 (en) | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
US9600897B2 (en) * | 2013-10-31 | 2017-03-21 | Nec Corporation | Trajectory features and distance metrics for hierarchical video segmentation |
KR102271853B1 (ko) * | 2014-03-21 | 2021-07-01 | 삼성전자주식회사 | 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체 |
US9842274B2 (en) * | 2014-03-28 | 2017-12-12 | Xerox Corporation | Extending data-driven detection to the prediction of object part locations |
KR101982258B1 (ko) * | 2014-09-19 | 2019-05-24 | 삼성전자주식회사 | 오브젝트 검출 방법 및 오브젝트 검출 장치 |
CN105760390B (zh) * | 2014-12-17 | 2021-09-28 | 富泰华工业(深圳)有限公司 | 图片检索系统及方法 |
US9471836B1 (en) * | 2016-04-01 | 2016-10-18 | Stradvision Korea, Inc. | Method for learning rejector by forming classification tree in use of training images and detecting object in test images, and rejector using the same |
US10373319B2 (en) | 2016-06-13 | 2019-08-06 | International Business Machines Corporation | Object tracking with a holographic projection |
DE112016007098T5 (de) * | 2016-07-26 | 2019-04-18 | Hewlett-Packard Development Company, L.P. | Indexierung von voxeln für das 3d-drucken |
WO2018128424A1 (ko) * | 2017-01-04 | 2018-07-12 | 가이아쓰리디 주식회사 | 3차원 지리 정보 시스템 웹 서비스를 제공하는 방법 |
US11681910B2 (en) | 2017-07-28 | 2023-06-20 | Sony Interactive Entertainment Inc. | Training apparatus, recognition apparatus, training method, recognition method, and program |
KR102440385B1 (ko) * | 2017-11-28 | 2022-09-05 | 영남대학교 산학협력단 | 멀티 인식모델의 결합에 의한 행동패턴 인식방법 및 장치 |
CN108154104B (zh) * | 2017-12-21 | 2021-10-15 | 北京工业大学 | 一种基于深度图像超像素联合特征的人体姿态估计方法 |
KR101862677B1 (ko) * | 2018-03-06 | 2018-05-31 | (주)휴톰 | 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램 |
US11127189B2 (en) | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
GB2571307B (en) * | 2018-02-23 | 2020-10-21 | Canon Kk | 3D skeleton reconstruction from images using volumic probability data |
US10650233B2 (en) * | 2018-04-25 | 2020-05-12 | International Business Machines Corporation | Identifying discrete elements of a composite object |
US11423615B1 (en) * | 2018-05-29 | 2022-08-23 | HL Acquisition, Inc. | Techniques for producing three-dimensional models from one or more two-dimensional images |
KR101949727B1 (ko) * | 2018-07-02 | 2019-02-19 | 한화시스템 주식회사 | 객체간 링크 생성 시스템 및 이의 동작 방법 |
WO2020068104A1 (en) * | 2018-09-28 | 2020-04-02 | Hewlett-Packard Development Company, L.P. | Generating spatial gradient maps for a person in an image |
KR102280201B1 (ko) * | 2018-11-23 | 2021-07-21 | 주식회사 스칼라웍스 | 머신 러닝을 이용하여 은닉 이미지를 추론하는 방법 및 장치 |
WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
US11651621B2 (en) * | 2019-10-23 | 2023-05-16 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device |
US11741670B2 (en) * | 2021-03-01 | 2023-08-29 | Samsung Electronics Co., Ltd. | Object mesh based on a depth image |
US11785196B2 (en) * | 2021-09-28 | 2023-10-10 | Johnson Controls Tyco IP Holdings LLP | Enhanced three dimensional visualization using artificial intelligence |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100303302A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Systems And Methods For Estimating An Occluded Body Part |
US20110293180A1 (en) * | 2010-05-28 | 2011-12-01 | Microsoft Corporation | Foreground and Background Image Segmentation |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000068660A (ko) * | 1997-07-29 | 2000-11-25 | 요트.게.아. 롤페즈 | 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 |
US7536044B2 (en) | 2003-11-19 | 2009-05-19 | Siemens Medical Solutions Usa, Inc. | System and method for detecting and matching anatomical structures using appearance and shape |
JP2005165791A (ja) | 2003-12-03 | 2005-06-23 | Fuji Xerox Co Ltd | 対象物の追跡方法及び追跡システム |
US20070053563A1 (en) | 2005-03-09 | 2007-03-08 | Zhuowen Tu | Probabilistic boosting tree framework for learning discriminative models |
JP4767718B2 (ja) | 2006-02-24 | 2011-09-07 | 富士フイルム株式会社 | 画像処理方法および装置ならびにプログラム |
US20090002489A1 (en) | 2007-06-29 | 2009-01-01 | Fuji Xerox Co., Ltd. | Efficient tracking multiple objects through occlusion |
US7925081B2 (en) | 2007-12-12 | 2011-04-12 | Fuji Xerox Co., Ltd. | Systems and methods for human body pose estimation |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
CN102016877B (zh) | 2008-02-27 | 2014-12-10 | 索尼计算机娱乐美国有限责任公司 | 用于捕获场景的深度数据并且应用计算机动作的方法 |
KR20090093119A (ko) | 2008-02-28 | 2009-09-02 | 홍익대학교 산학협력단 | 움직이는 객체 추적을 위한 다중 정보의 융합 방법 |
JP4889668B2 (ja) | 2008-03-05 | 2012-03-07 | 三菱電機株式会社 | 物体検出装置 |
JP5212007B2 (ja) * | 2008-10-10 | 2013-06-19 | 株式会社リコー | 画像分類学習装置、画像分類学習方法、および画像分類学習システム |
EP2249292A1 (en) | 2009-04-03 | 2010-11-10 | Siemens Aktiengesellschaft | Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot |
KR101109568B1 (ko) | 2009-04-13 | 2012-01-31 | 한양대학교 산학협력단 | 행동유발성 확률모델을 이용한 로봇의 행동 선택 방법 |
CN101989326B (zh) * | 2009-07-31 | 2015-04-01 | 三星电子株式会社 | 人体姿态识别方法和装置 |
JP2011059898A (ja) | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
US8665268B2 (en) | 2009-09-22 | 2014-03-04 | Siemens Aktiengesellschaft | Image data and annotation processing system |
KR101068465B1 (ko) | 2009-11-09 | 2011-09-28 | 한국과학기술원 | 삼차원 물체 인식 시스템 및 방법 |
US8446492B2 (en) | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
KR101671488B1 (ko) | 2009-12-18 | 2016-11-01 | 에스케이텔레콤 주식회사 | 문맥상 사라진 특징점의 복원을 통한 물체 인식 방법 |
KR101077788B1 (ko) | 2010-01-18 | 2011-10-28 | 한국과학기술원 | 이미지 내의 물체 인식 방법 및 장치 |
EP2383696A1 (en) | 2010-04-30 | 2011-11-02 | LiberoVision AG | Method for estimating a pose of an articulated object model |
EP2386998B1 (en) | 2010-05-14 | 2018-07-11 | Honda Research Institute Europe GmbH | A Two-Stage Correlation Method for Correspondence Search |
KR20110133677A (ko) * | 2010-06-07 | 2011-12-14 | 삼성전자주식회사 | 3d 영상 처리 장치 및 그 방법 |
-
2012
- 2012-09-25 KR KR1020120106183A patent/KR101919831B1/ko active IP Right Grant
-
2013
- 2013-01-09 CN CN201380003629.5A patent/CN103890752B/zh active Active
- 2013-01-09 WO PCT/KR2013/000174 patent/WO2013105783A1/ko active Application Filing
- 2013-01-09 EP EP13735721.6A patent/EP2804111B1/en active Active
- 2013-01-09 JP JP2014552125A patent/JP6357421B2/ja active Active
- 2013-01-09 US US14/345,563 patent/US9508152B2/en active Active
-
2016
- 2016-10-18 US US15/296,624 patent/US10163215B2/en active Active
-
2017
- 2017-07-28 JP JP2017146234A patent/JP6522060B2/ja active Active
-
2018
- 2018-12-18 US US16/223,580 patent/US10867405B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100303302A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Systems And Methods For Estimating An Occluded Body Part |
US20110293180A1 (en) * | 2010-05-28 | 2011-12-01 | Microsoft Corporation | Foreground and Background Image Segmentation |
Non-Patent Citations (1)
Title |
---|
JONATHAN SHADE,LAYERED DEPTH IMAGES: "Layered Depth Images", SIGGRAPH '98 PROCEEDINGS OF THE 25TH ANNUAL CONFERENCE ON COMPUTER GRAPHICS AND INTERACTIVE TECHNIQU, JPN7018003166, 1998, US, pages 231 - 242, XP058331815, DOI: doi:10.1145/280814.280882 * |
Also Published As
Publication number | Publication date |
---|---|
EP2804111B1 (en) | 2020-06-24 |
JP6522060B2 (ja) | 2019-05-29 |
KR101919831B1 (ko) | 2018-11-19 |
US20190122385A1 (en) | 2019-04-25 |
WO2013105783A1 (ko) | 2013-07-18 |
US20150023557A1 (en) | 2015-01-22 |
JP6357421B2 (ja) | 2018-07-11 |
US10163215B2 (en) | 2018-12-25 |
US10867405B2 (en) | 2020-12-15 |
JP2015505108A (ja) | 2015-02-16 |
EP2804111A1 (en) | 2014-11-19 |
CN103890752A (zh) | 2014-06-25 |
KR20130082425A (ko) | 2013-07-19 |
CN103890752B (zh) | 2017-05-10 |
EP2804111A4 (en) | 2016-03-23 |
US20170039720A1 (en) | 2017-02-09 |
US9508152B2 (en) | 2016-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6522060B2 (ja) | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 | |
Kamel et al. | Deep convolutional neural networks for human action recognition using depth maps and postures | |
CN103718175B (zh) | 检测对象姿势的设备、方法和介质 | |
Ar et al. | A computerized recognition system for the home-based physiotherapy exercises using an RGBD camera | |
Simo-Serra et al. | A joint model for 2d and 3d pose estimation from a single image | |
US9058663B2 (en) | Modeling human-human interactions for monocular 3D pose estimation | |
CN110073369A (zh) | 时间差分模型的无监督学习技术 | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
Kumar et al. | Indian sign language recognition using graph matching on 3D motion captured signs | |
Vejdemo-Johansson et al. | Cohomological learning of periodic motion | |
Papadopoulos et al. | Human action recognition using 3d reconstruction data | |
Haggag et al. | Semantic body parts segmentation for quadrupedal animals | |
Kumar et al. | Early estimation model for 3D-discrete indian sign language recognition using graph matching | |
Muhamada et al. | Review on recent computer vision methods for human action recognition | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
JP6579353B1 (ja) | 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置 | |
Devanne | 3d human behavior understanding by shape analysis of human motion and pose | |
Neskorodieva et al. | Real-time Classification, Localization and Tracking System (Based on Rhythmic Gymnastics) | |
Tong | Cross-modal learning from visual information for activity recognition on inertial sensors | |
Zhao | Video Understanding: A Predictive Analytics Perspective | |
Ray et al. | PressureTransferNet: Human Attribute Guided Dynamic Ground Pressure Profile Transfer using 3D simulated Pressure Maps | |
Zong | Evaluation of Training Dataset and Neural Network Architectures for Hand Pose Estimation in Real Time | |
Vähämäki | Real-time climbing pose estimation using a depth sensor | |
Habibie | Learning-based 3D human motion capture and animation synthesis | |
Okechukwu et al. | A Less Convoluted Approach to 3D Pose Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6522060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |