JP6522060B2 - オブジェクト認識装置、分類ツリー学習装置及びその動作方法 - Google Patents
オブジェクト認識装置、分類ツリー学習装置及びその動作方法 Download PDFInfo
- Publication number
- JP6522060B2 JP6522060B2 JP2017146234A JP2017146234A JP6522060B2 JP 6522060 B2 JP6522060 B2 JP 6522060B2 JP 2017146234 A JP2017146234 A JP 2017146234A JP 2017146234 A JP2017146234 A JP 2017146234A JP 6522060 B2 JP6522060 B2 JP 6522060B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- object part
- classification tree
- visible
- hidden
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 17
- 238000004458 analytical method Methods 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 31
- 230000008901 benefit Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 210000002356 skeleton Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Description
(例えば、Δ0.5である場合)
ii.分類ツリーのレベルが基準値以上である場合
(例えば、分類ツリーのレベルが25以上である場合)
iii.可視オブジェクトパートデータ及び隠しオブジェクトパートデータの量が基準値以下である場合
(例えば、データに属するボクセルの数が10個以下である場合)
分類ツリー生成部746は、現在ノードが停止基準を満足すると、現在ノードをリーフノードとして決定し、当該データセットに対して学習する動作を終了してもよい。可視オブジェクトパートの後に数回重畳した隠しオブジェクトパートがある場合、分類ツリー生成部746は、1つのリーフノードのうち隠しオブジェクトパートに対するヒストグラムを複数生成してもよい。再び説明すると、重畳したパートが数個ある場合、隠しオブジェクトパートは重畳した数だけ数個存在するが、分類ツリー生成部746は、隠しオブジェクトパートに対するヒストグラムを1つのリーフノードのうち複数生成することによって複数の隠しオブジェクトパートそれぞれに関する情報を格納してもよい。
121、122 学習ツリー
301、401、501 可視オブジェクトパート
302、402、502 隠しオブジェクトパート
Claims (6)
- オブジェクト認識装置が分析対象の可視オブジェクトパート及び隠しオブジェクトパートを認識するとき用いる分類ツリーを生成する分類ツリー学習装置において、
前記分析対象に関するトレーニングデータを用いて前記分類ツリーを生成する学習部を備え、
前記学習部は、
仮想カメラを用いて前記分析対象の3次元オブジェクトモデルの複数のボクセルに向かって光線を出力する出力部と、
前記光線が前記3次元オブジェクトモデルの表面を透過する度毎に順次に映像レイヤを生成する映像レイヤ生成部と、
前記複数の各映像レイヤごとに前記光線が透過する表面のボクセルを識別子(Voxel ID)及び深度値(Depth Value)を収集し、前記収集したボクセルを識別子及び深度値を前記複数の映像レイヤそれぞれに格納する収集部と、
前記仮想カメラとの距離が最小である映像レイヤを前記可視オブジェクトパートに対するデータに設定し、残りの映像レイヤを前記隠しオブジェクトパートに対するデータに設定して前記トレーニングデータを生成するトレーニングデータ生成部と、
複数の特徴セットのいずれか1つの特徴を任意に選択する特徴選択部と、
前記選択した特徴を用いて前記可視オブジェクトパートに対するデータ及び前記隠しオブジェクトパートに対するデータを特徴空間に変換する特徴空間変換部と、
前記特徴空間の最小値と最大値の範囲内で閾値を任意に選択する閾値選択部と、
前記閾値、前記特徴空間、及び前記可視オブジェクトパートに対するデータをスプリット関数に入力し、前記可視オブジェクトパートに対するデータを左側可視オブジェクトパートに対するデータ及び右側可視オブジェクトパートに対するデータに分割し、前記隠しオブジェクトパートに対するデータを左側隠しオブジェクトパートに対するデータ及び右側隠しオブジェクトパートに対するデータに分割する分割部と、
前記左側可視オブジェクトパートに対するデータ、前記右側可視オブジェクトパートに対するデータ、前記左側隠しオブジェクトパートに対するデータ、及び前記右側隠しオブジェクトパートに対するデータに関する情報利益を演算する情報利益演算部と、
前記情報利益が最適基準範囲内である場合、前記分類ツリーの現在ノードに前記選択した特徴の値、前記閾値、前記左側可視オブジェクトパートに対するデータ、前記右側可視オブジェクトパートに対するデータ、前記左側隠しオブジェクトパートに対するデータ、及び前記右側隠しオブジェクトパートに対するデータを格納して学習された分類ツリーを生成する分類ツリー生成部と、
を備え
前記分類ツリー生成部は、
前記現在ノードがリーフノードとして決定されれば、前記可視オブジェクトパートに対する深度値と前記隠しオブジェクトパートに対する深度値との間の差値を示す相対的深度値を演算して前記現在ノードに格納する、
ことを特徴とする分類ツリー学習装置。 - 前記情報利益演算部は、
前記左側可視オブジェクトパートに対するデータ及び前記右側可視オブジェクトパートに対するデータの第1中間情報利益と、前記左側隠しオブジェクトパートに対するデータ及び前記右側隠しオブジェクトパートに対するデータの第2中間情報利益を演算し、
前記第1中間情報利益及び前記第2中間情報利益に基づいて前記情報利益を演算する、
ことを特徴とする請求項1に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記情報利益が前記最適基準範囲の外である場合、前記複数の特徴セットのいずれか1つの特徴を任意に再び選択し、前記閾値を任意に再び選択して前記現在ノードに対して前記分類ツリーの学習を再び行うように前記特徴選択部、前記特徴空間変換部、前記閾値選択部、前記分割部、及び前記情報利益演算部の動作を制御することを特徴とする、
請求項1または2に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記現在ノードが停止基準を満足するかを判断し、
前記現在ノードが前記停止基準を満足しなければ、前記左側可視オブジェクトパートに対するデータ及び前記左側隠しオブジェクトパートに対するデータを入力として左側子ノードを学習し、前記右側可視オブジェクトパートに対するデータ及び前記右側隠しオブジェクトパートに対するデータを入力として右側子ノードを学習し、
前記現在ノードが前記停止基準を満足すれば、前記現在ノードをリーフノードとして決定して前記分類ツリーを学習する動作を終了する、
とを特徴とする請求項1乃至3のいずれか一項に記載の分類ツリー学習装置。 - 前記分類ツリー生成部は、
前記現在ノードが前記リーフノードとして決定されれば、前記分析対象に対する複数のオブジェクトパートそれぞれが前記可視オブジェクトパートに決定される確率を表示する第1ヒストグラムを生成し、前記複数のオブジェクトパートそれぞれが前記隠しオブジェクトパートに決定される確率を表示する第2ヒストグラムを生成し、前記第1ヒストグラム及び前記第2ヒストグラムを前記現在ノードに格納する、
ことを特徴とする請求項1乃至4のいずれか一項に記載の分類ツリー学習装置。 - 前記学習部は、前記分類ツリーの複数のノードそれぞれのための可視及び隠しオブジェクトパートを考慮し、前記分析対象に関するトレーニングデータを用いて前記分類ツリーを生成する、
ことを特徴とする請求項1に記載の分類ツリー学習装置。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0003585 | 2012-01-11 | ||
KR20120003585 | 2012-01-11 | ||
KR10-2012-0006181 | 2012-01-19 | ||
KR20120006181 | 2012-01-19 | ||
KR1020120106183A KR101919831B1 (ko) | 2012-01-11 | 2012-09-25 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
KR10-2012-0106183 | 2012-09-25 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552125A Division JP6357421B2 (ja) | 2012-01-11 | 2013-01-09 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017208126A JP2017208126A (ja) | 2017-11-24 |
JP6522060B2 true JP6522060B2 (ja) | 2019-05-29 |
Family
ID=48993724
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552125A Active JP6357421B2 (ja) | 2012-01-11 | 2013-01-09 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
JP2017146234A Active JP6522060B2 (ja) | 2012-01-11 | 2017-07-28 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552125A Active JP6357421B2 (ja) | 2012-01-11 | 2013-01-09 | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9508152B2 (ja) |
EP (1) | EP2804111B1 (ja) |
JP (2) | JP6357421B2 (ja) |
KR (1) | KR101919831B1 (ja) |
CN (1) | CN103890752B (ja) |
WO (1) | WO2013105783A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474793B2 (en) * | 2013-06-13 | 2019-11-12 | Northeastern University | Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching |
US9952042B2 (en) | 2013-07-12 | 2018-04-24 | Magic Leap, Inc. | Method and system for identifying a user location |
US9600897B2 (en) * | 2013-10-31 | 2017-03-21 | Nec Corporation | Trajectory features and distance metrics for hierarchical video segmentation |
KR102271853B1 (ko) | 2014-03-21 | 2021-07-01 | 삼성전자주식회사 | 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체 |
US9842274B2 (en) * | 2014-03-28 | 2017-12-12 | Xerox Corporation | Extending data-driven detection to the prediction of object part locations |
KR101982258B1 (ko) * | 2014-09-19 | 2019-05-24 | 삼성전자주식회사 | 오브젝트 검출 방법 및 오브젝트 검출 장치 |
CN105760390B (zh) * | 2014-12-17 | 2021-09-28 | 富泰华工业(深圳)有限公司 | 图片检索系统及方法 |
US9471836B1 (en) * | 2016-04-01 | 2016-10-18 | Stradvision Korea, Inc. | Method for learning rejector by forming classification tree in use of training images and detecting object in test images, and rejector using the same |
US10373319B2 (en) | 2016-06-13 | 2019-08-06 | International Business Machines Corporation | Object tracking with a holographic projection |
US10839598B2 (en) * | 2016-07-26 | 2020-11-17 | Hewlett-Packard Development Company, L.P. | Indexing voxels for 3D printing |
US11127201B2 (en) * | 2017-01-04 | 2021-09-21 | Gaia3D Inc. | Method for providing 3D GIS web services |
JP6911123B2 (ja) * | 2017-07-28 | 2021-07-28 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、認識装置、学習方法、認識方法及びプログラム |
KR102440385B1 (ko) * | 2017-11-28 | 2022-09-05 | 영남대학교 산학협력단 | 멀티 인식모델의 결합에 의한 행동패턴 인식방법 및 장치 |
CN108154104B (zh) * | 2017-12-21 | 2021-10-15 | 北京工业大学 | 一种基于深度图像超像素联合特征的人体姿态估计方法 |
KR101862677B1 (ko) * | 2018-03-06 | 2018-05-31 | (주)휴톰 | 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램 |
US11127189B2 (en) | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
GB2571307B (en) * | 2018-02-23 | 2020-10-21 | Canon Kk | 3D skeleton reconstruction from images using volumic probability data |
US10650233B2 (en) * | 2018-04-25 | 2020-05-12 | International Business Machines Corporation | Identifying discrete elements of a composite object |
US11423615B1 (en) * | 2018-05-29 | 2022-08-23 | HL Acquisition, Inc. | Techniques for producing three-dimensional models from one or more two-dimensional images |
KR101949727B1 (ko) * | 2018-07-02 | 2019-02-19 | 한화시스템 주식회사 | 객체간 링크 생성 시스템 및 이의 동작 방법 |
WO2020068104A1 (en) * | 2018-09-28 | 2020-04-02 | Hewlett-Packard Development Company, L.P. | Generating spatial gradient maps for a person in an image |
KR102280201B1 (ko) * | 2018-11-23 | 2021-07-21 | 주식회사 스칼라웍스 | 머신 러닝을 이용하여 은닉 이미지를 추론하는 방법 및 장치 |
WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
US11651621B2 (en) | 2019-10-23 | 2023-05-16 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device |
US11785196B2 (en) * | 2021-09-28 | 2023-10-10 | Johnson Controls Tyco IP Holdings LLP | Enhanced three dimensional visualization using artificial intelligence |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000068660A (ko) * | 1997-07-29 | 2000-11-25 | 요트.게.아. 롤페즈 | 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 |
US7536044B2 (en) | 2003-11-19 | 2009-05-19 | Siemens Medical Solutions Usa, Inc. | System and method for detecting and matching anatomical structures using appearance and shape |
JP2005165791A (ja) | 2003-12-03 | 2005-06-23 | Fuji Xerox Co Ltd | 対象物の追跡方法及び追跡システム |
US20070053563A1 (en) | 2005-03-09 | 2007-03-08 | Zhuowen Tu | Probabilistic boosting tree framework for learning discriminative models |
JP4767718B2 (ja) | 2006-02-24 | 2011-09-07 | 富士フイルム株式会社 | 画像処理方法および装置ならびにプログラム |
US20090002489A1 (en) | 2007-06-29 | 2009-01-01 | Fuji Xerox Co., Ltd. | Efficient tracking multiple objects through occlusion |
US7925081B2 (en) | 2007-12-12 | 2011-04-12 | Fuji Xerox Co., Ltd. | Systems and methods for human body pose estimation |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
EP2257911B1 (en) * | 2008-02-27 | 2018-10-10 | Sony Computer Entertainment America LLC | Methods for capturing depth data of a scene and applying computer actions |
KR20090093119A (ko) | 2008-02-28 | 2009-09-02 | 홍익대학교 산학협력단 | 움직이는 객체 추적을 위한 다중 정보의 융합 방법 |
JP4889668B2 (ja) | 2008-03-05 | 2012-03-07 | 三菱電機株式会社 | 物体検出装置 |
JP5212007B2 (ja) * | 2008-10-10 | 2013-06-19 | 株式会社リコー | 画像分類学習装置、画像分類学習方法、および画像分類学習システム |
EP2249292A1 (en) | 2009-04-03 | 2010-11-10 | Siemens Aktiengesellschaft | Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot |
KR101109568B1 (ko) | 2009-04-13 | 2012-01-31 | 한양대학교 산학협력단 | 행동유발성 확률모델을 이용한 로봇의 행동 선택 방법 |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
CN101989326B (zh) | 2009-07-31 | 2015-04-01 | 三星电子株式会社 | 人体姿态识别方法和装置 |
JP2011059898A (ja) | 2009-09-08 | 2011-03-24 | Fujifilm Corp | 画像解析装置、画像解析方法およびプログラム |
US8665268B2 (en) | 2009-09-22 | 2014-03-04 | Siemens Aktiengesellschaft | Image data and annotation processing system |
KR101068465B1 (ko) | 2009-11-09 | 2011-09-28 | 한국과학기술원 | 삼차원 물체 인식 시스템 및 방법 |
US8446492B2 (en) | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
KR101671488B1 (ko) | 2009-12-18 | 2016-11-01 | 에스케이텔레콤 주식회사 | 문맥상 사라진 특징점의 복원을 통한 물체 인식 방법 |
KR101077788B1 (ko) | 2010-01-18 | 2011-10-28 | 한국과학기술원 | 이미지 내의 물체 인식 방법 및 장치 |
EP2383696A1 (en) | 2010-04-30 | 2011-11-02 | LiberoVision AG | Method for estimating a pose of an articulated object model |
EP2386998B1 (en) | 2010-05-14 | 2018-07-11 | Honda Research Institute Europe GmbH | A Two-Stage Correlation Method for Correspondence Search |
US8625897B2 (en) * | 2010-05-28 | 2014-01-07 | Microsoft Corporation | Foreground and background image segmentation |
KR20110133677A (ko) * | 2010-06-07 | 2011-12-14 | 삼성전자주식회사 | 3d 영상 처리 장치 및 그 방법 |
-
2012
- 2012-09-25 KR KR1020120106183A patent/KR101919831B1/ko active IP Right Grant
-
2013
- 2013-01-09 US US14/345,563 patent/US9508152B2/en active Active
- 2013-01-09 EP EP13735721.6A patent/EP2804111B1/en active Active
- 2013-01-09 WO PCT/KR2013/000174 patent/WO2013105783A1/ko active Application Filing
- 2013-01-09 JP JP2014552125A patent/JP6357421B2/ja active Active
- 2013-01-09 CN CN201380003629.5A patent/CN103890752B/zh active Active
-
2016
- 2016-10-18 US US15/296,624 patent/US10163215B2/en active Active
-
2017
- 2017-07-28 JP JP2017146234A patent/JP6522060B2/ja active Active
-
2018
- 2018-12-18 US US16/223,580 patent/US10867405B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR101919831B1 (ko) | 2018-11-19 |
EP2804111B1 (en) | 2020-06-24 |
EP2804111A1 (en) | 2014-11-19 |
EP2804111A4 (en) | 2016-03-23 |
US9508152B2 (en) | 2016-11-29 |
US20190122385A1 (en) | 2019-04-25 |
WO2013105783A1 (ko) | 2013-07-18 |
JP2015505108A (ja) | 2015-02-16 |
US20170039720A1 (en) | 2017-02-09 |
KR20130082425A (ko) | 2013-07-19 |
CN103890752A (zh) | 2014-06-25 |
JP2017208126A (ja) | 2017-11-24 |
US10163215B2 (en) | 2018-12-25 |
US10867405B2 (en) | 2020-12-15 |
US20150023557A1 (en) | 2015-01-22 |
CN103890752B (zh) | 2017-05-10 |
JP6357421B2 (ja) | 2018-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6522060B2 (ja) | オブジェクト認識装置、分類ツリー学習装置及びその動作方法 | |
CN103718175B (zh) | 检测对象姿势的设备、方法和介质 | |
Grochow et al. | Style-based inverse kinematics | |
US9058663B2 (en) | Modeling human-human interactions for monocular 3D pose estimation | |
CN103093453B (zh) | 计算可改变实体的姿势和/或形状 | |
CN104508709A (zh) | 使用人体对对象进行动画化 | |
Vejdemo-Johansson et al. | Cohomological learning of periodic motion | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN110073369A (zh) | 时间差分模型的无监督学习技术 | |
Haggag et al. | Semantic body parts segmentation for quadrupedal animals | |
Kulkarni et al. | Nifty: Neural object interaction fields for guided human motion synthesis | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
JP6579353B1 (ja) | 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置 | |
Otberdout et al. | Hand pose estimation based on deep learning depth map for hand gesture recognition | |
JP6593830B1 (ja) | 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置 | |
JP2024042461A (ja) | 画像処理装置、学習装置、画像処理方法、及びプログラム | |
Zhao | Video Understanding: A Predictive Analytics Perspective | |
Buades et al. | Matching a human walking sequence with a VRML synthetic model | |
Zong | Evaluation of Training Dataset and Neural Network Architectures for Hand Pose Estimation in Real Time | |
Okechukwu et al. | A Less Convoluted Approach to 3D Pose Estimation | |
Vidal | Stochastic optimization and interactive machine learning for human motion analysis | |
Vähämäki | Real-time climbing pose estimation using a depth sensor | |
CN115966017A (zh) | 行为识别方法及装置 | |
Yoo | Motion pipeline: searching, editing, compact representation, and synthesis | |
Plantard et al. | Filtered Pose Graph for Efficient Kinect Pose Reconstru |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6522060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |