JP6127958B2 - 情報処理装置、情報処理方法、並びにプログラム - Google Patents
情報処理装置、情報処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP6127958B2 JP6127958B2 JP2013262011A JP2013262011A JP6127958B2 JP 6127958 B2 JP6127958 B2 JP 6127958B2 JP 2013262011 A JP2013262011 A JP 2013262011A JP 2013262011 A JP2013262011 A JP 2013262011A JP 6127958 B2 JP6127958 B2 JP 6127958B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- object detection
- pixel
- information processing
- pattern irradiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 136
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 291
- 230000008569 process Effects 0.000 claims description 261
- 238000012545 processing Methods 0.000 claims description 229
- 238000001514 detection method Methods 0.000 claims description 185
- 238000004364 calculation method Methods 0.000 claims description 96
- 238000000605 extraction Methods 0.000 claims description 68
- 238000004458 analytical method Methods 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims 1
- 238000010801 machine learning Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/446—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
これは、2つの異なる位置から撮影した2枚の画像の対応点を解析し、この対応点情報に基づいてカメラから被写体までの距離(デプス)を算出するものである。
ステレオカメラを用いた距離計測について開示した従来技術として、例えば特許文献1(特開2004−132759号公報)がある。
パターンの照射により、特徴点に基づく対応点の検出が容易となり、被写体距離を高精度に算出することが可能となる。
例えば撮影画像から人の指の検出を行う場合は、人の指の特徴を検出するために、様々なパターンを持つフィルタを適用した処理が行われる。
このフィルタを適用した被写体検出処理を行なう場合、上述した外部から照射されるパターンは、逆に正確なフィルタによるオブジェクト検出の妨げとなる。
異なる視点から撮影した画像の解析を実行するデータ処理部を有し、
前記データ処理部は、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行する情報処理装置にある。
(a)複数の異なる視点のパターン照射画像の入力、および入力した複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理、
(b)パターン照射なし画像の入力、および入力したパターン照射なし画像を適用したオブジェクト検出処理、
上記(a),(b)の各処理を交互に実行する。
異なる視点から撮影した画像の解析を実行するデータ処理部を有し、
前記データ処理部は、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行する情報処理装置にある。
情報処理装置において実行する情報処理方法であり、
データ処理部が、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行する情報処理方法にある。
情報処理装置において実行する情報処理方法であり、
データ処理部が、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行する情報処理方法にある。
情報処理装置において情報処理を実行させるプログラムであり、
データ処理部に、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行させるプログラムにある。
情報処理装置において情報処理を実行させるプログラムであり、
データ処理部に、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行させるプログラムにある。
具体的には、異なる視点から撮影したパターン照射画像を適用したオブジェクト距離算出処理と、パターン照射なし画像を適用したオブジェクト検出処理を実行する。データ処理部は、パターン照射画像からパターン画像を減算する画像変換により、パターン照射なし画像を生成し、生成したパターン照射なし画像を適用したオブジェクト検出処理を実行する。あるいは、パターン照射画像を適用したオブジェクト距離算出処理と、パターン照射なし画像を適用したオブジェクト検出処理を交互に実行する。
本構成により、特定オブジェクトの検出処理と距離算出処理の2つの処理を高精度に実行する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
1.本開示の情報処理装置の実行する処理の概要について
2.本開示の情報処理装置の第1実施例について
2A.オブジェクト距離算出処理について
2B.オブジェクト検出処理について
2B−1.学習処理部の特徴量抽出部が実行する処理について
2B−2.機械学習部の実行する処理について
2B−3.認識処理部の実行する処理について
3.本開示の情報処理装置の第2実施例について
4.本開示の情報処理装置の第3実施例について
5.情報処理装置の構成例について
6.本開示の構成のまとめ
まず、図1以下を参照して本開示の情報処理装置が実行する処理の概要について説明する。
本開示の情報処理装置は、複数の異なる位置に設置されたカメラの撮影画像を入力し、カメラ撮影画像の解析に基づいて、以下の各処理を実行する。
(a)撮影画像内の特定のオブジェクトの距離を算出する「特定オブジェクト距離算出処理」
(b)撮影画像内に特定のオブジェクトが含まれるか否かを判定する「特定オブジェクト検出処理」
これら(a),(b)の各処理を実行する。
図1(a)は、ボード21上に人の指30があり、指30がボード21に接触(タッチ)している状態を示している。
なお、指30は、随時、移動し、ボード21に接触していない離れた状態になる場合や、ボード21から離れて、ボード21上には存在しなくなる場合もある。
一方、カメラR12はボード21の中心部から見て右上部の位置に固定され、ボード21の平面を右上部から撮影する。
ボード21上に指30が存在する場合は、指30を含む画像をそれぞれ左上部、および右上部から撮影する。
パターン照射部13が、被写体であるボード21や指30に特定のパターン、例えばドットパターンナやボロノイパターンを照射するために設けられている。
ただし、画像内に特定オブジェクト(指)があるか否かを判定するオブジェクト検出処理においては、この照射パターンが邪魔になることがある。
パターン照射あり画像51は、パターン照射部13からパターンを照射して撮影された画像である。
パターン照射なし画像52は、パターン照射部13からパターンを照射しないで撮影された画像である。
LR画像ともほぼ同様の画像となる。
しかし、画像内に特定オブジェクト(指)があるか否かを判定するオブジェクト検出処理においては、パターン照射なし画像52を利用した方が検出精度を高めることができる。
図に示すように、パターン照射あり画像51には、実オブジェクトではないパターンが含まれ、オブジェクト認識にとってこれらのパターンが邪魔になるからである。
例えば撮影画像に含まれる人の指を検出しようとする場合、人の指の特徴を検出するために、様々なパターンを持つフィルタを適用した処理が行われる。
具体的には、例えば、指と背景領域との境界領域に出現する画像パターンをフィルタ適用処理によって撮影画像から検出する処理を実行する。
このフィルタを適用した被写体検出処理を行なう場合、上述した外部から照射されるパターンは、フィルタによるオブジェクト検出の妨げとなる。
以下、これらの処理の複数の実施例について、順次、説明する。
また、撮影画像が動画である場合は、例えば各撮影フレーム単位、あるいは、予め規定した所定フレーム間隔でオブジェクトの距離算出と検出処理を実行する。
次に、本開示の情報処理装置の第1実施例について説明する。
まず、図2に示すフローチャートを参照して本開示の情報処理装置の実行する処理シーケンスの一例について説明する。
(a)撮影画像内の特定のオブジェクトの距離を算出する「特定オブジェクト距離算出処理」
(b)撮影画像内に特定のオブジェクトが含まれるか否かを判定する「特定オブジェクト検出処理」
これら(a),(b)の各処理を実行する。
(ステップS101)
まず、情報処理装置は、パターン照射部13によるパターン照射を実行し、カメラL11とカメラR12の2つの異なる位置に設定されたカメラによって、パターン照射画像を撮影し入力する。
ステップS102の処理と、ステップS103〜S104の処理は並列に実行可能である。
ステップS102の処理は、ステップS101で撮影したパターン照射LR画像を利用したオブジェクト距離算出処理である。
ここでは、指30のカメラからの距離を算出する。この距離算出においては、L画像とR画像の対応点を検出することが必要である。
この対応点検出を高精度に実行するために画像内のパターンが有効に利用される。
なお、本実施例では、オブジェクト距離算出は、対応点マッチングを利用したステレオ法を用いる。この具体的処理例については後述する。
ステップS103〜S104の処理は、撮影画像内から特定オブジェクトの検出を行う処理である。例えば、指30が画像に含まれるか否かを判定する。
なお、このオブジェクト検出処理は、L画像またはR画像のいずれか一方のみに対して実行しともよいし、2つの画像各々に対して実行してもよい。
ここでは、LR画像のいずれか一方の画像のみに対してオブジェクト検出を行う例について説明する。
パターン照射部13の照射するパターンは、既知のパターンであり、カメラによって撮影された画像から、既知パターンに応じて画素値の減算を実行してパターンなし画像を生成することができる。
次に、ステップS104において、ステップS103で生成したパターンなし画像を利用して撮影画像に特定オブジェクト、すなわち、本実施例では指が含まれるか否かのオブジェクト(指)検出処理を実行する。
この指検出処理には、予め蓄積した特徴量を示す学習データを利用する。この処理の具体的処理については、後段で説明する。
次に、情報処理装置は、ステップS105において、解析処理が終了したか否かを判定する。解析対象となる画像の入力がない場合には、処理終了と判定する。例えば、動画を撮影しながら予め規定したフレーム間隔ごとに解析を継続的に実行する場合には、図2に示すフローに従った処理を所定フレーム間隔ごとに繰り返し実行する。この場合には、ステップS105の判定はNoとなり、ステップS101に戻り、新たな入力画像に対して、ステップS101以下の解析処理を繰り返し実行する。
なお、ここで説明する実施例では、距離算出と、検出処理の対象となるオブジェクトは指である。
一方、オブジェクト検出は、パターン照射あり画像からパターン画像分を減算して生成したパターン照射なし画像を用いた処理を実行する。
これらの処理を行なうことで、オブジェクト距離算出も、オブジェクト検出処理のいずれも高精度な処理として実行可能となる。
次に、図2に示すフローのステップS102において実行するオブジェクト距離算出処理について説明する。
この距離算出は、既存のステレオ法を用いた処理である。これは2台以上のカメラを使って、その画像間の対応点を見つけることで視差を求め、距離を計測する方法である。
ステレオ法は複数のカメラを用いて2つ以上の視点(異なる視線方向)から同一対象物を撮影して得られる複数の画像における画素同士を対応づけることで測定対象物の三次元空間における位置を求めようとするものである。例えば基準カメラと参照カメラにより異なる複数視点から同一対象物を撮影して、それぞれの画像内の測定対象物の距離を三角測量の原理により測定する。
Pixel-basedマッチングとは、一方の画像における点の対応を、他方の画像でそのまま探索する方法である。
Area-basedマッチングとは、一方の画像における点の対応を、他方の画像で探す時、その点の周りの局所的な画像パターンを用いて探索する方法である。
Feature-basedマッチングとは、画像から濃淡エッジなどの特徴を抽出し、画像間の特徴だけを用いて対応付けを行う方法である。
(1)Pixel-basedマッチングとArea-basedマッチングは各々の画素に対して、対応点を探索するので、求められた距離画像は密である。一方、Feature-basedマッチングは、特徴点だけに対して、対応付けを行うので、得られた距離画像は疎である。
このパターン画像を用いた対応点検索処理を行なうことで、高精度の対応点マッチングが可能となり、高精度な距離算出が可能となる。
次に、図2に示すフローのステップS103〜S104において実行するオブジェクト検出処理について説明する。
ステップS103〜S104の処理は、撮影画像から特定オブジェクトの検出を行う処理である。例えば、指30が画像に含まれるか否かを判定する。
なお、このオブジェクト検出処理は、L画像またはR画像のいずれか一方のみに対して実行しともよいし、2つの画像各々に対して実行してもよい。
ここでは、LR画像のいずれか一方の画像のみに対してオブジェクト検出を行う例について説明する。
パターン照射部13の照射するパターンは、既知のパターンを有しており、カメラによって撮影された画像から、既知パターンに応じた画素値減算を伴う画素値補正を実行してパターンなし画像を生成する。
この指検出処理には、予め蓄積した特徴量を示す学習データを利用する。この処理の具体的処理について、以下説明する。
情報処理装置のオブジェクト検出処理部100は、学習処理部110と認識処理部120を有する。
学習処理部110は、画像入力部111、特徴量抽出部112、機械学習部113、認識辞書記憶部114を有する。
学習処理部110は、多数の画像を学習画像として入力し、学習画像に基づいて、認識処理部120が画像から特定オブジェクトを検出するために用いる認識辞書を生成する。生成した認識辞書は認識辞書記憶部114に格納される。
認識処理部120は、解析対象画像を入力して、特定オブジェクトの検出と位置判定を行なう。認識処理部120は、学習処理部110が学習データに基づいて生成し、認識辞書記憶部114に格納した認識辞書を用いて、特定オブジェクトの検出と位置判定を行なう。
図2を参照して説明したフローチャートのステップS104の処理は、この認識処理部120の実行する処理に相当する。
なお、学習処理に適用する画像は、当初からパターンを照射しないパターンなし画像を適用可能である。あるいは、図2に示すフローのステップS103と同様の処理を実行して、パターン照射あり画像から生成したパターンなし画像を用いて実行してもよい。
以下、図4に示す各処理部の実行する処理について、順次、説明する。
まず、図4に示す情報処理装置100の学習処理部110内の特徴量抽出部112が実行する処理について説明する。
学習処理部110は、画像入力部111から多数の撮影画像を学習画像として入力する。
学習画像は、例えば、図1(a)を参照して説明した撮影環境において撮影された多数の画像である。この学習画像には、例えば、以下の各状態の画像が各々多数含まれる。
(状態1)指30が撮影画像内に含まれる状態
(状態2)指30が撮影画像内に含まれない状態
なお、学習処理に際して入力する学習画像の各々には、各画像が上記のどの状態の画像であるかを示す属性情報(ラベル,タグ等)が設定されている。
垂直・水平方向フィルタは白から黒、または、黒から白へ変化する方向が垂直または水平方向の場合、斜め方向フィルタは白から黒、または、黒から白へ変化する方向が斜め方向の画素領域を効率的に抽出することができる。
垂直・水平方向フィルタは変化方向が垂直または水平方向の場合、斜め方向フィルタは、変化方向が斜め方向である画素領域を効率的に抽出することができる。
垂直・水平方向フィルタは変化方向が垂直または水平方向の場合、斜め方向フィルタは、変化方向が斜め方向である画素領域を効率的に抽出することができる。
図7は、図5(A)に示す1次微分フィルタの左上端に示す黒から白へ横方向に変化するフィルタ130を適用して、画像から同様の変化領域を持つ画素領域を抽出する処理例を説明する図である。
図7(B)は、図5(A)に示す1次微分フィルタの左上端に示す、黒から白へ横方向に変化するフィルタ130を適用したフィルタ演算を実行して得られる画像である。
フィルタ演算は、図に示すように以下の式に従って実行する。
また、I(xi,yi,si)の(xi,yi)は画素位置を示し、siは画像のスケールを意味する。iは、適用する画像のスケール識別子である。
I(xi,yi,si)はスケールsiの画像の画素位置(xi,yi)の画素値、例えば輝度を示す。
上記(式1)は、Gd,θによって定義されるフィルタと、画像の各画素値との畳み込み演算を実行する式である。
図7に示す例は、図5(A)に示す1次微分フィルタの左上端に示す黒から白へ横方向に変化するフィルタ130を適用したフィルタ演算の実行例である。
このフィルタ演算によって、図7(A)入力画像の画素値は図7(B)に示す画像のように変換される。
この画像の生成に適用するフィルタ演算は以下の式に示す演算である。
この画像の生成に適用するフィルタ演算は以下の式に示す演算である。
なお、特徴量(x)は各画素対応の値として算出される。
その他のフィルタについても同様の処理を実行して、各フィルタ対応の特徴量(x)を抽出し、抽出結果を図4に示す機械学習部113に出力する。
次に、図4に示す学習処理部110内の機械学習部113の実行する処理について説明する。
すなわち、オブジェクト(指)検出処理では、フィルタ適用によって得られた特徴量(x)が閾値より大きいか否かで、特定のオブジェクトが検出されたか否かを判定する。
個々の弱識別器のみでは十分な識別能力を発揮することはできないが、複数の弱識別器の識別結果を線形結合することで、より強い識別力を持つ識別器を構築することができる。
機械学習部113の実行する処理の1つは、各フィルタ対応の弱識別器によって得られた特徴量抽出結果を統合して、より強い識別器を生成することであり、認識処理部120において特定オブジェクト(指)の検出や位置判定に最適な特徴量の選択情報(スコア)を生成することである。
なお、図8以下では、画像内に指が含まれるか否かのオブジェクト検出処理を行なう場合の処理例について説明する。
fn(x)=an×g(x>thn)+bn ・・・(式4)
nはフィルタ識別子である。
スコアF(x)は、例えば次式(式5)で示される。
F(x)=Σfn(x) ・・・(式5)
指が含まれる画像、
指が含まれない画像、
これらの2種類のカテゴリに分類される画像を入力して、図5、図6を参照して説明したフィルタ1〜nを適用した判別結果を出力し、その出力結果に基づく統計学習を実行して、識別力の高い弱識別器を選択する処理を実行する。
この処理について、図9を参照して説明する。
(A)撮影画像中に識別対象オブジェクトである指が含まれる「指あり画像」
(B)撮影画像中に識別対象オブジェクトである指が含まれない「指なし画像」
これらの各画像を示している。
これらの学習画像は、上記(A),(B)のいずれであるかを示す属性情報(ラベル,タグ等)が設定された画像である。
なお、オブジェクト検出処理には、図5(a),(b)〜図6(c)に示す1次〜3次微分フィルタを用いる。
図10に、各学習画像に対してフィルタf1を適用した場合の特徴量(x)と度数との対応データを示す。
この度数分布データに示すように、ある程度の識別力がある場合は、指あり画像データの度数分布と、指なし画像データの度数分布は、異なる山を形成する。
図11(1)は、識別力の低い弱識別器(フィルタ)に基づく度数分布データの例を示している。
また、図11(2)は、識別力の高い弱識別器(フィルタ)に基づく度数分布データの例を示している。
このように、識別力の低い弱識別器(フィルタ)を適用すると、指あり画像と指なし画像を区別することが困難になり、識別力の高い弱識別器(フィルタ)を適用すると、指あり画像と指なし画像を区別することが容易となる。
図11(3)は、識別力の高い選択された複数の弱識別器(フィルタ)のみから算出したスコアの度数分布データの例を示している。
スコアの閾値は、例えばブースティングやサポート・ベクター、マシン(Support Vector Machine:SVM)などの統計学習器を用いた学習により決定する。
また、先に図8を参照して説明した各フィルタ(弱識別器)により判別結果を出力する関数fn1(x)、すなわち、
fn(x)=an×g(x>thn)+bn
上記式において利用されるパラメータan,bn,thnについても、この統計学習によって、識別レベルを高く設定するための最適値を算出する。
次に、図4に示す認識処理部120の実行する処理について説明する。
画像内に指が含まれるか否かの特定オブジェクト検出処理について説明する。
この処理は、図2に示すフローのステップS103〜S104の処理に相当する。
認識処理部120は、解析対象画像を入力して、特定オブジェクトの検出を行なう。認識処理部120は、学習処理部110が学習データに基づいて生成し、認識辞書記憶部114に格納した認識辞書を用いて、特定オブジェクトの検出を行なう。
この解析対象画像は、学習画像とは異なり、撮影画像中に指が含まれるか否かが不明な画像である。
なお、先に説明したように、指が存在するか否かの指検出処理には、L画像またはR画像の一方のみを使用してよい。
ただし、認識処理部120の特徴量抽出部122で適用するフィルタ(弱識別器)は、学習処理部110の学習結果によって、識別力が高いと判定されたフィルタのみを選択して実行する。
これらは、認識辞書記憶部114に格納されたフィルタ情報(タグ)に基づいて選択される。
また、各フィルタ(弱識別器)を用いて算出する特徴量(x)の算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thnについても、前述した学習処理部110の学習処理によって決定され、認識辞書記憶部114に格納された値を利用する。
まず、生成したパターン照射なし画像から、中間画像として積分画像を作成する。
生成したパターン照射なし画像に対して、直接、図7を参照して説明したフィルタ適用処理を実行してもよいが、中間画像として積分画像を生成し、積分画像に対してフィルタ適用を実行することで高速処理が可能となる。
なお、積分画像の生成処理と、積分画像を用いた特徴量算出の高速化処理については、本出願人の先の出願である特開2011−180792に記載されている。本開示の処理においても、この特許文献に記載されたと同様の処理手順に従って積分画像の生成と、積分画像を適用した特徴量算出を実行する。
ここで、適用するフィルタは識別レベルの高い選択されたフィルタ(弱識別器)である。
積分画像を用いることで、スキャン位置毎の矩形特徴を高速に計算することができる。
検出スコアが、予め設定した閾値以上に到達したときに、そのスキャン位置(x,y)で目的オブジェクト、本実施例では指が検出されたと判定する。
画像の左上から水平方向に順次スキャン処理を実行し、各画素点で個々の選択フィルタに基づく特徴量(x)を算出し、その後、選択フィルタ各々に基づいて算出された特徴量(x)を加算して各画素点に対応するスコアを算出する。
算出したスコアが、あらかじめ規定した閾値を超えたら目的オブジェクト(指)が検出されたと判定する。
従って、最終的に指が検出されたか否かを判定するためには、複数の画素位置のスコアを総合して評価する必要がある。
図14を参照してスコアの総合評価処理例について説明する。
図14には、画像に対するスキャン処理によって設定した各画素位置(画素位置1〜k)でのフィルタ適用処理を示す画像と、これら各画素位置で算出したスコア1〜スコアkを示している。
指が検出されると、これらの各画素位置でのスコアは高くなる。
総合スコア=スコア1+スコア2+・・・+スコアk
このように画像の各画素対応ののスコアを加算した値を総合スコアとし、総合スコアが予め設定した閾値以上である場合は、目的オブジェクト(指)が検出されたと判定する。
一方、オブジェクト検出処理については、パターン照射あり画像からパターン画像分を減算して生成したパターン照射なし画像を用いた処理を実行する。
これらの処理を行なうことで、オブジェクト距離算出も、オブジェクト検出処理のいずれも精度の高い処理として実行可能となる。
次に、本開示の情報処理装置の第2実施例について説明する。
図15に示すフローチャートを参照して本開示の情報処理装置の第2実施例の処理シーケンスについて説明する。
(a)撮影画像内の特定のオブジェクトの距離を算出する「特定オブジェクト距離算出処理」
(b)撮影画像内に特定のオブジェクトが含まれるか否かを判定する「特定オブジェクト検出処理」
これら(a),(b)の各処理を実行する。
(ステップS201)
まず、情報処理装置は、パターン照射状態で検出対象オブジェクトの無い状態の画像を撮影する。例えば図1において、検出対象オブジェクトが指30である場合、指30を撮影領域内に含ませずに、カメラL11とカメラR12で画像を撮影する。
連続するNフレームをそれぞれ撮影する。
次に、情報処理装置は、ステップS201で撮影したパターン照射画像に基づく背景モデル画像を生成する。具体的には、例えば撮影したNフレーム画像の平均画像を生成する。この平均画像を背景モデル画像とする。
以下のステップS203以下の処理が、背景メデル画像生成後に実行するオブジェクト検出処理である。
情報処理装置は、ステップS203において、オブジェクト検出処理の解析対象画像の撮影を行う。この画像には、検出対象となるオブジェクト(指)が含まれるか否かは不明である。
パターン照射部13によるパターン照射を実行し、カメラL11とカメラR12の2つの異なる位置に設定されたカメラによって撮影されたパターン照射画像を撮影して入力する。
ステップS204の処理と、ステップS205〜S206の処理は並列に実行可能である。
ステップS204の処理は、先に図2を参照して説明したフローのステップS102の処理と同様の処理であり、ステップS203で撮影したパターン照射LR画像を利用したオブジェクト距離算出処理である。
ここでは、指30のカメラからの距離を算出する。この距離算出においては、L画像とR画像の対応点を検出することが必要である。
この対応点検出を高精度に実行するために画像内のパターンが有効に利用される。
なお、本実施例では、オブジェクト距離算出は、対応点マッチングを利用したステレオ法を用いる。この具体的処理例については先に図3を参照して説明した通りである。
ステップS205〜S206の処理は、撮影画像内から特定オブジェクトの検出を行う処理である。例えば、指30が画像に含まれるか否かを判定する。
なお、このオブジェクト検出処理は、L画像またはR画像のいずれか一方のみに対して実行しともよいし、2つの画像各々に対して実行してもよい。
こでは、LR画像のいずれか一方の画像のみに対してオブジェクト検出を行う例について説明する。
この処理により、背景モデルと同じ画像領域は画素値=0となり、特定オブジェクト(指)の画像領域のみに画素値が設定され、指領域のみに有効画素値が設定された画像(特定オブジェクト検出用画像)が生成される。
次に、ステップS206において、ステップS205で生成した特定オブジェクト検出用画像を利用して特定オブジェクト、すなわち指が含まれるか否かのオブジェクト(指)検出処理を実行する。
この指検出処理は、予め蓄積した特徴量を示す学習データを利用した処理であり、前述した実施例1において、図4〜図14を参照して説明した処理と同様の処理である。
次に、情報処理装置は、ステップS207において、解析処理が終了したか否かを判定する。解析対象となる画像の入力がない場合には、処理終了と判定する。例えば、動画を撮影しながら予め規定したフレーム間隔ごとに解析を継続的に実行する場合には、図15に示すフローに従った処理を所定フレーム間隔ごとに繰り返し実行する。この場合には、ステップS207の判定はNoとなり、ステップS201に戻り、新たな入力画像に対して、ステップS201以下の解析処理を繰り返し実行する。
オブジェクト距離算出については、異なる視点から撮影した2枚のパターン照射あり画像に基づくオブジェクト距離算出を実行する。
一方、オブジェクト検出処理は、事前に検出対象オブジェクトを含まないパターン照射背景モデル画像を生成し、パターン照射あり画像から背景モデル画像を減算して特定オブジェクト検出用画像を生成して、この特定オブジェクト検出用画像を利用してオブジェクト検出処理を実行する。
これらの処理を行なうことで、オブジェクト距離算出も、オブジェクト検出処理のいずれも高精度な処理として実行可能となる。
次に、本開示の情報処理装置の第3実施例について説明する。
図16に示すフローチャートを参照して本開示の情報処理装置の第2実施例の処理シーケンスについて説明する。
(a)撮影画像内の特定のオブジェクトの距離を算出する「特定オブジェクト距離算出処理」
(b)撮影画像内に特定のオブジェクトが含まれるか否かを判定する「特定オブジェクト検出処理」
これら(a),(b)の各処理を実行する。
(ステップS301)
まず、情報処理装置は、パターン照射部13によるパターン照射を実行し、カメラL11とカメラR12の2つの異なる位置に設定されたカメラによって、パターン照射画像を撮影し入力する。
ステップS302の処理は、ステップS301で撮影したパターン照射LR画像を利用したオブジェクト距離算出処理である。
ここでは、指30のカメラからの距離を算出する。この距離算出においては、L画像とR画像の対応点を検出することが必要である。
この対応点検出を高精度に実行するために画像内のパターンが有効に利用される。
なお、本実施例では、オブジェクト距離算出は、対応点マッチングを利用したステレオ法を用いる。この具体的処理例については後述する。
ステップS303〜S304の処理は、撮影画像内から特定オブジェクトの検出を行う処理である。例えば、指30が画像に含まれるか否かを判定する。
なお、このオブジェクト検出処理は、L画像またはR画像のいずれか一方のみに対して実行しともよいし、2つの画像各々に対して実行してもよい。
こでは、LR画像のいずれか一方の画像のみに対してオブジェクト検出を行う例について説明する。
次に、ステップS304において、ステップS303で入力したパターンなし画像を利用して撮影画像に特定オブジェクト、すなわち指が含まれるか否かのオブジェクト(指)検出処理を実行する。
この指検出処理には、予め蓄積した特徴量を示す学習データを利用する。この処理の具体的処理は、先に実施例1において図4〜図14を参照して説明した処理と同様の処理である。
次に、情報処理装置は、ステップS305において、解析処理が終了したか否かを判定する。解析対象となる画像の入力がない場合には、処理終了と判定する。例えば、動画を撮影しながら予め規定したフレーム間隔ごとに解析を継続的に実行する場合には、図2に示すフローに従った処理を所定フレーム間隔ごとに繰り返し実行する。この場合には、ステップS305の判定はNoとなり、ステップS301に戻り、新たな入力画像に対して、ステップS301以下の解析処理を繰り返し実行する。
実施例1との差異は、オブジェクト距離算出とオブジェクト検出処理を交互に実行する点である。
なお、ここで説明する実施例では、距離算出と、検出処理の対象となるオブジェクトは指である。
一方、オブジェクト検出処理については、パターン照射なし画像を用いた処理を実行する。
これらの処理を行なうことで、オブジェクト距離算出も、オブジェクト検出処理のいずれも高精度な処理として実行可能となる。
次に情報処理装置の構成例について説明する。
情報処理装置は、例えばPC等のコンピュータ装置によって構成可能である。
図17は、情報処理装置の機能構成を説明するブロック図である。
図18は、情報処理装置のハードウェア構成例を説明する図である。
情報処理装置180は、異なる視点からの画像を撮影するカメラL151、カメラR152と、パターン照射を実行するパターン照射部160の処理制御を行う処理制御部181を有する。
CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、先に説明した実施例に従った処理等を実行する。
CPU201が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 異なる視点から撮影した画像の解析を実行するデータ処理部を有し、
前記データ処理部は、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行する情報処理装置。
(a)複数の異なる視点のパターン照射画像の入力、および入力した複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理、
(b)パターン照射なし画像の入力、および入力したパターン照射なし画像を適用したオブジェクト検出処理、
上記(a),(b)の各処理を交互に実行する前記(1)に記載の情報処理装置。
前記データ処理部は、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行する情報処理装置。
データ処理部が、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行する情報処理方法。
データ処理部が、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行する情報処理方法。
データ処理部に、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行させるプログラム。
データ処理部に、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行させるプログラム。
具体的には、異なる視点から撮影したパターン照射画像を適用したオブジェクト距離算出処理と、パターン照射なし画像を適用したオブジェクト検出処理を実行する。データ処理部は、パターン照射画像からパターン画像を減算する画像変換により、パターン照射なし画像を生成し、生成したパターン照射なし画像を適用したオブジェクト検出処理を実行する。あるいは、パターン照射画像を適用したオブジェクト距離算出処理と、パターン照射なし画像を適用したオブジェクト検出処理を交互に実行する。
本構成により、特定オブジェクトの検出処理と距離算出処理の2つの処理を高精度に実行する装置、方法が実現される。
12 カメラR
21 ボード
30 指
51 L画像
52 R画像
100 情報処理装置
110 学習処理部
111 画像入力部
112 特徴量抽出部
113 機械学習部
114 認識辞書記憶部
120 認識処理部
121 画像入力部
122 特徴量抽出部
123 特定オブジェクト認識部
151 カメラL
152 カメラR
160 パターン照射部
180 情報処理装置
181 処理制御部
182 画像入力部
183 記憶部
184データ処理部
200 情報処理装置
201 CPU
202 ROM
203 RAM
204 バス
205 入出力インタフェース
206 入力部
207 出力部
208 記憶部
209 通信部
210 ドライブ
211 リムーバブルメディア
Claims (15)
- 異なる視点から撮影した画像の解析を実行するデータ処理部を有し、
前記データ処理部は、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行し、
前記オブジェクト検出処理は、
(a)パターン照射なし画像に対する複数の異なるフィルタを適用した特徴量抽出処理によるフィルタ単位の画素対応特徴量抽出処理、
(b)フィルタ単位の画素対応特徴量を、全適用フィルタについて加算した画素対応スコアの算出処理、
(c)画素対応スコアを、複数画素について加算した総合スコアの算出処理、
上記(a)〜(c)の処理によって算出した総合スコアに基づく特定オブジェクト検出処理である情報処理装置。 - 前記データ処理部は、
パターン照射画像からパターン画像を減算する画像変換により、パターン照射なし画像を生成し、生成したパターン照射なし画像を適用したオブジェクト検出処理を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
(a)複数の異なる視点のパターン照射画像の入力、および入力した複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理、
(b)パターン照射なし画像の入力、および入力したパターン照射なし画像を適用したオブジェクト検出処理、
上記(a),(b)の各処理を交互に実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記オブジェクト検出処理において、
前記パターン照射なし画像から特徴量を抽出する特徴量抽出処理と、
前記特徴量に基づいて、特定オブジェクトの位置判定処理を実行する特定オブジェクト認識処理を実行する請求項1〜3いずれかに記載の情報処理装置。 - 前記データ処理部は、
予め実行した学習処理において前記特定オブジェクトの検出状態と非検出状態との識別力が高いと判定したフィルタを選択的に適用して特徴量抽出を実行する請求項1〜4いずれかに記載の情報処理装置。 - 前記パターン照射画像は、赤外光パターンの照射画像である請求項1〜5いずれかに記載の情報処理装置。
- 異なる視点から撮影した画像の解析を実行するデータ処理部を有し、
前記データ処理部は、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行し、
前記オブジェクト検出処理は、
(a)特定オブジェクト検出用画像に対する複数の異なるフィルタを適用した特徴量抽出処理によるフィルタ単位の画素対応特徴量抽出処理、
(b)フィルタ単位の画素対応特徴量を、全適用フィルタについて加算した画素対応スコアの算出処理、
(c)画素対応スコアを、複数画素について加算した総合スコアの算出処理、
上記(a)〜(c)の処理によって算出した総合スコアに基づく特定オブジェクト検出処理である情報処理装置。 - 前記データ処理部は、
検出対象の含まれない画像を複数フレーム連続して撮影し、撮影した複数の画像を平均化して前記背景モデル画像を生成する請求項7に記載の情報処理装置。 - 前記データ処理部は、
前記オブジェクト検出処理において、
前記特定オブジェクト検出用画像から特徴量を抽出する特徴量抽出処理と、
前記特徴量に基づいて、特定オブジェクトの位置判定処理を実行する特定オブジェクト認識処理を実行する請求項7または8に記載の情報処理装置。 - 前記データ処理部は、
予め実行した学習処理において前記特定オブジェクトの検出状態と非検出状態との識別力が高いと判定したフィルタを選択的に適用して特徴量抽出を実行する請求項7〜9いずれかに記載の情報処理装置。 - 前記パターン照射画像は、赤外光パターンの照射画像である請求項7〜10いずれかに記載の情報処理装置。
- 情報処理装置において実行する情報処理方法であり、
データ処理部が、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行し、
前記オブジェクト検出処理は、
(a)パターン照射なし画像に対する複数の異なるフィルタを適用した特徴量抽出処理によるフィルタ単位の画素対応特徴量抽出処理、
(b)フィルタ単位の画素対応特徴量を、全適用フィルタについて加算した画素対応スコアの算出処理、
(c)画素対応スコアを、複数画素について加算した総合スコアの算出処理、
上記(a)〜(c)の処理によって算出した総合スコアに基づく特定オブジェクト検出処理である情報処理方法。 - 情報処理装置において実行する情報処理方法であり、
データ処理部が、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行し、
前記オブジェクト検出処理は、
(a)特定オブジェクト検出用画像に対する複数の異なるフィルタを適用した特徴量抽出処理によるフィルタ単位の画素対応特徴量抽出処理、
(b)フィルタ単位の画素対応特徴量を、全適用フィルタについて加算した画素対応スコアの算出処理、
(c)画素対応スコアを、複数画素について加算した総合スコアの算出処理、
上記(a)〜(c)の処理によって算出した総合スコアに基づく特定オブジェクト検出処理である情報処理方法。 - 情報処理装置において情報処理を実行させるプログラムであり、
データ処理部に、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
パターン照射なし画像を適用したオブジェクト検出処理を実行させ、
前記オブジェクト検出処理においては、
(a)パターン照射なし画像に対する複数の異なるフィルタを適用した特徴量抽出処理によるフィルタ単位の画素対応特徴量抽出処理、
(b)フィルタ単位の画素対応特徴量を、全適用フィルタについて加算した画素対応スコアの算出処理、
(c)画素対応スコアを、複数画素について加算した総合スコアの算出処理、
上記(a)〜(c)の処理によって算出した総合スコアに基づく特定オブジェクト検出処理を実行させるプログラム。 - 情報処理装置において情報処理を実行させるプログラムであり、
データ処理部に、
複数の異なる視点のパターン照射画像を適用したオブジェクト距離算出処理と、
検出対象の含まれない背景モデル画像を前記パターン照射画像から減算して生成した特定オブジェクト検出用画像を適用したオブジェクト検出処理を実行させ、
前記オブジェクト検出処理においては、
(a)特定オブジェクト検出用画像に対する複数の異なるフィルタを適用した特徴量抽出処理によるフィルタ単位の画素対応特徴量抽出処理、
(b)フィルタ単位の画素対応特徴量を、全適用フィルタについて加算した画素対応スコアの算出処理、
(c)画素対応スコアを、複数画素について加算した総合スコアの算出処理、
上記(a)〜(c)の処理によって算出した総合スコアに基づく特定オブジェクト検出処理を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262011A JP6127958B2 (ja) | 2013-12-19 | 2013-12-19 | 情報処理装置、情報処理方法、並びにプログラム |
US14/565,688 US10140509B2 (en) | 2013-12-19 | 2014-12-10 | Information processing for detection and distance calculation of a specific object in captured images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262011A JP6127958B2 (ja) | 2013-12-19 | 2013-12-19 | 情報処理装置、情報処理方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015118583A JP2015118583A (ja) | 2015-06-25 |
JP2015118583A5 JP2015118583A5 (ja) | 2016-02-04 |
JP6127958B2 true JP6127958B2 (ja) | 2017-05-17 |
Family
ID=53400571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013262011A Expired - Fee Related JP6127958B2 (ja) | 2013-12-19 | 2013-12-19 | 情報処理装置、情報処理方法、並びにプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10140509B2 (ja) |
JP (1) | JP6127958B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102286874B1 (ko) * | 2014-10-20 | 2021-08-09 | 한국전자통신연구원 | 다중 방향성 적분 이미지를 이용한 객체 검출 장치 및 방법 |
WO2018227514A1 (zh) * | 2017-06-16 | 2018-12-20 | 深圳市汇顶科技股份有限公司 | 指纹图像处理方法、光学指纹辨识系统及电子装置 |
JP6824833B2 (ja) * | 2017-06-23 | 2021-02-03 | 富士フイルム株式会社 | 距離データ生成システム、距離データ生成方法及びプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001194114A (ja) * | 2000-01-14 | 2001-07-19 | Sony Corp | 画像処理装置および画像処理方法、並びにプログラム提供媒体 |
JP2004132759A (ja) | 2002-10-09 | 2004-04-30 | Sony Corp | 三次元画像生成用データ撮像装置、および三次元画像生成用データ撮像方法、並びにコンピュータ・プログラム |
US7671843B2 (en) * | 2002-11-12 | 2010-03-02 | Steve Montellese | Virtual holographic input method and device |
US9760214B2 (en) * | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
JP4667912B2 (ja) * | 2005-03-09 | 2011-04-13 | 富士フイルム株式会社 | 判別器生成装置、判別器生成方法およびそのプログラム |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
JP5061767B2 (ja) * | 2006-08-10 | 2012-10-31 | 日産自動車株式会社 | 画像処理装置および画像処理方法 |
US20080252596A1 (en) * | 2007-04-10 | 2008-10-16 | Matthew Bell | Display Using a Three-Dimensional vision System |
JP4829855B2 (ja) * | 2007-09-04 | 2011-12-07 | キヤノン株式会社 | 画像投影装置及びその制御方法 |
JP5430572B2 (ja) * | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
JP5227629B2 (ja) * | 2008-03-25 | 2013-07-03 | 富士フイルム株式会社 | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム |
JP5423222B2 (ja) * | 2009-08-07 | 2014-02-19 | ソニー株式会社 | 位置検出装置および位置検出方法 |
US8989448B2 (en) * | 2011-03-22 | 2015-03-24 | Morpho, Inc. | Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program |
EP2689413A4 (en) * | 2011-03-25 | 2015-07-22 | Oblong Ind Inc | QUICK FINGER FINGER DETECTION TO INITIALIZE A VISION BASED HAND TRACER |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
US9317768B2 (en) * | 2012-09-25 | 2016-04-19 | Intel Corporation | Techniques for improved feature detection |
US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
-
2013
- 2013-12-19 JP JP2013262011A patent/JP6127958B2/ja not_active Expired - Fee Related
-
2014
- 2014-12-10 US US14/565,688 patent/US10140509B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10140509B2 (en) | 2018-11-27 |
JP2015118583A (ja) | 2015-06-25 |
US20150178934A1 (en) | 2015-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101870902B1 (ko) | 영상 처리 장치 및 영상 처리 방법 | |
KR100519782B1 (ko) | 스테레오 카메라를 이용한 사람 검출 방법 및 장치 | |
KR101636370B1 (ko) | 영상 처리 장치 및 방법 | |
CN109934847B (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
US20170308736A1 (en) | Three dimensional object recognition | |
CN104123529B (zh) | 人手检测方法及系统 | |
JP4429298B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
JP2010176380A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP5538868B2 (ja) | 画像処理装置、その画像処理方法及びプログラム | |
CN102063725B (zh) | 一种基于深度信息的多目标跟踪方法 | |
KR20110020718A (ko) | 타겟 분석 장치 및 방법 | |
JP6331761B2 (ja) | 判定装置、判定方法及び判定プログラム | |
JP2010157093A (ja) | 運動推定装置及びプログラム | |
KR20110021500A (ko) | 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치 | |
JP6127958B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
JP6098498B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
JP5217917B2 (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
JP4918615B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 | |
CN115272417A (zh) | 图像数据的处理方法、图像处理设备以及可读存储介质 | |
JP4674920B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
JP4449483B2 (ja) | 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム | |
JP2007257489A (ja) | 画像処理装置および画像処理方法 | |
Corneliu et al. | Real-time pedestrian classification exploiting 2D and 3D information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170327 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6127958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |