JP6494253B2 - 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム - Google Patents
物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム Download PDFInfo
- Publication number
- JP6494253B2 JP6494253B2 JP2014233135A JP2014233135A JP6494253B2 JP 6494253 B2 JP6494253 B2 JP 6494253B2 JP 2014233135 A JP2014233135 A JP 2014233135A JP 2014233135 A JP2014233135 A JP 2014233135A JP 6494253 B2 JP6494253 B2 JP 6494253B2
- Authority
- JP
- Japan
- Prior art keywords
- partial
- distance
- region
- local
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 101
- 238000004590 computer program Methods 0.000 title claims description 3
- 238000000034 method Methods 0.000 claims description 40
- 238000000605 extraction Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000010354 integration Effects 0.000 description 36
- 238000012545 processing Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/693—Acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
人物の顔が見えないような状況からでも人物を検出することのできる技術として、例えば非特許文献2に開示される技術が提案されている。この非特許文献2に提案されている方法は、画像から画素値の勾配方向のヒストグラムを抽出し、それを特徴量(HOG(Histogram of Oriented Gradients)特徴量)として用い、画像中の部分領域が人物か否かを判定するものである。すなわち、画素値の勾配の方向という特徴量によって人体の輪郭を表現し、人物の検出さらには特定人物の認識に利用している。
すなわち、本発明のある態様によれば、取得された画像から、複数の部分領域を抽出する抽出手段と、抽出された前記部分領域中の画素ごとの距離を取得する距離取得手段と、前記部分領域が所定の物体を含むか否かを識別する識別手段と、前記識別手段により前記所定の物体を含むと識別された部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定する判定手段と、統合すると判定された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出する統合手段と、を具備する物体検出装置が提供される。
上記の構成によれば、取得された画像中の画素ごとの距離を用いて入力画像中の複数の部分領域の識別結果を統合するか否かを判断しているので、画像中で複数の物体が重畳している場合でも、これら重畳している複数の物体を統合して同一物体と同定してしまうおそれを低減することができる。
なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
なお、本明細書及び請求の範囲において、物体の「検出」とは検出対象の物体であるか否かを検出することをいい、例えば検出すべき物体が画像中の人物であれば、当該画像中に複数の人物がいる場合に各個体を区別することなく、画像中に何人の人がいるかを検出する場合等がこれに該当する。他方、画像中の各個体を他の個体から区別すること(例えば特定の人物(A氏、B氏など)を区別すること)は、物体の「認識」と一般に称される。また、検出対象が人物以外の物体(例えば動物、自動車、建物等の任意の物体)の場合にも同様にこれらの概念を適用することができる。
以下、本実施形態では、画像から検出すべき物体が人物であって、人物の頭部及び肩を包含する部分を人体として検出する例につき説明する。しかしながら、本実施形態を適用可能な検出対象物体は人物(人体)に限定されず、後述するパターン照合用モデルを対象物体に適合させることにより他のあらゆる被写体に適用可能であることは当業者に容易に理解され得る。
画像取得部100及び画像取得部200は、外部に設けられるカメラ等の撮像手段により撮像された画像データをそれぞれ取得し、距離取得部300及び領域抽出部400に取得された画像データを供給する。或いは、画像取得部100及び画像取得部200がカメラ等の撮像手段(画像入力装置)として構成され、画像を撮像するとともに図1の後段に設けられた距離取得部300及び領域抽出部400に画像データを供給してもよい。
距離取得部300は、画像取得部100及び画像取得部200でそれぞれ取得された画像データに基づき、画像取得手段100で取得した画像データ中の各画素に対応する距離を取得し、人体識別部500及び領域統合部600に供給する。距離取得部300は、請求の範囲の距離取得手段の一例に相当する。
物体検出装置10により検出された画像中の人物は、さらに後段で特定人物として認識されてよい。このような認識を行う認識部は、請求の範囲の認識手段の一例に相当する。物体検出装置10と、このような認識部と、を具備する画像認識装置は、請求の範囲の画像認識装置の一例に相当する。
図2は、図1の人体識別部500の詳細構成を示す。図2に示すように、本実施形態に係る人体識別部500は、隠れ領域推定部510と、特徴抽出部520と、パターン照合部530とを備える。
隠れ領域推定部510には、領域抽出部400から入力される部分領域画像と、距離取得部300から入力される距離とが入力され、領域抽出部400により抽出された部分領域画像中に、当該部分領域が人物の画像か否かの判定を行うために、隠れ領域を推定する。この「隠れ領域」とは、特徴抽出部520による人物検出のための局所特徴量の算出に用いられない領域であって、例えば、検出対象人物と画像上で重畳する前景の物体(例えば、人物)により隠されている検出対象人物の領域であってよい。隠れ領域推定部510は、この隠れ領域を推定する際に、距離画像取得部300により取得された距離画像を利用する。すなわち、本実施形態において隠れ領域推定部510は、隠れ領域の推定を、距離に基づき行い、この推定された隠れ領域は人物の検出に用いられない。隠れ領域推定部510は、請求の範囲の推定手段の一例に相当する。
なお、特徴抽出部520は、隠れ領域推定部510により推定される隠れ領域を用いて、さらに画像中の背景領域を除いて特徴量を算出してもよく、人物に該当する領域の輪郭の特徴量のみを算出してもよく、これらを上記と適宜組み合わせて算出してもよい。
図3は、図1の領域統合部600の詳細構成を示す。図3に示すように、本実施形態に係る領域統合部600は、同一人物判定部610と、部分領域統合部620とを備える。
同一人物判定部610には、人体識別部500から入力される人体識別結果と、距離取得部300から入力される距離とが入力され、互いに重複する複数の部分領域画像が同一人物か否かを、距離を利用して判定し、異なる人物であると判断された部分領域同士は統合されないよう指令する信号を、部分領域統合部620に出力する。同一人物判定部610は、請求の範囲の判定手段の一例に相当する。
このように同一人物判定部610及び部分領域統合部620を構成すれば、異なる複数の人物が一人の人物として同定されることが有効に防止され、人物の検出漏れや誤検出が低減できる。
以下、本実施形態に係る物体検出装置10の動作を図4に示す処理フローチャートに従って説明する。 まず、画像取得部100及び画像取得部200は撮像された画像データを取得する。取得した画像データは、それぞれ画像取得部100及び画像取得部200の内部のメモリに、又は記憶部800に記憶される(ステップS100)。
なお、ここで画像取得部100及び画像取得部200により取得される画像を撮影するシーンでは、ほぼ完全に重複するように撮像手段の視野が調整されている。また、画像取得部100及び画像取得部200にそれぞれ入力される2つの画像を撮像する2つの撮像手段は、所定の距離間隔をあけて、左右に並んで配置されてよい。これによって、いわゆるステレオ視による距離計測を行うことができ、距離のデータ(距離画像)を取得することが可能となる。
本実施形態においては、距離データの取得はステレオマッチングの原理に基づいて行われてよい。すなわち、画像取得部100により取得された画像データのそれぞれの画素に対応する画像取得部200の画素位置をパターンマッチングによって求め、その視差ずれ量の2次元分布を距離画像として得ることができる。
なお、距離の取得はこの方法だけに限定されず、例えば、符号化パターンを投光して距離画像を得るパターン投光方式や、光の飛行時間をもとに距離をセンサで測るTime−Of−Flight(TOF)方式に依ってもよい。取得された距離画像は距離取得部300の内部メモリ又は記憶部800に記憶される。
このとき、画像取得部100により取得された画像及び複数の縮小画像について順次、画像の上左端から下右端まで所定サイズの部分領域を所定量だけ位置をずらして切り出すようにする。すなわち、取得された画像中から様々な位置及び倍率の物体を検出できるように、画像中網羅的に部分領域を抽出する。例えば、部分領域の縦横90%がオーバーラップするように切り出し位置をシフトしていけばよい。
ステップS510において、すべての部分領域が処理されたか否かが判断され、全ての部分領域が処理されるまで(ステップS510Y)、ステップS400及びS500の処理が画像中の部分領域毎に順次繰り返して行われる。
領域統合部600は、人体識別部500により人物であると判定された部分領域画像が複数重なる場合に検出結果を統合する(ステップS600)。この領域統合処理の詳細については後述する。結果出力部700は、領域統合部600により統合された人体識別結果を出力する(ステップS700)。
次に、図5を参照して、人体識別部500が実行する人体識別処理の詳細動作を説明する。
まず、人体識別部500は、人体識別処理対象とする部分領域画像の基準距離を、距離取得部300から取得する(ステップS510)。ここで部分領域画像の「基準距離」とは、部分領域画像中の基準となる位置に対応する距離である。
図6は、画像取得部100により取得された画像データの例を示す。図6において、部分領域R1,R2は矩形であってよく、図6には部分領域R1、R2のみが示されているが、上述したように、互いに縦横方向、共にある程度、例えば90%程度オーバーラップするように多数配置されてよい。例えば、部分領域群は、隣接する部分領域とオーバーラップしながら、画像データ中を網羅的に設定されてよい。
図7では、この部分領域R1中で、斜線部分の局所ブロックL23に対応する距離を上述した基準距離とする。例えば図7に示すように、人物であろうと推定される物体の頭部にあたる部分の距離を、基準距離とすることができる。なお、上述のように、本実施形態では、まずオメガ型形状等のモデルを用いて、人物と思われる領域から頭部や肩の検出を行っているので、その頭部や肩部がちょうど部分領域に囲まれるような位置にあるように部分領域が設定され、図7に示すように、頭部に該当するような大きさになるように基準距離を取得するための局所ブロックの大きさが設定されてよい。他の物体のモデルを採用する場合は、局所ブロックの大きさはそのモデルに合わせて設定されればよい。
d0=1÷s0 (式1)
但し、s0は距離取得部300から得られる図7の斜線部分の局所ブロックL23の視差ずれ量であり、s0>0となる値である。なお、s0は、図7の斜線部分の局所ブロックL23に対応する距離画像中の代表視差ずれ量であってよい。この代表視差ずれ量とは、この局所ブロックL23の中心画素の視差ずれ量、又は、その局所ブロックL23内画素の平均視差ずれ量、のいずれかであってよいが、これに限定されず、他の統計的手法で求めた値でもよい。
隠れ領域推定部510は、ステップS510、及び、ステップS530において、それぞれ取得された基準距離と局所距離とを比較し、S520で設定された局所ブロックが隠れ領域であるかどうかを推定する(ステップS540)。具体的には、基準距離をd0、局所距離をd1とするとき、以下の式2が成り立つ場合に、当該処理対象の局所領域を隠れ領域と判定する。
d0―d1>dT1 (式2)
但し、dT1は予め定めた閾値であり、例えば人物が検出対象の場合、おおよそ人物の体の厚みに対応する値であってよい。上述したように、本実施形態における距離とは、いわば正規化された距離であるので、このdT1もまた、正規化された人体の厚みに相当する値であってよい。ステップS540で局所ブロックが隠れ領域と判定された場合は、特徴抽出部520は、特徴抽出処理を行わないで、例えば、特徴量の値に替えて‘0’を出力する(ステップS550)。
以上説明したステップS520からステップS560までの処理が、画像中の局所ブロック毎に順次繰り返して行われる(ステップS570)。全ての局所ブロックに対する処理が終了後(ステップS570Y)、ステップS580に処理が移行する。
なお、人体識別処理の手法はSVMによるパターン照合に限定されず、例えば非特許文献1で用いられているアダブースト学習にもとづくカスケード型識別器を利用することもできる。
次に、図11を参照して、領域統合部600が実行する分部領域統合処理の動作を説明する。
領域統合部600は、人物であるとして検出された複数の部分領域から、重複する検出結果を統合する処理を実行する。まず、同一人物判定部610は、ステップS500で得られた検出結果のリストから一つの検出結果を、人物領域として取得する(ステップS610)。
次に、同一人物判定部610は、ステップS610で取得した検出結果の位置座標から対応する部分領域の距離を距離取得部300から取得する(ステップS620)。この距離の取得は、図5に示したステップS510と同様にして行うことができる。
k×S1>S2 (式3)
但し、S1は2つの部分領域が重なっている部分の面積、S2は2つの部分領域のどちらかのみに属する部分の面積であり、kは予め定めた定数である。すなわち、重なっている部分が所定割合より多ければ、これらが重複していると判断する。
同一人物判定部610は、ステップS630で取得した部分領域の距離を距離取得部300から取得する(ステップS640)。この距離の取得はステップS620と同様にして行うことができる。
abs(d2―d3)<dT2 (式4)
但し、dT2は予め定めた閾値であり、例えば検出対象が人物の場合、おおよそ人物の厚みに対応する値であってよい。また、abs( )は絶対値演算を表す。
例えば、図12の破線で表した矩形R20がステップS610で取得された部分領域とし、同じく破線で表した矩形R21がステップS630で取得された部分領域であると仮定する。この場合、両部分領域の距離を比較して同一人物かどうかを判定する。図13の距離画像1301を参照すると、上記式4に従い、距離の差が所定値内にあるとして、同一人物であると判定できる。
なお、重複する2つの部分領域のそれぞれの距離として、所定位置の局所ブロックに対応する距離を用いたが、本実施形態はこれに限定されない。例えば、部分領域内の各ブロックの距離を求めて、その平均値、あるいは、中間値、最頻値等を用いるようにしてもよい。また、人物であると判断した局所特徴量を算出した局所ブロックの距離の平均値を用いてもよい。
また、本実施形態では、距離を利用して互いに重複する部分領域が同一人物を捉えているのか、別人物なのかを判断し、別人物と判断した場合には、重複する部分領域を一律に統合する処理を回避することができるので、混雑した状況下においても精度よく人物を検出することができる。
以上、画像から人物を検出する場合に本発明を適用する例について説明したが、照合に用いるパターンを人物以外の物体に適合させれば、画像中に撮像可能なあらゆる物体を検出対象とすることができる。
また、上記では前景物体により隠される後景物体を検出する例を説明したがこれに限定されず、例えば、距離を利用して、後景物体と重畳して輪郭抽出が困難な前景物体の検出に適用することもできるし、背景画像から検出対象物体を有効に検出することもできる。
本発明は、上述した1つ乃至複数のうちのいくつかの効果を有する。
100、200 画像取得部
300 距離取得部
400 領域検出部
500 人体識別部
510 隠れ領域推定部
520 特徴抽出部
530 パターン照合部
600 領域統合部
610 同一人物判定部
620 部分領域統合部
700 結果出力部
800 記憶部
Claims (18)
- 取得された画像から、複数の部分領域を抽出する抽出手段と、
抽出された前記部分領域中の画素ごとの距離を取得する距離取得手段と、
前記部分領域が所定の物体を含むか否かを識別する識別手段と、
前記識別手段により前記所定の物体を含むと識別された部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定する判定手段と、
統合すると判定された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出する統合手段と、
を具備することを特徴とする物体検出装置。 - 前記判定手段は、前記所定の物体を含むと識別された部分領域に対応する距離と、該部分領域と重複する部分領域に対応する距離とを比較して、双方の距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域中の物体が同一であると判定することを特徴とする請求項1に記載の物体検出装置。
- 抽出された前記部分領域内に複数の局所領域を設定する設定手段と、
前記距離に基づいて、前記複数の部分領域中で、所定の物体を含む領域を推定する推定手段と、
前記推定手段が推定した結果に基づいて、前記部分領域内の前記局所領域の局所特徴量を算出する算出手段とをさらに具備し、
前記識別手段は、算出された前記局所特徴量に基づいて、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項1に記載の物体検出装置。 - 前記推定手段は、前記部分領域中の基準となる位置に設定された基準距離と、前記局所領域について取得された距離とを比較して、双方の距離の差分が所定の閾値以下の場合に、前記局所領域が前記所定の物体を含むと推定することを特徴とする請求項3に記載の物体検出装置。
- 前記推定手段は、前記距離に基づいて、前記部分領域中で、前記所定の物体が該物体に重畳する前景物体により隠される局所領域を推定し、
前記算出手段は、前記部分領域内の前記局所領域のうち、前記隠される局所領域と推定された局所領域からは前記局所特徴量を算出しないことを特徴とする請求項3又は4に記載の物体検出装置。 - 前記算出手段は、前記推定手段が推定した結果に基づいて、前記局所領域中の検出対象の物体の輪郭の領域の局所特徴量を算出することを特徴とする請求項3から5のいずれか1項に記載の物体検出装置。
- 前記識別手段は、算出された前記局所特徴量から特徴ベクトルを生成し、生成された前記特徴ベクトルと、各局所領域について予め設定された重み係数とをパターン照合することにより、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項3から6のいずれか1項に記載の物体検出装置。
- 前記距離は、取得された前記画像を撮像した撮像装置から撮像された対象物までの奥行き方向の距離であることを特徴とする請求項1から7のいずれか1項に記載の物体検出装置。
- 請求項1から8のいずれか1項に記載の物体検出装置と、
前記取得された画像から検出された前記物体を認識する認識手段と、
を具備することを特徴とする画像認識装置。 - 取得された所定の画像から、複数の部分領域を抽出するステップと、
抽出された前記部分領域中の画素ごとの距離を取得するステップと、
前記部分領域が所定の物体を含むか否かを識別するステップと、
前記所定の物体を含むと識別された前記部分領域のうち、互いに重複する複数の部分領域のそれぞれに対応する距離を比較して、距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域の識別結果を統合すると判定するステップと、
統合すると判定判断された前記複数の部分領域の識別結果を統合し、統合された前記複数の部分領域の識別結果から検出対象の物体を検出するステップと、
を含むことを特徴とする物体検出方法。 - 前記判定するステップにおいて、前記所定の物体を含むと識別された部分領域に対応する距離と、該部分領域と重複する部分領域に対応する距離とを比較して、双方の距離の差分が所定の閾値より小さい場合に、前記互いに重複する複数の部分領域中の物体が同一であると判定することを特徴とする請求項10に記載の物体検出方法。
- 抽出された前記部分領域内に複数の局所領域を設定するステップと、
前記距離に基づいて、前記複数の部分領域中で、所定の物体を含む領域を推定するステップと、
推定された前記結果に基づいて、前記部分領域内の前記局所領域の局所特徴量を算出するステップとを含み、
前記識別するステップでは、算出された前記局所特徴量に基づいて、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項10に記載の物体検出方法。 - 前記推定するステップにおいて、前記部分領域中の基準となる位置に設定された基準距離と、前記局所領域について取得された距離とを比較して、双方の距離の差分が所定の閾値以下の場合に、前記局所領域が前記所定の物体を含むと推定することを特徴とする請求項12に記載の物体検出方法。
- 前記推定するステップにおいて、前記距離に基づいて、前記部分領域中で、前記所定の物体が該物体に重畳する前景物体により隠される局所領域を推定し、
前記算出するステップにおいて、前記部分領域内の前記局所領域のうち、前記隠される局所領域と推定された局所領域からは前記局所特徴量を算出しないことを特徴とする請求項12又は13に記載の物体検出方法。 - 前記算出するステップにおいて、推定された前記結果に基づいて、前記局所領域中の検出対象の物体の輪郭の領域の局所特徴量を算出することを特徴とする請求項12から14のいずれか1項に記載の物体検出方法。
- 前記識別するステップにおいて、算出された前記局所特徴量から特徴ベクトルを生成し、生成された前記特徴ベクトルと、各局所領域について予め設定された重み係数とをパターン照合することにより、前記部分領域が前記所定の物体を含むか否かを識別することを特徴とする請求項12から15のいずれか1項に記載の物体検出方法。
- 前記距離は、取得された前記画像を撮像した撮像装置から撮像された対象物までの奥行き方向の距離であることを特徴とする請求項10から16のいずれか1項に記載の物体検出方法。
- コンピュータが読み込み実行することで、前記コンピュータを請求項1から8のいずれか1項に記載の物体検出装置の各部として機能させるコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014233135A JP6494253B2 (ja) | 2014-11-17 | 2014-11-17 | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム |
US14/941,360 US20160140399A1 (en) | 2014-11-17 | 2015-11-13 | Object detection apparatus and method therefor, and image recognition apparatus and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014233135A JP6494253B2 (ja) | 2014-11-17 | 2014-11-17 | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016095808A JP2016095808A (ja) | 2016-05-26 |
JP6494253B2 true JP6494253B2 (ja) | 2019-04-03 |
Family
ID=55961986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014233135A Active JP6494253B2 (ja) | 2014-11-17 | 2014-11-17 | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160140399A1 (ja) |
JP (1) | JP6494253B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803056B (zh) * | 2015-11-26 | 2020-11-06 | 华为技术有限公司 | 一种肢体关系的估计方法及装置 |
JP6732522B2 (ja) * | 2016-05-02 | 2020-07-29 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN107545221A (zh) * | 2016-06-28 | 2018-01-05 | 北京京东尚科信息技术有限公司 | 婴儿踢被识别方法、系统及装置 |
JP6655513B2 (ja) * | 2016-09-21 | 2020-02-26 | 株式会社日立製作所 | 姿勢推定システム、姿勢推定装置、及び距離画像カメラ |
JP6943092B2 (ja) * | 2016-11-18 | 2021-09-29 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム |
JP6896401B2 (ja) * | 2016-11-25 | 2021-06-30 | 東芝テック株式会社 | 物品認識装置 |
JP2018092507A (ja) * | 2016-12-07 | 2018-06-14 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6851246B2 (ja) * | 2017-04-25 | 2021-03-31 | セコム株式会社 | 物体検出装置 |
CN107355161B (zh) * | 2017-06-28 | 2019-03-08 | 比业电子(北京)有限公司 | 用于全高式屏蔽门的安全保护装置 |
CN107301408B (zh) * | 2017-07-17 | 2020-06-23 | 成都通甲优博科技有限责任公司 | 人体掩膜提取方法及装置 |
EP3704558A4 (en) * | 2017-11-01 | 2021-07-07 | Nokia Technologies Oy | DEEP CONSCIOUS OBJECT COUNTING |
JP7253872B2 (ja) * | 2017-12-01 | 2023-04-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7094702B2 (ja) * | 2018-01-12 | 2022-07-04 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム |
EP3543189B1 (en) | 2018-03-19 | 2022-07-27 | Otis Elevator Company | Elevator car operation based on its occupancy |
JP7344660B2 (ja) * | 2018-03-30 | 2023-09-14 | キヤノン株式会社 | 視差算出装置、視差算出方法及び視差算出装置の制御プログラム |
CN108509914B (zh) * | 2018-04-03 | 2022-03-11 | 华录智达科技有限公司 | 基于tof摄像机的公交客流统计分析系统及方法 |
US11281926B2 (en) * | 2018-06-04 | 2022-03-22 | Denso Corporation | Feature extraction method and apparatus |
US11055539B2 (en) * | 2018-09-27 | 2021-07-06 | Ncr Corporation | Image processing for distinguishing individuals in groups |
CN110956609B (zh) * | 2019-10-16 | 2023-08-04 | 京东科技信息技术有限公司 | 一种对象数量确定方法、装置、电子设备以及可读介质 |
CN115552460A (zh) * | 2020-05-22 | 2022-12-30 | 富士胶片株式会社 | 图像数据处理装置及图像数据处理系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4391624B2 (ja) * | 1999-06-16 | 2009-12-24 | 本田技研工業株式会社 | 物体認識装置 |
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
JP2009211311A (ja) * | 2008-03-03 | 2009-09-17 | Canon Inc | 画像処理装置及び方法 |
JP5287392B2 (ja) * | 2009-03-17 | 2013-09-11 | トヨタ自動車株式会社 | 物体識別装置 |
JP5653003B2 (ja) * | 2009-04-23 | 2015-01-14 | キヤノン株式会社 | オブジェクト識別装置及びオブジェクト識別方法 |
US8611604B2 (en) * | 2009-06-03 | 2013-12-17 | Chubu University Educational Foundation | Object detection device |
JP2011165170A (ja) * | 2010-01-15 | 2011-08-25 | Toyota Central R&D Labs Inc | 対象物検出装置及びプログラム |
JP5394967B2 (ja) * | 2010-03-29 | 2014-01-22 | セコム株式会社 | 対象物検知装置 |
JP5870871B2 (ja) * | 2012-08-03 | 2016-03-01 | 株式会社デンソー | 画像処理装置及び、当該画像処理装置を用いた車両制御システム |
JP6587435B2 (ja) * | 2015-06-29 | 2019-10-09 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
-
2014
- 2014-11-17 JP JP2014233135A patent/JP6494253B2/ja active Active
-
2015
- 2015-11-13 US US14/941,360 patent/US20160140399A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20160140399A1 (en) | 2016-05-19 |
JP2016095808A (ja) | 2016-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6494253B2 (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
JP7130368B2 (ja) | 情報処理装置および情報処理システム | |
US10885372B2 (en) | Image recognition apparatus, learning apparatus, image recognition method, learning method, and storage medium | |
US12062251B2 (en) | Device and method with image matching | |
US10417773B2 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
JP4241763B2 (ja) | 人物認識装置及びその方法 | |
US9092662B2 (en) | Pattern recognition method and pattern recognition apparatus | |
US10506174B2 (en) | Information processing apparatus and method for identifying objects and instructing a capturing apparatus, and storage medium for performing the processes | |
JP6032921B2 (ja) | 物体検出装置及びその方法、プログラム | |
JP5675229B2 (ja) | 画像処理装置及び画像処理方法 | |
JP5271227B2 (ja) | 群衆監視装置および方法ならびにプログラム | |
JP2009143722A (ja) | 人物追跡装置、人物追跡方法及び人物追跡プログラム | |
JP6157165B2 (ja) | 視線検出装置及び撮像装置 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
JP7354767B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
US20210142064A1 (en) | Image processing apparatus, method of processing image, and storage medium | |
TWI624806B (zh) | 物體追蹤裝置及物體追蹤方法 | |
JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
KR20060121503A (ko) | 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법 | |
JP6555940B2 (ja) | 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法 | |
WO2020166129A1 (ja) | 状態認識装置 | |
JP5748548B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190305 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6494253 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |