JP5227888B2 - 人物追跡方法、人物追跡装置および人物追跡プログラム - Google Patents
人物追跡方法、人物追跡装置および人物追跡プログラム Download PDFInfo
- Publication number
- JP5227888B2 JP5227888B2 JP2009123232A JP2009123232A JP5227888B2 JP 5227888 B2 JP5227888 B2 JP 5227888B2 JP 2009123232 A JP2009123232 A JP 2009123232A JP 2009123232 A JP2009123232 A JP 2009123232A JP 5227888 B2 JP5227888 B2 JP 5227888B2
- Authority
- JP
- Japan
- Prior art keywords
- head
- image
- measurement target
- target frame
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 88
- 238000001514 detection method Methods 0.000 claims description 195
- 238000004364 calculation method Methods 0.000 claims description 172
- 230000033001 locomotion Effects 0.000 claims description 120
- 238000005259 measurement Methods 0.000 claims description 88
- 238000003860 storage Methods 0.000 claims description 60
- 238000003384 imaging method Methods 0.000 claims description 4
- 235000019687 Lamb Nutrition 0.000 claims 1
- 238000011156 evaluation Methods 0.000 description 188
- 238000000605 extraction Methods 0.000 description 124
- 230000008569 process Effects 0.000 description 56
- 238000012545 processing Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 46
- 238000012937 correction Methods 0.000 description 29
- 230000010354 integration Effects 0.000 description 22
- 239000000284 extract Substances 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 9
- 238000012217 deletion Methods 0.000 description 8
- 230000037430 deletion Effects 0.000 description 8
- 239000012634 fragment Substances 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 7
- WMFYOYKPJLRMJI-UHFFFAOYSA-N Lercanidipine hydrochloride Chemical compound Cl.COC(=O)C1=C(C)NC(C)=C(C(=O)OC(C)(C)CN(C)CCC(C=2C=CC=CC=2)C=2C=CC=CC=2)C1C1=CC=CC([N+]([O-])=O)=C1 WMFYOYKPJLRMJI-UHFFFAOYSA-N 0.000 description 6
- 239000003086 colorant Substances 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
被計測空間を斜めに見下す位置に設置され被計測空間を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラによる撮影画像に写し込まれた人物頭部の寸法と撮影画像上の高さ位置との間の、統計的に平均的な対応関係を算出する対応関係算出ステップと、
上記カメラでの撮影により得られた複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれを表わす各画像データに基づいて、各計測対象フレーム画像上の頭部の位置および寸法を検出する頭部検出ステップと、
頭部検出ステップで検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、対応関係算出ステップで算出された上記の対応関係とに基づいて、頭部検出ステップで検出された今回の計測対象フレーム画像における頭部が、その過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であることの蓋然性を表わす運動特徴量を算出する運動特徴量算出ステップと、
運動特徴量算出ステップで算出された運動特徴量を用いて、今回の計測対象フレーム画像における頭部が、過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であるか否かを判別する同一人物判別ステップとを有することを特徴とする。
被計測空間を斜めに見下す位置に設置され被計測空間を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラによる撮影画像に写し込まれた人物頭部の寸法と撮影画像上の高さ位置との間の、統計的に平均的な対応関係を記憶した記憶部と、
上記カメラでの撮影により得られた複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれを表わす各画像データに基づいて、各計測対象フレーム画像上の頭部の位置および寸法を検出する頭部検出部と、
頭部検出部で検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、記憶部に記憶された上記の対応関係とに基づいて、頭部検出部で検出された今回の計測対象フレーム画像における頭部が、その過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であることの蓋然性を表わす運動特徴量を算出する運動特徴量算出部と、
運動特徴量算出部で算出された運動特徴量を用いて、今回の計測対象フレーム画像における頭部が、過去の計測対象フレーム画像上の頭部を持つ人物と同一人物の頭部であるか否かを判別する同一人物判別部とを備えたことを特徴とする。
被計測空間を斜めに見下す位置に設置され被計測空間を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラによる撮影画像に写し込まれた人物頭部の寸法と撮影画像上の高さ位置との間の、統計的に平均的な対応関係を記憶した記憶部と、
上記カメラでの撮影により得られた複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれを表わす各画像データに基づいて、各計測対象フレーム画像上の頭部の位置および寸法を検出する頭部検出部と、
頭部検出部で検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、記憶部に記憶された上記の対応関係とに基づいて、頭部検出部で検出された今回の計測対象フレーム画像における頭部が、その過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であることの蓋然性を表わす運動特徴量を算出する運動特徴量算出部と、
運動特徴量算出部で算出された運動特徴量を用いて、今回の計測対象フレーム画像における頭部が、過去の計測対象フレーム画像上の頭部を持つ人物と同一人物の頭部であるか否かを判別する同一人物判別部とを備えた人物追跡装置として動作させることを特徴とする。
に従って補正後の画素値(輝度値)が求められ、この処理を画像全域について行なうことにより輝度補正が行なわれる。
の比率である。
Hrefの方が領域Hxよりも二次評価値likenessが高いものとする。
pos=(l,t,r,b)t
のそれぞれについて行なわれ、2つの領域Href,Hxが1つの領域に統合される。
画像との二次元的に広がる所定の広さの領域に作用し特定種類のオブジェクトの輪郭および内部のうちの互いに異なるいずれかの特徴量を算出する複数のフィルタであって、該複数のフィルタそれぞれにより算出される各特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係に対応づけられてなる複数のフィルタを、オブジェクト検出対象の画像上の前記所定の広さの領域に作用させて複数の特徴量を算出し、前記対応関係に基づいて各特徴量に対応する各一次評価値を求める一次評価値算出ステップと、
前記一次評価値算出ステップで求められた、前記複数のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求める二次評価値算出ステップと、
前記二次評価値算出ステップで求められた二次評価値と閾値とを比較して、該閾値を越えて特定種類のオブジェクトが存在する確率が高い領域を抽出する領域抽出ステップとを有し、該領域抽出ステップで領域を抽出することにより特定種類のオブジェクトを検出することを特徴とするオブジェクト検出方法。
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成ステップを有し、
前記一次評価値算出ステップが、前記画像群生成ステップにより生成された画像群のうちの相対的に小さい第1の画像に相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出し、該複数の第1のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求め、前記二次評価値算出ステップが、前記一次評価値算出ステップで求められた、前記複数の第1のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求め、前記領域抽出ステップが、前記二次評価値算出ステップで求められた二次評価値と第1の閾値とを比較して該第1の閾値を越えて特定種類のオブジェクトが存在する確率が高い一次候補領域を抽出する第1の抽出過程と、
前記一次評価値算出ステップが、前記画像群生成ステップにより生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に前記複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、該複数の第2のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求め、前記二次評価値算出ステップが、前記一次評価値算出ステップで求められた、前記複数の第2のフィルタに対応する複数の一次評価値を総合することにより、当該一次候補領域に相当する領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求め、前記領域抽出ステップが、前記二次評価値算出ステップで求められた二次評価値と第2の閾値とを比較して該第2の閾値を越えて特定種類のオブジェクトが存在する確率が高い二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返し、前記領域抽出ステップで最終的に領域を抽出することにより特定種類のオブジェクトを検出することを特徴とする(1)記載のオブジェクト検出方法。
前記一次評価値算出ステップ、前記二次評価値算出ステップ、および領域抽出ステップが、前記画像群生成ステップで生成された複数の画像群それぞれに関し、前記複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことを特徴とする(2)記載のオブジェクト検出方法。
画像上の二次元的に広がる所定の広さの領域に作用し特定種類のオブジェクトの輪郭および内部のうちの互いに異なるいずれかの特徴量を算出する複数のフィルタを、該複数のフィルタそれぞれにより算出される各特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係に対応づけて記憶しておくフィルタ記憶部と、
オブジェクト検出対象の画像上の前記所定の広さの領域に前記複数のフィルタを作用させて複数の特徴量を算出し前記対応関係に基づいて各特徴量に対応する各一次評価値を求める一次評価値算出部と、
前記一次評価値算出部で求められた、前記複数のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求める二次評価値算出部と、
前記二次評価値算出部で求められた二次評価値と閾値とを比較して、該閾値を越えて特定種類のオブジェクトが存在する確率が高い領域を抽出する領域抽出部とを備え、該領域抽出部で領域を抽出することにより特定種類のオブジェクトを検出することを特徴とするオブジェクト検出装置。
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出させ、該複数の第1のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第1のフィルタに対応する複数の一次評価値を総合させることにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第1の閾値とを比較させて該第1の閾値を越えて特定種類のオブジェクトが存在する確率が高い一次候補領域を抽出させる第1の抽出過程と、
再び前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に前記フィルタ記憶部に記憶されたフィルタ群のうちの前記複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、該複数の第2のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、再び前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第2のフィルタに対応する複数の一次評価値を総合させることにより、当該一次候補領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、再び前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第2の閾値とを比較させて該第2の閾値を越えて特定種類のオブジェクトが存在する確率が高い二次候補領域を抽出させる第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価値算出部、前記二次評価値算出部、および領域抽出部に繰り返させる領域抽出演算制御部を備え、前記領域抽出部で最終的に領域を抽出することにより特定種類のオブジェクトを検出することを特徴とする(9)記載のオブジェクト検出装置。
前記領域抽出演算制御部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価算出部、前記二次評価算出部、および領域抽出部に繰り返させるものであることを特徴とする(10)記載のオブジェクト検出装置。
前記演算装置を、
画像上の二次元的に広がる所定の広さの領域に作用し特定種類のオブジェクトの輪郭および内部のうちの互いに異なるいずれかの特徴量を算出する複数のフィルタを、該複数のフィルタそれぞれにより算出される各特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係に対応づけて記憶しておくフィルタ記憶部と、
オブジェクト検出対象の画像上の前記所定の広さの領域に前記複数のフィルタを作用させて複数の特徴量を算出し前記対応関係に基づいて各特徴量に対応する各一次評価値を求める一次評価値算出部と、
前記一次評価値算出部で求められた、前記複数のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求める二次評価値算出部と、
前記二次評価値算出部で求められた二次評価値と閾値とを比較して、該閾値を越えて特定種類のオブジェクトが存在する確率が高い領域を抽出する領域抽出部とを有し、該領域抽出部で領域を抽出することにより特定種類のオブジェクトを検出するオブジェクト検出装置として動作させることを特徴とするオブジェクト検出プログラム。
前記演算装置を、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出させ、該複数の第1のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第1のフィルタに対応する複数の一次評価値を総合させることにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第1の閾値とを比較させて該第1の閾値を越えて特定種類のオブジェクトが存在する確率が高い一次候補領域を抽出させる第1の抽出過程と、
再び前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に前記フィルタ記憶部に記憶されたフィルタ群のうちの前記複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、該複数の第2のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、再び前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第2のフィルタに対応する複数の一次評価値を総合させることにより、当該一次候補領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、再び前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第2の閾値とを比較させて該第2の閾値を越えて特定種類のオブジェクトが存在する確率が高い二次候補領域を抽出させる第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価値算出部、前記二次評価値算出部、および領域抽出部に繰り返させる領域抽出演算制御部をさらに有し、前記領域抽出部で最終的に領域を抽出することにより特定種類のオブジェクトを検出するオブジェクト検出装置として動作させることを特徴とする(15)記載のオブジェクト検出プログラム。
前記領域抽出演算制御部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価算出部、前記二次評価算出部、および領域抽出部に繰り返させるものであることを特徴とする(16)記載のオブジェクト検出プログラム。
オブジェクト検出対象の原画像を構成する画素を所定比率で間引くことにより、又は該所定比率で段階的に間引くことより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成ステップ、および
前記画像群生成ステップにより生成された画像群のうちの相対的に小さい第1の画像に、画像上の二次元的に広がる領域に作用し該領域内に特定種類のオブジェクトが存在する確率を表わす評価値を生成するフィルタであって、画像上の領域の広さに対応する画素数が前記所定比率で異なる、又は該所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する複数のフィルタからなるフィルタ群のうちの相対的に狭い領域に作用する第1のフィルタを作用させて所定の第1の閾値を越える評価値が得られる一次候補領域を抽出する第1の抽出過程と、
前記画像群生成ステップにより生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に、前記フィルタ群のうちの前記第1のフィルタよりも一段階広い領域に作用する第2のフィルタを作用させて所定の第2の閾値を越える評価値が得られる二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像中から特定種類のオブジェクトを検出する段階的検出ステップを有することを特徴とするオブジェクト検出方法。
前記段階的検出ステップは、前記画像群生成ステップで生成された複数の画像群それぞれに関し、前記抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像および前記1つ以上の補間画像それぞれの中から特定種類のオブジェクトを検出するステップであることを特徴とする(21)記載のオブジェクト検出方法。
前記段階的検出ステップは、1つの領域に、該領域の広さに応じた複数種類のフィルタを作用させて複数の特徴量を算出し、各特徴量に対応する各一次評価値を求め、複数の一次評価値を総合した二次評価値と閾値とを比較することにより、該領域が特定種類のオブジェクトが存在する候補領域であるか否かを判定するステップであることを特徴とする(21)又は(22)記載のオブジェクト検出方法。
画像上の二次元的に広がる領域に作用し該領域内に特定種類のオブジェクトが存在する確率を表わす評価値を生成するフィルタであって、画像上の領域の広さに対応する画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する複数のフィルタからなるフィルタ群を記憶しておくフィルタ記憶部、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に、前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する第1のフィルタを作用させて所定の第1の閾値を越える評価値が得られる一次候補領域を抽出する第1の抽出過程と、
前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に、前記フィルタ記憶部に記憶されたフィルタ群のうちの前記第1のフィルタよりも一段階広い領域に作用する第2のフィルタを作用させて所定の第2の閾値を越える評価値が得られる二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像中から特定種類のオブジェクトを検出する段階的検出部を備えたことを特徴とするオブジェクト検出装置。
前記段階的検出部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像および前記1つ以上の補間画像それぞれの中から特定種類のオブジェクトを検出するものであることを特徴とする(27)記載のオブジェクト検出装置。
前記段階的検出部は、1つの領域に、該領域の広さに応じた複数種類のフィルタを作用させて複数の特徴量を算出し、各特徴量に対応する各一次評価値を求め、複数の一次評価値を総合した二次評価値と閾値とを比較することにより、該領域が特定種類のオブジェクトが存在する候補領域であるか否かを判定するものであることを特徴とする(27)又は(28)記載のオブジェクト検出装置。
前記演算装置を、
画像上の二次元的に広がる領域に作用し該領域内に特定種類のオブジェクトが存在する確率を表わす評価値を生成するフィルタであって、画像上の領域の広さに対応する画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する複数のフィルタからなるフィルタ群を記憶しておくフィルタ記憶部、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に、前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する第1のフィルタを作用させて所定の第1の閾値を越える評価値が得られる一次候補領域を抽出する第1の抽出過程と、
前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に、前記フィルタ記憶部に記憶されたフィルタ群のうちの前記第1のフィルタよりも一段階広い領域に作用する第2のフィルタを作用させて所定の第2の閾値を越える評価値が得られる二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像中から特定種類のオブジェクトを検出する段階的検出部を有するオブジェクト検出装置として動作させることを特徴とするオブジェクト検出プログラム。
前記段階的検出部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像および前記1つ以上の補間画像それぞれの中から特定種類のオブジェクトを検出するものであることを特徴とする(33)記載のオブジェクト検出プログラム。
前記段階的検出部は、1つの領域に、該領域の広さに応じた複数種類のフィルタを作用させて複数の特徴量を算出し、各特徴量に対応する各一次評価値を求め、複数の一次評価値を総合した二次評価値と閾値とを比較することにより、該領域が特定種類のオブジェクトが存在する候補領域であるか否かを判定するものであることを特徴とする(33)又は(34)記載のオブジェクト検出プログラム。
10 監視カメラ
11,12,13 人物
11a〜13a,a1,a2,b1〜b5,c3,d3,d5,e3 頭部
20 カメラ
30 パーソナルコンピュータ
31 本体装置
40,50 人物追跡装置
41,51 頭部検出部
42 特徴量算出部
43 関連度算出部
44,53 同一人物判別部
45 断片削除部
46 制御部
52 運動特徴量算出部
54,461 記憶部
110 画像群生成部
120 輝度補正部
130 差分画像作成部
140 段階的検出部
141 一次評価値算出部
142 二次評価値算出部
143 領域抽出部
150 領域統合部
170 領域抽出演算制御部
200 画像
201 静止画像
202 動画像
210 アフィン変換処理
220 多重解像度展開処理
230 輝度補正処理
240 差分演算処理
250 切出処理
251 教師画像群
251A〜C 教師画像
260 フィルタ候補
270A〜C フィルタ
Claims (3)
- 被計測空間を斜めに見下す位置に設置され該被計測空間を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラによる撮影画像に写し込まれた人物頭部の寸法と該撮影画像上の高さ位置との間の、統計的に平均的な対応関係を算出する対応関係算出ステップと、
前記カメラでの撮影により得られた複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれを表わす各画像データに基づいて、各計測対象フレーム画像上の頭部の位置および寸法を検出する頭部検出ステップと、
前記頭部検出ステップで検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、前記対応関係算出ステップで算出された前記対応関係とに基づいて、前記頭部検出ステップで検出された今回の計測対象フレーム画像における頭部が、該過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であることの蓋然性を表わす運動特徴量を算出する運動特徴量算出ステップと、
前記運動特徴量算出ステップで算出された運動特徴量を用いて、今回の計測対象フレーム画像における頭部が、過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であるか否かを判別する同一人物判別ステップとを有し、
前記運動特徴量算出ステップが、前記頭部検出ステップで検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、前記対応関係算出ステップで算出された前記対応関係とに基づいて、今回の計測対象フレーム画像上に過去の計測対象フレーム画像上の頭部の人物と同一人物の頭部の移動範囲の境界線を設定したときの該境界線と、直近の過去の計測対象フレーム画像上の頭部の位置である第1の頭部位置と今回の計測対象フレーム画像上の頭部の位置である第2の頭部位置とを通る直線との交点と該第1の頭部位置との間の距離である均等移動距離と、該第1の頭部位置と該第2の頭部位置との間の距離である頭部間距離との比率に基づいて、前記運動特徴量を算出するものであることを特徴とする人物追跡方法。 - 被計測空間を斜めに見下す位置に設置され該被計測空間を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラによる撮影画像に写し込まれた人物頭部の寸法と該撮影画像上の高さ位置との間の、統計的に平均的な対応関係を記憶した記憶部と、
前記カメラでの撮影により得られた複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれを表わす各画像データに基づいて、各計測対象フレーム画像上の頭部の位置および寸法を検出する頭部検出部と、
前記頭部検出部で検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、前記記憶部に記憶された前記対応関係とに基づいて、前記頭部検出部で検出された今回の計測対象フレーム画像における頭部が、該過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であることの蓋然性を表わす運動特徴量を算出する運動特徴量算出部と、
前記運動特徴量算出部で算出された運動特徴量を用いて、今回の計測対象フレーム画像における頭部が、過去の計測対象フレーム画像上の頭部を持つ人物と同一人物の頭部であるか否かを判別する同一人物判別部とを備え、
前記運動特徴量算出部が、前記頭部検出部で検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、前記記憶部に記憶された前記対応関係とに基づいて、今回の計測対象フレーム画像上に過去の計測対象フレーム画像上の頭部の人物と同一人物の頭部の移動範囲の境界線を設定したときの該境界線と、直近の過去の計測対象フレーム画像上の頭部の位置である第1の頭部位置と今回の計測対象フレーム画像上の頭部の位置である第2の頭部位置とを通る直線との交点と該第1の頭部位置との間の距離である均等移動距離と、該第1の頭部位置と該第2の頭部位置との間の距離である頭部間距離との比率に基づいて、前記運動特徴量を算出するものであることを特徴とする人物追跡装置。 - プログラムを実行する演算装置内で実行され、該演算装置を、
被計測空間を斜めに見下す位置に設置され該被計測空間を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラによる撮影画像に写し込まれた人物頭部の寸法と該撮影画像上の高さ位置との間の、統計的に平均的な対応関係を記憶した記憶部と、
前記カメラでの撮影により得られた複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれを表わす各画像データに基づいて、各計測対象フレーム画像上の頭部の位置および寸法を検出する頭部検出部と、
前記頭部検出部で検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、前記記憶部に記憶された前記対応関係とに基づいて、前記頭部検出部で検出された今回の計測対象フレーム画像における頭部が、該過去の計測対象フレーム画像上の頭部を持つ人物と同一の人物の頭部であることの蓋然性を表わす運動特徴量を算出する運動特徴量算出部と、
前記運動特徴量算出部で算出された運動特徴量を用いて、今回の計測対象フレーム画像における頭部が、過去の計測対象フレーム画像上の頭部を持つ人物と同一人物の頭部であるか否かを判別する同一人物判別部とを備え、
前記運動特徴量算出部が、前記頭部検出部で検出された過去の複数の計測対象フレーム画像における頭部の位置および寸法と、前記記憶部に記憶された前記対応関係とに基づいて、今回の計測対象フレーム画像上に過去の計測対象フレーム画像上の頭部の人物と同一人物の頭部の移動範囲の境界線を設定したときの該境界線と、直近の過去の計測対象フレーム画像上の頭部の位置である第1の頭部位置と今回の計測対象フレーム画像上の頭部の位置である第2の頭部位置とを通る直線との交点と該第1の頭部位置との間の距離である均等移動距離と、該第1の頭部位置と該第2の頭部位置との間の距離である頭部間距離との比率に基づいて、前記運動特徴量を算出するものである人物追跡装置として動作させることを特徴とする人物追跡プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009123232A JP5227888B2 (ja) | 2009-05-21 | 2009-05-21 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
US12/767,452 US8374392B2 (en) | 2009-05-21 | 2010-04-26 | Person tracking method, person tracking apparatus, and person tracking program storage medium |
CN201010185313.0A CN101894375B (zh) | 2009-05-21 | 2010-05-21 | 人物跟踪方法和人物跟踪装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009123232A JP5227888B2 (ja) | 2009-05-21 | 2009-05-21 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010271923A JP2010271923A (ja) | 2010-12-02 |
JP5227888B2 true JP5227888B2 (ja) | 2013-07-03 |
Family
ID=43103557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009123232A Active JP5227888B2 (ja) | 2009-05-21 | 2009-05-21 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8374392B2 (ja) |
JP (1) | JP5227888B2 (ja) |
CN (1) | CN101894375B (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5361524B2 (ja) * | 2009-05-11 | 2013-12-04 | キヤノン株式会社 | パターン認識システム及びパターン認識方法 |
EP2339507B1 (en) * | 2009-12-28 | 2013-07-17 | Softkinetic Software | Head detection and localisation method |
TW201206192A (en) * | 2010-07-23 | 2012-02-01 | Hon Hai Prec Ind Co Ltd | Detection device and method |
US20120207356A1 (en) * | 2011-02-10 | 2012-08-16 | Murphy William A | Targeted content acquisition using image analysis |
WO2012121137A1 (ja) * | 2011-03-04 | 2012-09-13 | 株式会社ニコン | 画像処理装置および画像処理プログラム |
JP5694097B2 (ja) * | 2011-09-08 | 2015-04-01 | オリンパスイメージング株式会社 | 撮影機器 |
WO2015034269A1 (ko) * | 2013-09-03 | 2015-03-12 | 삼성전자 주식회사 | 영상 처리 방법 및 장치 |
JP6375920B2 (ja) * | 2014-12-11 | 2018-08-22 | 富士通株式会社 | ベッド領域抽出方法、ベッド領域抽出装置及びベッド領域抽出プログラム |
KR101788269B1 (ko) * | 2016-04-22 | 2017-10-19 | 주식회사 에스원 | 이상 상황을 감지하는 장치 및 방법 |
CN110366741A (zh) | 2017-03-06 | 2019-10-22 | 三菱电机株式会社 | 物体跟踪装置和物体跟踪方法 |
CN108875488B (zh) * | 2017-09-29 | 2021-08-06 | 北京旷视科技有限公司 | 对象跟踪方法、对象跟踪装置以及计算机可读存储介质 |
US11321618B2 (en) * | 2018-04-25 | 2022-05-03 | Om Digital Solutions Corporation | Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method |
CA3139066A1 (en) * | 2019-05-03 | 2020-11-12 | Chad Steelberg | Object tracking and redaction |
CN110332569B (zh) * | 2019-07-10 | 2021-04-13 | 中山市创尔特智能家居科技有限公司 | 控制件可分离的燃气灶及其控制方法 |
CN111933298B (zh) * | 2020-08-14 | 2024-02-13 | 医渡云(北京)技术有限公司 | 人群关系确定方法、装置、电子设备及介质 |
CN112084886B (zh) * | 2020-08-18 | 2022-03-15 | 眸芯科技(上海)有限公司 | 提升检测神经网络目标检测性能的方法及装置 |
CN112767442B (zh) * | 2021-01-18 | 2023-07-21 | 中山大学 | 一种基于顶视角的行人三维检测跟踪方法及系统 |
CN116246009B (zh) * | 2022-09-06 | 2024-04-16 | 支付宝(杭州)信息技术有限公司 | 虚拟形象处理方法及装置 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2119327A1 (en) * | 1993-07-19 | 1995-01-20 | David Crawford Gibbon | Method and means for detecting people in image sequences |
JPH0894320A (ja) | 1994-09-28 | 1996-04-12 | Nec Corp | 移動物体計測装置 |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
JP2000105835A (ja) | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | 物体認識方法及び物体追跡監視装置 |
JP2001005974A (ja) * | 1999-06-17 | 2001-01-12 | Matsushita Electric Ind Co Ltd | 物体認識方法及び物体認識装置 |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
JP2002342762A (ja) | 2001-05-22 | 2002-11-29 | Matsushita Electric Ind Co Ltd | 物体追跡方法 |
US8599266B2 (en) * | 2002-07-01 | 2013-12-03 | The Regents Of The University Of California | Digital processing of video images |
US7227893B1 (en) * | 2002-08-22 | 2007-06-05 | Xlabs Holdings, Llc | Application-specific object-based segmentation and recognition system |
US7227977B1 (en) * | 2003-01-10 | 2007-06-05 | L-I Identity Solutions, Inc. | Lighting correction for the outdoor environment with extension to the self adjusting algorithm for general lighting conditions |
WO2004107266A1 (en) * | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
WO2004111687A2 (en) * | 2003-06-12 | 2004-12-23 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7428000B2 (en) * | 2003-06-26 | 2008-09-23 | Microsoft Corp. | System and method for distributed meetings |
JP3879732B2 (ja) * | 2003-11-27 | 2007-02-14 | コニカミノルタホールディングス株式会社 | 物体検出装置、物体検知方法、およびコンピュータプログラム |
US20050196015A1 (en) * | 2004-03-02 | 2005-09-08 | Trw Automotive U.S. Llc | Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system |
US20060140445A1 (en) * | 2004-03-22 | 2006-06-29 | Cusack Francis J Jr | Method and apparatus for capturing digital facial images optimally suited for manual and automated recognition |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7848566B2 (en) * | 2004-10-22 | 2010-12-07 | Carnegie Mellon University | Object recognizer and detector for two-dimensional images using bayesian network based classifier |
US7512262B2 (en) * | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
US20090041297A1 (en) * | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
JP4516516B2 (ja) * | 2005-12-07 | 2010-08-04 | 本田技研工業株式会社 | 人物検出装置、人物検出方法及び人物検出プログラム |
JP4241742B2 (ja) * | 2006-01-31 | 2009-03-18 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
JP4821355B2 (ja) * | 2006-02-14 | 2011-11-24 | パナソニック株式会社 | 人物追跡装置、人物追跡方法および人物追跡プログラム |
KR100660725B1 (ko) * | 2006-02-24 | 2006-12-21 | (주)케이티에프테크놀로지스 | 얼굴 추적 장치를 가지는 휴대용 단말기 |
JP4798042B2 (ja) * | 2007-03-29 | 2011-10-19 | オムロン株式会社 | 顔検出装置、顔検出方法及び顔検出プログラム |
CN100583153C (zh) * | 2008-05-30 | 2010-01-20 | 西安交通大学 | 一种基于背景抑制的后验概率图像跟踪方法 |
-
2009
- 2009-05-21 JP JP2009123232A patent/JP5227888B2/ja active Active
-
2010
- 2010-04-26 US US12/767,452 patent/US8374392B2/en active Active
- 2010-05-21 CN CN201010185313.0A patent/CN101894375B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20100296702A1 (en) | 2010-11-25 |
CN101894375B (zh) | 2014-12-31 |
US8374392B2 (en) | 2013-02-12 |
CN101894375A (zh) | 2010-11-24 |
JP2010271923A (ja) | 2010-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5214533B2 (ja) | 人物追跡方法、人物追跡装置および人物追跡プログラム | |
JP5227888B2 (ja) | 人物追跡方法、人物追跡装置および人物追跡プログラム | |
JP5227639B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
JP7482181B2 (ja) | 画像処理装置、画像処理方法 | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
JP7208480B2 (ja) | 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法 | |
JP4903854B2 (ja) | デジタル画像におけるオブジェクト検出方法 | |
CN104573614B (zh) | 用于跟踪人脸的设备和方法 | |
US20070189584A1 (en) | Specific expression face detection method, and imaging control method, apparatus and program | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
US7542591B2 (en) | Target object detecting method, apparatus, and program | |
KR101035055B1 (ko) | 이종 카메라를 이용한 객체 추적 시스템 및 방법 | |
JP5027030B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
JP2005128619A (ja) | 物体計測装置、物体計測方法、およびプログラム | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
WO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
JP2019212148A (ja) | 情報処理装置及び情報処理プログラム | |
JP6266468B2 (ja) | 対象検出装置 | |
JP6384167B2 (ja) | 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム | |
JP2009251892A (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
JP2021047538A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2021064120A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240095934A1 (en) | Image processing apparatus, training apparatus, image processing method, training method, and non-transitory computer-readable medium | |
JP2635447B2 (ja) | 物体認識処理方法 | |
JP7501622B2 (ja) | 画像選択装置、画像選択方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5227888 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |