JP6977624B2 - 物体検出装置、物体検出方法、およびプログラム - Google Patents
物体検出装置、物体検出方法、およびプログラム Download PDFInfo
- Publication number
- JP6977624B2 JP6977624B2 JP2018040927A JP2018040927A JP6977624B2 JP 6977624 B2 JP6977624 B2 JP 6977624B2 JP 2018040927 A JP2018040927 A JP 2018040927A JP 2018040927 A JP2018040927 A JP 2018040927A JP 6977624 B2 JP6977624 B2 JP 6977624B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- region
- integrated
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Description
れるが、それぞれの検出アルゴリズムは異なる。ここで、第2検出手段の検出アルゴリズムは、第1検出手段と比較して、検出精度が高いが計算量が多い検出アルゴリズムであってよい。
満たす統合領域のみを選択すればよい。
本発明の物体検出装置が検出対象とする物体は任意の物体であって構わないが、ここでは顔検出に適用した適用例について説明する。Haar-like特徴量とAdaboostを用いた第1
顔検出部と、深層学習を用いた第2顔検出部とを有する顔検出装置において、次のような検出方法が考えられる。まず、入力画像全体に対して第1顔検出部による検出を行って顔が存在しそうな領域(顔候補領域)を決定する。第1顔検出部による顔候補領域は多数求められるので、同じ顔に対応する複数の領域を統合して、統合された領域に対してのみ第2顔検出部による顔検出を行う。これにより、深層学習を用いた高精度な顔検出を短時間で実現可能となる。しかしながら、入力画像に多数の人物が含まれている場合は、統合領域の数が多くなるので十分な高速化が達成できない。
によって顔が存在すると推定される領域を、以下では顔候補領域と称する。一般に、第1検出部112は、1つの顔の周辺に対して複数の顔候補領域を検出する。第1検出部11
2は、本発明の第1検出手段の一例である。第1検出部12は、例えば、特徴量として、HoG (Histgram of Gradient)特徴量、SIFT特徴量、SURF特徴量など任意の特徴量を用いることができる。また、学習手法も、Adaboost以外のboosting手法や、SVM (Support Vector Machine)、ニューラルネットワーク、決定木学習などの任意の学習手法を用いることができる。
以下で説明する実施形態は、スマートフォンのような携帯情報端末に搭載され、動画像から顔を検出する顔検出装置(物体検出装置)に関する。しかしながら、これは例示に過ぎず、画像から検出する物体は顔である必要はなく任意の物体であってよい。また、顔検出装置(物体検出装置)は、携帯情報端末以外の任意の情報処理装置(コンピュータ)に搭載されてよい。
リティカメラでの人物検出などの用途に適用できる。
図2は、本実施形態にかかる顔検出装置100のハードウェア構成を示す図である。顔検出装置100は、画像入力部101、演算装置102、記憶装置103、通信装置104、入力装置105、出力装置106を含む。画像入力部101は、カメラ110から画像データを受け取るインタフェースである。なお本実施形態ではカメラ110から直接画像データを受け取っているが、通信装置104を介して画像データを受け取ったり、記録媒体を経由して画像データを受け取ったりしてもよい。演算装置102は、CPU(Central Processing Unit)などの汎用のプロセッサであり、記憶装置103に格納されたプ
ログラムを実行して、後述する処理を実行する。記憶装置103は、主記憶装置および補助記憶装置を含み、演算装置102によって実行されるプログラムを格納するとともに、画像データやプログラム実行中の一時データを格納する。通信装置104は、顔検出装置100が外部のコンピュータと通信を行うための装置である。通信の形態は、有線であっても無線であってもよく、通信規格は任意であってよい。入力装置105は、タッチスクリーン、ボタン、キーボードなどの何れかから構成され、ユーザが顔検出装置に指示を入力するための装置である。出力装置106は、表示装置やスピーカーなどからなり、顔検出装置がユーザに対する出力を行うための装置である。
演算装置102は、プログラムを実行することにより、図3に示す各部の処理を実行する。すなわち、演算装置102は、画像入力部111、第1検出部112、領域統合部113、領域選択部114、第2検出部115、顔追跡部116、結果出力部117が行うそれぞれの処理を実行する。各部の処理内容については以下で説明する。
画像入力部111は、顔検出の対象とする画像データを取得する。本実施形態で入力される画像は動画像を想定するが、入力画像は静止画像であっても。入力画像は、画像入力部101を介してカメラ20から取得されてもよいし、通信装置104を介して他のコンピュータから取得されてもよいし、記憶装置103を介して記憶媒体から取得されてもよい。
第1検出部112は、入力画像から顔候補領域(顔が存在すると推定される領域)を検出する。第1検出部112は、入力画像から、種々の大きさや向きの顔を検出可能に構成される。第1検出部112は、顔候補領域を検出する際に、確信度・顔の向きも推定する。第1検出部112は、性別・年齢・人種等の属性を推定したり、顔認証も行ったりし、これらの処理の結果も後段の処理で利用できるようにしてもよい。
い、学習アルゴリズムとしてAdaBoostを用いるように構成される。以下、図4A,4Bを用いて、本実施形態における第1検出部112について説明する。
0は、複数の弱識別器を有しており、それぞれの弱識別器は少数の特徴量に基づいて照合パターンが顔である否かを判別する。弱識別器のそれぞれの判別性能は低いが、これら複数の弱識別器を組み合わせることにより、高精度で顔であるか否かを判別可能となる。なお、識別器320は、出力値として、照合パターンが顔パターンである確からしさ(信頼度)を出力する。したがって、信頼度が所定の閾値以上の領域が、顔候補領域として扱われる。
領域統合部113は、第1検出部112によって検出された複数の候補領域を統合する。領域統合部113は、複数の候補領域をグループ分けし、各グループの候補領域から1つの統合領域を決定する。図6は、領域統合部113による統合領域決定処理の詳細を示すフローチャートである。以下、図6のフローチャートにしたがって説明する。
例えば、年齢・性別・人種・表情など)の類似度に基づいて関連スコアを算出してもよい。複数の要素を考慮して関連スコアを決定する場合には、これら複数の要素を変数として含む関数を用いればよい。単純には、各要素の類似度の平均または加重平均によって関連スコアを決定すればよい。加重平均の際の重みは適宜決定すればよい。
領域選択部114は、領域統合部113によって統合された複数の統合領域の中から第2検出部115による顔検出の対象とするものを選択する。領域選択部114は、以下の基準にしたがって、統合領域を選択する。
(1)前フレームにおいて顔であると判断された位置の統合領域は選択しない
(2)(1)以外の統合領域の中から評価値が上位の所定数個の統合領域を選択する。
第2検出部115は、領域選択部114によって選択された統合領域のそれぞれに顔が含まれるか否かを判定する。第2検出部115は、たたみ込みニューラルネットワーク(CNN)と呼ばれる多層ニューラルネットワークを用いて学習した識別器である。ヘテロジニアス学習により、顔/非顔の判別だけでなく、顔向き、年齢、性別、人種、表情など複数タスクの判別が可能である。本実施形態の第2検出部115は、これらの判別タスクも実装する。
顔追跡部116は、前フレームにおいて検出された顔を、現フレームにおいて検出する。顔追跡部116による追跡処理は、公知の任意の追跡アルゴリズムを採用可能である。顔追跡部116は、前フレームにおいて検出された顔領域の周囲のみを対象として顔を検出する。追跡処理はこのように行われるため高速に実行できる。顔追跡部116によって検出された顔領域の情報は、検出結果記憶部118に格納される。
結果出力部117が、第2検出部115および顔追跡部116によって検出された顔領域について検出結果を出力する。結果出力部117は、検出結果の信頼度が閾値以上である統合領域について、顔が検出されたことを示す結果情報を出力する。信頼度が閾値未満の統合領域については、結果情報に含めなくてよい。検出結果情報は、少なくとも顔領域を含み、これに加えて、信頼度、顔の向き、年齢、性別、人種、表情などの1つ以上を含
むことが好ましい。
検出結果記憶部118には、第2検出部115および顔追跡部116によって検出された顔領域の位置・サイズ・属性などの情報が格納される。また、検出結果記憶部118には、顔が含まれないと判断された統合領域も含めて、第2検出部115が検出処理を行った各統合領域について、顔検出の信頼度(検出スコア)を格納してもよい。
本実施形態における顔検出処理について、図10のフローチャートを参照して説明する。なお、このフローチャートは本実施形態における顔検出処理を概念的に説明するものであり、実施形態においてこのフローチャートの通りの処理が実装される必要はないことに留意されたい。
が、前フレームにおいて検出された顔領域がステップS1006の第2検出処理の処理対象とならなければ、当該領域がステップS1003〜S1005の処理対象となっても構わない。
。第1検出部112による顔検出処理は、図4,図5等を参照して説明したとおりである。
る。第1フレームを処理する際には、検出済みの顔は存在しないので全ての統合領域が第2検出部115を用いた検出処理の対象の候補となる。ここでは、領域選択部114による領域選択の結果、評価値が上位の2つの統合領域B,Cが選択されたものとする。第2検出部115は、統合領域B,Cを対象として深層学習アルゴリズムを用いた顔検出処理を行い、統合領域のB,Cの両方から顔を検出する。これにより、第1フレーム目では、統合領域B,Cが顔領域であると判定される。
Haar-like特徴量+adaboost学習の顔検出処理と、深層学習(CNN)の顔検出処理を比較すると、後者の方が高精度であるが演算量も多い。したがって、携帯情報端末のような演算資源が比較的乏しい計算機では、入力画像全体に対して深層学習型の顔検出を行うと処理時間が長大となってしまう。これに対して、本実施形態は、まず、顔が存在しそうな領域を簡易型の顔検出処理を用いて絞り込み、さらに候補領域を統合して統合領域に対してのみ深層学習型の顔検出を行う。これにより、検出精度と検出速度の両立が期待できるが、画像中に含まれる顔の数が多い場合には計算量が多くなり処理が間に合わない場合が生じうる。そこで、統合領域の中から深層学習型の顔検出の対象とする領域を選択する(絞り込む)ことで、画像中に含まれる顔の数にかかわらずに高速な処理が行えるようにする。
上記の実施形態では、領域選択部114が、前フレームで検出された顔領域の位置にある統合領域を選択の対象から除外することで、前フレームで検出された顔の位置にある統合領域が第2検出部115による検出処理の対象となることを防止している。しかしながら、上記以外の手法によっても同様の効果が得られる。
領域選択部114が統合領域を選択する際に、前フレームにおける第2検出部115による顔ではないという検出結果を利用して、前フレームにおいて第2検出部115において顔ではないと判断された領域は選択しないようにしてもよい。第2検出部115による顔検出の検出精度は高いため、その領域には顔が含まれていない可能性が高いためである。
とともに構図が変化することを想定すると好ましくない。したがって、第2検出部115によって顔ではないと判断された数フレームの間だけ、領域選択部114が選択しないようにするのがよい。あるいは、前フレームにおいて顔領域ではないと判断された領域であり、かつ、画像の類似度が閾値以上ある場合に、領域選択部114が選択しないようにしてもよい。
上記の説明では、第1検出部112がHaar-like特徴量とadaboost学習を用いた検出器
であるが、これに限られない。例えば、特徴量として、HoG (Histgram of Gradient)特徴量、SIFT特徴量、SURF特徴量、Sparse特徴量など任意の特徴量を用いることができる。また、学習手段も、adaboost以外のboosting手法や、SVM (Support Vector Machine)、ニューラルネットワーク、決定木学習などの任意の学習手法を用いることができる。これ以外にも、積分画像を用いた特徴量抽出や、カスケード構造を用いた識別器なども採用可能である。
意の手法による検出器あってよい。また、第2検出部115は、深層学習を用いた検出器でなくても構わない。ただし、第2検出部115の検出アルゴリズムは、第1検出部112の検出アルゴリズムよりも高精度な検出が可能かつ計算量がより多いことが望ましい。
手法でもよい。あるいは、第1検出部112のアルゴリズムがCNNで、第2検出部115
のアルゴリズムがDNNであってもよい。
画像から対象物を検出する物体検出装置(10,100)であって、
前記画像から前記対象物が存在する候補領域を複数検出する第1検出手段(12,112)と、
前記第1検出手段によって検出された複数の候補領域に基づいて、1つまたは複数の統合領域を決定する領域統合手段(13,113)と、
前記統合領域の中から、少なくとも一部を選択する選択手段(14,114)と、
選択された統合領域を対象として、前記第1検出手段とは異なる検出アルゴリズムによって前記対象物を検出する第2検出手段(15,115)と、
を備える、物体検出装置。
113:領域統合部, 114:領域選択部, 115:第2検出部,
116:顔追跡部, 117:結果出力部, 118:検出結果記憶部
Claims (14)
- 画像から対象物を検出する物体検出装置であって、
前記画像から前記対象物が存在する候補領域を複数検出する第1検出手段と、
前記第1検出手段によって検出された複数の候補領域に基づいて、1つまたは複数の統合領域を決定する領域統合手段と、
前記統合領域の中から、少なくとも一部を選択する選択手段と、
選択された統合領域を対象として、前記第1検出手段とは異なる検出アルゴリズムによって前記対象物を検出する第2検出手段と、
対象物の追跡を行う追跡手段と、
を備え、
前記画像は動画像であり、
各フレームにおいて、前記第2検出手段または前記追跡手段による結果を最終的な検出結果とし、
前記追跡手段は、前フレームにおいて前記対象物であると確定された物体を対象として、現フレームにおける追跡を行い、
前記選択手段は、前フレームにおいて前記対象物であると確定された領域以外に位置する少なくとも一部の統合領域を選択する、
物体検出装置。 - 前記選択手段は、前フレームにおいて前記対象物であると確定された領域以外に位置する統合領域の中から、信頼度が閾値以上の所定数個の統合領域を選択する、
請求項1に記載の物体検出装置。 - 前記選択手段は、前フレームにおいて前記対象物であると確定された領域以外に位置する統合領域の中から、サイズが大きい方から所定数個の統合領域を選択する、
請求項1に記載の物体検出装置。 - 前記選択手段は、前フレームにおける前記第2検出手段による検出スコアも考慮して、統合領域の選択を行う、
請求項1から3のいずれか1項に記載の物体検出装置。 - 前記選択手段は、前記対象物の向きも考慮して統合領域の選択を行う、
請求項1から4のいずれか1項に記載の物体検出装置。 - 前フレームにおいて前記対象物であると確定された物体の領域に対応する現フレーム画像の領域に対して、当該領域が前記物体として検出されないような前処理を施す前処理部をさらに備え、
前記第1検出手段が、前処理済みの現フレーム画像を対象に前記対象物の検出を行うことで、前フレーム画像において前記対象物であると確定された領域が統合領域とならないようにする、
請求項1から5のいずれか1項に記載の物体検出装置。 - 前フレーム画像において前記対象物であると確定された領域の位置を記憶する記憶手段をさらに備え、
前記選択手段は、前記記憶手段に記憶された位置にある統合領域を選択対象から除外する、
請求項1から5のいずれか1項に記載の物体検出装置。 - 前記第2検出手段の検出アルゴリズムは、前記第1検出手段の検出アルゴリズムよりも、計算量が多い、
請求項1から7のいずれか1項に記載の物体検出装置。 - 前記対象物は、人の顔または人体である、
請求項1から8のいずれか1項に記載の物体検出装置。 - 画像から対象物を検出する物体検出方法であって、
コンピュータが、
前記対象物が存在する候補領域を複数検出する第1検出ステップと、
前記第1検出ステップにおいて検出された複数の候補領域に基づいて、1つまたは複数の統合領域を決定する領域統合ステップと、
前記統合領域の中から、少なくとも一部を選択する選択ステップと、
選択された統合領域を対象として、前記第1検出ステップとは異なる検出アルゴリズムによって前記対象物を検出する第2検出ステップと、
対象物の追跡を行う追跡ステップと、
を実行し、
前記画像は動画像であり、
各フレームにおいて、前記第2検出ステップまたは前記追跡ステップによる結果を最終的な検出結果とし、
前記追跡ステップは、前フレームにおいて前記対象物であると確定された物体を対象として、現フレームにおける追跡を行い、
前記選択ステップでは、前フレームにおいて前記対象物であると確定された領域以外に位置する少なくとも一部の統合領域を選択する、
物体検出方法。 - 前記選択ステップは、前フレームにおいて前記対象物であると確定された領域以外に位置する統合領域の中から、信頼度、サイズ、または対象物の向きの少なくともいずれかに基づく評価値が大きい方から所定数個の統合領域を選択する、
請求項10に記載の物体検出方法。 - 前フレームにおいて前記対象物であると確定された物体の領域に対応する現フレーム画
像の領域に対して、当該領域が前記物体として検出されないような前処理を施す前処理ステップをさらに含み、
前記第1検出ステップでは、前処理済みの現フレーム画像を対象に前記対象物の検出を行うことで、前フレーム画像において前記対象物であると確定された領域が統合領域とならないようにする、
請求項10または11に記載の物体検出方法。 - 前フレーム画像において前記対象物であると確定された領域の位置を記憶する記憶ステップをさらに含み、
前記選択ステップでは、前記記憶ステップにおいて記憶された位置にある統合領域を選択対象から除外する、
請求項10から12のいずれか1項に記載の物体検出方法。 - 請求項10から13のいずれか1項に記載の方法の各ステップをコンピュータに実行させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018040927A JP6977624B2 (ja) | 2018-03-07 | 2018-03-07 | 物体検出装置、物体検出方法、およびプログラム |
DE112019001138.3T DE112019001138T5 (de) | 2018-03-07 | 2019-01-18 | Objekterfassungsvorrichtung, Objekterfassungsverfahren und Programm |
CN201980012610.4A CN111699509B (zh) | 2018-03-07 | 2019-01-18 | 物体检测装置、物体检测方法以及记录介质 |
PCT/JP2019/001487 WO2019171779A1 (ja) | 2018-03-07 | 2019-01-18 | 物体検出装置、物体検出方法、およびプログラム |
US16/970,689 US11494906B2 (en) | 2018-03-07 | 2019-01-18 | Object detection device, object detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018040927A JP6977624B2 (ja) | 2018-03-07 | 2018-03-07 | 物体検出装置、物体検出方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159391A JP2019159391A (ja) | 2019-09-19 |
JP6977624B2 true JP6977624B2 (ja) | 2021-12-08 |
Family
ID=67846994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018040927A Active JP6977624B2 (ja) | 2018-03-07 | 2018-03-07 | 物体検出装置、物体検出方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11494906B2 (ja) |
JP (1) | JP6977624B2 (ja) |
CN (1) | CN111699509B (ja) |
DE (1) | DE112019001138T5 (ja) |
WO (1) | WO2019171779A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7382240B2 (ja) * | 2020-01-30 | 2023-11-16 | 富士フイルムヘルスケア株式会社 | 医用画像処理装置及び医用画像処理方法 |
JP2022136840A (ja) * | 2021-03-08 | 2022-09-21 | オムロン株式会社 | 物体検出装置、物体検出方法、およびプログラム |
KR20230134846A (ko) * | 2022-03-15 | 2023-09-22 | 연세대학교 산학협력단 | 멀티스케일 객체탐지 장치 및 방법 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6940545B1 (en) * | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
US7130446B2 (en) * | 2001-12-03 | 2006-10-31 | Microsoft Corporation | Automatic detection and tracking of multiple individuals using multiple cues |
JP4318465B2 (ja) * | 2002-11-08 | 2009-08-26 | コニカミノルタホールディングス株式会社 | 人物検出装置および人物検出方法 |
KR100724932B1 (ko) * | 2005-08-02 | 2007-06-04 | 삼성전자주식회사 | 얼굴 검출 장치 및 방법 |
JP2007133840A (ja) | 2005-11-07 | 2007-05-31 | Hirotaka Niitsuma | EMObjectLocalizationusingHaar−likefeature |
JP4712563B2 (ja) * | 2006-01-16 | 2011-06-29 | 富士フイルム株式会社 | 顔検出方法および装置並びにプログラム |
US7916897B2 (en) * | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
JP2008102611A (ja) | 2006-10-17 | 2008-05-01 | Canon Inc | 画像処理装置 |
JP5077164B2 (ja) * | 2008-09-16 | 2012-11-21 | オムロン株式会社 | 追跡装置及び追跡方法 |
JP5214533B2 (ja) * | 2009-05-21 | 2013-06-19 | 富士フイルム株式会社 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
JP2011053915A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 画像処理装置、画像処理方法、プログラム及び電子機器 |
JP5251800B2 (ja) * | 2009-09-16 | 2013-07-31 | 株式会社豊田中央研究所 | 対象物追跡装置及びプログラム |
WO2011043060A1 (ja) * | 2009-10-07 | 2011-04-14 | パナソニック株式会社 | 追尾対象選択装置、方法、プログラム及び回路 |
JP5675229B2 (ja) * | 2010-09-02 | 2015-02-25 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
CN102411703A (zh) * | 2010-09-21 | 2012-04-11 | 索尼公司 | 检测图像序列中的特定对象的装置、方法和视频摄像设备 |
JP2012118634A (ja) * | 2010-11-29 | 2012-06-21 | Panasonic Corp | 画像認識方法、画像認識装置及び撮像システム |
CN103597514B (zh) * | 2011-06-10 | 2016-04-06 | 松下电器产业株式会社 | 物体检测框显示装置和物体检测框显示方法 |
JP5963525B2 (ja) * | 2012-04-27 | 2016-08-03 | キヤノン株式会社 | 認識装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 |
WO2014094275A1 (en) * | 2012-12-20 | 2014-06-26 | Intel Corporation | Accelerated object detection filter using a video motion estimation module |
JP6655878B2 (ja) * | 2015-03-02 | 2020-03-04 | キヤノン株式会社 | 画像認識方法及び装置、プログラム |
JP6509027B2 (ja) * | 2015-05-12 | 2019-05-08 | キヤノン株式会社 | 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム |
JP6639123B2 (ja) * | 2015-07-06 | 2020-02-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11004209B2 (en) * | 2017-10-26 | 2021-05-11 | Qualcomm Incorporated | Methods and systems for applying complex object detection in a video analytics system |
-
2018
- 2018-03-07 JP JP2018040927A patent/JP6977624B2/ja active Active
-
2019
- 2019-01-18 WO PCT/JP2019/001487 patent/WO2019171779A1/ja active Application Filing
- 2019-01-18 CN CN201980012610.4A patent/CN111699509B/zh active Active
- 2019-01-18 US US16/970,689 patent/US11494906B2/en active Active
- 2019-01-18 DE DE112019001138.3T patent/DE112019001138T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111699509A (zh) | 2020-09-22 |
WO2019171779A1 (ja) | 2019-09-12 |
JP2019159391A (ja) | 2019-09-19 |
US11494906B2 (en) | 2022-11-08 |
US20200394797A1 (en) | 2020-12-17 |
DE112019001138T5 (de) | 2020-12-03 |
CN111699509B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11334775B2 (en) | Object detection device, object detection method, and program | |
KR102236046B1 (ko) | 얼굴 검출 훈련 방법, 장치 및 전자 장치 | |
JP4767595B2 (ja) | 対象物検出装置及びその学習装置 | |
US10002290B2 (en) | Learning device and learning method for object detection | |
KR100813167B1 (ko) | 고속 정확한 얼굴 검출 방법과 얼굴 검출 학습 방법 및이를 구현하는 시스템 | |
KR102476022B1 (ko) | 얼굴검출 방법 및 그 장치 | |
US8948522B2 (en) | Adaptive threshold for object detection | |
EP2657908A1 (en) | Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method | |
JP6977624B2 (ja) | 物体検出装置、物体検出方法、およびプログラム | |
Masood et al. | Measuring and reducing observational latency when recognizing actions | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
JP7166784B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20150269425A1 (en) | Dynamic hand gesture recognition with selective enabling based on detected hand velocity | |
JP2012190159A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20210406568A1 (en) | Utilizing multiple stacked machine learning models to detect deepfake content | |
US9904843B2 (en) | Information processing device, information processing method, and program | |
WO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
Joo et al. | Real‐Time Depth‐Based Hand Detection and Tracking | |
JP2007108990A (ja) | 顔検出方法および装置並びにプログラム | |
JP2006293720A (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
CN104899544A (zh) | 图像处理装置和图像处理方法 | |
CN108446602B (zh) | 一种用于人脸检测的装置和方法 | |
JP7509212B2 (ja) | 情報処理システム、情報処理方法、及びコンピュータプログラム | |
JP2018205858A (ja) | 学習装置、認識装置、学習方法及びプログラム | |
Meena et al. | Hybrid neural network architecture for multi-label object recognition using feature fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |