JP5862261B2 - 検出装置、検出方法、及び、車両 - Google Patents

検出装置、検出方法、及び、車両 Download PDF

Info

Publication number
JP5862261B2
JP5862261B2 JP2011271477A JP2011271477A JP5862261B2 JP 5862261 B2 JP5862261 B2 JP 5862261B2 JP 2011271477 A JP2011271477 A JP 2011271477A JP 2011271477 A JP2011271477 A JP 2011271477A JP 5862261 B2 JP5862261 B2 JP 5862261B2
Authority
JP
Japan
Prior art keywords
detection
type
discriminator
calculation step
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011271477A
Other languages
English (en)
Other versions
JP2013122723A5 (ja
JP2013122723A (ja
Inventor
林 正樹
林  正樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011271477A priority Critical patent/JP5862261B2/ja
Publication of JP2013122723A publication Critical patent/JP2013122723A/ja
Publication of JP2013122723A5 publication Critical patent/JP2013122723A5/ja
Application granted granted Critical
Publication of JP5862261B2 publication Critical patent/JP5862261B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、検出装置、及び、検出方法に関する。
歩行者などの対象物を検出してディスプレイなどに強調表示を行うことにより、安全に車両の運転を行うことができる運転支援装置の開発が行われている。このような運転支援装置には、歩行者などの対象物を検出する検出装置が含まれる。
特許文献1には、車両の前方にカメラを取り付け、歩行者等を検出する装置が示されている。特許文献2には、ステレオカメラを用いて対象物の検出を行うことが示されている。特許文献3には、位置、時間を取得し、識別器に使用する辞書データを最適なものに切り替えることが示されている。
特開2001−28050号公報 特開2006−268345号公報 特開2011−59810号公報
カメラから取得された1フレームの画像中の人物を検出する場合において、検出ウィンドウのスキャンにより、様々なサイズのクロッピング画像が大量に検出器に入力される。そのため、検出処理に時間を要し検出速度が問題となる。検出精度と検出速度との関係はトレードオフの関係にある。すなわち、検出対象物をリアルタイムで検出するためには、検出精度を犠牲にすることになり、また、検出速度を維持したまま検出精度を向上させることは困難であった。よって、検出対象物の検出速度を維持しつつ検出精度を向上させる技術が望まれる。
本発明は、このような事情に鑑みてなされたものであり、検出対象物の検出速度を維持しつつ検出精度を向上させることを目的とする。
上記目的を達成するための主たる発明は、
センサーの出力に対応する階調値を含む検出対象画像を生成する画像生成部と、
前記検出対象画像から検出対象物を検出する検出器であって、複数の第1種識別器と前記第1種識別器よりも前記検出対象物の検出精度が高い第2種識別器とを有する検出器と、を含み、
前記検出器は、第1演算工程と第2演算工程を並列動作させ、
前記第1演算工程において、複数の第1種識別器のうち1つの第1種識別器を用いて検出対象物を検出するとともに、
前記第2演算工程において、前記複数の第1種識別器と前記第2種識別器を用いて検出対象物を検出し、前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて前記第2種識別器の検出結果に最も近い第1種識別器を特定し、前記第1演算工程で動作する識別器を特定した前記第1種識別器に更新する、検出装置である。
本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。
本実施形態における人物検出システム1の概略構成を示すブロック図である。 本実施形態の概要を説明する図である。 本実施形態における各モジュールのブロック図である。 本実施形態における人物検出処理のフローチャートである。 リアルタイム検出処理のフローチャートである。 パラメーター決定処理のフローチャートである。 検出結果の一例の説明図である。 各検出モジュールのパラメーターの説明図である。 高速検出モジュールα’1のフローチャートである。 高速検出モジュールα’2のフローチャートである。 高速検出モジュールα’3のフローチャートである。 高精度検出モジュールβのフローチャートである。 検出精度評価処理のフローチャートである。 マージ処理の説明図である。 F−Measure値の説明図である。
本明細書及び添付図面の記載により、少なくとも、以下の事項が明らかとなる。すなわち、
センサーの出力に対応する階調値を含む検出対象画像を生成する画像生成部と、
前記検出対象画像から検出対象物を検出する検出器であって、複数の第1種識別器と前記第1種識別器よりも前記検出対象物の検出精度が高い第2種識別器とを有する検出器と、を含み、
前記検出器は、第1演算工程と第2演算工程を並列動作させ、
前記第1演算工程において、複数の第1種識別器のうち1つの第1種識別器を用いて検出対象物を検出するとともに、
前記第2演算工程において、前記複数の第1種識別器と前記第2種識別器を用いて検出対象物を検出し、前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて前記第2種識別器の検出結果に最も近い第1種識別器を特定し、前記第1演算工程で動作する識別器を特定した前記第1種識別器に更新する、検出装置である。
このようにすることで、第1演算工程において検出対象物の検出処理が行われる。一方、第2演算工程において、第1種識別器の演算結果と、検出精度が高い第2種識別器の検出結果とに基づいて、複数の第1種識別器の中から検出精度が高いと考えられる第1種識別器が特定される。そして、第1演算工程で動作する識別器が特定された第1種識別器に更新される。よって、次の演算において第1演算工程では、検出精度が高いと考えられる第1種識別器を用いて検出対象物を検出することができる。なお、第1種識別器は第2種識別器ほど検出精度が高くない識別器であるので高速で動作する。そのため、検出対象物の検出速度を維持しつつ検出精度を向上させることができる。
かかる検出装置であって、前記第1種識別器と前記第2種識別器はそれぞれ複数の弱識別器を含み、前記第2種識別器の弱識別器数は前記第1種識別器の弱識別数よりも多いことが望ましい。
このようにすることで、第2種識別器の検出精度を第1種識別器の検出精度よりも高くすることができる。
また、前記第1種識別器は前記第2種識別器よりも検出速度が速いことが望ましい。
このようにすることで、第1演算工程で用いられる識別器の演算速度を高速に維持したまま検出対象物の検出を行うことができる。
また、前記第1演算工程はフォアグラウンドタスクとして動作し、前記第2演算工程はバックグラウンドタスクとして動作することが望ましい。
このようにすることで、検出対象物の検出に必須な第1演算工程をフォアグランドタスクとして動作させ、検出に必ずしも必須ではない第2演算工程をバックグラウンドタスクとして動作させることができる。
また、前記複数の第1種識別器のそれぞれは、弱識別器数、特徴量の種類、学習時に使用される学習画像セット、及び、検出対象物の検出に用いられる閾値のうち少なくとも1つが異ならされることが望ましい。
このようにすることで、これらのパラメーターを異ならせた複数の第1種識別器を構成することができる。
また、前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて前記第2識別器の検出結果に最も近い第1種識別器を特定する際、検出結果から求められる検出精度に基づいて前記第1種識別器が特定されることが望ましい。
このようにすることで、検出精度に基づいて第1種識別器を特定することができる。
また、前記検出精度は、F−measure値で表されることが望ましい。
このようにすることで、総合的に検出精度を求めることができる。
また、本明細書及び添付図面の記載により、少なくとも、以下の事項も明らかとなる。すなわち、
センサーの出力に対応する階調値を含む検出対象画像を生成することと、
第1演算工程と第2演算工程を並列動作させ、前記検出対象画像から検出対象物を検出することと、を含み、
前記第1演算工程において、複数の第1種識別器のうち1つの第1種識別器を用いて検出対象物を検出するとともに、
前記第2演算工程において、前記複数の第1種識別器と前記複数の第1識別器よりも前記検出対象物の検出精度が高い第2種識別器を用いて検出対象物を検出し、前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて最も検出精度の高い第1種識別器を特定し、特定した前記第1種識別器に前記第1演算工程で動作する識別器を更新する、検出方法である。
このようにすることで、第1演算工程において検出対象物の検出処理が行われる。一方、第2演算工程において、第1種識別器の演算結果と、検出精度が高い第2種識別器の検出結果とに基づいて、複数の第1種識別器の中から検出精度が高いと考えられる第1種識別器が特定される。そして、第1演算工程で動作する識別器が特定された第1種識別器に更新される。よって、次の演算において第1演算工程では、検出精度が高いと考えられる第1種識別器を用いて検出対象物を検出することができる。なお、第1種識別器は第2種識別器ほど検出精度が高くない識別器であるので高速で動作する。そのため、検出対象物の検出速度を維持しつつ検出精度を向上させることができる。
===実施形態===
図1は、本実施形態における人物検出システム1の概略構成を示すブロック図である。以下に示す実施形態では、人物を検出するシステムとして説明を行うが、検出対象物はこれに限られない。図1には、人物検出システム1に含まれる赤外線カメラ110と、人物検出装置120(検出器に相当)と、表示装置130が示されている。本実施形態では、赤外線カメラ110と、人物検出装置120と、表示装置130とは、それぞれ別体であり、電気的に接続されているが、これらのうち少なくとも2つが一体の装置であってもよい。
赤外線カメラ110(画像生成部に相当)は、中赤外線から遠赤外線の範囲の波長をとらえデジタル値の映像信号を人物検出装置120の画像取得部122に送信する。赤外線カメラ110は、不図示の撮像部とアナログデジタル変換部(A/D変換部)を含む。撮像部は、赤外線カメラ110の受光素子に対応するものであり、受光素子が受光した赤外領域の光に対応した信号を人物検出装置120に出力する。A/D変換部は、撮像部で得られたアナログ信号をデジタル信号に変換する機能を有する。
ここで、中赤外線は2.5μm〜4μmの波長、遠赤外線は4μm〜1000μmの波長を有する赤外光である。本実施形態では、赤外線カメラ110は8〜14μmの波長を検知し、人物の体温を検出対象とするが、この波長に限られず、温度を検出できる波長であればこれに限られない。赤外線カメラ110は、車両のフロントグリル部などに搭載される。そして、自車両(赤外線カメラ110が搭載された車両)から前方方向の環境を撮影する。
なお、本実施形態において赤外線カメラ110を採用し赤外線画像を取得するものとしているが、通常の可視光を撮影するカメラを用いることとしてもよい。
人物検出装置120は、画像取得部122と画像メモリー124と制御部126と記憶部128を含む。そして、後述するような処理により、表示装置130に表示するデータを生成する。これら画像取得部122、画像メモリー124、制御部126、及び、記憶部128は、例えば、不図示の中央演算装置(CPU)、ランダムアクセスメモリー(RAM)及びハードディスク(HDD)などにより実現される。
画像取得部122は、赤外線カメラ110が得た映像(例えば、15fpsの映像)を取得し、この映像からフレーム画像(検出対象画像)を取得する。そして、得られた各画像は画像メモリー124に送られる。
画像メモリー124は、画像取得部122から送られた画像を一時的に記憶する。制御部126は、人物検出処理を行うための演算を行う。具体的な人物検出処理については、後述する。記憶部128は、学習結果、演算途中の一時ファイル、及び、演算結果等を保存する。
表示装置130は、例えば、赤外線画像として得られている自車両前方映像を表示するディスプレイである。表示装置130には、さらに人物の検出結果として、検出された人物を強調表示することもできる。
図2は、本実施形態の概要を説明する図である。図2には、本実施形態の人物検出システム1の概要を説明するために、各処理がブロックとして表されている。人物検出システム1は、検出処理と学習処理とを行う。検出処理では、リアルタイム検出処理とパラメーター決定処理が並列に実行される。学習処理では、後述する高精度検出モジュールβと高速検出モジュールα’1〜α’3を構築するための学習が行われる。
なお、外部メモリー等を記憶部128として用いたり、学習処理によって得られる検出処理に必要なデータを外部から記憶部128に記憶させれば、必ずしも人物検出システム1が学習処理を行わなくてもよい。
学習処理では、予め用意された学習画像セットを用いて学習が行われる。そして、学習結果は、検出モジュールの識別器として記憶部128(図2において学習モデルデータベース)に記憶される。学習画像セットは、学習用に用意された複数の画像(学習用画像)であって、人物が含まれている画像、又は、人物が含まれていない画像である。各検出モジュールを構築するための学習画像セットは、検出モジュール毎にそれぞれ異ならせることができる。また、後述するように、特徴量の種類も異ならせることができる。
学習処理では、前述の学習用画像についてコントラストの調整などの前処理が行われ、学習用画像は学習器に渡される。学習器は、前処理後の学習用画像に基づいて特徴量を求め、特徴量に基づく学習結果が検出モジュールの識別器として記憶部128に記憶される。
学習処理における特徴量は、既存の様々なものを採用することができるが、ここでは一例としてHistograms of Oriented Gradients(HOG)特徴量を用いた場合について説明する。これ以外にも、特徴量を温度特徴量とすることもできる。
HOG特徴量を用いた学習処理では、人物を含む多量の画像(学習画像セット)、及び、人物を含まない多量の画像(学習画像セット)のそれぞれから輝度勾配が算出される。次に、勾配強度と勾配方向から輝度の勾配方向ヒストグラムが作成される。また、勾配方向ヒストグラムは、正規化が行われる。なお、勾配方向ヒスグラムは、複数ピクセル(例えば5×5ピクセル)を1つのセルとして取り扱うこととしてもよい。
このような勾配方向ヒストグラムを特徴量として、Adaboostを適用する。学習後のAdaboostの弱識別器により特徴量が自動的に選択され、最終的に、多数ある弱識別器の重み付き多数決により人物と人物以外に判別することができる識別器が生成される。識別器は、例えば後述するように、人物らしさHが−1〜+1の範囲で出力するものが生成されるものとする。このとき、Hの値が+1に近いほど、人物に近いものとされる。
検出処理では、赤外線カメラ110から得られたフレーム画像から検出ウィンドウに対応するクロッピング画像を切り出し、フォアグランドタスクにおいて、クロッピング画像に人物が含まれているか否かについて前述の学習結果に応じて検出を行う(検出方法については後述する)。また、バックグラウンドタスクにおいても、クロッピング画像に人物が含まれているか否かの検出が行われる。検出ウィンドウは、フレーム画像中を移動する。また、検出ウィンドウのサイズは変化させられる。これにより、取得したフレーム画像のあらゆる位置においてあらゆるサイズの人物が検出されることになる。
フォアグラウンドタスクにおける検出結果は統合される。そして、統合された結果は、フレーム画像における人物を矩形枠で囲うなどの加工が行われ、表示装置130に出力される。
図3は、本実施形態における各検出モジュールのブロック図である。図3には、赤外線カメラ110と、人物検出装置120と、表示装置130が示されている。人物検出装置120では、フォアグラウンドタスク(第1演算工程に相当)及びバックグラウンドタスク(第2演算工程に相当)の2つの処理が並列処理で行われる。フォアグラウンドタスクでは、1つの高速検出モジュールが動作するリアルタイム検出処理が実行される。一方、バックグラウンドタスクでは複数の検出モジュールが動作してパラメーター検出処理が実行される。
リアルタイム検出処理は、例えば、15fpsの速度で赤外線カメラ110からフレーム画像を取得して、人物検出処理を行う。そして、人物が検出された場合、その人物を矩形枠などで囲いディスプレイなどの表示装置130に表示し、ユーザーに警告する。このとき、人物検出の際に使用される高速検出モジュールのパラメーター(後述するように、例えば、特徴量、学習データーベース、閾値)は、1枚又は複数枚のフレーム画像の人物検出処理毎に更新される。
パラメーター決定処理では、例えば、1fps(リアルタイム検出処理よりも遅い)の速度で赤外線カメラ110からフレーム画像を取得して、3つの高速検出モジュールα’1〜α’3(第1種識別器に相当)、及び、高精度検出モジュールβ(第2種識別器に相当)による人物検出処理を行う。そして、高速検出モジュールα’1〜α’3の中で最も高精度検出モジュールβに近い検出結果を出力したもののパラメーターを最適パラメーターとしてフォアグラウンドタスクの高速検出モジュールを更新する。なお、最も高精度検出モジュールβに近い検出結果とは、後述するF−measure値に基づいて判定される。
図4は、本実施形態における人物検出処理のフローチャートである。図4には、リアルタイム検出処理(S102)とパラメーター決定処理(S104)とが並列処理されていることが示されている。リアルタイム検出処理は、前述のフォアグラウンドタスクにおける検出処理である。パラメーター決定処理は、バックグラウンドタスクにおける処理である。なお、リアルタイム検出処理の演算の方がパラメーター決定処理における演算よりも容易であるため、パラメーター決定処理が完了する前にリアルタイム検出処理が複数回完了する。
以下、並列処理されるリアルタイム検出処理とパラメーター決定処理について説明する。
図5は、リアルタイム検出処理のフローチャートである。リアルタイム検出処理は、実際に検出対象物である人物を検出して、その検出結果を表示装置130に表示するための処理である。
リアルタイム検出処理において、最初に赤外線カメラ110からフレーム画像が取得される(S202)。次に、最適パラメーターが記憶部128から取得される(S204)。そして、取得された最適パラメーターが設定されることによりフォアグラウンドタスクで動作する高速検出モジュールが更新される。このように最適パラメーターが設定されることにより、複数の高速検出モジュールの中から現時点の環境において最も検出精度の高い高速検出モジュールがフォアグラウンドタスクで動作することになる。
次に、高速検出モジュールによって、取得した画像の人物検出処理が行われる(S206)。具体的な人物検出処理は、後述する検出モジュールα’1〜α’3の動作説明において説明する。
次に、ステップS206において行われた人物検出処理の検出結果が表示される(S208)。検出結果の表示は、図2に示されるように検出された人物を矩形枠で囲うなどの表示とすることができる。
このようにすることで、フォアグラウンドタスクにおいてリアルタイム検出処理を実行することができる。
図6は、パラメーター決定処理のフローチャートである。パラメーター決定処理は、パラメーター決定処理は、バックグラウンドで最適な高速検出モジュールを選択する処理である。言い換えると、パラメーター決定処理は、バックグラウンドで最適パラメーターを求める処理である。
パラメーター決定処理において、最初に赤外線カメラ110からフレーム画像が取得される(S302)。次に、高速検出モジュールα’1〜α’3にて人物検出処理(高速検出モジュールα’1の検出処理〜高速検出モジュールα’3の検出処理)が行われる(S304〜S308)。高速検出モジュールα’1〜α’3による人物検出処理については後述する(図9〜図11)。
次に、高精度検出モジュールβにて人物の検出処理(高精度検出モジュールβ検出処理)が行われる(S310)。高精度検出モジュールβによる人物検出処理も後述する(図12)。
そして、検出精度評価処理が実行される(S312)。検出精度評価処理は、各検出モジュールの検出精度を求め、最も検出精度の高い高速検出モジュールを選択する処理である。検出精度評価処理の具体的な処理については後述するが(図13)、次に示すように、高精度検出モジュールβによる検出結果に最も近い検出結果を出力した高速検出モジュールを選択している。
図7は、検出結果の一例の説明図である。図7には、赤外線カメラ110から取得されたフレーム画像である「元画像」と、高精度検出モジュールβによる検出結果と、高速検出モジュールα’1〜α’3による検出結果が示されている。検出結果では、それぞれのモジュールによって検出された人物が矩形枠で囲われている。
高精度検出モジュールβは、適切に人物を検出しており、一人の人物が1つの矩形枠で囲われている。一方、高速検出モジュールの中には、適切に人物を検出していないものもある。高速検出モジュールα’2では、人物以外のものについても人物であるとして検出してしまっており、矩形枠が一つ多い。また、高速検出モジュールα’3では、人物を検出しているものの、その位置精度が劣っている(これは、人物を検出していないとも認定できる)。
これら、高速検出モジュールの中で、高精度検出モジュールβに最も近い検出結果を出力したのは、高速検出モジュールα’1である。よって、ここでは、最適な高速検出モジュールとして、高速検出モジュールα’1が選択されることとなる。
次に、ステップS312において選択された高速検出モジュールα’1のパラメーターが記憶部128に書き込まれる(S314)。記憶部に書き込まれた高速検出モジュールα’1のパラメーターは、前述のリアルタイム検出処理(図5、S204)において取得され使用される。このようにすることで、バックグラウンドタスクにおいて最も検出精度が高いと判定された高速検出モジュールがフォアグラウンドタスクに設定されることになる。
図8は、各検出モジュールのパラメーターの一例である。図8には、それぞれの検出モジュールの「特徴量」、学習に使用した「学習画像セット」、「弱識別器数」、及び、「閾値」が示されている。これらのパラメーターは、それぞれ少しずつ異ならされている。なお、ここでは、バックグラウンドタスクにおける高速検出モジュール数を3つとしているが、より多くの数を設けることとして、よりバリエーションを有するものとすることもできる。また、パラメーターは、これらに限られず、他の要素を用いることもできる。
図9は、高速検出モジュールα’1の検出処理のフローチャートである。図10は、高速検出モジュールα’2の検出処理のフローチャートである。図11は、高速検出モジュールα’3の検出処理のフローチャートである。図12は、高精度検出モジュールβの検出処理のフローチャートである。検出モジュールα’2、α’3、及び、βの動作は、ステップS404〜S410(図9)のパラメーターに関する部分を除いて検出モジュールα’1の動作と同様である。よって、図9を用いて検出モジュールα’1の説明を行うことで、他の図10〜図12の説明は省略する。
まず、ステップS402とステップS414においてループが構築される。このループにおいて変化させられる変数は、検出ウィンドウの位置、及び、サイズである。このループ内において人物検出を行うことにより、取得したフレーム画像のあらゆる位置においてあらゆるサイズの人物が検出されることになる。
次に、検出ウィンドウによってクロッピングされた画像の前処理が行われる(S404)。前処理は、人物を検出しやすくするための処理であって、例えば、ノイズ処理、コントラスト調整、及び、切り出された画像を識別器のサイズにあわせてリサイズする処理である。また、リサイズのアルゴリズムとしては、バイキュービック法、バイリニア法等を採用することができる。
なお、この前処理におけるバリエーションを、検出モジュールのパラメーターとして採用することもできる。たとえば、リサイズの方法をパラメーターとした場合、バイキュービック法、又は、バイリニア法をパラメーター値とすることができる。
次に、クロッピング画像の特徴量抽出処理が行われる(S406)。特徴量には、様々なものがある。よって、ここではどのような特徴量を採用するかがパラメーターとなる。例えば、図9の高速検出モジュールα’1、及び、図11の高速検出モジュールα’3では、温度特徴量が採用され、図10の高速検出モジュールα’2、及び、図12の高精度検出モジュールβでは、HOG(Histograms of Oriented Gradients)特徴量が採用されている。
次に、抽出した特徴量を用いて、識別器によって人物らしさHが算出される(S408)。識別器は、各検出モジュールに含まれる識別器である。ここでは、人物らしさを実数で返す識別器が採用されている。例えば、人物らしさHは、−1〜+1の値で表される。そして、H=1のときが最も人物らしいものとして返される。
人物らしさHの算出において、どの学習画像セットを使用して学習を行ったかが1つのパラメーターとなっている(例えば、α’1では学習画像セットAであり、α’2では学習画像セットBであり、α’3では学習画像セットCであり、βでは学習画像セットXである)。これは、学習時に使用する学習画像セットを変更することで、様々な識別器を構築することができるためである。また、識別器の構築において、Adaboostを使用した場合、識別器(強識別器)を構成する弱識別器の数もパラメーターとなる(例えば、α’1では弱識別器数が10であり、α’2では弱識別器数が5であり、α’3では弱識別器数が10であり、βでは弱識別器数が100である)。
次に、人物らしさHが所定の閾値以上か否かに基づいて、人物の検出が行われる(S410)。例えば、高速検出モジュールα’1では、閾値は、0.5として設定されている。人物らしさHを用いた人物の検出において、閾値はパラメーターとなる(例えば、α’2では0.3であり、α’3では0.7であり、βでは0.5である)。
ステップS410において、人物らしさHが閾値以上である場合には、このときの検出ウィンドウの位置及び大きさを記憶する(S412)。このようにすることで、検出された人物の位置及び大きさを記録しておくことができる。
前述のように、ステップS402とステップS414によるループによりこのような処理が繰り返して行われる。このようにすることで、フレーム画像のあらゆる場所における様々なサイズの人物を検出することができる。
図13は、検出精度評価処理のフローチャートである。検出精度評価処理は、前述の図6におけるパラメーター決定処理において用いられる処理である。
検出精度評価処理において、最初に、高精度検出モジュールβを用いて人物検出を行った結果において、検出結果を1つにまとめるマージ処理が行われる(S802)。
図14は、マージ処理の説明図である。高精度検出モジュールβを用いて人物検出を行う際、前述のように、フレーム画像の左上から検出ウィンドウがスケール変化させられ、複数回のラスタスキャンが行われる。そして、検出ウィンドウがクロッピングしたクロッピング画像に人物が含まれるか否かの検出が行われる。このように、検出ウィンドウをスケール変化させ、複数回のラスタスキャンを行った結果、同一人物が複数回検出されてしまう場合がある。よって、これらの検出結果を1つにまとめる処理が必要となる。このように、検出結果を1つにまとめるマージ処理として、Mean−Shift法によるクラスタリング等が用いられる。
このように、マージ処理が行われ、マージ後の検出結果(検出ウィンドウ)が正解の検出結果として設定される(S804)。そして、この解を基準に、以降の高速検出モジュールの検出精度が求められる。
次に、高速検出モジュールα’1の検出精度、高速検出モジュールα’2の検出精度、及び、高速検出モジュールα’3の検出精度が求められる(S806〜S810)。検出精度は、以下のF−Measure値が用いられる。
図15は、F−Measure値の説明図である。図15において、「TP」は、人物を人物として正しく検出した場合を示す。「FP」は、人物ではないのに、人物であるとして検出してしまった場合を示す。「FN」は、人物であるのに、人物ではないものとして検出してしまった場合を示す。「TN」は、人物ではないのを人物ではないとして正しく検出した場合を示す。
F−Measure値は、以下の式に基づいて求められる。そして、F−Measure値が高いものほど、検出精度が高いものと判定される。
例えば、図7に示すような結果が得られた場合には、TP、FP、FNは次のようになる。高速検出モジュールα’1の検出結果では、TP=1、FP=0、FN=0である。高速検出モジュールα’2の検出結果では、TP=1、FP=1、FN=0である。高速検出モジュールα’3の検出結果では、TP=0、FP=0、FN=1である。
このような結果から、高速検出モジュールα’1のF−Measure値が最も高く、検出精度が最も高い高速検出モジュールとして採用される。
このようにすることで、フォアグラウンドタスク(第1演算工程)において人物の検出処理が行われる。一方、バックグラウンドタスク(第2演算工程)において、高速検出モジュール(第1種識別器)の演算結果と、高精度検出モジュール(第2種識別器)の検出結果とに基づいて、複数の高速検出モジュール(第1種識別器)の中から検出精度が高いと考えられる高速検出モジュール(第1種識別器)が特定される。そして、フォアグラウンドタスク(第1演算工程)で動作する検出モジュールが特定された高速検出モジュール(第1種識別器)に更新される。よって、次の演算においてフォアグラウンドタスク(第1演算工程)では、検出精度が高いと考えられる高速検出モジュール(第1種識別器)を用いて検出対象物を検出することができる。なお、高速検出モジュール(第1種識別器)は高精度検出モジュール(第2種識別器)ほど検出精度が高くない識別器であるので高速で動作する。そのため、検出対象物の検出速度を維持しつつ検出精度を向上させることができる。
上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは言うまでもない。
1 人物検出システム、
110 赤外線カメラ、120 人物検出装置、130 表示装置、
122 画像取得部、124 画像メモリー、
126 制御部、128 記憶部

Claims (9)

  1. センサーの出力に対応する階調値を含む検出対象画像を生成する画像生成部と、
    前記検出対象画像から検出対象物を検出する検出器であって、複数の第1種識別器と前記第1種識別器よりも前記検出対象物の検出精度が高い第2種識別器とを有する検出器と、を含み、
    前記検出器は、第1演算工程と第2演算工程を並列動作させ、
    前記第1演算工程において、複数の第1種識別器のうち1つの第1種識別器を用いて検出対象物を検出するとともに、
    前記第2演算工程において、前記複数の第1種識別器と前記第2種識別器を用いて検出対象物を検出し、前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて前記第2種識別器の検出結果に最も近い第1種識別器を特定し、前記第1演算工程で動作する識別器を特定した前記第1種識別器に更新する、検出装置。
  2. 前記第1種識別器と前記第2種識別器はそれぞれ複数の弱識別器を含み、前記第2種識別器の弱識別器数は前記第1種識別器の弱識別数よりも多い、請求項1に記載の検出装置。
  3. 前記第1種識別器は前記第2種識別器よりも検出速度が速い、請求項1又は2に記載の検出装置。
  4. 前記第1演算工程はフォアグラウンドタスクとして動作し、前記第2演算工程はバックグラウンドタスクとして動作する、請求項1〜3のいずれかに記載の検出装置。
  5. 前記複数の第1種識別器のそれぞれは、弱識別器数、特徴量の種類、学習時に使用される学習画像セット、及び、検出対象物の検出に用いられる閾値のうち少なくとも1つが異ならされる、請求項1〜4のいずれかに記載の検出装置。
  6. 前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて前記第2識別器の検出結果に最も近い第1種識別器を特定する際、検出結果から求められる検出精度に基づいて前記第1種識別器が特定される、請求項1〜5のいずれかに記載の検出装置。
  7. 前記検出精度は、F−measure値で表される、請求項6に記載の検出装置。
  8. センサーの出力に対応する階調値を含む検出対象画像を生成することと、
    第1演算工程と第2演算工程を並列動作させ、前記検出対象画像から検出対象物を検出することと、を含み、
    前記第1演算工程において、複数の第1種識別器のうち1つの第1種識別器を用いて検出対象物を検出するとともに、
    前記第2演算工程において、前記複数の第1種識別器と前記複数の第1種識別器よりも前記検出対象物の検出精度が高い第2種識別器を用いて検出対象物を検出し、前記複数の第1種識別器の検出結果と前記第2種識別器の検出結果とに基づいて前記第2種識別器の検出結果に最も近い第1種識別器を特定し、前記第1演算工程で動作する識別器を特定した前記第1種識別器に更新する、検出方法。
  9. 請求項1〜7のいずれかに記載された検出装置を搭載したことを特徴とする車両。
JP2011271477A 2011-12-12 2011-12-12 検出装置、検出方法、及び、車両 Active JP5862261B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011271477A JP5862261B2 (ja) 2011-12-12 2011-12-12 検出装置、検出方法、及び、車両

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011271477A JP5862261B2 (ja) 2011-12-12 2011-12-12 検出装置、検出方法、及び、車両

Publications (3)

Publication Number Publication Date
JP2013122723A JP2013122723A (ja) 2013-06-20
JP2013122723A5 JP2013122723A5 (ja) 2015-01-15
JP5862261B2 true JP5862261B2 (ja) 2016-02-16

Family

ID=48774641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011271477A Active JP5862261B2 (ja) 2011-12-12 2011-12-12 検出装置、検出方法、及び、車両

Country Status (1)

Country Link
JP (1) JP5862261B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7218118B2 (ja) * 2018-07-31 2023-02-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN109188457B (zh) * 2018-09-07 2021-06-11 百度在线网络技术(北京)有限公司 物体检测框的生成方法、装置、设备、存储介质及车辆
JP6677830B1 (ja) * 2019-01-18 2020-04-08 ソフトバンク株式会社 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218712B2 (ja) * 2006-08-04 2009-02-04 ソニー株式会社 顔検出装置、撮像装置および顔検出方法
JP4818997B2 (ja) * 2007-06-29 2011-11-16 オリンパス株式会社 顔検出装置及び顔検出プログラム

Also Published As

Publication number Publication date
JP2013122723A (ja) 2013-06-20

Similar Documents

Publication Publication Date Title
CN111587437B (zh) 使用视频管的活动识别方法
CN109255352B (zh) 目标检测方法、装置及系统
CN106778867B (zh) 目标检测方法和装置、神经网络训练方法和装置
CN108537112B (zh) 图像处理装置、图像处理系统、图像处理方法及存储介质
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP6732214B2 (ja) 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム
US9373034B2 (en) Apparatus and method for tracking object
EP3168810A1 (en) Image generating method and apparatus
JP4479756B2 (ja) 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP6688277B2 (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
JP5675233B2 (ja) 情報処理装置、その認識方法及びプログラム
JP2008234654A (ja) 目標画像検出方法及び画像検出装置
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
JP2012059030A (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
JP2012084012A (ja) 画像処理装置、その処理方法及びプログラム
KR101661211B1 (ko) 얼굴 인식률 개선 장치 및 방법
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP5862261B2 (ja) 検出装置、検出方法、及び、車両
KR20110029002A (ko) 얼굴 판단 장치 및 방법
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP2011210087A (ja) 車両周囲監視装置および車両周囲監視方法
US11074716B2 (en) Image processing for object detection
KR101726692B1 (ko) 객체 추출 장치 및 방법
JP2020017136A (ja) 物体検出認識装置、方法、及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5862261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350