JP2014174794A - 特徴点抽出アルゴリズム評価装置、および特徴点抽出アルゴリズム評価方法 - Google Patents
特徴点抽出アルゴリズム評価装置、および特徴点抽出アルゴリズム評価方法 Download PDFInfo
- Publication number
- JP2014174794A JP2014174794A JP2013047637A JP2013047637A JP2014174794A JP 2014174794 A JP2014174794 A JP 2014174794A JP 2013047637 A JP2013047637 A JP 2013047637A JP 2013047637 A JP2013047637 A JP 2013047637A JP 2014174794 A JP2014174794 A JP 2014174794A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- extraction algorithm
- image
- point extraction
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】顔面画像から特徴点を抽出する特徴点抽出アルゴリズムの評価に掛かる手間を抑制する。
【解決手段】近赤外光の反射率は顔面と同じであり、且つ、特定色を有するマーカーを付した顔面を、近赤外画像を撮像可能な第1撮像手段およびカラー画像を撮像可能な第2撮像手段で撮像する。そして、「第1撮像手段で撮像した顔面画像から特徴点抽出アルゴリズムに基づき抽出された第1特徴点」と、「第2撮像手段で撮像した顔面画像から抽出された特徴点抽出アルゴリズムが特徴点として抽出すべき第2特徴点」とを比較して、その結果に基づいて特徴点抽出アルゴリズムを評価する。
【選択図】図10
【解決手段】近赤外光の反射率は顔面と同じであり、且つ、特定色を有するマーカーを付した顔面を、近赤外画像を撮像可能な第1撮像手段およびカラー画像を撮像可能な第2撮像手段で撮像する。そして、「第1撮像手段で撮像した顔面画像から特徴点抽出アルゴリズムに基づき抽出された第1特徴点」と、「第2撮像手段で撮像した顔面画像から抽出された特徴点抽出アルゴリズムが特徴点として抽出すべき第2特徴点」とを比較して、その結果に基づいて特徴点抽出アルゴリズムを評価する。
【選択図】図10
Description
本発明は、顔面画像の特徴点を抽出する特徴点抽出アルゴリズムに関し、詳しくは特徴点抽出アルゴリズムを評価する技術に関する。
近年、運転者の顔を撮像するとともに、この撮像した顔面画像に基づいて運転者の状態を判定することによって、各種の運転支援を行う技術が一般的になりつつある。例えば、顔面画像に基づいて運転者が脇見運転をしていると判定すると、警報を出力する技術が提案されている。このような技術では、運転者の状態を判定するために、顔面画像上の特徴点を抽出することで顔の各部位(目、まぶた、瞳、鼻、口など)を特定することが前提となる(特許文献1)。
顔面画像上の特徴点は、所定の特徴点抽出アルゴリズムを利用して抽出するが、この特徴点抽出アルゴリズムについては、抽出精度や抽出速度を上げるなどの目的で様々な改良が行われている。そして、この特徴点抽出アルゴリズムの改良には、それに付随して、様々な条件や被写体を用いて、改良した特徴点抽出アルゴリズムの特徴点の抽出精度や抽出速度などを評価する作業が必要となる。
しかし、特徴点抽出アルゴリズムの改良効果や動作を様々な条件や被写体で評価する作業はたいへんに手間の掛かる作業であるという問題があった。すなわち、改良した特徴点抽出アルゴリズムを利用して特徴点が正確に抽出できているか否かを評価するには、人手によって、特徴点の抽出結果が顔面画像の各部位と一致しているか否かを判定する必要があり、そうした作業を様々な条件や被写体で行うのはたいへんな手間が掛かるという問題があった。
この発明は、従来の技術が有する上述した課題に鑑みてなされたものであり、特徴点抽出アルゴリズムの評価に掛かる手間を抑制できる特徴点抽出アルゴリズム評価技術の提供を目的とする。
上述した問題を解決するために、本発明の特徴点抽出アルゴリズム評価装置および特徴点抽出アルゴリズム評価方法は、所定の特定色を呈するが、近赤外光の波長では顔面の肌の部分と等しい反射率を有するマーカーが、特徴点に付されたマーカー付の顔面を、近赤外光を用いて第1撮像手段で撮像することによって、近赤外画像を得る。また、当該マーカー付の顔面を第2撮像手段で撮像することによって、カラー画像を得る。そして、近赤外画像から特徴点を抽出するアルゴリズム(以下「特徴点抽出アルゴリズム」という)を用いて抽出した第1特徴点と、カラー画像から特定色に基づいて抽出した特徴点とを比較することによって、特徴点抽出アルゴリズムを評価する。
顔面に付されたマーカーは近赤外光の長では顔面の肌の部分と等しい反射率を有することから、近赤外画像においては、マーカーに対応する画素の情報(例えば輝度情報)と、その周辺の画素の情報との差異がない。したがって、近赤外画像からは、本発明の評価対象となる特徴点抽出アルゴリズムに基づき、マーカーが顔面に付されていない場合と同等の第1特徴点が抽出される。これに対して、顔面に付されたマーカーは特定色を呈するから、カラー画像においては、特定色に基づき第2特徴点を抽出することができる。ここで、マーカーは本発明の評価対象となる「特徴点抽出アルゴリズム」が特徴点として抽出すべき位置に付されている。したがって、このように抽出された第1特徴点と第2特徴点とを比較することによって、手間を抑制するとともに迅速に特徴点抽出アルゴリズムの評価を行うことが可能となる。
尚、「近赤外光を用いて撮像する第1撮像手段」とは、「特定色(マーカー)に基づく特徴点の抽出を行うことができない画像(近赤外画像)」を撮像する手段である。また、「近赤外光の波長では顔面の肌の部分と等しい反射率を有する」とは、近赤外画像において特定色(マーカー)に基づく特徴点の抽出が不可能である程度に反射率が等しければよい。また、「特定色」とは、カラー画像においてマーカーに対応する画素に基づく特徴点の抽出が可能である程度に、可視光の波長域のうち少なくとも一部の反射率が顔面と異なるものであればよい。
また、上述した本発明の特徴点抽出アルゴリズム評価装置においては、近赤外画像における複数の第1特徴点の各々について、各第1特徴点に対応する第2特徴点から所定の距離以内に存在するか否かを判断し、複数の第1特徴点のうち、第2特徴点から所定の距離以内に存在する第1特徴点の割合である画像毎精度に基づいて、特徴点抽出アルゴリズムを評価してもよい。
こうすれば、1つの近赤外画像に含まれる複数の特徴点に基づいて特徴点抽出アルゴリズムを評価することができるので、個々の近赤外画像ごとにも評価することができる。この結果、特徴点抽出アルゴリズムの評価を詳細に行うことが可能となる。
また、上述した本発明の特徴点抽出アルゴリズム評価装置においては、複数の近赤外画像のうち、画像毎精度が所定の値より高い近赤外画像の割合に基づいて、特徴点抽出アルゴリズムを評価してもよい。
こうすれば、複数の近赤外画像のうち、特徴点の抽出精度の高い(または低い)近赤外画像の割合に基づき、特徴点抽出アルゴリズムを評価することができるので、一連の近赤外画像毎にも評価することができる。この結果、特徴点抽出アルゴリズムの評価をさらに詳細に行うことが可能となる。
以下では、上述した本願発明の内容を明確にするために特徴点抽出アルゴリズム評価装置の実施例について説明するが、その準備として先ず、該装置の評価対象となる特徴点抽出アルゴリズムについて説明する。尚、この特徴点抽出アルゴリズムの説明は、特徴点抽出アルゴリズムを利用する装置の一例(運転者状態監視装置)について説明することによって行う。
A.運転者状態監視装置 :
A−1.装置構成 :
図1には、運転者状態監視装置10の大まかな構成が示されている。図示されるように、運転者状態監視装置10は車両100に設けられており、近赤外光を用いて撮像する近赤外光カメラ11で運転者の顔面を定期的に(例えば1秒間に30回)撮像することにより、運転者の顔面画像を取得している。運転者の顔面の撮像に近赤外光カメラ11を利用する理由は、運転者の視界を妨げることなく、運転者の顔面を撮像することができるためのである。
A−1.装置構成 :
図1には、運転者状態監視装置10の大まかな構成が示されている。図示されるように、運転者状態監視装置10は車両100に設けられており、近赤外光を用いて撮像する近赤外光カメラ11で運転者の顔面を定期的に(例えば1秒間に30回)撮像することにより、運転者の顔面画像を取得している。運転者の顔面の撮像に近赤外光カメラ11を利用する理由は、運転者の視界を妨げることなく、運転者の顔面を撮像することができるためのである。
図2には、運転者状態監視装置10の詳細な構成が示されている。図示されているように、運転者状態監視装置10は、CPU12を中心として、主に上述した近赤外光カメラ11、特徴点抽出アルゴリズムを含むプログラムが記憶されているROM13、CPU14の作業領域であるとともに近赤外光カメラ11によって撮像された運転者の顔面画像が記憶されるRAM14、所定の情報が出力されるディプレイやスピーカー等の出力装置15が、バス16を介して接続されている。運転者状態監視装置10では、CPU12が特徴点抽出アルゴリズムを含むプログラムを実行することによって、運転者の状態を検出するとともに該状態に対応して所定の情報を出力する処理(運転者状態対応処理)が行われる。
A−2.運転者状態対応処理 :
図3には、運転者状態監視装置10のCPU12が実行する運転者状態対応処理のフローチャートが示されている。CPU12は、運転者状態対応処理を開始すると、近赤外光カメラ11を利用して運転者の顔面を撮像するとともに、撮像された顔面画像をRAM14に記憶する(S100)。続いて、RAM14に記憶された顔面画像を読み出して、読み出した顔面画像から特徴点を抽出するための特徴点抽出処理を行う(S102)。
図3には、運転者状態監視装置10のCPU12が実行する運転者状態対応処理のフローチャートが示されている。CPU12は、運転者状態対応処理を開始すると、近赤外光カメラ11を利用して運転者の顔面を撮像するとともに、撮像された顔面画像をRAM14に記憶する(S100)。続いて、RAM14に記憶された顔面画像を読み出して、読み出した顔面画像から特徴点を抽出するための特徴点抽出処理を行う(S102)。
図4には、顔面画像から特徴点が抽出される様子が概念的に示されている。図示されるように、特徴点抽出処理では、特徴点抽出アルゴリズムに基づく処理を行うことによって、顔面画像から特徴点を抽出する。特徴点としては、顔面画像上の顔面の各部位(目、まぶた、瞳、鼻、口など)が抽出される。
こうして、特徴点抽出処理で特徴点を抽出したら(図3のS102)、状態判定処理を行う(S104)。状態判定処理では、抽出された特徴点に基づき顔面の各部位の位置(座標)を検出し、各部位の位置の変化に基づき運転手の状態を判定する。例えば、まぶたが所定時間以上閉じられた状態であるか否かを判定する。
こうして、状態判定処理で運転手の状態を判定したら(S104)、出力処理を行う(S106)。出力処理では、出力装置15を用いて、判定した運転手の状態に対応する出力を行う。例えば、運転手の状態が居眠り状態であると判定したら、出力装置15から警報を出力する。
以上のように、運転者状態監視装置10では、運転者の状態を判定するとともに判定した運転者の状態に対応する出力を行うことで、運転者の運転を支援している。ここで、運転者の状態は特徴点に基づき判定されることから、運転者の状態の判定精度は特徴点の抽出精度に大きく依拠する。したがって、特徴点を抽出するための特徴点抽出アルゴリズムは、特徴点の抽出精度を高めるために日々改良が重ねられている。しかし、この改良した特徴点抽出アルゴリズムの評価にはたいへんな手間が掛かるものであった。以下では、このような課題を解決する「特徴点抽出アルゴリズム評価装置」について説明する。
B.特徴点抽出アルゴリズム評価装置 :
B−1.装置構成 :
図5には、本実施例の特徴点抽出アルゴリズム評価装置の構成が示されている。図示されるように、本実施例の特徴点抽出アルゴリズム評価装置20は、特徴点抽出アルゴリズムを評価するための処理を行うCPU23、この処理を行うためのプログラムが記憶されているROM24、CPU23の作業領域であるRAM25、特徴点抽出アルゴリズムの評価結果が出力されるディスプレイ等の表示装置26が、バス27を介して接続されている。また、バス27には、SDRAM30用のインターフェース22が接続されている。インターフェース30には、SDRAM30を接続することが可能であり、SDRAM30の記憶内容は、SDRAM30がインターフェース22に接続されることによってCPU23から読み取ることが可能となる。ここで、SDRAM30には、特徴点抽出アルゴリズムの評価を行うための顔面画像(以下「評価用画像」という)が記憶されている。以下では、この評価用画像について説明する。
B−1.装置構成 :
図5には、本実施例の特徴点抽出アルゴリズム評価装置の構成が示されている。図示されるように、本実施例の特徴点抽出アルゴリズム評価装置20は、特徴点抽出アルゴリズムを評価するための処理を行うCPU23、この処理を行うためのプログラムが記憶されているROM24、CPU23の作業領域であるRAM25、特徴点抽出アルゴリズムの評価結果が出力されるディスプレイ等の表示装置26が、バス27を介して接続されている。また、バス27には、SDRAM30用のインターフェース22が接続されている。インターフェース30には、SDRAM30を接続することが可能であり、SDRAM30の記憶内容は、SDRAM30がインターフェース22に接続されることによってCPU23から読み取ることが可能となる。ここで、SDRAM30には、特徴点抽出アルゴリズムの評価を行うための顔面画像(以下「評価用画像」という)が記憶されている。以下では、この評価用画像について説明する。
図6には、評価用画像を撮像する様子が示されている。本実施例の特徴点抽出アルゴリズム評価装置20では、評価用画像として、近赤外光カメラ31および可視光カメラ32で撮像した顔面画像を使用する。これらのカメラのうち、近赤外光カメラ31は、上述した運転者状態監視装置10の一部として車両100に搭載される近赤外光カメラ11と同様に、近赤外光を用いて撮像するカメラである。また、可視光カメラ32は、可視光を用いて撮像するカメラである。
撮像対象となる顔面には、特徴点抽出アルゴリズムが特徴点として抽出すべき位置、すなわち、顔面の各部位に対応する位置にマーカーが付されている。マーカーとしては、特定色を呈する(可視光の波長域の少なくとも一部の反射率が顔面と異なる)が、近赤外光の波長では顔面の肌の部分と等しい反射率を有する材質が用いられる。例えば、このような材質から成る塗料や、テープ等が用いられる。「近赤外光の波長では顔面の肌の部分と等しい反射率」を有する材質としては、近赤外光カメラ31で撮像された評価用画像(以下「近赤外画像」という)において、マーカーの位置に対応する画素の情報(近赤外光の輝度情報)と肌の位置に対応する画素の情報(近赤外光の輝度情報)との差異が第1所定値以下となる材質であればよい。また、「特定色を呈する」材質としては、可視光カメラ32で撮像された評価用画像(以下「可視画像」という)において、マーカーの位置に対応する画素の情報(特定色を示す情報)と肌の位置に対応する画素の情報(肌色を示す情報)との差異が第2所定値以上となる材質であればよい。
図7には、近赤外画像および可視画像の一例が示されている。図示されるように、近赤外画像においては、マーカーの位置に対応する画素の情報と肌の位置に対応する画素の情報とが同様であり、可視画像においては、マーカーの位置に対応する画素の情報と肌の位置に対応する画素の情報とが異なっている。
「近赤外光カメラ31による近赤外画像の撮像」と「可視光カメラ32による可視画像の撮像」とは同じタイミング(0.1秒以内)で複数回に亘って行われる。そして、同じタイミングで撮像された近赤外画像および可視画像は互いに対応付けられてSDRAM30に記憶される。図8には、SDRAM30に記憶された近赤外画像および可視画像が概念的に示されている。図示されるように、近赤外画像および可視画像は、撮像タイミング毎に通し番号が付されて記憶されている。こうして、SDRAM30に評価用画像(近赤外画像および可視画像)を記憶させたら、SDRAM30をインターフェース22に接続し(図5参照)、該評価用画像を利用して特徴点抽出アルゴリズムの評価を行う。
B−2.特徴点抽出アルゴリズム評価処理 :
図9には、特徴点抽出アルゴリズム評価装置20のCPU23が実行する特徴点抽出アルゴリズム評価処理のフローチャートが示されている。CPU23は、特徴点抽出アルゴリズム評価処理を開始すると、評価用画像の通し番号(図8参照)を示す代数nに1を代入する(S200)。続いて、通し番号n(ここでは通し番号「1」)の近赤外画像を読み出す(S202)。そして、特徴点抽出アルゴリズム評価装置20の評価対象である「特徴点抽出アルゴリズム」を利用して、読み出した近赤外画像から複数の特徴点(近赤外画像上の座標)を抽出する(S203)。すなわち、図1〜図4を用いて前述した運転者状態監視装置10の一部として当該「特徴点抽出アルゴリズム」が搭載される場合と同様に、実際に当該「特徴点抽出アルゴリズム」を利用して、近赤外画像から複数の特徴点を抽出する。
図9には、特徴点抽出アルゴリズム評価装置20のCPU23が実行する特徴点抽出アルゴリズム評価処理のフローチャートが示されている。CPU23は、特徴点抽出アルゴリズム評価処理を開始すると、評価用画像の通し番号(図8参照)を示す代数nに1を代入する(S200)。続いて、通し番号n(ここでは通し番号「1」)の近赤外画像を読み出す(S202)。そして、特徴点抽出アルゴリズム評価装置20の評価対象である「特徴点抽出アルゴリズム」を利用して、読み出した近赤外画像から複数の特徴点(近赤外画像上の座標)を抽出する(S203)。すなわち、図1〜図4を用いて前述した運転者状態監視装置10の一部として当該「特徴点抽出アルゴリズム」が搭載される場合と同様に、実際に当該「特徴点抽出アルゴリズム」を利用して、近赤外画像から複数の特徴点を抽出する。
続いて、今度は、通し番号n(ここでは通し番号「1」)の可視画像を読み出す(S206)。そして、読み出した可視画像中のマーカー位置に対応する画像に基づいて、複数の特徴点(可視画像上の座標)を抽出する(S208)。ここで、図6を用いて前述したように、マーカーは、特徴点抽出アルゴリズムが特徴点として抽出すべき位置、すなわち、顔面の各部位に対応する位置に付されている。また、図7を用いて前述したように、可視画像においては、マーカーの位置(顔面の各部位)に対応する画素の情報と、肌の位置に対応する画素の情報との差異が第2所定値以上である。したがって、S208の処理では、一般的なエッジ検出等の処理を行うことによって、マーカー位置に対応する画素に基づいて(特定色に基づいて)、特徴点抽出アルゴリズムが特徴点として抽出すべき位置が特徴点として正確に抽出される。尚、以下では、近赤外画像から「特徴点抽出アルゴリズム」を利用して抽出される特徴点を「評価抽出点」と称し、可視画像から抽出される特徴点を「基準特徴点」と称する。
こうして、近赤外画像から複数の評価特徴点を抽出するとともに(S204)、可視画像から複数の基準特徴点を抽出したら(S208)、複数の評価特徴点と複数の基準特徴点とを互いに比較する(S210)。
図10には、評価特徴点と基準特徴点とを比較する様子が概念的に示されている。図示されるように、本実施例の特徴点抽出アルゴリズム評価装置20では、評価対象となる「特徴点抽出アルゴリズム」を利用して近赤外画像から複数の評価特徴点を抽出する。また、当該近赤外画像と同じタイミングで撮像された可視光画像から複数の基準特徴点を抽出する。そして、図9のS210の処理で、近赤外画像から抽出された複数の評価特徴点それぞれについて、可視光画像から抽出された基準特徴点に一致しているか否かを判断する。尚、この判断処理は、各基準特徴点に基づく座標範囲(領域)を設定し、この設定された各座標範囲に各評価特徴点が含まれるか否かを判断することによって行われる。
続いて、通し番号nが付された近赤外画像から抽出された全ての評価特徴点のうち基準特徴点に一致しなかった評価特徴点の割合(以下「評価特徴点誤り率」という)を演算する(S212)。ここで、評価特徴点は特徴点抽出アルゴリズムを用いて抽出されることから、「評価特徴点誤り率」は、通し番号nが付された近赤外画像に対しての「特徴点抽出アルゴリズムによる特徴点の抽出精度」を示している。
こうして、通し番号nが付された近赤外画像における「評価特徴点誤り率」を演算したら、通し番号nが最後の番号であるか否か、すなわち、他にも評価用画像が記憶されているか否かを判断する。その結果、他にも評価用画像が記憶されている場合は(S214:yes)、通し番号nに1を加算することで、次の通し番号の評価用画像に対して、上述したS202〜S212の処理を行う。そして、S202〜S212の処理を繰り返しているうちに、全ての近赤外画像について「評価特徴点誤り率」が演算されたら(S214:no)、これらの「評価特徴点誤り率」を評価結果として表示装置26に出力する処理を行う(S220)。
図11には、評価結果の出力態様の一例が示されている。図示されるように、本実施例の特徴点抽出アルゴリズム評価装置では、評価結果として、撮像タイミング(通し番号)毎の「評価特徴点誤り率」が折れ線グラフで示されている。当然ながら、評価特徴点誤り率が低い方が評価対象である特徴点抽出アルゴリズムの特徴点の抽出精度が高く、評価特徴点誤り率が高い方が該抽出精度が低い。また、図示されるように、しきい値となる評価特徴点誤り率(図中「th%」、例えば90%)を設け、それより評価特徴点誤り率が高い撮像タイミング(通し番号)、すなわち、近赤外画像を示す情報が示されている(図中の範囲「E」)。このような評価結果を出力することにより、図9のS204の処理で用いた特徴点抽出アルゴリズム(すなわち、評価対象である特徴点抽出アルゴリズム)の特徴点の抽出精度を、評価者が確認することが可能となる。
以上のように、本実施例の特徴点抽出アルゴリズム評価装置20は、顔面に付されたマーカーは近赤外光の波長では顔面の肌部分と等しい反射率を有することから、近赤外画像においては、マーカーに対応する画素の情報(近赤外光の輝度情報)とその周辺(例えば肌に対応する部分)の画素の情報(近赤外光の輝度情報)との差異がない。したがって、近赤外画像からは、マーカーに対応する画素に基づくことなく(すなわち、図1〜図4を用いて前述した運転者状態監視装置10において、マーカーが付されていない顔面を近赤外画像として撮像した場合と同様に)、特徴点抽出アルゴリズム評価装置20の評価対象となる「特徴点抽出アルゴリズム」に基づき評価特徴点が抽出される。
これに対して、顔面に付されたマーカーは特定色を呈することから、可視画像においては、マーカーに対応する画素の情報(特定色を示す情報)とその他の画素の情報(肌色を示す情報)とは異なる。したがって、マーカーに対応する画素に基づき基準特徴点を抽出することができる。ここで、マーカーは特徴点抽出アルゴリズム評価装置20の評価対象となる「特徴点抽出アルゴリズム」が特徴点として抽出すべき位置に付されている。したがって、マーカーに対応する画素に基づき基準特徴点が抽出されることで、特徴点抽出アルゴリズム評価装置20の評価対象となる「特徴点抽出アルゴリズム」が特徴点として抽出すべき位置が基準特徴点として正確に抽出される。
そして、以上のような「特徴点抽出アルゴリズム評価装置20の評価対象となる特徴点抽出アルゴリズムに基づき抽出された評価特徴点」と「特徴点抽出アルゴリズム評価装置20の評価対象となる特徴点抽出アルゴリズムが特徴点として抽出すべき基準特徴点」とを比較して、その比較結果を出力する。したがって、出力された比較結果を確認することで、手間を抑制するとともに迅速に特徴点抽出アルゴリズムの評価を行うことが可能となる。
また、本実施例の特徴点抽出アルゴリズム評価装置20は、1つの近赤外画像から複数の評価特徴点を抽出し、1つの可視画像から複数の基準特徴点を抽出する。そして、複数の評価特徴点のうち基準特徴点に一致しなかった評価特徴点の割合を示す評価特徴点誤り率を演算して表示装置26に出力する。
したがって、1つの近赤外画像において、複数の「特徴点抽出アルゴリズム評価装置20の評価対象となる特徴点抽出アルゴリズムに基づき抽出された評価特徴点」のうち、「特徴点抽出アルゴリズム評価装置20の評価対象となる特徴点抽出アルゴリズムが特徴点として抽出すべき基準特徴点」に一致なかった基準特徴点の割合を確認することができるので、1つの近赤外画像における特徴点抽出アルゴリズムの特徴点の抽出精度を確認することが可能となる。この結果、特徴点抽出アルゴリズムの評価を詳細に行うことが可能となる。
また、本実施例の特徴点抽出アルゴリズム評価装置20は、複数の近赤外画像と複数の可視画像を記憶し、複数の近赤外画像のうち、評価特徴点誤り率が所定値より大きい近赤外画像の撮像タイミング(通し番号)を出力する。
したがって、複数の近赤外画像のうち、評価特徴点が基準特徴点に一致しなかった割合が大きい近赤外画像、すなわち、特徴点抽出アルゴリズム評価装置20の評価対象となる「特徴点抽出アルゴリズム」による特徴点の抽出精度が低い近赤外画像を確認することができる。この結果、特徴点抽出アルゴリズムの評価をさらに詳細に行うことが可能となる。
C.変形例 :
図12には、変形例の特徴点抽出アルゴリズム評価装置40の構成が示されている。図5と比較すると明らかなように、変形例の特徴点抽出アルゴリズム評価装置40は、インターフェース22やSDRAM30を備えておらず、CPU43、ROM43、RAM45、表示装置46、バス47の他に、近赤外光を用いて撮像する近赤外光カメラ48と、可視光を用いて撮像する可視光カメラ49とを備えている。すなわち、変形例の特徴点抽出アルゴリズム評価装置40は、近赤外画像および可視画像を撮像可能な構成となっている。
図12には、変形例の特徴点抽出アルゴリズム評価装置40の構成が示されている。図5と比較すると明らかなように、変形例の特徴点抽出アルゴリズム評価装置40は、インターフェース22やSDRAM30を備えておらず、CPU43、ROM43、RAM45、表示装置46、バス47の他に、近赤外光を用いて撮像する近赤外光カメラ48と、可視光を用いて撮像する可視光カメラ49とを備えている。すなわち、変形例の特徴点抽出アルゴリズム評価装置40は、近赤外画像および可視画像を撮像可能な構成となっている。
変形例の特徴点抽出アルゴリズム抽出処理を開始すると、CPU43は、近赤外光カメラ48に近赤外画像を撮像させるとともに、この撮像と同じタイミングで可視光カメラ49に可視画像を撮像させる。このとき撮像された近赤外画像および可視画像は、RAM45の所定アドレスに記憶される。続いて、今回撮像された近赤外画像を読み出す。そして、図9のS204の処理と同様に、評価対象である特徴点抽出アルゴリズムを利用して、読み出した近赤外画像から評価特徴点を抽出する。
次に、今回撮像された可視光画像を読み出す。そして、図9のS208と同様に、マーカー部分に基づき、読み出した可視画像から基準特徴点を抽出する。続いて、図9のS210〜S212の処理と同様に、評価特徴点と基準特徴点とを比較して、評価特徴点誤り率を演算する。その後、演算した評価特徴点誤り率を評価結果として出力する。すなわち、変形例の特徴点抽出アルゴリズム評価装置40では、評価特徴点誤り率を演算するたびに該評価特徴点誤り率を評価結果として出力する。こうして、評価結果を出力したら、上述した処理を繰り返す。尚、評価結果を出力する構成としては、評価特徴点誤り率を示す数字を表示する構成や、評価特徴点誤り率を演算するたび、該評価特徴点誤り率に対応するグラフ部分を加えて表示する構成(例えば、図11に示す折れ線グラフが延びていく構成)等が例示できる。
以上のように本変形例の特徴点抽出アルゴリズム評価装置40は、近赤外光カメラ48および可視光カメラ49を備える。したがって、近赤外画像および可視画像を別途用意する必要がなく、近赤外画像および可視画像を撮像するたびに特徴点抽出アルゴリズムの評価を行うことができる。この結果、手間を更に抑制するとともに、更に迅速に、特徴点抽出アルゴリズムの評価を行うことが可能となる。
尚、本実施例の近赤外光カメラ31および本変形例の近赤外光カメラ48は、所定の特定色を呈するが、近赤外光の波長では顔面の肌の部分と等しい反射率を有するマーカーが、特徴点に付されたマーカー付の顔面を、近赤外光を用いて撮像する。したがって、近赤外光カメラ31および本変形例の近赤外光カメラ48は、本発明における「第1撮像手段」に対応している。また、本実施例の可視光カメラ32および本変形例の可視光カメラ49は、マーカー付の顔面の可視光画像(カラー画像)を撮像することから、本発明における「第2撮像手段」に対応している。また、本実施例のSDRAM30および本変形例のRAM45は、近赤外画像および可視光画像(カラー画像)を記憶することから、本発明における「第1記憶手段」および「第2記憶手段」に対応している。
また、本実施例のCPU23および本変形例のCPU43は、近赤外画像から特徴点抽出アルゴリズムを用いて抽出した評価特徴点(第1特徴点)と、可視光画像(カラー画像)から特定色に基づいて抽出した基準特徴点(第2特徴点)とを比較することによって、次のように特徴点抽出アルゴリズムを評価することから、本発明における「評価手段」に対応している。すなわち、近赤外画像における複数の評価特徴点(第1特徴点)の各々について、各評価特徴点(第1特徴点)に対応する基準特徴点に基づく所定の座標範囲内(第2特徴点から所定の距離以内)に存在するか否かを判断し、複数の評価特徴点(第1特徴点)のうち、基準特徴点に基づく所定の座標範囲内(第2特徴点から所定の距離以内)に存在しない(存在する)評価特徴点(第1特徴点)の割合である評価特徴点誤り率(画像毎精度)を表示装置26,46に出力する(に基づいて特徴点抽出アルゴリズムを評価する)。また、複数の近赤外画像のうち、評価特徴点誤り率(画像毎精度)が所定の値より低い(高い)近赤外画像の割合(図11の範囲「E」)を表示装置26,46に出力する(に基づいて特徴点抽出アルゴリズムを評価する)。
以上、本実施例の特徴点抽出アルゴリズム評価装置20および本変形例の特徴点抽出アルゴリズム評価装置40について説明したが、本発明は上記の実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
例えば、上述した実施例における特徴点抽出アルゴリズム評価装置20または本変形例の特徴点抽出アルゴリズム評価装置40は、図5を用いて前述した構成を有するパーソナルコンピュータであってもよいし、特徴点抽出アルゴリズム評価用の組み込み装置であってもよい。
また、上述した実施例および変形例において、近赤外光カメラ31,48と可視光カメラ32,49との画角の相違により、可視画像から抽出される特徴点と特徴点抽出アルゴリズムが抽出すべき特徴点との位置に「ズレ」が生じる場合は、可視画像から抽出される特徴点の位置を補正することにより、基準特徴点を得ることとしてもよい。
また、上述した実施例および変形例では、近赤外光カメラ31で近赤外画像を撮像し、可視光カメラ32で可視画像を撮像することとしたが、近赤外光の受光素子および可視光の受光素子の両方を備えるカメラで近赤外画像および可視画像を撮像する構成としてもよい。このような構成にした場合は、近赤外画像および可視画像を同じタイミングで撮像することが容易になるとともに、上述した近赤外光カメラ31,48と可視光カメラ32,49との画角の相違による「ズレ」の発生を抑制することが可能となる。
20…特徴点抽出アルゴリズム評価装置、 22…インターフェース、
23…CPU、 24…ROM、25…RAM、26…表示装置、
30…SDRAM、27…バス、 40…特徴点抽出アルゴリズム評価装置、
43…CPU、 44…ROM、45…RAM、
46…表示装置、 47…バス、 48…近赤外光カメラ、49…可視光カメラ
23…CPU、 24…ROM、25…RAM、26…表示装置、
30…SDRAM、27…バス、 40…特徴点抽出アルゴリズム評価装置、
43…CPU、 44…ROM、45…RAM、
46…表示装置、 47…バス、 48…近赤外光カメラ、49…可視光カメラ
Claims (5)
- 近赤外光を用いて人間の顔面を撮像した画像から特徴点を抽出するアルゴリズムの評価に用いられる特徴点抽出アルゴリズム評価装置であって、
所定の特定色を呈するが、前記近赤外光の波長では前記顔面の肌の部分と等しい反射率を有するマーカーが、前記特徴点に付されたマーカー付の前記顔面を、前記近赤外光を用いて撮像する第1撮像手段と、
前記第1撮像手段によって得られた近赤外画像を記憶する第1記憶手段と、
前記マーカー付の顔面のカラー画像を撮像する第2撮像手段と、
前記第2撮像手段によって得られた前記カラー画像を記憶する第2記憶手段と、
前記近赤外画像から前記アルゴリズムを用いて抽出した前記特徴点である第1特徴点と、前記カラー画像から前記特定色に基づいて抽出した前記特徴点である第2特徴点とを比較することによって、前記アルゴリズムを評価する評価手段と
を備える特徴点抽出アルゴリズム評価装置。 - 近赤外光を用いて人間の顔面を撮像した画像から特徴点を抽出するアルゴリズムの評価に用いられる特徴点抽出アルゴリズム評価装置であって、
所定の特定色を呈するが、前記近赤外光の波長では前記顔面の肌の部分と等しい反射率を有するマーカーが、前記特徴点に付されたマーカー付の前記顔面を、近赤外光を用いて撮像することで得られた近赤外画像を記憶する第1記憶手段と、
前記マーカー付の顔面のカラー画像を記憶する第2記憶手段と、
前記近赤外画像から前記アルゴリズムを用いて抽出した前記特徴点である第1特徴点と、前記カラー画像から前記特定色に基づいて抽出した前記特徴点である第2特徴点とを比較することによって、前記アルゴリズムを評価する評価手段と
を備える特徴点抽出アルゴリズム評価装置。 - 請求項1または請求項2に記載の特徴点抽出アルゴリズム評価装置であって、
前記評価手段は、前記近赤外画像における複数の前記第1特徴点の各々について、各前記第1特徴点に対応する前記第2特徴点から所定の距離以内に存在するか否かを判断し、前記複数の第1特徴点のうち、前記第2特徴点から所定の距離以内に存在する前記第1特徴点の割合である画像毎精度に基づいて、前記アルゴリズムを評価する手段である特徴点抽出アルゴリズム評価装置。 - 請求項3に記載の特徴点抽出アルゴリズム評価装置であって、
前記評価手段は、複数の前記近赤外画像のうち、前記画像毎精度が所定の値より高い前記近赤外画像の割合に基づいて、前記アルゴリズムを評価する手段である特徴点抽出アルゴリズム評価装置。 - 近赤外光を用いて人間の顔面を撮像した画像から特徴点を抽出するアルゴリズムの評価に用いられる特徴点抽出アルゴリズム評価方法であって、
所定の特定色を呈するが、前記近赤外光の波長では前記顔面の肌の部分と等しい反射率を有するマーカーが、前記特徴点に付されたマーカー付の前記顔面を、前記近赤外光を用いて第1撮像手段で撮像する工程と、
前記第1撮像手段によって得られた近赤外画像を記憶する工程と、
前記マーカー付の顔面のカラー画像を第2撮像手段で撮像する工程と、
前記第2撮像手段によって得られた前記カラー画像を記憶する工程と、
前記近赤外画像から前記アルゴリズムを用いて抽出した前記特徴点である第1特徴点と、前記カラー画像から前記特定色に基づいて抽出した前記特徴点である第2特徴点とを比較することによって、前記アルゴリズムを評価する工程と
を備える特徴点抽出アルゴリズム評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013047637A JP2014174794A (ja) | 2013-03-11 | 2013-03-11 | 特徴点抽出アルゴリズム評価装置、および特徴点抽出アルゴリズム評価方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013047637A JP2014174794A (ja) | 2013-03-11 | 2013-03-11 | 特徴点抽出アルゴリズム評価装置、および特徴点抽出アルゴリズム評価方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014174794A true JP2014174794A (ja) | 2014-09-22 |
Family
ID=51695944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013047637A Pending JP2014174794A (ja) | 2013-03-11 | 2013-03-11 | 特徴点抽出アルゴリズム評価装置、および特徴点抽出アルゴリズム評価方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014174794A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015011176A1 (de) | 2014-08-29 | 2016-03-03 | Mazda Motor Corporation | Sich öffnen lassende Fahrzeugdachstruktur |
JP2018173991A (ja) * | 2018-07-09 | 2018-11-08 | 日本電気株式会社 | 検知装置 |
US10509955B2 (en) | 2015-03-13 | 2019-12-17 | Nec Corporation | Living body detection device, living body detection method, and recording medium |
CN111047579A (zh) * | 2019-12-13 | 2020-04-21 | 中南大学 | 一种特征质量评估方法及图像特征均匀提取方法 |
JP2021047929A (ja) * | 2020-12-28 | 2021-03-25 | 日本電気株式会社 | 情報処理装置 |
-
2013
- 2013-03-11 JP JP2013047637A patent/JP2014174794A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015011176A1 (de) | 2014-08-29 | 2016-03-03 | Mazda Motor Corporation | Sich öffnen lassende Fahrzeugdachstruktur |
DE102015011176B4 (de) | 2014-08-29 | 2021-11-18 | Mazda Motor Corporation | Sich öffnen lassende Fahrzeugdachstruktur |
US10509955B2 (en) | 2015-03-13 | 2019-12-17 | Nec Corporation | Living body detection device, living body detection method, and recording medium |
US10528803B2 (en) | 2015-03-13 | 2020-01-07 | Nec Corporation | Living body detection device, living body detection method, and recording medium |
US10546189B2 (en) | 2015-03-13 | 2020-01-28 | Nec Corporation | Living body detection device, living body detection method, and recording medium |
US10546190B2 (en) | 2015-03-13 | 2020-01-28 | Nec Corporation | Living body detection device, living body detection method, and recording medium |
US11132536B2 (en) | 2015-03-13 | 2021-09-28 | Nec Corporation | Living body detection device, living body detection method, and recording medium |
JP2018173991A (ja) * | 2018-07-09 | 2018-11-08 | 日本電気株式会社 | 検知装置 |
CN111047579A (zh) * | 2019-12-13 | 2020-04-21 | 中南大学 | 一种特征质量评估方法及图像特征均匀提取方法 |
CN111047579B (zh) * | 2019-12-13 | 2023-09-05 | 中南大学 | 一种特征质量评估方法及图像特征均匀提取方法 |
JP2021047929A (ja) * | 2020-12-28 | 2021-03-25 | 日本電気株式会社 | 情報処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6494253B2 (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
US20170261319A1 (en) | Building height calculation method, device, and storage medium | |
JP6356266B2 (ja) | 群集監視システム | |
JP2014174794A (ja) | 特徴点抽出アルゴリズム評価装置、および特徴点抽出アルゴリズム評価方法 | |
JP6610545B2 (ja) | 個人情報に配慮した画像処理システム、画像処理方法及びプログラム | |
JP5466610B2 (ja) | 視線推定装置 | |
US11004214B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2017129567A5 (ja) | ||
JP2015096812A5 (ja) | ||
JP2019114821A (ja) | 監視システム、装置、方法およびプログラム | |
JPWO2016199244A1 (ja) | 物体認識装置及び物体認識システム | |
US20200065990A1 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
US10058237B2 (en) | Image processing device, image processing method, and program | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
US20180211098A1 (en) | Facial authentication device | |
US9571740B2 (en) | Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device | |
KR101661211B1 (ko) | 얼굴 인식률 개선 장치 및 방법 | |
JP7354767B2 (ja) | 物体追跡装置および物体追跡方法 | |
US20120076438A1 (en) | Visual line estimating apparatus | |
KR101760327B1 (ko) | 카메라를 이용한 낙상 검출방법 | |
JP2008026999A (ja) | 障害物検出システム、及び障害物検出方法 | |
TWI466070B (zh) | 眼睛搜尋方法及使用該方法的眼睛狀態檢測裝置與眼睛搜尋裝置 | |
JP5502149B2 (ja) | 車両周辺監視装置 | |
US10572753B2 (en) | Outside recognition device for vehicle | |
JP6179447B2 (ja) | 視線検出装置、視線検出方法 |