JP2006277682A - 位置検出装置及び位置検出方法 - Google Patents

位置検出装置及び位置検出方法 Download PDF

Info

Publication number
JP2006277682A
JP2006277682A JP2005100050A JP2005100050A JP2006277682A JP 2006277682 A JP2006277682 A JP 2006277682A JP 2005100050 A JP2005100050 A JP 2005100050A JP 2005100050 A JP2005100050 A JP 2005100050A JP 2006277682 A JP2006277682 A JP 2006277682A
Authority
JP
Japan
Prior art keywords
image
inclination
position detection
processing value
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005100050A
Other languages
English (en)
Inventor
Swaminathan Sivakumar
シバクマール スワミナサン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2005100050A priority Critical patent/JP2006277682A/ja
Publication of JP2006277682A publication Critical patent/JP2006277682A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 顔検出の精度をより向上させることができる位置検出装置及び位置検出方法を提供する。
【解決手段】 画像上の特徴から仮想中心線を検出可能な特定の対象物を撮影して得られた画像から対象物の画像における位置及びその位置における、仮想中心線の画像の基準線に対する傾きを検出する位置検出装置であって、基準線に対する仮想中心線の想定される傾きの範囲を複数に分け、撮影された画像を複数に分けられたそれぞれの範囲に対応する処理器によってそれぞれ処理し、処理された結果に基づいて対象物の画像における位置及びその位置における基準線に対する仮想中心線の傾きを検出する。
【選択図】 図1

Description

本発明は、撮影された画像から対象物の位置及びその位置における対象物の傾きを検出する位置検出装置及び位置検出方法に関する。
従来から、カメラなどの撮像手段によって撮影された画像において、その画像中における対象物(例えば、顔など)の位置及びその位置における傾きを検出する技術があった。以下では説明をわかりやすくするため、対象物を人の顔に限定して説明する。ここで、顔の位置を検出する際、まっすぐな状態の顔ばかりでなく顔が傾いている場合もあり、顔が傾いている場合の位置を検出する技術が下記の非特許文献1に開示されている。ここで、非特許文献1に開示されている技術について説明する。まず、カメラなどの撮像手段によって顔が撮影される。撮影された画像の顔が傾いている場合、非特許文献1に開示された技術では、撮影された画像から顔を含む所定の領域(大きさ)のウインドウを抽出する。そして、抽出されたウインドウに対して識別器(処理器)を使い、顔のポーズ(傾き)を推定する。推定された傾きに基づいて、ウインドウの顔の傾きをなくす方向、すなわちウインドウの顔がまっすぐ垂直の状態になるように回転させる。そして、処理器がそのウインドウから人の顔として認識できるか否かを判断する。これによって人の顔の位置を検出することができる。
Rotation Invariant Neural Network-Based Face Detection, H.A.Rowley,S.Baluja,and T.kanade.,In Proc. of Computer Vision and Pattern Recognition,pages38-44,1998
しかしながら、非特許文献1に開示された技術では、以下のような問題がある。まず、顔のポーズ(傾き)を推定する際に誤差が生じてしまい、正確な推定が困難であるということである。また、ウインドウの顔の傾きをなくす方向に回転させることにより、認識の精度が低くなるということである。これは、回転させる際に背景部分も含んでいるからである。また、回転させることにより画像の解像度が低下することもある。このような問題があるために顔検出の精度は低くなってしまう。
本発明は、上記問題を解決するためのものであり、顔検出の精度をより向上させることができる位置検出装置及び位置検出方法を提供することを目的とする。
上記目的を達成するために、本発明によれば、画像上の特徴から仮想中心線を検出可能な特定の対象物を撮影して得られた画像から前記対象物の前記画像における位置及びその位置における、前記仮想中心線の前記画像の基準線に対する傾きを検出する位置検出装置であって、前記基準線に対する前記仮想中心線の想定される傾きの範囲を複数に分け、撮影された前記画像を前記複数に分けられたそれぞれの範囲に対応する処理器によってそれぞれ処理し、処理された結果に基づいて前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出する位置検出装置が提供される。この構成により、顔検出の精度をより向上させることができる。
また、本発明の位置検出装置において、前記位置検出装置が、対象物を含む画像を示す画像データを取得する画像データ取得手段と、取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出する画像抽出手段と、前記基準線を基準に想定される傾きの、複数に分けられた範囲に対応するマスク領域を前記画像に対してそれぞれ設定するマスク設定手段と、前記マスク領域が設定された前記画像ごとに、それぞれの前記マスク領域に対応する処理器によって処理値を算出する処理値算出手段と、算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出する検出手段とを備えることは、本発明の好ましい態様である。この構成により、顔検出の精度をより向上させることができる。
また、本発明の位置検出装置において、前記処理値算出手段によって算出された前記処理値を正規化する正規化手段を更に備えることは、本発明の好ましい態様である。この構成により、処理値の範囲を複数の処理値算出手段の間でそろえることができる。
また、本発明の位置検出装置において、前記処理値算出手段が機械学習手法を用いることは、本発明の好ましい態様である。この構成により、適切な値(処理値)を取得することができる。
また、本発明位置検出装置において、前記位置検出装置が、対象物を含む画像を示す画像データを取得する画像データ取得手段と、取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出する画像抽出手段と、抽出された前記画像の基準線に対する前記対象物の仮想中心線の傾きを推定する傾き推定手段と、推定された前記基準線に対する前記仮想中心線の傾きに対応するマスク領域を、抽出された前記画像に対して設定するマスク設定手段と、前記マスク領域が設定された前記画像に基づいて処理値を算出する処理値算出手段と、算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出する検出手段とを備えることは、本発明の好ましい態様である。この構成により、処理値算出手段における処理を低減でき、顔検出の精度をより向上させることができる。
また、本発明の位置検出装置において、前記処理値算出手段によって算出された前記処理値を正規化する正規化手段を更に備えることは、本発明の好ましい態様である。この構成により、処理値の範囲を複数の処理値算出手段の間でそろえることができる。
また、本発明の位置検出装置において、前記処理値算出手段が機械学習手法を用いることは、本発明の好ましい態様である。この構成により、適切な値(処理値)を取得することができる。
また、本発明によれば、画像上の特徴から仮想中心線を検出可能な特定の対象物を撮影して得られた画像から前記対象物の前記画像における位置及びその位置における、前記仮想中心線の前記画像の基準線に対する傾きを検出する位置検出方法であって、前記基準線に対する前記仮想中心線の想定される傾きの範囲を複数に分け、撮影された前記画像を前記複数に分けられたそれぞれの範囲に対応する処理器によってそれぞれ処理するステップと、処理された結果に基づいて前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出するステップとを有する位置検出方法が提供される。この構成により、顔検出の精度をより向上させることができる。
また、本発明の位置検出方法において、前記位置検出方法が、対象物を含む画像を示す画像データを取得するステップと、取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出するステップと、前記基準線を基準に想定される傾きの、前記複数に分けられた範囲に対応するマスク領域を前記画像に対してそれぞれ設定するステップと、前記マスク領域が設定された前記画像ごとに、それぞれの前記マスク領域に対応する処理器によって処理値を算出するステップと、算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出するステップとを有することは、本発明の好ましい態様である。この構成により、顔検出の精度をより向上させることができる。
また、本発明の位置検出方法において、算出された前記処理値を正規化するステップを更に備えることは、本発明の好ましい態様である。この構成により、処理値の範囲を複数の処理値算出手段の間でそろえることができる。
また、本発明の位置検出方法において、前記処理値を算出する際、機械学習手法を用いることは、本発明の好ましい態様である。この構成により、適切な値(処理値)を取得することができる。
また、本発明の位置検出方法において、前記位置検出方法が、対象物を含む画像を示す画像データを取得するステップと、取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出するステップと、抽出された前記画像の基準線に対する前記対象物の仮想中心線の傾きを推定するステップと、推定された前記基準線に対する前記仮想中心線の傾きに対応するマスク領域を、抽出された前記画像に対して設定するステップと、前記マスク領域が設定された前記画像に基づいて処理値を算出するステップと、算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出するステップとを有することは、本発明の好ましい態様である。この構成により、処理値算出手段における処理を低減でき、顔検出の精度をより向上させることができる。
また、本発明の位置検出方法において、算出された前記処理値を正規化するステップを更に備えることは、本発明の好ましい態様である。この構成により、処理値の範囲を複数の処理値算出手段の間でそろえることができる。
また、本発明の位置検出方法において、前記処理値を算出する際、機械学習手法を用いることは、本発明の好ましい態様である。この構成により、適切な値(処理値)を取得することができる。
本発明の位置検出装置及び位置検出方法は、上記構成を有し、顔検出の精度をより向上させることができる。
<第1の実施の形態>
以下、本発明の第1の実施の形態について、図1から図6を用いて説明する。図1は本発明の第1の実施の形態に係る位置検出装置の構成を示す構成図である。図2は本発明の第1の実施の形態に係る位置検出装置における想定される顔の傾きの範囲を説明するための図である。図3Aは本発明の第1の実施の形態に係る位置検出装置における0度傾いている(傾いていない)ときの顔の画像を示す図である。図3Bは本発明の第1の実施の形態に係る位置検出装置における20度傾いているときの顔の画像を示す図である。図3Cは本発明の第1の実施の形態に係る位置検出装置における340度傾いているときの顔の画像を示す図である。
図4Aは本発明の第1の実施の形態に係る位置検出装置における顔の傾きが350度から10度の場合にかけられるマスクを説明するための図である。図4Bは本発明の第1の実施の形態に係る位置検出装置における顔の傾きが10度から30度の場合にかけられるマスクを説明するための図である。図4Cは本発明の第1の実施の形態に係る位置検出装置における顔の傾きが30度から50度の場合にかけられるマスクを説明するための図である。図4Dは本発明の第1の実施の形態に係る位置検出装置における顔の傾きが330度から350度の場合にかけられるマスクを説明するための図である。図5は本発明の第1の実施の形態に係る位置検出装置におけるマスク設定手段、識別値算出手段、判定手段における具体的な処理フローの一例を示すフロー図である。図6は本発明の第1の実施の形態に係る位置検出装置における顔検出の処理フローについて説明するためのフロー図である。
まず、本発明の第1の実施の形態に係る位置検出装置の構成について図1を用いて説明する。図1に示すように、位置検出装置100は、画像データ取得手段101、画像抽出手段102、マスク設定手段103、識別値算出手段(上述した処理値算出手段に相当)104、判定手段(検出手段に相当)105、情報格納手段107から構成されており、バス108によってつながっている。なお、正規化手段106はオプションであり、後述する第2の実施の形態で説明する。画像データ取得手段101は、撮影の対象となる対象物を撮影する撮像手段109によって撮影された画像を取得する手段である。なお、本発明の第1の実施の形態では、撮像手段109は位置検出装置100の構成要素となっていないが、位置検出装置100の構成要素となっていてもよい。また、撮像手段109は、例えばカメラなどである。また、撮像手段109が撮影する対象物に制約はないが、以下では説明を分かりやすくするため撮影される対象物を人の顔とする。
画像抽出手段102は、画像データ取得手段101によって取得された画像のうち、所定の画像領域を有する画像を抽出する手段である。ここで、所定の画像領域を有する画像とは、例えば画像データ取得手段101によって取得された画像のサイズより小さいサイズ(m×n)の画像である。また、mとnの単位はピクセルであって、mとnは、例えば(m、n)={(20、20)、(25、25)、(30、30)、・・・}のような同一の値の組み合わせである。
マスク設定手段103は、抽出された画像の基準線を基準に想定される顔(対象物)の傾きの、複数に分けられた範囲に対応するマスク領域を画像抽出手段102によって抽出された画像に対してそれぞれ設定する手段である。ここで、画像の基準線とは、例えば画像を構成するラスタの基準線を言う。また、想定される顔の傾きの範囲とは、図2に示すように、例えば地面に対する垂直方向を0度とした場合に0度から360度までの範囲などを言う。この範囲はこれに限られるものではなく、−45度(315度)から45度までの範囲(角度90度の間の範囲)であってもよい。ここで一例として、0度傾いている(傾いていない)ときの顔の画像、20度傾いているときの顔の画像、340度傾いているときの顔の画像を図3A、図3B、図3Cにそれぞれ示す。図3Aは画像抽出手段102によって抽出された0度傾いているときの顔の画像を示している。図3Bは画像抽出手段102によって抽出された20度傾いているときの顔の画像を示している。図3Cは画像抽出手段102によって抽出された340度傾いているときの顔の画像を示している。
また、想定される顔の傾きの範囲を複数に分けるとは、上述した範囲を、例えば350度から10度、10度から30度、30度から50度、・・・と20度ごとに分けることを言う。また、複数に分けられた想定される顔の傾きの範囲に対応するマスク領域について図4A〜図4Dを用いて説明する。図4Aは、例えば範囲が350度から10度の場合に設定されるマスク400を示しており、マスク400の場合にはマスクされる領域はない。このため、抽出された画像にマスク400をしても何も変わらない。図4Bは、例えば範囲が10度から30度の場合に設定されるマスク401を示しており、四隅の1つにマスクがされる。このマスク401は、例えばある隅の角を基点として縦横4ピクセルの三角形のマスク領域402を有するものである。抽出された画像にマスク401をすると抽出された画像の隅がマスクされ、後述する識別値算出手段104による処理の際、マスク領域(背景部分)402の影響はなくなる。
図4Cは、例えば範囲が30度から50度の場合に設定されるマスク403を示しており、四隅のうち対向する2つの隅にマスクがされる。隅のマスク領域404は図4Bで説明した三角形の領域と同じである。抽出された画像にマスク403をすると抽出された画像の2つの隅がマスクされ、後述する識別値算出手段104による処理の際、マスク領域(背景部分)404の影響はなくなる。図4Dは、例えば範囲が330度から350度の場合に設定されるマスク405を示しており、四隅の1つにマスクがされる。ただし、図4Bに示す場合のものとはマスク領域406の位置が異なる。隅のマスク領域406は図4Bで説明した三角形の領域と同じである。抽出された画像にマスク405をすると抽出された画像の隅がマスクされ、後述する識別値算出手段104による処理の際、マスク領域(背景部分)406の影響はなくなる。
識別値算出手段104は、マスク領域が設定された画像ごとに識別値を算出する手段である。識別値算出手段104は、上述した範囲ごとの識別器(上述した処理器に相当)から構成されている。これらの識別器は、それぞれあらかじめ学習された情報に基づいて得意とする(適切な処理結果を導出することができる)傾きの範囲を有している。すなわち、これらの識別器は、例えば350度から10度の範囲を得意とする識別器、10度から30度の範囲を得意とする識別器、30度から50度の範囲を得意とする識別器、・・・などである。ここで、識別値とは、後述する判定手段105においてマスク領域が設定された画像が人物の顔であるかを判定する際に用いられる数値であって、例えば0から1の範囲の数値を言う。なお、この数値の範囲はこれに限られるものではない。
判定手段105は、それぞれの識別器から算出されたそれぞれの識別値に基づいて、識別器ごとにマスク領域が設定された画像が人物の顔であるか否かを判定し、人物の顔及びその位置を判定する手段である。ここで、判定する際の基準(閾値)は、例えば識別値が0.5以上という基準である。すなわち、算出された識別値が0.5以上であれば対象となっている画像は人物の顔であり、算出された識別値が0.5より小さいものであれば対象となっている画像は人物の顔ではないとされる。
ここで、マスク設定手段103、識別値算出手段104、判定手段105における具体的な処理の一例について図5を用いて説明する。まず、画像抽出手段102によって抽出された画像がマスク設定手段103のマスク設定部v0、マスク設定部v20、・・・、マスク設定部v340へ引き渡される。引き渡される画像は、後述する画像のコントラスト強調がされたものであることが望ましい。ここで、マスク設定部v0は、上述したように、範囲が350度から10度の場合に相当するマスク領域の情報をマスクモデル格納部v0から取得し、この取得された情報に基づいてマスク領域を抽出された画像に設定するものである。マスク設定部v20は、範囲が10度から30度の場合に相当するマスク領域の情報をマスクモデル格納部v20から取得し、この取得された情報に基づいてマスク領域を抽出された画像に設定するものである。マスク設定部v340は、範囲が330度から350度の場合に相当するマスク領域の情報をマスクモデル格納部v340から取得し、この取得された情報に基づいてマスク領域を抽出された画像に設定するものである。なお、マスクモデル格納部、後述する識別モデル格納部、判定結果格納部は情報格納手段107にあってもよく、独立したものとしてあってもよい。
それぞれのマスク設定部は、引き渡された画像に対してマスク領域を設定し、設定された画像をそれぞれの識別器に引き渡す。ここで、識別値算出手段104は複数の識別器、識別器v0、識別器v20、・・・、識別器v340から構成されている。各識別器は、あらかじめ各識別モデル格納部に格納された対応する範囲について学習されたパターン(情報)に基づいて、マスク設定部から引き渡された画像に対する識別値を算出する。識別値を算出する際に用いられる技術は、NN(Neural Network:ニューラルネットワーク)やSVM(Support Vector Machines:サポートベクターマシン)などである。これらの技術は上述した機械学習手法で公知の技術であり、Computer Vision:A Modern Approach,by David A.Forsyth,Jean Ponce,Prentice Hall;1st edition (August 14,2002)やPattern Classification(2nd ed).by Richard O.Duda,.Peter E.Hart.and David G.Stork.Wiley Interscienceに開示されている。
そして、識別値算出手段104によって算出された識別値は判定手段105に引き渡される。ここで、判定手段105は複数の判定器、判定器v0、判定器v20、・・・、判定器v340から構成されている。各判定器は各識別器から引き渡された識別値とあらかじめ決められた基準値(閾値)とを比較し、所定の関係を満たした場合には対象とされている画像は人物の顔であると判断する。このとき、人物の顔であると判断された場合には、各判定器は判定結果格納部に後述するx、y座標、scale_factor、識別器の情報などを格納する。なお、マスク設定手段103は、複数のマスク設定部から構成されているが、1つのマスク設定部がマスク領域を設定するようにしてもよい。また、判定手段105は、複数の判定器から構成されているが、1つの判定器が判断するようにしてもよい。
次に、本発明の第1の実施の形態に係る位置検出装置における顔検出の処理フローについて図6を用いて説明する。まず、画像データ取得手段101は、撮影の対象となる人を撮影するカメラなどの撮像手段によって撮影された画像データを取得する(ステップS601)。この撮影された画像を取得するものが上述した画像データ取得手段101である。次に、取得された画像データに対して、ノイズなどを除去するために平均フィルターを当てはめる(ステップS602)。ここで、平均フィルターのサイズは7×7(単位:ピクセル)のサイズであるが、これに限られるものではない。また、平均フィルターを当てはめるのは、画像データ取得手段101であってもよく、また不図示のフィルター当てはめ処理手段などが行うようにしてもよい。
次に、この処理フローで用いられるパラメータ(scale_min、scale_max、scale_factor、scale_step、m、n、Height、Width、Threshold)の初期化を行う(ステップS603)。ここで、scale_min及びscale_maxは、取得された画像サイズに対するサイズ変更倍率の下限値及び上限値であり、例えばscale_minは0.5、scale_maxは1.5である。また、scale_factorはscale_minとscale_maxとの間でとり得る値であり、例えば0.5から1.5の間の値である。scale_stepは、scale_factorがscale_minとscale_maxとの間でとる値の間隔であり、例えば0.25である。この場合のscale_factorは0.5、0.75、1.0、1.25、1.5となる。mとnに関しては上述したものである。また、Height及びWidthは画像の縦と横のサイズであり、例えばHeight×Widthが480×640、240×320などである。また、Thresholdは上述した判定手段105が判定する際に用いる基準値(閾値)であり、例えば0.5である。
そして、取得された画像のサイズを公知の技術である線形補間などを使って修正する(ステップS604)。修正された画像からm×nのサイズの画像を抽出する(ステップS605)。このm×nの画像を抽出するものが上述した画像抽出手段102である。抽出された画像に対して画像のコントラスト強調を行うヒストグラム均等化を施す(ステップS606)。そして、上述したマスク設定手段103、識別値算出手段104、判定手段105による処理をし、画像が人物の顔である場合にそのときのx、y座標、scale_factorの値、識別器の情報(識別器を識別するための情報、ここではv0、v20、・・・、v340)などを判定結果格納部に格納する(ステップS607)。
次に、人の顔の画像として候補とされた画像の数の分だけループさせ、不図示の制御手段はscale_factorが1であるか否かを判定する(ステップS608)。制御手段にscale_factorが1でないと判定された場合には、制御手段は正規(通常)とされる画像サイズに修正する(ステップS609)。なお、制御手段にscale_factorが1であると判定された場合には画像のサイズ変更はしない。そして、制御手段は、それぞれの画像をディスプレイなどの表示手段に表示させる(ステップS610)。
<第2の実施の形態>
次に、本発明の第2の実施の形態について図7を用いて説明する。図7は本発明の第2の実施の形態に係る位置検出装置のマスク設定手段、識別値算出手段、正規化手段、判定手段における具体的な処理フローの一例を示すフロー図である。本発明の第2の実施の形態は、図7に示すように、第1の実施の形態の識別値算出手段104と判定手段105との間に正規化手段106を加えたものである。正規化手段106では、識別値算出手段104から引き渡された識別値を正規化し、正規化された識別値を判定手段105へ引き渡す。正規化手段106では、下記の式(1)に基づいて正規化された新たな識別値を生成している。
Figure 2006277682
ここで、rは識別器の情報(識別器を識別する情報v0、v20、・・・、v340)であり、offline_classification_scoreはモデルデータから得られる識別値の最大値である。このように、正規化手段106を備えることにより処理値の範囲を複数の処理値算出手段の間でそろえることができる。
<第3の実施の形態>
次に、本発明の第3の実施の形態について図8及び図9を用いて説明する。図8は本発明の第3の実施の形態に係る位置検出装置の構成を示す構成図である。図9は本発明の第3の実施の形態に係る位置検出装置の傾き推定手段、マスク設定手段、識別値算出手段、判定手段における具体的な処理フローの一例を示すフロー図である。
まず、第3の実施の形態に係る位置検出装置の構成について図8を用いて説明する。図8に示すように、位置検出装置200は、画像データ取得手段101、画像抽出手段102、マスク設定手段103、識別値算出手段104、判定手段105、正規化手段106、情報格納手段107、傾き推定手段110から構成されており、バス108によってつながっている。第1の実施の形態で説明した手段に関しては同一ものであるため説明を省略する。なお、正規化手段106はオプションであり、位置検出装置200に実装されていても実装されていなくてもよい。以下では正規化手段106が実装されていない場合について説明する。傾き推定手段110は、画像抽出手段102によって抽出されたヒストグラム均等化された画像に対して、画像に写された人物の傾きを推定する。この傾きの推定には公知の技術であるNNを用いる。これにより人物の傾きがわかる。
次に、本発明の第3の実施の形態に係る位置検出装置の傾き推定手段110、マスク設定手段103、識別値算出手段104、判定手段105における具体的な処理の一例について図9を用いて説明する。図9に示すように、まず、画像抽出手段102によって抽出された画像が傾き推定手段110に引き渡される。引き渡される画像は、上述した画像のコントラスト強調がなされたものであることが望ましい。傾き推定手段110によって画像の人物の傾きが推定されると、推定された傾きが含まれる範囲のマスク設定部へ引き渡され、その後の処理は第1の実施の形態で説明した流れで処理される。
本発明に係る位置検出装置及び位置検出方法は、顔検出の精度をより向上させることができるため、撮影された画像から対象物の位置及びその位置における対象物の傾きを検出する位置検出装置及び位置検出方法などに有用である。
本発明の第1の実施の形態に係る位置検出装置の構成を示す構成図である。 本発明の第1の実施の形態に係る位置検出装置における想定される顔の傾きの範囲を説明するための図である。 本発明の第1の実施の形態に係る位置検出装置における0度傾いている(傾いていない)ときの顔の画像を示す図である。 本発明の第1の実施の形態に係る位置検出装置における20度傾いているときの顔の画像を示す図である。 本発明の第1の実施の形態に係る位置検出装置における340度傾いているときの顔の画像を示す図である。 本発明の第1の実施の形態に係る位置検出装置における顔の傾きが350度から10度の場合にかけられるマスクを説明するための図である。 本発明の第1の実施の形態に係る位置検出装置における顔の傾きが10度から30度の場合にかけられるマスクを説明するための図である。 本発明の第1の実施の形態に係る位置検出装置における顔の傾きが30度から50度の場合にかけられるマスクを説明するための図である。 本発明の第1の実施の形態に係る位置検出装置における顔の傾きが330度から350度の場合にかけられるマスクを説明するための図である。 本発明の第1の実施の形態に係る位置検出装置におけるマスク設定手段、識別値算出手段、判定手段における具体的な処理フローの一例を示すフロー図である。 本発明の第1の実施の形態に係る位置検出装置における顔検出の処理フローについて説明するためのフロー図である。 本発明の第2の実施の形態に係る位置検出装置のマスク設定手段、識別値算出手段、正規化手段、判定手段における具体的な処理フローの一例を示すフロー図である。 本発明の第3の実施の形態に係る位置検出装置の構成を示す構成図である。 本発明の第3の実施の形態に係る位置検出装置の傾き推定手段、マスク設定手段、識別値算出手段、判定手段における具体的な処理フローの一例を示すフロー図である。
符号の説明
100、200 位置検出装置
101 画像データ取得手段
102 画像抽出手段
103 マスク設定手段
104 識別値算出手段(処理値算出手段)
105 判定手段(検出手段)
106 正規化手段
107 情報格納手段
108 バス
109 撮像手段
110 傾き推定手段
400、401、403、405 マスク
402、404、406 マスク領域

Claims (14)

  1. 画像上の特徴から仮想中心線を検出可能な特定の対象物を撮影して得られた画像から前記対象物の前記画像における位置及びその位置における、前記仮想中心線の前記画像の基準線に対する傾きを検出する位置検出装置であって、
    前記基準線に対する前記仮想中心線の想定される傾きの範囲を複数に分け、撮影された前記画像を前記複数に分けられたそれぞれの範囲に対応する処理器によってそれぞれ処理し、処理された結果に基づいて前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出する位置検出装置。
  2. 前記位置検出装置は、
    対象物を含む画像を示す画像データを取得する画像データ取得手段と、
    取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出する画像抽出手段と、
    前記基準線を基準に想定される傾きの、複数に分けられた範囲に対応するマスク領域を前記画像に対してそれぞれ設定するマスク設定手段と、
    前記マスク領域が設定された前記画像ごとに、それぞれの前記マスク領域に対応する処理器によって処理値を算出する処理値算出手段と、
    算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出する検出手段とを、
    備える請求項1に記載の位置検出装置。
  3. 前記処理値算出手段によって算出された前記処理値を正規化する正規化手段を更に備える請求項2に記載の位置検出装置。
  4. 前記処理値算出手段は、機械学習手法を用いることを特徴とする請求項2又は3に記載の位置検出装置。
  5. 前記位置検出装置は、
    対象物を含む画像を示す画像データを取得する画像データ取得手段と、
    取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出する画像抽出手段と、
    抽出された前記画像の基準線に対する前記対象物の仮想中心線の傾きを推定する傾き推定手段と、
    推定された前記基準線に対する前記仮想中心線の傾きに対応するマスク領域を、抽出された前記画像に対して設定するマスク設定手段と、
    前記マスク領域が設定された前記画像に基づいて処理値を算出する処理値算出手段と、
    算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出する検出手段とを、
    備える請求項1に記載の位置検出装置。
  6. 前記処理値算出手段によって算出された前記処理値を正規化する正規化手段を更に備える請求項5に記載の位置検出装置。
  7. 前記処理値算出手段は、機械学習手法を用いる請求項5又は6に記載の位置検出装置。
  8. 画像上の特徴から仮想中心線を検出可能な特定の対象物を撮影して得られた画像から前記対象物の前記画像における位置及びその位置における、前記仮想中心線の前記画像の基準線に対する傾きを検出する位置検出方法であって、
    前記基準線に対する前記仮想中心線の想定される傾きの範囲を複数に分け、撮影された前記画像を前記複数に分けられたそれぞれの範囲に対応する処理器によってそれぞれ処理するステップと、
    処理された結果に基づいて前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出するステップとを、
    有する位置検出方法。
  9. 前記位置検出方法は、
    対象物を含む画像を示す画像データを取得するステップと、
    取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出するステップと、
    前記基準線を基準に想定される傾きの、前記複数に分けられた範囲に対応するマスク領域を前記画像に対してそれぞれ設定するステップと、
    前記マスク領域が設定された前記画像ごとに、それぞれの前記マスク領域に対応する処理器によって処理値を算出するステップと、
    算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出するステップとを、
    有する請求項8に記載の位置検出方法。
  10. 算出された前記処理値を正規化するステップを更に備えることを特徴とする請求項9に記載の位置検出方法。
  11. 前記処理値を算出する際、機械学習手法を用いることを特徴とする請求項9又は10に記載の位置検出方法。
  12. 前記位置検出方法は、
    対象物を含む画像を示す画像データを取得するステップと、
    取得された前記画像データが示す前記画像のうち、所定の画像領域を有する画像を抽出するステップと、
    抽出された前記画像の基準線に対する前記対象物の仮想中心線の傾きを推定するステップと、
    推定された前記基準線に対する前記仮想中心線の傾きに対応するマスク領域を、抽出された前記画像に対して設定するステップと、
    前記マスク領域が設定された前記画像に基づいて処理値を算出するステップと、
    算出された前記処理値に基づいて、前記対象物の前記画像における位置及びその位置における前記基準線に対する前記仮想中心線の傾きを検出するステップとを、
    有する請求項8に記載の位置検出方法。
  13. 算出された前記処理値を正規化するステップを更に備えることを特徴とする請求項12に記載の位置検出方法。
  14. 前記処理値を算出する際、機械学習手法を用いる請求項12又は13に記載の位置検出方法。
JP2005100050A 2005-03-30 2005-03-30 位置検出装置及び位置検出方法 Withdrawn JP2006277682A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005100050A JP2006277682A (ja) 2005-03-30 2005-03-30 位置検出装置及び位置検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005100050A JP2006277682A (ja) 2005-03-30 2005-03-30 位置検出装置及び位置検出方法

Publications (1)

Publication Number Publication Date
JP2006277682A true JP2006277682A (ja) 2006-10-12

Family

ID=37212334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005100050A Withdrawn JP2006277682A (ja) 2005-03-30 2005-03-30 位置検出装置及び位置検出方法

Country Status (1)

Country Link
JP (1) JP2006277682A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023148850A1 (en) * 2022-02-02 2023-08-10 Nec Corporation Training apparatus, angle estimation apparatus, training method, and angle estimation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023148850A1 (en) * 2022-02-02 2023-08-10 Nec Corporation Training apparatus, angle estimation apparatus, training method, and angle estimation method

Similar Documents

Publication Publication Date Title
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
JP4830650B2 (ja) 追跡装置
US7970180B2 (en) Method, apparatus, and program for processing red eyes
KR101758684B1 (ko) 객체 추적 장치 및 방법
US8254644B2 (en) Method, apparatus, and program for detecting facial characteristic points
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US7995807B2 (en) Automatic trimming method, apparatus and program
US20110075933A1 (en) Method for determining frontal face pose
EP1742169A2 (en) Tracking apparatus
JP2000105829A (ja) 顔パーツ検出方法及びその装置
JP2006119817A (ja) 画像処理装置
JP6110174B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2006139369A (ja) 画像処理方法および装置並びにプログラム
JP2010262576A (ja) 対象物検出装置及びプログラム
JP2008257574A (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP2006164133A (ja) 画像処理方法および装置並びにプログラム
JP4690190B2 (ja) 画像処理方法および装置並びにプログラム
EP3958208A1 (en) Image processing device, image processing method, and image processing program
KR101904480B1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
JP2010122993A (ja) 顔認証システム
JP4328259B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP2006277682A (ja) 位置検出装置及び位置検出方法
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置
JP2004310396A (ja) 画像処理装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603