JP3980464B2 - 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 - Google Patents
鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 Download PDFInfo
- Publication number
- JP3980464B2 JP3980464B2 JP2002322952A JP2002322952A JP3980464B2 JP 3980464 B2 JP3980464 B2 JP 3980464B2 JP 2002322952 A JP2002322952 A JP 2002322952A JP 2002322952 A JP2002322952 A JP 2002322952A JP 3980464 B2 JP3980464 B2 JP 3980464B2
- Authority
- JP
- Japan
- Prior art keywords
- nose position
- eyes
- nose
- extracting
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
この発明はカメラ等からの画像を処理する画像処理に関し、特に、画像中の人物の顔の鼻の位置を抽出するための画像認識の分野に関する。
【0002】
【従来の技術】
通信により、遠隔地にいる複数の人間で会議を行うTV会議システムが実用化されている。しかしこれらシステムにおいて、映像そのものを送ると通信データ量が増大するという問題点がある。そのために、たとえば対象となる人物の視線、顔の向き、表情等に関する特徴データを各地で抽出し、抽出したデータのみを互いに送信する技術が研究されている。受信側では、このデータに基づいて仮想的な人物の顔面の画像を生成して表示する。これにより、通信データ量を削減しながら、TV会議を効率良く行える。
【0003】
また、たとえば放送を用いた教育システムでは、講師が各地にいる受講者の反応を見ながら講議をすすめて行くことが望ましい。この場合にも各地の映像を講師の講議している場所に送信すると通信データ量が多くなる。そもそも、受講者が多数になると全受講者の映像を送ることは実際的でなく、なんらかの方法で各受講者の反応を各地で抽出し、その反応を示す情報のみを講師に送信し、講師に対しては抽象的な「受講者の集合の反応」という形で提示する方が好ましい。
【0004】
こうした処理を実現するためには、人物の顔画像からその表情、姿勢、視線方向等を認識することが必要である。そのためには、顔の位置を特定し、さらに人物の表情の変化が顕著にあらわれる目、鼻、口等の顔部品、特に目の位置を検出する必要がある。
【0005】
現在のところ、人物の顔全体の位置を映像から特定し追跡する技術としては、映像のカラー情報を利用して肌色を検出・追跡する方法が提案されている。またより簡単な方法として、映像の背景の動きが少なく人物のみが動くものと仮定して、映像のフレーム間差分により顔の領域を検出する方法がある。
【0006】
こうして顔全体の概略位置が検出された後に、目を検出するための技術としては、顔の領域内の画像の明暗の分布とあらかじめ準備されたテンプレートとのマッチングを用いるもの、顔領域の画像の縦方向、横方向への投影処理により顔部品の位置を見つけるものが提案されている。
【0007】
たとえば、従来の技術としては、本発明の発明者によって提案されものである、人間の顔の眉間部分の特徴を利用して画面中から顔画像を抽出する方法(たとえば、特許文献1を参照)、人間の顔の鼻穴を検出する方法(たとえば、特許文献2を参照)がある。
【0008】
さらには、このようにして検出された顔画像の画面中の動き、特に、鼻部分の動きを検出して、手に障害のある人が使用可能であって、マウスのようにコンピュータと人間との間のインタフェースとして利用しようとする試みもある(たとえば、非特許文献1参照)。
【0009】
【特許文献1】
特開2001−52176号公報明細書
【0010】
【特許文献2】
特開平10−086696号公報明細書
【0011】
【非特許文献1】
15回 インターナショナル カンファレンス オン ビジョン インタフェース プロシーディングズ 5月27−29日、2002年 カルガリ カナダpp.354−361「Nouse”鼻をマウスとして使う” ハンドフリーのゲームやインタフェースのための新しい技術」(15th international Conference on Vision Interface Proceedings May 27-29,2002 Calgary, Canada, pp.354-361, "Nouse "Use Your Nose as a Mouse"-a New technology For Hands-free Games and Interfaces")
【0012】
【発明が解決しようとする課題】
しかし、従来の方法において、テンプレートマッチングを用いるものでは、精度よい検出を行おうとすると多数のテンプレートを準備する必要がある。そのために多くの記憶容量を必要とし、演算装置の処理能力によっては、マッチングのための処理時間も長くかかるというだけでなく、顔画像からどのようにして鼻を検出し、かつ、鼻の位置の追跡を実時間で行うのかについて、必ずしも明らかではない、という問題点があった。
【0013】
特許文献2に開示された発明では、顔領域の中にほぼ水平に並ぶ2つの黒領域を鼻と判定している。しかしこの方法では、鼻孔を撮影できるカメラ位置は、対象人物の前方下部に限定されるという制限があり、追跡できる顔の向きの範囲が狭くなってしまう。
【0014】
さらに、非特許文献1に開示された発明では、鼻の位置をいかにして追跡するかについての具体的なアルゴリズムの開示がない。
【0015】
それゆえに本発明の目的は、画像情報から顔画像を抽出して、さらに鼻の位置を特定して実時間でその位置を追跡することが可能な鼻位置抽出装置、そのための方法および当該方法をコンピュータを用いて実現するためのプログラムを提供することである。
【0016】
【課題を解決するための手段】
請求項1に記載の鼻位置の抽出方法は、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、鼻位置探索領域は、抽出された両目を結ぶ基準線から両目の間隔に相当する距離だけ離れた辺を下辺とし、下辺から顔画像の統計的性質に応じ両目の間隔に基づいて予め定められる第1の所定の距離だけ離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、前記統計的性質に応じ前記両目の間隔に基づいて予め定められる第2の所定の距離を保って前記両目から鉛直方向に伸びる四辺形の領域である。
【0017】
請求項2に記載の鼻位置の抽出方法は、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、鼻位置探索領域は、両目の間隔をLとするとき、両目を結ぶ基準線と平行であって、基準線から距離Lだけ離れた位置を下辺とし、下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、上辺と下辺をそれぞれ結ぶ両側の辺が、距離Lを保って両目から鉛直方向に伸びる四辺形の領域である。
【0018】
請求項3に記載の鼻位置の抽出方法は、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップを備え、デジタルデータを準備するステップは、時間軸において所定間隔で連続する画面情報の各々について、対象となる画像領域内の各画素の値のデジタルデータを準備するステップを含み、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとをさらに備え、鼻位置として特定するステップは、ある時刻に対応する画面情報において特定された鼻位置を含む小領域をテンプレートとして記憶するステップと、ある時刻に対応する画面情報に続く画面情報においてテンプレートにマッチングする領域を探索し、マッチングした領域内で局所的に最も輝度の高い点を新たな鼻位置と判定する手続きを順次続けることで、鼻位置を追跡するステップとを含む。
【0019】
請求項4に記載の鼻位置の抽出方法は、請求項3に記載の鼻位置の抽出方法において、鼻位置として特定するステップは、過去の鼻頭位置履歴から鼻頭存在位置を予測するステップをさらに含む。
【0020】
請求項5のプログラムは、コンピュータに、対象となる画像領域内の鼻位置を抽出する方法を実行させるためのプログラムであって、プログラムは、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、鼻位置探索領域は、抽出された両目を結ぶ基準線から両目の間隔に相当する距離だけ離れた辺を下辺とし、下辺から顔画像の統計的性質に応じ両目の間隔に基づいて予め定められる第1の所定の距離だけ離れた辺を上辺とし、上辺と下辺をそれぞれ結ぶ両側の辺が、統計的性質に応じ両目の間隔に基づいて予め定められる第2の所定の距離を保って両目から鉛直方向に伸びる四辺形の領域である。
【0021】
請求項6のプログラムは、コンピュータに、対象となる画像領域内の鼻位置を抽出する方法を実行させるためのプログラムであって、プログラムは、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、鼻位置探索領域は、両目の間隔をLとするとき、両目を結ぶ基準線と平行であって、基準線から距離Lだけ離れた位置を下辺とし、下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、上辺と下辺をそれぞれ結ぶ両側の辺が、距離Lを保って両目から鉛直方向に伸びる四辺形の領域である。
【0022】
請求項7のプログラムは、コンピュータに、対象となる画像領域内の鼻位置を抽出する方法を実行させるためのプログラムであって、プログラムは、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップを備え、デジタルデータを準備するステップは、時間軸において所定間隔で連続する画面情報の各々について、対象となる画像領域内の各画素の値のデジタルデータを準備するステップを含み、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとをさらに備え、鼻位置として特定するステップは、ある時刻に対応する画面情報において特定された鼻位置を含む小領域をテンプレートとして記憶するステップと、ある時刻に対応する画面情報に続く画面情報においてテンプレートにマッチングする領域を探索し、マッチングした領域内で局所的に最も輝度の高い点を新たな鼻位置と判定する手続きを順次続けることで、鼻位置を追跡するステップとを含む。
【0023】
請求項8のプログラムは、請求項7記載のプログラムの構成において、鼻位置として特定するステップは、過去の鼻頭位置履歴から鼻頭存在位置を予測するステップをさらに含む。
【0024】
請求項9に記載の鼻位置抽出装置は、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備する手段と、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出する手段と、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定する手段とを備え、鼻位置探索領域は、抽出された両目を結ぶ基準線から両目の間隔に相当する距離だけ離れた辺を下辺とし、下辺から顔画像の統計的性質に応じ両目の間隔に基づいて予め定められる第1の所定の距離だけ離れた辺を上辺とし、上辺と下辺をそれぞれ結ぶ両側の辺が、統計的性質に応じ両目の間隔に基づいて予め定められる第2の所定の距離を保って両目から鉛直方向に伸びる四辺形の領域である。
【0025】
請求項10に記載の鼻位置抽出装置は、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備する手段と、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出する手段と、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定する手段とを備え、鼻位置探索領域は、両目の間隔をLとするとき、両目を結ぶ基準線と平行であって、基準線から距離Lだけ離れた位置を下辺とし、下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、上辺と下辺をそれぞれ結ぶ両側の辺が、距離Lを保って両目から鉛直方向に伸びる四辺形の領域である。
【0026】
請求項11に記載の鼻位置抽出装置は、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備する手段を備え、デジタルデータを準備する手段は、時間軸において所定間隔で連続する画面情報の各々について、対象となる画像領域内の各画素の値のデジタルデータを準備し、対象となる画像領域内に対するフィルタリング処理により目の位置を抽出する手段と、抽出された目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定する手段とをさらに備え、鼻位置として特定する手段は、ある時刻に対応する画面情報において特定された鼻位置を含む小領域をテンプレートとして記憶する手段と、ある時刻に対応する画面情報に続く画面情報においてテンプレートにマッチングする領域を探索し、マッチングした領域内で局所的に最も輝度の高い点を新たな鼻位置と判定する手続きを順次続けることで、鼻位置を追跡する手段とを含む。
【0027】
請求項12に記載の鼻位置抽出装置は、請求項11に記載の鼻位置抽出装置において、鼻位置として特定する手段は、過去の鼻頭位置履歴から鼻頭存在位置を予測する手段をさらに含む。
【0028】
【発明の実施の形態】
[ハードウェア構成]
以下、本発明の実施の形態にかかる鼻位置抽出装置について説明する。この鼻位置抽出装置は、パーソナルコンピュータまたはワークステーション等、コンピュータ上で実行されるソフトウェアにより実現されるものであって、人物の顔の映像から、目の位置を検出するためのものである。図1に、この鼻位置抽出装置の外観を示す。
【0029】
図1を参照してこのシステム20は、CD−ROM(Compact Disc Read-Only Memory )ドライブ50およびFD(Flexible Disk )ドライブ52を備えたコンピュータ本体40と、コンピュータ本体40に接続された表示装置としてのディスプレイ42と、同じくコンピュータ本体40に接続された入力装置としてのキーボード46およびマウス48と、コンピュータ本体40に接続された、画像を取込むためのカメラ30とを含む。この実施の形態の装置では、カメラ30としてはCCD(固体撮像素子)を含むビデオカメラを用い、カメラ30の前にいてこのシステム20を操作する人物の目の位置を検出する処理を行うものとする。
【0030】
図2に、このシステム20の構成をブロック図形式で示す。図3に示されるようにこのシステム20を構成するコンピュータ本体40は、CD−ROMドライブ50およびFDドライブ52に加えて、それぞれバス66に接続されたCPU(Central Processing Unit )56と、ROM(Read Only Memory) 58と、RAM(Random Access Memory)60と、ハードディスク54と、カメラ30からの画像を取込むための画像取込装置68とを含んでいる。CD−ROMドライブ50にはCD−ROM62が装着される。FDドライブ52にはFD64が装着される。
【0031】
既に述べたようにこの鼻位置抽出装置の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM62、FD64等の記憶媒体に格納されて流通し、CD−ROMドライブ50またはFDドライブ52等により記憶媒体から読取られてハードディスク54に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク54にコピーされる。そうしてさらにハードディスク54からRAM60に読出されてCPU56により実行される。なお、ネットワーク接続されている場合には、ハードディスク54に格納することなくRAM60に直接ロードして実行するようにしてもよい。
【0032】
図1および図2に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、FD64、ハードディスク54等の記憶媒体に記憶されたソフトウェアである。
【0033】
なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該鼻位置抽出装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて鼻位置抽出装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。
【0034】
[顔画像の抽出の基本的原理]
以下では、まず、本発明にかかる鼻位置の検出方法および追跡方法を説明する前提として、上述した特開2001−52176号公報明細書にしたがって、画面中から、顔画像を特定して、目の位置を検出する手順について説明しておく。
【0035】
図3を参照して、本実施の形態の装置では、人物の顔の中で、両目の間に位置する眉間(以下の説明では両眼の中心を結んだ線分の中央の位置を「眉間」と呼ぶこととする。)に着目する。眉間を以下「BEP」(Between−Eyes−Point)と呼ぶ。
【0036】
図3(a)に示すように、人物の顔画像において、眉間を中心としてある半径の円を描き、その円周に沿った各画素の明度を調べる。するとその結果は概略図3(b)に示したようになる。図3(b)において、横軸は円周方向の各画素の位置、縦軸は各画素の明度をそれぞれ示す。なお、図3(a)に示される円周の最も上部を図3(b)の横軸の原点とし、図3(a)の円周を逆時計回り方向に回る方向に沿って図3(b)のグラフでは横軸に各画素を並べるものとする。
【0037】
図3(b)を参照すると、このグラフは、頂点、谷、頂点、谷という「頂点と谷」の2回の繰り返しを形成していることが分かる。この意味は、図3(a)に示される顔画像を参照すると明らかである。すなわち、人間の顔画像では、眉間を中心として上記した円周上をたどると、最初は額(明度が高い)、次に右目(明度が低い)、次に鼻(明度が高い)、次に左目(明度が低い)、最後に最初の額(明度が高い)というように、明るい部分と暗い部分とが交互に2回繰返されている。顔画像の中では、こうした特徴を最も示すのは眉間であり、他の部分はこうした特徴はあまり示さず、あっても眉間より小さい。
【0038】
そこで本実施の形態の装置では、眉間の周囲にはこうした明度の分布が存在すると想定して以下に「リングDFT(離散フーリエ変換)フィルタ」と呼ぶフィルタによるフィルタリングを行うことによって最初にBEPを検出し、しかる後にそのBEPを基準として眉間の両側の目の位置を検出する。なお、本実施の形態で用いられるリングDFT変換については後述する。
【0039】
本実施の形態の装置は、以下のような制御構造を有するソフトウェアを用いて目の位置を検出する。
【0040】
図4を参照して、まずイメージを取得する(ステップ80)。ここでは、図1および図2に示したカメラ30から得た1フレームの画像を画像取込装置68でデジタル変換して画像取込装置68内の画像メモリに格納し、この画像に対して以下のような処理をするものとする。連続的に処理する場合、カメラ30から得た画像の各フレームに対して以下の処理を繰返す。
【0041】
すなわち、ステップ82で、1フレーム分の画像データのうちから、前述したリングDFTフィルタを用いて眉間の候補点を抽出する。この処理については図5を参照して後述する。
【0042】
次に、ステップ82で抽出された眉間の候補点(一般的には複数個である)のうちで、その両側の対称な位置に2ケ所だけ暗い領域(目に対応)があるという条件を満足するものを探す(ステップS86)。眉間の候補点のうち、この条件を充足しないものはここで不採用となる。
【0043】
ステップ88で、ステップ86の処理の結果得られた目が一対のみか否か(すなわち眉間がただ1点のみ検出されたか否か)が判定される。一対のみ得られた場合には、目の検出処理が終了する(ステップ90)。
【0044】
一方、ステップ88の処理で一対を越える数の目が検出された場合には処理はステップ80にもどり、以後新たなフレームに対して、目の検出が行われるまで、上述した処理を繰返す。
【0045】
[リングDFTフィルタを用いた候補点の抽出]
さて、ステップ82で行われる眉間の候補点の抽出において、前述したリングDFTフィルタが用いられている。以後ステップ82の処理について図5を参照して説明する。
【0046】
まず、ステップ110で、処理対象の画像の平滑化および縦横方向の1/2縮小処理が行われる。実験ではたとえば対象点となる画素の周囲の5×5個の画素の明度を平均化してその画素の明度とし、このとき対象点の選択により画像の縮小も同時に行った。平滑化は、画像に含まれているノイズ(比較的高周波成分が多い)を除去するためのものである。特に、人間のBEPの検出では、後述するように波数2のスペクトルパワー成分を計算するので、この平滑化によって、以後の処理で必要とされる情報が削除されるおそれはない。またこの処理で画素数を1/4に削減することにより、処理の高速化を図ることができる。ただし、十分高速なプロセッサを用いた場合にはあえて画素数を削減する必要はないかも知れない。また、より低速なプロセッサを用いる場合には、より小さな画像に縮小する(画素数を少なくする)ことが必要となろう。ただしあまりに画像を縮小すると解像度が下がる結果、BEPの検出の精度が低下するおそれがあるので、実験により適当な解像度を選択することも有用である。
【0047】
続いて、こうして得られた画像から、対象となる人物の頭部領域を推定する処理が行われる(ステップ112)。この処理には、前述したとおりカラー情報を用い、肌色の領域を追跡するアルゴリズムを用いたり、前フレームと現フレームとの差分から、2フレーム間で移動したと思われる領域を抽出しこれを頭部領域と推定するアルゴリズムを用いたりすることができる。本実施の形態では、フレーム間の差分を用いる。またここで推定される領域はどのような形状の領域でもよいが、領域計算の簡便さを考えると矩形領域が適切である。ただし、条件によっては別の形状を用いた方が効率のよい場合もあるであろう。なお、頭部がほとんど移動していない場合にはフレーム間差分が得られない。その場合には、頭部が移動していないと想定して直前の処理で推定された頭部領域を使用する。
【0048】
次に、こうして得られた頭部領域の範囲内で、リングDFTフィルタを用いたフィルタリングを行う(ステップS114)。具体的には、たとえば頭部領域の左上の画素から順に、その画素を中心とする、図6に示されるような所定の大きさの円周上の画素に対して以下の計算を行う。
【0049】
【数1】
【0050】
ただしこの式で、Nは円周上の点の数であり、kはこの円周上の点のうち最も上にある(「北極」に相当する位置)点を0として、逆時計周りに順に各点にふられた番号である。またfk(k=0、…、N−1)は円周上のk番目の画素の明度で、iは虚数単位である。この式(1)は、次に示す一般的な離散フーリエ変換によって求められるDFT係数のn=2の場合である。
【0051】
【数2】
【0052】
式(1)に示す変換により、上記した円周上の明度の変動波形(図3(b)参照)に含まれる波数2のスペクトルパワー成分が計算される。本実施の形態では円の半径を7画素、N=36として計算した。なお、人物とカメラとの間の距離に応じて顔領域の大きさは変化するから、そうした距離の変化量が多いと考えられる場合には、既に得られた顔領域の概略の大きさに合わせて円の半径を変化させることでより精度が高くなる。ただし、人物がほとんどそうした移動を行わないことがわかっていれば、半径をあらかじめ固定しておいてもよい。
【0053】
この計算により、頭部領域のすべての画素について、その画素を中心とする円周上の波数2のスペクトルパワーの値が計算される。
【0054】
各画素に対して上記した計算を行った結果得られる値の分布中には、特に値の高い部分が存在する。それら部分は、その周囲の円周上に上記したような波数2の波数成分が多く存在するものと考えられる。したがってそれらはBEPとしての候補点としての資格を備えている。このように、画像上の各対象点を中心とする、典型的には円となる閉曲線上をたどり、その上での画素の値(明度に限らず色相、彩度等をも含みうる)に対してDFTを行った後の情報を得ることを本願発明では「リングDFTフィルタによるフィルタリング」と呼んでいる。
【0055】
こうして、リングDFTフィルタによるフィルタリングを行った値の対象画面中の分布から、局所的な最大値を示す点を選んでBEPの候補点とする(ステップ116)。
【0056】
検出された候補点の中には、真のBEPが含まれている。前述したとおり真のBEPの周囲にはほぼまちがいなく明、暗、明、暗という領域の分布がある。したがってステップ114の処理の結果、ほぼ間違いなく真のBEPは局所的な最大値を示し、その結果ステップ116でほぼ例外なく候補点として抽出される。このようにロバストに、ほぼ確実に真のBEPが抽出されるのがこの方式の特徴である。なお、選択のためのしきい値は、対象となる画像の持つべき特徴に応じて主として経験的に定められる。
【0057】
続いてステップ118で、複数個の局所最大値のうちで、BEPに特徴的な局所特徴を考慮して、BEPの候補を絞る処理が行われる。
【0058】
たとえば実際のBEPでは、その上(額)と下(鼻)とに明るい領域があり、その左右(両眼)に暗い領域が存在するはずである。したがって式(1)の計算結果は必ず実部が正となるはずである。正でない実部を生ずるものはBEPではなく、候補から除外される。
【0059】
また、同じ理由から、真のBEPを中心とした画像を縦方向および横方向に投影した画像を考えると、次のようなことがいえる。図7を参照して、明暗の分布は、(a)に示すように上下方向では中央が最も暗く、左右方向では中央は最も明るい。またその分布は中央を中心としてほぼ対称となるべきである。そこで、複数個の候補点が存在する場合、これと同様の縦方向および横方向の投影を作成し、上記した条件に合致しないものを不採用とする。
【0060】
また別の基準として、BEP候補点を中心とする小領域の明るさの重心を計算し、その重心とBEP候補点との距離がしきい値を越えていればそのBEP候補点を除外する。
【0061】
さらに、リングDFTフィルタの以下のような特徴を用いて候補点を絞ることができる。すなわち、上記したFnの一般式(式(2))において、n=1として各画素でF1を計算する。そして、各画素で得られたF2との比(F1/F2)を計算し、この値が小さいほど真のBEPである確率が高い、という基準を用いる。この値は、次の理由により、ある画素を中心とする円上の明暗の分布が理想的な制限カーブにどの程度合致しているか(どの程度離反しているか)を示す基準となりうると考えられる。
【0062】
式(2)でn=1、2、…として計算された値はそれぞれ、円周上において波数が1、2、…である波数成分のスペクトルパワーを示す。もし円周上の明暗の分布が理想的にn=2のときの正弦カーブと一致しているときには、2以外のnに対してFn=0となる筈である。もちろん、実際には明暗の分布が正弦カーブと一致することはないが、それでも理想的な正弦カーブに近ければF1は小さな値となり、F2は相対的に大きな値となるであろう。そこで、上記したF1/F2が小さければ、対象画素の周囲の明暗分布は実際のBEPの周りの明暗分布に近く、大きければ遠い、と考えることができる。これがF1/F2が尺度として利用できる理由である。
【0063】
なお、F3、F4等についてもF1と同様に理想的な明暗の分布では0となるはずである。そこでF3/F2、F4/F2等を基準とすることも考えられる。しかしこれらはより高い波数成分の量を示し、そのためにノイズの影響を受けやすいので、F1/F2を用いた場合よりも結果の信頼性は低い。
【0064】
以下、図4のステップ86、88によってこのBEPが真のBEPであるか否かが検定される。
【0065】
以上説明したような手続きにより、この実施の形態のシステムでは、リングDFTフィルタを用いてBEPの検出を行う。リングDFTフィルタは、画像のうちの明暗の分布内に存在する波数成分のみからBEP等の特徴点の抽出を行う。そのため、画像の全体的な明るさの変動による影響を受けにくいという特徴がある。また、顔がやや傾けられている場合にも、ある点の周囲の明るさの分布内の波数成分は画像の回転に対し不変である。そのため上記した手法を用いると、回転に強い特徴点の抽出を実現することができる。これは顔をやや横に向けた場合も同様である。両眼がギリギリで見える程度の顔を横に向けたとしても、両眼が画像中に存在している限りは依然として上記した明暗の配置が眉間の周囲に存在しているので、上で説明した手法を用いてほぼ確実にBEPを抽出することができる。また、対象となる人物が目を閉じていても、依然としてその領域は額、鼻と比較して暗いため、上記した手法でほぼ確実にBEPを検出することができる。したがって、高い信頼性でBEPを、さらにはその両側の目の位置を検出することができる。
【0066】
なお、上記した例では各画素を中心とする円周上の点についてDFT係数を計算した。しかし本発明は、円周上の点についてのみ適用可能であるというわけではない。あらかじめ特徴点として抽出されるべき点と所定の位置関係にある閉曲線であって、その周上の明暗のあるべき分布が分かっているのであれば、他のどのような閉曲線上で上記した計算を行ってもよい。もっとも、回転に対してロバストな結果を与えるのは円のときであるから、円が最適となることが多いであろう。
【0067】
さらにまた、上記した実施の形態では各画素を中心とする一つの円周上での明暗分布中の波数成分を利用したが、使用される円の数が1に限定されるわけではないことも当業者には明らかであろう。たとえば抽出すべき特徴点の周囲で、中心から異なった距離の領域では異なった明暗の分布が存在すべきことがあらかじめ判明しているのであれば、それに応じて複数個の円周(または閉曲線)上でそれぞれ上記した計算を行い、両者の計算の結果を総合して特徴点を抽出してもよい。
【0068】
また、上記した例では波数成分の計算のためにDFTを使用した。DFTを用いることが最も効率的だとは考えられるが、上記した例で必要な関数は、周上の明暗分布内の波数成分を抽出することさえできればよい。したがって、使用できる手法はDFTに限定されるわけではなく、一般的なフーリエ変換を含め、波数成分の抽出のための関数のいずれもが使用可能であることもまた当業者には明白であろう。
【0069】
さらに、上記した実施の形態では、リングDFTフィルタの処理対象は画素の明度であった。しかし本発明の適用可能な対象はこれには限定されない。たとえば各画素の色相、彩度等の値に対してリングDFTフィルタによるフィルタリングを行ってもよい。また、検出すべき特徴点のもつべき性質に応じて、各画素の明度、色相、彩度などの値に対して所定の演算を施した値をフィルタリングの対象とすることも考えられる。
【0070】
[顔画像からの鼻の位置の検出]
以上の説明により、画面中から人間の顔の眉間の位置および目の位置を特定することができる。以下では、このようにして目の位置は特定された後に、鼻の位置をさらに特定し、さらに、この鼻の位置を追跡(トラッキング)する手続きについて説明する。
【0071】
図8は、本発明における顔画像から鼻の位置を検出する手続きの前提となる概念を説明するための図である。
【0072】
図8を参照して、光沢のある球面に対して光源からの光が照射されると、球面上には、光源からの光を反射してハイライトのスポットができる。
【0073】
図9は、図8で示した概念にしたがって、顔画像において表れる現象を説明するための図である。
【0074】
図9に示すとおり、鼻頭は理想的な球面ではないが、実効的には球面とみなすことができ、ある程度の光沢性がある。このとき、とくに顔において最も突出した位置である鼻頭部には、光源の光が反射したハイライトが生じる。
【0075】
本発明では、まず、時間軸で所定の間隔で連続する顔を含む画面情報、たとえば、顔を連続撮影したビデオ画像を処理して、上述したリングDFTフィルタを用いたフィルタリングによる方法により、眉間の位置および両目の位置を検出する。
【0076】
その上で、以下に説明するとおり、両目下部の一定範囲領域において、局所的に最も明るい点(最も輝度の高い点)を抽出する。両目位置とその点で構成される三角形が一定の幾何学的条件をみたせば、その点を鼻位置と判定する。
【0077】
さらに、鼻位置が抽出されたら、その点を含む小領域をテンプレートとして記憶し、次のフレームでそのテンプレートに最もマッチする点を探索し、そのマッチする点の周辺で局所的に最も明るい点を鼻位置と判定して、鼻位置を追跡していく。
【0078】
図10は、目の位置を検出した後、鼻位置を探索する、両目下部の一定範囲領域を説明する図である。
【0079】
図10を参照して、鼻位置を探索するのは、両目の間隔をLとするとき、両目を結ぶ線(基準線)と平行であって、その基準線から距離Lだけ離れた位置を下辺とし、下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、上辺と下辺をそれぞれ結ぶ両側の辺が、距離Lを保って両目から鉛直方向に伸びるような四辺形の領域である。ただし、上辺と下辺の距離は、必ずしも2/3×Lに限定されるわけではなく、また、両側の辺の間隔も距離Lに限定されるわけではなく、検出の対象となる顔画像の統計的性質に応じて、これらの値は、適宜補正した値とすることもできる。
【0080】
図10に示す一定範囲領域において、局所的にもっとも明るい点を抽出する。その点が、鼻頭の位置と特定できる。
【0081】
図11は、図9に示した顔がやや横を向いた場合の顔画像を示す図である。
図11に示す程度に顔が横を向いた場合でも、図10に示す領域内に、鼻頭を示すハイライトが存在することが分かる。
【0082】
図12は、本発明における鼻位置の特定方法および鼻位置の追跡方法を説明するためのフローチャートである。
【0083】
図12を参照して、まず、処理対象となる画像(フレーム)を特定するための変数tの値を「1」に初期化する(ステップ100)。
【0084】
続いて、第tフレームの画像を取得し(ステップS102)、顔画像の抽出および目の位置の特定が行われる(ステップS104)。このステップS102およびS104の処理は、図4で説明した目の位置の検出処理と基本的に同様である。
【0085】
目の位置が検出されると、続いて、図10で説明した一定領域範囲で、鼻頭のハイライト点の抽出を行う(ステップS106)。
【0086】
第tフレームで鼻頭のハイライト点を抽出に成功すれば、処理はステップS112に移行する。一方、ハイライト点の抽出に失敗すると、変数tの値を1だけインクリメントして(ステップS110)、処理はステップS102に復帰する。
【0087】
ステップS112においては、ハイライト点を中心とする所定の大きさおよび形状の所定小領域を鼻頭テンプレートパターンTとして、たとえば、ハードディスク54にセーブする。
【0088】
なお、鼻頭テンプレートパターンは、ハイライト点を中心とする所定の大きさの小領域でもよいし、あるいは、ハイライト点から所定の距離だけオフセットした所定の大きさの小領域でもよい。
【0089】
続いて、変数tの値を1だけインクリメントして(ステップS114)、第(t+1)フレームの画像を取得する(ステップS116)。
【0090】
次に、過去の鼻頭位置履歴から鼻頭存在位置を予測する(ステップS118)。この予測においては、前フレームでの鼻頭存在位置X(t)および前々フレームでの鼻頭存在位置X(t−1)を用いて以下の式により予測を行う。
【0091】
X(t+1)=X(t)+X(t)−X(t−1)
なお、X(t−1)が存在しない場合は、X(t−1)の値として、X(t)を用いる。
【0092】
続いて、鼻頭存在予測位置を中心とする所定の大きさおよび形状の鼻頭探索領域を決定し(ステップS120)、鼻頭探索領域内でテンプレートパターンTと最もよく一致するマッチング点を探す(ステップS122)。
【0093】
マッチング点を中心とする所定領域内で最も明るい点を探索し、その点を第(t+1)フレームの鼻頭ハイライト点とする(ステップS124)。その上で、処理は、ステップS112に復帰する。
【0094】
以上説明したような処理で、時間軸について所定間隔で連続する画面情報、たとえば、連続するフレーム画像から、実時間で、鼻の位置を検出することができる。さらに、このような連続する画面情報の各々において、鼻位置の検出を連続して行っていくことで、鼻位置のトラッキングを行うことができる。
【0095】
このような鼻位置のトラッキングは、たとえば、コンピュータのマンマシンインタフェースにおいて、たとえば、マウスの代わりに用いることができる。
【0096】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【0097】
【発明の効果】
以上説明したとおり、本発明によれば、連続する画面情報から実時間で、鼻の位置を検出することができる。さらに、このような連続する画面情報の各々において、鼻位置の検出を連続して行っていくことで、鼻位置のトラッキングを行うことができる。
【図面の簡単な説明】
【図1】 本発明の1実施の形態にかかるシステムの外観図である。
【図2】 本発明の1実施の形態にかかるシステムのハードウェア的構成を示すブロック図である。
【図3】 本発明の原理を説明するための図である。
【図4】 本発明の実施の形態1にかかるシステムで実行される目位置検出処理のフローチャートである。
【図5】 画像データから眉間の候補点を抽出する処理のフローチャートである。
【図6】 リングDFTフィルタの計算経路を示す図である。
【図7】 眉間の局部的特徴を説明するための模式図である。
【図8】 本発明における顔画像から鼻の位置を検出する手続きの前提となる概念を説明するための図である。
【図9】 図8で示した概念にしたがって、顔画像において表れる現象を説明するための図である。
【図10】 目の位置を検出した後、鼻位置を探索する、両目下部の一定範囲領域を説明する図である。
【図11】 図9に示した顔がやや横を向いた場合の顔画像を示す図である。
【図12】 本発明における鼻位置の特定方法および鼻位置の追跡方法を説明するためのフローチャートである。
【符号の説明】
20 鼻位置抽出装置、30 カメラ、40 コンピュータ本体、42 モニタ。
Claims (12)
- 人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、
前記鼻位置探索領域は、抽出された両目を結ぶ基準線から両目の間隔に相当する距離だけ離れた辺を下辺とし、前記下辺から顔画像の統計的性質に応じ前記両目の間隔に基づいて予め定められる第1の所定の距離だけ離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、前記統計的性質に応じ前記両目の間隔に基づいて予め定められる第2の所定の距離を保って前記両目から鉛直方向に伸びる四辺形の領域である、鼻位置の抽出方法。 - 人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、
前記鼻位置探索領域は、両目の間隔をLとするとき、両目を結ぶ基準線と平行であって、前記基準線から距離Lだけ離れた位置を下辺とし、前記下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、距離Lを保って前記両目から鉛直方向に伸びる四辺形の領域である、鼻位置の抽出方法。 - 人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップを備え、
前記デジタルデータを準備するステップは、時間軸において所定間隔で連続する画面情報の各々について、前記対象となる画像領域内の各画素の値のデジタルデータを準備するステップを含み、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとをさらに備え、
前記鼻位置として特定するステップは、
ある時刻に対応する前記画面情報において特定された前記鼻位置を含む小領域をテンプレートとして記憶するステップと、
前記ある時刻に対応する画面情報に続く画面情報において前記テンプレートにマッチングする領域を探索し、前記マッチングした領域内で局所的に最も輝度の高い点を新たな鼻位置と判定する手続きを順次続けることで、鼻位置を追跡するステップとを含む、鼻位置の抽出方法。 - 前記鼻位置として特定するステップは、過去の鼻頭位置履歴から鼻頭存在位置を予測するステップをさらに含む、請求項3記載の鼻位置の抽出方法。
- コンピュータに、対象となる画像領域内の鼻位置を抽出する方法を実行させるためのプログラムであって、前記プログラムは、
人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、
前記鼻位置探索領域は、抽出された両目を結ぶ基準線から両目の間隔に相当する距離だ け離れた辺を下辺とし、前記下辺から顔画像の統計的性質に応じ前記両目の間隔に基づいて予め定められる第1の所定の距離だけ離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、前記統計的性質に応じ前記両目の間隔に基づいて予め定められる第2の所定の距離を保って前記両目から鉛直方向に伸びる四辺形の領域である、プログラム。 - コンピュータに、対象となる画像領域内の鼻位置を抽出する方法を実行させるためのプログラムであって、前記プログラムは、
人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップと、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとを備え、
前記鼻位置探索領域は、両目の間隔をLとするとき、両目を結ぶ基準線と平行であって、前記基準線から距離Lだけ離れた位置を下辺とし、前記下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、距離Lを保って前記両目から鉛直方向に伸びる四辺形の領域である、プログラム。 - コンピュータに、対象となる画像領域内の鼻位置を抽出する方法を実行させるためのプログラムであって、前記プログラムは、
人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備するステップを備え、
前記デジタルデータを準備するステップは、時間軸において所定間隔で連続する画面情報の各々について、前記対象となる画像領域内の各画素の値のデジタルデータを準備するステップを含み、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出するステップと、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定するステップとをさらに備え、
前記鼻位置として特定するステップは、
ある時刻に対応する前記画面情報において特定された前記鼻位置を含む小領域をテンプレートとして記憶するステップと、
前記ある時刻に対応する画面情報に続く画面情報において前記テンプレートにマッチングする領域を探索し、前記マッチングした領域内で局所的に最も輝度の高い点を新たな鼻位置と判定する手続きを順次続けることで、鼻位置を追跡するステップとを含む、プログラム。 - 前記鼻位置として特定するステップは、過去の鼻頭位置履歴から鼻頭存在位置を予測するステップをさらに含む、請求項7記載のプログラム。
- 人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備する手段と、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出する手段と、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定する手段とを備え、
前記鼻位置探索領域は、抽出された両目を結ぶ基準線から両目の間隔に相当する距離だけ離れた辺を下辺とし、前記下辺から顔画像の統計的性質に応じ前記両目の間隔に基づいて予め定められる第1の所定の距離だけ離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、前記統計的性質に応じ前記両目の間隔に基づいて予め定められる第2の所定の距離を保って前記両目から鉛直方向に伸びる四辺形の領域である、鼻位置抽出装置。 - 人間の顔領域であって対象となる画像領域内の各画素の値のデジタ ルデータを準備する手段と、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出する手段と、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定する手段とを備え、
前記鼻位置探索領域は、両目の間隔をLとするとき、両目を結ぶ基準線と平行であって、前記基準線から距離Lだけ離れた位置を下辺とし、前記下辺から距離2/3×Lだけ鉛直方向上方に離れた辺を上辺とし、前記上辺と前記下辺をそれぞれ結ぶ両側の辺が、距離Lを保って前記両目から鉛直方向に伸びる四辺形の領域である、鼻位置抽出装置。 - 人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備する手段を備え、
前記デジタルデータを準備する手段は、時間軸において所定間隔で連続する画面情報の各々について、前記対象となる画像領域内の各画素の値のデジタルデータを準備し、
前記対象となる画像領域内に対するフィルタリング処理により目の位置を抽出する手段と、
抽出された前記目の位置に対応する鼻位置探索領域中の最も輝度の高い点を鼻位置として特定する手段とをさらに備え、
前記鼻位置として特定する手段は、
ある時刻に対応する前記画面情報において特定された前記鼻位置を含む小領域をテンプレートとして記憶する手段と、
前記ある時刻に対応する画面情報に続く画面情報において前記テンプレートにマッチングする領域を探索し、前記マッチングした領域内で局所的に最も輝度の高い点を新たな鼻位置と判定する手続きを順次続けることで、鼻位置を追跡する手段とを含む、鼻位置抽出装置。 - 前記鼻位置として特定する手段は、過去の鼻頭位置履歴から鼻頭存在位置を予測する手段をさらに含む、請求項11記載の鼻位置抽出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002322952A JP3980464B2 (ja) | 2002-11-06 | 2002-11-06 | 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002322952A JP3980464B2 (ja) | 2002-11-06 | 2002-11-06 | 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004157778A JP2004157778A (ja) | 2004-06-03 |
JP3980464B2 true JP3980464B2 (ja) | 2007-09-26 |
Family
ID=32802987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002322952A Expired - Fee Related JP3980464B2 (ja) | 2002-11-06 | 2002-11-06 | 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3980464B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4543810B2 (ja) * | 2004-07-28 | 2010-09-15 | 日産自動車株式会社 | 鼻検出装置 |
JP4725949B2 (ja) * | 2004-11-19 | 2011-07-13 | 株式会社国際電気通信基礎技術研究所 | 鼻梁及び鼻先端を特定しトラッキングする方法 |
JP4645223B2 (ja) * | 2005-02-18 | 2011-03-09 | 富士通株式会社 | 顔追跡プログラムおよび顔追跡方法 |
JP2007311861A (ja) * | 2006-05-16 | 2007-11-29 | Fujifilm Corp | 撮影装置及び方法 |
JP4756503B2 (ja) * | 2006-05-23 | 2011-08-24 | 株式会社国際電気通信基礎技術研究所 | 瞬き検出装置及びコンピュータプログラム |
JP4775957B2 (ja) * | 2006-07-28 | 2011-09-21 | Kddi株式会社 | 顔検出装置 |
JP6526494B2 (ja) * | 2015-06-25 | 2019-06-05 | 株式会社ディー・ディー・エス | 情報処理プログラム及び情報処理装置 |
WO2020158102A1 (ja) * | 2019-01-30 | 2020-08-06 | 富士フイルム株式会社 | 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム |
CN116451588B (zh) * | 2023-04-25 | 2024-02-27 | 中航信移动科技有限公司 | 基于目标物预测轨迹确定提示信息的方法、介质及设备 |
-
2002
- 2002-11-06 JP JP2002322952A patent/JP3980464B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004157778A (ja) | 2004-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10372970B2 (en) | Automatic scene calibration method for video analytics | |
US9652663B2 (en) | Using facial data for device authentication or subject identification | |
US9317762B2 (en) | Face recognition using depth based tracking | |
Valenti et al. | Accurate eye center location and tracking using isophote curvature | |
US7574021B2 (en) | Iris recognition for a secure facility | |
CN111274928B (zh) | 一种活体检测方法、装置、电子设备和存储介质 | |
US7003135B2 (en) | System and method for rapidly tracking multiple faces | |
US8983202B2 (en) | Smile detection systems and methods | |
Kang et al. | Real-time image restoration for iris recognition systems | |
US20050084179A1 (en) | Method and apparatus for performing iris recognition from an image | |
US20170091550A1 (en) | Multispectral eye analysis for identity authentication | |
US20160019420A1 (en) | Multispectral eye analysis for identity authentication | |
KR101286965B1 (ko) | 시선 추적 장치 및 방법 | |
MX2012010602A (es) | Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
CN105706108A (zh) | 用于基于虹膜的生物特征识别的装置和方法 | |
CN115482574B (zh) | 基于深度学习的屏幕注视点估计方法、装置、介质及设备 | |
CN106471440A (zh) | 基于高效森林感测的眼睛跟踪 | |
JP2003150942A (ja) | 目位置追跡方法 | |
JP2014186505A (ja) | 視線検出装置及び撮像装置 | |
JP3980464B2 (ja) | 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
CN109784215A (zh) | 一种基于改进的光流法的活体检测方法及系统 | |
Betke et al. | Preliminary investigation of real-time monitoring of a driver in city traffic | |
JP3401511B2 (ja) | 画像の特徴点の抽出方法、およびコンピュータに当該画像の特徴点の抽出方法を実行させるためのプログラム記録した、コンピュータ読取可能な記録媒体ならびに画像特徴点抽出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3980464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100706 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110706 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110706 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120706 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120706 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130706 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |