JP4633043B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP4633043B2
JP4633043B2 JP2006349800A JP2006349800A JP4633043B2 JP 4633043 B2 JP4633043 B2 JP 4633043B2 JP 2006349800 A JP2006349800 A JP 2006349800A JP 2006349800 A JP2006349800 A JP 2006349800A JP 4633043 B2 JP4633043 B2 JP 4633043B2
Authority
JP
Japan
Prior art keywords
attention
displacement
image
person
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006349800A
Other languages
English (en)
Other versions
JP2007200298A (ja
Inventor
宗太郎 築澤
啓介 早田
めぐみ 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006349800A priority Critical patent/JP4633043B2/ja
Priority to EP06843352.3A priority patent/EP1968006B1/en
Priority to US12/159,416 priority patent/US7889244B2/en
Priority to CN2006800465233A priority patent/CN101326546B/zh
Priority to PCT/JP2006/325968 priority patent/WO2007074842A1/ja
Publication of JP2007200298A publication Critical patent/JP2007200298A/ja
Application granted granted Critical
Publication of JP4633043B2 publication Critical patent/JP4633043B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本発明は、被撮影者の視線方向にある物体に対する被撮影者の注目度合いを判定する画像処理装置に関する。
従来の人物の注目方向を検出する画像処理装置においては、カメラの撮影によって取得した画像から、対象人物の顔領域を切り出し、その領域から人間の目に当たる部分の目領域を検出し、その目領域から視線の方向を画像処理によって検出していた。
しかし、このような装置においては、視線方向のみの検出を行っており、対象人物がその方向を注目しているかどうかまでは判断していなかった。
そのため、画像処理装置によって得られた情報と、対象人物がその方向を注目しているかどうかの対象人物の意思と、の関係が不明であり、得られた情報の利用方法が制限されてきた。
このような問題に対して、人物の注目の度合いである注目度を判定する手段として、顔方向を一定の離散時間で求め、その時間的な変化パターンや統計量を算出し、あらかじめ取得した標準的な参照データと比較することにより、人物の注目状態を推定する注目方向検出方式が提案されている(例えば特許文献1参照)。
また、注目対象を動かし、その動きに追随して視線が動いた場合に、対象人物が注目していると判定する注目度判定方式も提案されている(例えば特許文献2参照)。
さらに、文書を複数の領域に分け、各領域における領域注目度を設定し、その総和を文書注目度とする注目度判定手法などもある。
この手法では、視線滞在時間が長い場合、または、複数回滞在する場合には、領域注目度は増加し、対象を見ているにもかかわらずその領域を見ていない場合には、領域注目では緩やかに減衰する(例えば非特許文献1参照)。
特開平9−147119号公報 特開2004−62393号公報 大野健彦著 インタラクティブシステムとソフトウェア WISS2000,pp.137−146,2000
しかしながら、特許文献1記載の前記従来の画像処理装置では、視線方向と顔方向とが一致することはまれであるため、注目方向自体に信頼性が低く、また、視線滞在時間は、注目対象の複雑さや周辺の状況によって大幅に変化するため、汎用性のある閾値を決定することが困難であるという課題を有している。
また、特許文献2及び非特許文献1の前記従来の画像処理装置においても、注目対象の追跡や領域分割を行うためには、あらかじめ注目対象が既知でなくてはならず、一般の注目対象に対しては適用できないという課題を有している。
本発明は、かかる点に鑑みてなされたものであり、注目対象の形状や周辺環境、対象の未知、既知にかかわらず、安定した注目状態判定を行う画像処理装置を提供する。
本発明の態様の一つに係る画像処理装置は、人物画像を含む所定画像から、前記人物画像で表される人物の2つの身体部位における向き情報を検出する向き検出部と、前記2つの向き情報から、2つの向きの変位の比である変位比を算出する変位検出部と、第1の人物画像を含む第1の所定画像から前記向き検出部によって検出された第1の向き情報を用いて前記変位検出部で算出される第1の変位比と、前記第1の人物画像を含む第2の所定画像から前記向き検出部によって検出された第2の向き情報を用いて前記変位検出部で算出される第2の変位比と、に基づき、前記人物の所定物体に対する注目度の判定を行う注目状態判定部と、を備える。
本構成によって、複数の身体部位運動の相関による注目度判定が実現でき、これによって、単独の身体部位のみを用いた手法よりも安定した注目度判定が可能となる。
本発明によれば、注目判定における誤動作が軽減され、安定した注目状態判定を行うことができるという効果を有する。
本発明は、人物画像からその頭部の向きと眼球の向きとを検出し、頭部の向きと眼球の向きとの相関から、安定した注目状態判定を行う画像処理装置等に関するものである。
以下、本発明のそれぞれの実施の形態について、上記対象図面を参照しながら説明する。
(実施の形態1)
本実施の形態における画像処理装置は、人物画像から頭部の向きと眼球の向きとを検出し、頭部の向きと眼球の向きとの変位から、安定した注目状態判定を行う。
本実施の形態の画像処理装置は、カーナビやテレビ、スピーカーなどの情報提示機器や、車載カメラや監視カメラなどの安全状態監視機器、スチールカメラやビデオカメラなどの映像記録機器、ロボットなどの生活補助機器等の、操作者が何に注目しているのかという情報が必要になる機器に対して適用できる。
さらに、操作者が何に注目しているのかという情報を基に、TVゲームや体感ゲームなどの遊戯機器などにも適用できる。
本実施の形態は、本発明の画像処理装置の一例として、車運転時にドライバーが注目した対象に関する情報をリアルタイムに提供し、一瞥した対象に関する情報を蓄積するカーナビゲーションシステムに対して、本発明の画像処理装置を適用したものであり、以下、これについて詳述する。
本実施の形態記載の発明を説明する前に、まず、本実施の形態を含めた本願発明において、用いられる「注目」、「非注目」、「一瞥」について説明する。
「注目」とは、ある物に視線をそそぐこと、よく見ることである。
「非注目」とは、ある物に視線をそそがないことである。
これらに対し、「一瞥」とは、ひと目チラッと見ることであるが、本実施の形態では、「視覚的に、そこにあることは認識したが、認識後、さらに詳細にそれに対して情報を得ようとはしない、又は、思わない行動や状態」ということを意図している。
また、「一瞥」時の眼球の動きの状態としては、「物体の存在を認識できる程度の短い時間、対象物体方向に視線を滞在させ、その後、視線方向を変化させるとき、頭部は視線の動きとほぼ同時または一瞬遅れて視線の移動方向と同じ方向に移動するが、移動が完了しないうちに、または完了後非常に短い時間で別方向移動する状態」にあることを意図している。
図1は、本発明の実施の形態1におけるカーナビゲーションシステムに含まれる本発明の画像処理装置の構成を示すブロック図である。
図1に示す画像処理装置100は、以下の構成をその内部に有する。
画像入力手段101は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサによって入力された画像を、後述の向き検出手段102に出力する。
向き検出手段102は、画像入力手段101により出力された画像から人物の画像である人物画像を検出し、この人物画像の頭部の向きと眼球の向きを検出し、頭部と眼球の向き情報として、後述の変位検出手段103に出力する。
この向き検出手段102は、頭部向き検出手段106と、眼球向き検出手段107とを備える。頭部向き検出手段106は、画像入力手段101から入力された画像から頭部領域を検出して、その頭部領域から頭部の向きを検出し、頭部向き情報として出力する。眼球向き検出手段107は、頭部向き検出手段106で検出された頭部領域から眼球の向きを検出し、眼球向き情報として出力する。
頭部領域の検出は、例えば、前記入力画像からハフ変換によって複数の楕円を検出し、もっとも頭部に近い大きさ、形状、位置の楕円を頭部領域とすることで行われる。
上記頭部向き検出手段106による頭部向き検出は、例えば、前記頭部領域内で、あらかじめ用意した目、鼻、口の濃淡テンプレートを用いてテンプレートマッチングを行い、目、鼻、口の位置を検出し、頭部領域内におけるそれらの位置関係から向きを推定して行われる。
なお、頭部向き情報は、胴体正面(以下単に「正面」という)に対する角度として得られる。
上記眼球向き検出手段107による眼球向き検出では、例えば、まず、頭部向き検出で検出した目領域において、SUSANオペレータを用いた角点検出によって目尻、目頭を検出する。
次に、目領域に対してエッジ検出を行い、検出したエッジ点を用いてハフ変換で瞳輪郭に相当する楕円を検出し、検出した楕円の中心を瞳中心として検出する。
最後に、あらかじめ生成した目尻、目頭、瞳中心の位置関係と眼球の向きとを対応づけたデータベースを参照する。このようにして、眼球向きは検出される。
なお、頭部向き情報は、頭部正面に対する角度として得られる。
変位検出手段103は、向き検出手段102の出力である、頭部向き情報と眼球向き情報とから、頭部と眼球の向きの変位の比を計算し、変位比情報として後述の注目状態判定手段へ出力する。
注目状態データベース104は、頭部向き情報と眼球向き情報、または、変位比情報と、それに対応する注目状態を判定する注目判定条件をあらかじめ格納している。
この注目状態データベース104に格納されている注目状態の判定に用いる注目判定条件については、後に詳述する。
向き検出手段102から出力された向き情報または変位検出手段103から出力された変位比情報は、履歴として注目状態判定手段105内に保持される。注目状態判定手段105は、保持する向き情報および変位比情報から、注目状態データベース104に格納されている注目判定条件に基づいて、注目の度合いを判定する。
履歴は、t時からt+n時までの変位比情報であっても良いし、直前の変位比情報(現在の変位比情報がt時のものであれば、履歴としては、t−1時のもの)であっても良い。
なお、履歴は、注目状態判定手段105外の記憶手段に記憶されていてもよく、履歴を用いるたびごとに、この記憶手段を参照する構成としても良い。
情報取得手段108は、注目対象に備わっているRFID(Radio Frequency Identification)タグから、注目対象を特定し、注目対象に関する情報をRFIDデータベース109から取得して、後述の情報保存手段110に出力する。
RFIDデータベース109は、RFIDタグの情報とタグが備え付けられた物体の情報とを対応付けて格納している。
本実施の形態では、注目対象にRFIDを備え、このRFIDを備えた注目対象の情報をRFIDデータベース109に記憶するようにしたが、このように限定されるものではない。この注目対象を識別するものとして、当業者がこの発明に際し、多数の注目対象を識別するために用いる他の各種技術を用いても良い。
情報保存手段110は、情報取得手段108が出力した情報を保存する。
情報提示手段111は、情報取得手段108で取得した情報をユーザーに提示する。
情報提示手段111として、例えば、ブラウン管や液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、スピーカーなどが考えられる。
以下、本実施の形態における画像処理装置100の動作について説明する。
図2は、上記図1に記載の発明の構成を有する画像処理装置100の動作の流れを示すフローチャートである。
図2において、ステップS201では、画像入力手段101は、撮影作業を開始する。
撮影作業の開始は、人手により行われても良いし、外的な何らかの信号をトリガーに画像処理装置100により行われても良い。
その後、ステップS202では、画像入力手段101は、一定期間ごとにカメラの撮像面に投影された画像を取得し、この取得した画像を向き検出手段102に出力する。
例えば、画像入力手段101は、CMOSイメージセンサを備えたデジタルカメラが想定され、これにより撮影されるPPM(Portable Pix Map file format)形式の画像等が、画像入力手段中に存在する画像記憶部(例えばPCのメモリ空間)に一時記憶される。
そして、この一時記憶されている画像が、PPM形式で向き検出手段102に入力される。
図3は、本実施の形態の画像処理装置に入力される入力画像、つまり画像入力手段101が入力する画像の例である。画像入力手段101が入力する画像300には、例えば、人物の画像301、顔領域302、および目領域303が含まれる。
図2のステップS203では、向き検出手段102における頭部向き検出手段106は、画像入力手段101により入力された画像300のうち、画像301を入力画像とし、顔領域302の検出処理を行う。
ここで、顔領域検出は、例えば、入力画像から特徴となる画像の抽出を行い、抽出した特徴となる画像と、あらかじめ用意した顔領域を表す特徴画像との比較し、比較した画像について類似度が高いものを検出することで行うことが考えられる。
類似度は、例えば、あらかじめ取得した平均顔のガボール特徴量と、入力画像をスキャンし、抽出したガボール特徴量とを照合し、その差分の絶対値の逆数を用いる。
この場合、顔領域302は、あらかじめ用意したテンプレートと比べて、画像300の中で、最も相関の高い領域を画像中から探索される。
また、顔領域302は、画像中から肌色領域検出を行ったり、楕円検出を行ったり、統計的パターン識別手法を用いたりすることで検出してもよい。
その他、この分野の当業者であれば当然に適用しうる検出方法により、上記顔検出を行うことができる技術であれば、上記技術に拘束されることはない。
ステップS204では、頭部向き検出手段106が、顔領域302に対して、顔向き検出を行う。
顔向き検出は、例えば、顔領域の口角や目尻、目頭などの特徴点を平面上にあると近似して、画像中のそれらの特徴点の位置関係から推定する。
また、複数の顔向きごとに、対応した画像を用意して学習させ、パターン認識によって入力画像に対してもっとも近い顔向きを推定したり、ステレオ視によって3次元顔形状を取得し、そこから顔向きを検出してもよい。
その他、この分野の当業者であれば当然に適用しうる検出方法により、上記顔検出を行うことができる技術であれば、上記技術に拘束されることはない。
ステップS205では、頭部向き変位算出手段113は、胴体に対する頭部変位を計算し、この計算結果を変位検出手段103に出力する。
胴体の方向は、あらかじめ服の胴体部に位置関係が既知の印を3つ以上付着させておき、画像上での各印の位置関係から胴体の向きを計算することで取得する。
また、本実施の形態に記載された画像処理装置100が運転席の前方に設けられている場合において、車の運転者が椅子に座っているときなどは、運転者の胴体の方向が常に一定であるので、カメラと椅子の位置関係から座っている際の胴体の向きを推定すればよい。また、ステレオ視を行うことで胴体の3次元位置を計測し、胴体の向きを取得したり、あらかじめ取得した服の模様と画像上の模様の歪みから胴体の向きを計算して取得してもよい。
上記頭部変位は、顔向きと胴体の向きのなす角度として得られる。
ステップS206では、向き検出手段102の眼球向き検出手段107は、頭部向き検出手段106で検出された顔領域302から、目領域303を検出する。
目領域303は、あらかじめ顔画像302と、顔画像に対応する目領域の位置との関係を眼球向き検出手段107に学習させ、この学習結果に基づいて眼球向き検出手段107によって推定される。
その際、眼球向き検出手段107は、目領域303の位置の推定結果に対応する目尻、目頭、瞳中心の位置の情報も推定する。
また、眼球向き検出手段107は、分離度フィルタを用いて、口角、目尻、目頭などの顔部品の端点や鼻の穴、瞳などを検出し、それらの位置関係から目領域を検出したり、顔領域を二値化して、眉、目、口などを検出し、位置関係から目領域を検出したりしても良い。
ステップS207では、眼球向き変位算出手段114は、頭部に対する眼球変位を計算し、この計算結果を変位検出手段103に出力する。
ここで、眼球変位検出は、目領域検出の際に得られる目尻、目頭、瞳の中心の位置関係を用いる。
つまり、あらかじめ、目尻、目頭に対する瞳の中心の位置と、その時の眼球の向きを学習した結果を眼球向き検出手段107に保持し、ステップS206で推定した目尻、目頭、瞳の中心の位置に対応する眼球の向きを、学習結果と照合することで検出する。
また、瞳の輪郭形状を楕円検出によって推定し、あらかじめ輪郭形状と眼球の向きとを対応付けさせたデータベースを参照することで検出したり、眼球中心を仮定し、瞳の中心と眼球中心の向き関係から検出してもよい。
眼球変位は、眼球の向きが顔を基準として取得される場合は、眼球の向き、すなわち、頭部正面に対してなす角をそのまま変位として得られ、カメラなど、頭部以外を基準として取得される場合は、検出した頭部向きとの差分を取ることで、頭部を基準とした変位として得ることができる。
図4は、胴体方向と顔方向と視線方向との関係を説明するための図である。ここでは、人物を上方からみた様子を図示している。今、仮に、顔の回転軸と眼球の回転軸とが、図4に示すように、胴体の回転軸に平行である場合、頭部変位324は、図4の胴体方向311を基準とした顔方向312までの変位である。
これは、頭部向き変位算出手段113により算出される。
また、眼球変位325は、図4の顔方向312を基準とした視線方向313までの変位のことである。
これは、眼球向き変位算出手段114により算出される。
顔方向と胴体方向との変位(頭部変位)324は、胴体方向311を基準に時計回りの変位が正であり、視線方向と顔方向との変位325は、顔方向312を基準に時計回りの変位が正であるものとする。
この図4における例では、頭部変位324も眼球変位325も正となる。
図2のステップS208では、変位検出手段103は、頭部変位324及び眼球変位325から変位比を取得し、この変位比を変位比情報として注目状態判定手段105へ出力する。また、変位検出手段103は、変位比情報とともに、頭部変位324及び眼球変位325を、注目状態判定手段105へ出力する。
図5は、ある物体に注目した場合において、その物体に注目している人物の胴体方向に対する顔方向と、この人物の頭部に対する視線方向の、それぞれの時間の経過による変位の変化の一例を示したものである。ここでは、人物が、正面に視線を向けた状態から、人物からみて右方向にある対象に注目し、再び正面に視線を戻した場合の、頭部変位及び眼球変位の変化の様子を例示している。例えば、図2のステップS205、S207で、図5に示すような頭部変位324及び眼球変位325が得られたとすると、変位比とは、「眼球変位325:頭部変位324」に相当するものである。図5に示す例では、変位比は、およそ「0.5」となる。
図2のステップS209では、注目状態判定手段105は、頭部変位324と、眼球変位325または、変位検出手段103が出力する変位比情報から、非注目状態であるか否かを判定する。
ただし、注目判定手段105は、判定結果にかかわらず、各情報を履歴として保存するものとする。
上記で説明したように、変位比情報を履歴として保存し、この履歴と新たに変位比として計算される情報とを、上記した注目判定条件と比較することにより、本願で実現できる、「注目」、「非注目」、「一瞥」を判定することができる。
注目状態の判定として、まず、注目状態判定手段105は、頭部変位324と眼球変位325を比較し、頭部変位と眼球変位が同方向または逆方向を向いているか、つまり顔の回転軸と視線の回転軸とが平行であるかを判定する。
図6は、顔の回転軸と視線の回転軸との関係の例を説明するための図である。図6(A)は、顔の回転軸331と眼球の回転軸332とが平行である場合の例を示し、図6(B)は、顔の回転軸331と眼球の回転軸332とが平行でない場合の例を示す。顔の回転軸331は頭部の中心を通り、眼球の回転軸332は眼球の中心(ここでは右の眼球の中心)を通る。
図6(B)に示すように、顔の回転軸331と眼球の回転軸332とが平行でなければ(図2のステップS209:NO)、図2のステップS210へ進み、注目判定手段105は、非注目状態と判定する。
ただし、厳密に顔の回転軸331と眼球の回転軸332とが平行である必要はなく、顔の回転軸331に対して、±α度の誤差を許容してもよい。αの値はあらかじめ定められた値である。
一方、図6(A)に示すように、顔の回転軸331と眼球の回転軸332とが平行であれば(図2のステップS209:YES)、この段階では非注目状態とは判定されずに図2のステップS211へ進む。
図7は、顔の回転軸331と眼球の回転軸332とが平行である場合の一例を、顔の変位平面341と眼球の変位平面342と併せて示した図である。図7から明らかなように、図2のステップS209では、胴の回転軸と関係なく、顔の回転軸331と眼球の回転軸332とが平行であるか否かが判定される。
図2のステップS211では、注目状態判定手段105は、顔の回転軸331と眼球の回転軸332とが平行であることから、次に、頭部変位324と眼球変位325から、各変位において同一方向での滞在時間があらかじめ定められた閾値時間であるか否かを判定する。
ここで、「同一方向」とは、顔方向と胴体方向との変位(頭部変位)324について胴体方向311を基準に時計回りの変位を正、視線方向と顔方向との変位(眼球変位)325について顔方向312を基準に時計回りの変位を正としたときの、顔方向と胴体方向との変位324と、視線方向と顔方向との変位325とが同一符号(正と正、負と負)にある状態をいい、以下同様の定義である。
頭部変位324と眼球変位325から、各変位において同一方向での滞在時間があらかじめ定められた閾値時間に達しない場合には(ステップS211:NO)、ステップS212へ進み、注目判定手段105は、非注目と判定する。
ただし、あらかじめ定める閾値は、0.1秒程度から1秒程度の短い時間であるが、周辺環境が暗い場合には長く設定するなど、その範囲に限らず、動的に変化しても良い。
一方、頭部変位324と眼球変位325から、各変位において同一方向での滞在時間があらかじめ定められた閾値時間に達した場合には(ステップS211:YES)、ステップS213へ進む。
ステップS213では、注目状態判定手段105は、滞在時間が閾値時間に達していることから、次に、頭部変位324と眼球変位325、または、変位比情報を用いて、1.注目、2.一瞥、3.非注目の3状態の判定を注目状態データベース104に格納された注目判定条件を参照することで行い、判定結果を情報取得手段108に出力する。
注目状態データベース104には以下の注目判定条件があらかじめ格納されている。
注目判定条件は、全部で3つあり、この注目判定条件を、過去の変位比情報である履歴と現在処理している変位比情報とが、どのように満たしているかで、注目状態を判断することが出来る。
以下、顔方向とは、図4でいう胴体方向311を基準とした顔方向312のことであり、視線方向とは、図4でいう顔方向312を基準とした視線方向のことである。
図8は、それぞれの注目判定条件に合致する変位比情報の具体例として、顔方向及び視線方向の変位の時間変化パターンを示した図である。下記、注目判定条件照合に際し、注目状態判定手段105が過去の変位比情報をどの程度用いるかは、図8(A)〜(D)までに示す特性によって変わる。
例えば、図8(B)の特性であるという判定を行うためには、ある程度の過去の変位比情報を必要とする。
注目判定条件1は、変位比が、図8(A)のように、2:1の関係を満たすことである。
ただし、厳密に2:1である必要はなく、2±β:1±γ(β、γは、任意の正の数)であっても良い。
注目判定条件2は、図8(B)のように、頭部変位324の履歴を見た際、変位がある状態から、変位0、すなわち、正面に顔向きが戻ってくる状態であり、かつ、眼球変位325の履歴を見た際、頭部変位324が0になる前に、減少していき、一度負方向になった後、変位0、すなわち、顔正面に眼球向きが戻ってくる状態となることである。
注目判定条件3は、図8(C)のように、頭部変位324よりも眼球変位325が大きく、かつ、頭部変位324と眼球変位325の同一方向滞在時間があらかじめ定められた時間以下であることである。ただし、頭部変位324、眼球変位325が共に小さい場合は(例えば10度未満)、非注目状態と判定する。
以上の注目判定条件の組み合わせにより、「注目」、「非注目」、「一瞥」を判定される。
上記注目判定条件1、注目判定条件2のいずれかを満たした場合の状態を、注目状態とする。
上記注目判定条件3を満たした場合の状態を、一瞥状態とする。
上記注目判定条件1から注目判定条件3までのいずれにも該当しない場合の状態を、図8(D)のように、非注目状態とする。
なお、注目判定条件1は、正面以外を注目している場合の注目判定条件であり、注目判定条件2は、胴体正面以外を頭部または眼球が向いた状態から、正面を注目した場合の注目判定条件である。
ステップS213における注目判定は、例えば、上記注目判定条件1を満たすか否かを判定する第1の注目状態判定処理、上記注目判定条件2を満たすか否かを判定する第2の注目状態判定処理、および上記注目判定条件3を満たすか否かを判定する第3の注目状態判定処理を並行して実行することにより、実現可能である。
以下、これらの処理の例を図を用いて説明する。ここで、注目状態判定手段105は、頭部変位が値「0」のときに値「0」をとり他の値の時に値「1」をとる頭部変位フラグFhと、眼球変位が値「0」のときに値「0」をとり他の値の時に値「1」をとる眼球変位フラグFeとを設定するものとする。また、注目状態判定手段105は、入力される頭部変位、眼球変位、および変位比情報が示す変位比X=眼球変位/頭部変位と、入力情報に基づいて設定される頭部変位フラグFhの値および眼球変位フラグFeの値とを、少なくとも時間T時間保持し、上記各処理で適宜参照する。
図9は、注目状態判定手段105による第1の注目状態判定処理の流れの一例を示すフローチャートである。
ステップS411では、注目状態判定手段105は、頭部変位フラグFh=0かつ眼球変位フラグFe=1の状態が、あらかじめ定められた時間T継続したか否かを判別する。上記状態が継続した場合は(S411:YES)、ステップS412へ進み、上記状態が継続しなかった場合、または上記状態になっていない場合には(S411:NO)、ステップS411の状態監視を継続する。
ステップS412では、注目状態判定手段105は、あらかじめ定められた時間Tで、頭部変位フラグFh=1、眼球変位フラグFe=1、変位比X>0、かつ変位比X<1の状態に、変位比X≧0を維持したまま変化したか否かを判別する。上記変化が生じた場合は(S412:YES)、ステップS413へ進み、上記変化が生じなかった場合、または変位比X<0となった場合には(S412:NO)、ステップS411に戻る。ただし、変位比Xに、上記したように2±β:1±γといった条件を設ける場合には、さらに所定時間内に変位比Xが2±β:1±γを満たす値となったか否かを判別条件に加える。
ステップS413では、注目状態判定手段105は、頭部変位と眼球変位とが同じ状態が、あらかじめ定められた時間T継続したか否かを判別する。上記状態が継続した場合は(S413:YES)、ステップS414へ進み、上記状態が継続しなかった場合には(S413:NO)、ステップS411に戻る。
ステップS414では、注目状態判定手段105は、時間Tで視線のみが対象物に向き、続く時間Tで顔が視線につられて動き、さらに続く時間Tで視線と顔が継続して対象物に向いたと判断して、「注目」という注目状態判定結果を出力する。
次いで、ステップS415では、注目状態判定手段105は、注目判定条件1を満たすか否かを判断する処理を終了するか否かを判別し、継続する場合には(S415:NO)、ステップS413へ戻り、終了する場合には(S415:YES)、一連の処理を終了する。なお、時間T〜Tは、例えば、図8(A)に示す記号T〜Tの区間にそれぞれ相当する。
図10は、注目状態判定手段105による注目判定条件2を満たすか否かを判定する処理の流れの一例を示すフローチャートである。
ステップS421では、注目状態判定手段105は、あらかじめ定められた時間Tで、変位比X>0の状態から変位比X≒−1の状態に変化したか否かを判別する。上記変化が生じた場合は(S421:YES)、ステップS422へ進み、上記変化が生じなかった場合、または変位比X>0の状態になっていない場合には(S421:NO)、ステップS421の状態監視を継続する。
ステップS422では、注目状態判定手段105は、変位比X≒−1を維持したまま、あらかじめ定められた時間T以上の時間を掛けて、眼球変位フラグFe=1の状態から眼球変位フラグFe=0の状態に変化したか否かを判別する。上記変化が時間T以上の時間を掛けて生じた場合は(S422:YES)、ステップS423へ進み、上記変化が時間T未満の時間で生じた場合、または変位比X≒−1ではなくなった場合には(S422:NO)、ステップS421へ戻る。
ステップS423では、注目状態判定手段105は、頭部変位フラグFh=0かつ眼球変位フラグFe=0の状態が、あらかじめ定められた時間T継続したか否かを判別する。上記状態が継続した場合は(S423:YES)、ステップS424へ進み、上記状態が継続しなかった場合には(S423:NO)、ステップS421に戻る。
ステップS424では、注目状態判定手段105は、対象物に向けられていた視線と顔のうち時間Tで視線が先に正面に向き、続く時間Tで対象物に向けられていた顔が視線につられて視線方向を乱さないようにゆっくりと正面を向き、さらに続く時間Tで視線と顔が継続して正面を向いたと判断して、「注目」という注目状態判定結果を出力する。
次いで、ステップS425では、注目状態判定手段105は、注目判定条件2を満たすか否かを判断する処理を終了するか否かを判別し、継続する場合には(S425:NO)、ステップS423へ戻り、終了する場合には(S425:YES)、一連の処理を終了する。なお、時間T〜Tは、例えば、図8(B)に示す記号T〜Tの区間にそれぞれ相当する。
図11は、注目状態判定手段105による第3の注目状態判定処理の流れの一例を示すフローチャートである。
ステップS431では、注目状態判定手段105は、頭部変位フラグFh=0かつ眼球変位フラグFe=1の状態が、あらかじめ定められた時間T継続したか否かを判別する。上記状態が継続した場合は(S431:YES)、ステップS432へ進み、上記状態が継続しなかった場合、または上記状態になっていない場合には(S431:NO)、ステップS431の状態監視を継続する。
ステップS432では、注目状態判定手段105は、あらかじめ定められた時間Tで頭部変位フラグFh=1、眼球変位フラグFe=1、かつ変位比X>1の状態に変化したか否かを判別する。上記変化が生じた場合は(S432:YES)、ステップS433へ進み、上記変化が生じなかった場合、または上記状態以外の状態に変化した場合には(S432:NO)、ステップS431に戻る。
ステップS433では、注目状態判定手段105は、頭部変位フラグFh=1かつ変位比X>1の状態が、あらかじめ定められた時間T継続し、かつ、この時間Tにおける眼球変位の変化量Deがあらかじめ定めた閾値d以下であるか否かを判別する。上記状態が継続し、かつ変化量Deが閾値d以下である場合は(S433:YES)、ステップS434へ進み、上記状態が継続しなかった場合や変化量Deが閾値dを超えた場合、または上記状態にならなかった場合には(S433:NO)、ステップS431に戻る。
ステップS434では、注目状態判定手段105は、頭部変位と眼球変位とが同じ状態が、あらかじめ定められた時間T10継続したか否かを判別する。上記状態が継続せずに他の状態に変化した場合には(S434:NO)、ステップS435へ進み、上記状態が継続した場合には(S434:YES)、ステップS431に戻る。
ステップS435では、注目状態判定手段105は、時間Tで視線のみが対象物に向き、続く時間Tで顔が視線につられて動き、続く時間Tで視線と顔が継続して対象物に向いたものの、さらに続く時間T10以上は継続しなかったと判断して、「一瞥」という注目状態判定結果を出力する。
次いで、ステップS436では、注目状態判定手段105は、注目判定条件3を満たすか否かを判断する処理を終了するか否かを判別し、継続する場合には(S436:NO)、ステップS431へ戻り、終了する場合には(S436:YES)、一連の処理を終了する。なお、時間T〜T10は、例えば、図8(C)に示す記号T〜T10の区間にそれぞれ相当する。なお、ステップS434からステップS431に戻る際、つまり視線と顔が継続して対象物に向いた状態が時間T10以上継続した場合には、「注目」という注目状態判定結果を出力してもよい。
このように、注目状態判定手段105は、第1〜第3の注目状態判定処理を実行することにより、注目判定条件1、2のいずれかが満たされる場合に、「注目」という注目状態判定結果を出力し、注目判定条件3が満たされる場合に、「一瞥」という注目状態判定結果を出力することができる。時間T〜T10は、経験値や、人物を実際に各注目状態にさせたときの各種状態の継続時間の実測値に基づいた値を、あらかじめ注目状態データベース104に格納しておけばよい。なお、注目状態判定手段105は、第1〜第3の注目状態判定処理を実行しているものの、「注目」および「一瞥」の注目状態判定結果を出力しない場合に、「非注目」の注目状態判定結果を出力すればよい。
なお、例えば、人物が目を瞬いたり手で顔を隠蔽した場合、画像入力手段101が入力する画像300から、顔領域302や各顔部品の位置を検出できず、顔と目の変位検出が失敗することがある。このような場合、誤った注目状態判定が成される可能性がある。
そこで、このような場合には、頭部変位324と眼球変位325との変位比が、前回入力時と今回入力時とで大きく変化することに着目し、例えば以下の対策を行うことで、上記検出ミスの判定への影響を軽減することが可能である。
注目状態判定手段105は、変位比情報が入力されるごとに、入力された変位比情報が示す変位比と、前回入力された変位比情報が示す変位比との差の絶対値が、通常の人間の動作速度から定まる上限値以上であるか否かを判別する。変位比との差の絶対値が上限値以上である場合には、今回入力された変位比情報には検出ミスが含まれると判断し、前回入力された変位比を、今回入力された変位比に替えて採用する。
変位比の検出間隔が十分に短い場合、変位比が大きく変化することは少ない。したがって、通常、前回入力された変位比を用いても、本来の変位比を用いた場合と同様の注目状態判定結果を得ることができる。もしくは、過去の変位比の検出結果の履歴から、線形補間または非線形補間により、本来の変位比を推測し、推測結果を用いてもよい。
または、注目状態判定手段105は、あらかじめ定められた値以上の変化が変位比にあった場合には、注目状態判定を行わないようにしてもよい。この場合、情報取得手段108に「判定不能」を示す情報を情報取得手段108に出力し、この情報を入力された情報取得手段108は、注目状態判定が不能である旨をユーザーに通知するようにしてもよい。
ただし、たとえば上記上限値の設定が誤っていたなどの理由から、実際には正しい情報であるにもかかわらず、検出ミスと誤判定される場合も有り得る。したがって、このような検出ミスの可能性がある変位比情報を保持しておき、蓄積した複数の変位比情報から検出ミスか否かをさらに解析し、検出ミスではない情報については有効な情報として判定に使用してもよい。なお、上記対策は、頭部変位や眼球変位にも適用できる。
また、頭部変位、眼球変位、変位比などの各検出結果には、微小な誤差が含まれる場合がほとんどである。したがって、注目状態判定手段105は、例えば、過去の複数の検出結果の移動平均を算出することにより検出結果を平滑化し、平滑化された検出結果を用いても良い。これにより、検出結果の微小な誤差の影響を受けにくくなるだけでなく、検出ミスの影響を受けにくくなり、注目度判定精度のロバスト性を向上させることができる。また、移動平均ではなく荷重平均を適用してもよく、この場合には最新の検出結果への追従性を向上させることができる。
図2のステップS214では、情報取得手段108は、注目状態判定手段105の出力する判定結果が注目状態であれば、顔変位324と眼球変位325から、視線方向を検出し、その方向にある物体に備わっているRFIDタグを読み取って、その物体に関する情報をデータベース109から取得し、注目した時刻または、RFIDタグ情報、または、RFIDデータベース109から取得した情報を、情報保存手段110に保存し、情報提示装置111に出力する。
また、注目状態判定手段105の出力する判定結果が一瞥状態であれば、注目状態の際の処理と同様にRFIDデータベース109から情報を取得し、これを、情報保存手段110に保存する。
このとき保存した情報は、取得時には、提示手段111への出力は行わないが、保存後、ユーザーが保存した情報の提示を要求した場合は、情報保存手段110から読み取り、提示手段111へ出力する。
ただし、RFIDデータベース109は、注目または一瞥した対象に備わっているRFIDタグの情報と、それに関する詳細な情報とを対応付けて格納している。
また、情報保存手段110は、情報取得手段108が出力する提示情報を保存、蓄積する。
ステップS215では、情報提示手段111は、情報取得手段108から出力される提示情報を入力とし、ブラウン管や液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、スピーカーなどの表示機器、または音響機器で提示する。
上記情報提示手段111により、運転時に注目している対象に関する情報をリアルタイムに提供することで、ドライバーの理解を助け、注意を運転に集中させて安全性を向上させることができる。
例えば、保養施設などの案内看板を運転中に発見したとき、道路状況によっては、駐車が困難であり、運転したままで看板を見なくてはならない場合がある。
そのような場合に本実施の形態の画像処理装置100を用いると、ドライバーが注目状態であると判定して、注目対象の情報(この場合は看板にかかれている内容)を取得し、その内容を即座に音声で案内することができる。
これによって、ドライバーは案内看板を見続けなくてもその情報を取得することができ、視覚を道路状況の理解に集中させることができる。
ステップ216では、本実施例の画像処理装置100は、その動作を終了する。ただし、処理開始時点にもどってもよい。このようにして、画像処理装置100では、注目状態判定を行うとともに、その判定結果に応じてドライバーに適切な情報提示を行う。
なお、注目状態判定に、上記変位比に替えて、または上記変位比と併用して、頭部と眼球の向きの変位差を用いるようにしてもよい。この場合、注目状態データベース104は、上記変位差の時間変化パターンに対応する注目判定条件を格納し、変位検出手段103は、頭部変位324と眼球変位325との差を取得して変位差情報として注目状態判定手段105に出力し、注目状態判定手段105は、変位差情報から注目状態判定を行う。
変位差を用いる場合、例えば、眼球変位の絶対値から頭部変位の絶対値を引いた差(以下「変位差」という)が、図8(A)〜(C)に示す状態と同等な状態を継続したか否かを判別すればよい。ただし、厳密に同等である必要はなく、あらかじめ定めた誤差範囲であれば、注目判定条件1を満たすとしても良い。
具体的には、例えば、注目判定条件1に対応して、図9に示す第1の注目状態判定処理を、ステップS412の変位比X>0かつ変位比X<1という条件を変位差<0という条件に置き換えて実行すればよい。また、注目判定条件2に対応して、図10に示す第2の注目状態判定処理を、ステップS421の変位比X>0の状態から変位比X≒−1の状態まで変化するという条件を、眼球変位の符号が変化して変位差が0まで変化するという条件に、ステップS422の変位比X≒−1のままという条件を、変位差≒0のままという条件に、それぞれ置き換えて実行すればよい。また、注目判定条件3に対応して、図11に示す第3の注目状態判定処理を、ステップS432、S433の変位比X>1という条件を、それぞれ変位差>0という条件に置き換えて実行すればよい。
頭部変位324と眼球変位325の一方または両方が値「0」の場合、変位比に比べて変位差の方が容易に表現できる。したがって、変位差を用いることにより、注目状態判定処理のアルゴリズムを簡素にでき、画像処理装置100の開発効率や動作速度を向上させることができる。
以上説明したように、本実施の形態によれば、入力画像から、正面に対する顔方向の変位と、顔正面に対する視線方向の変位から、人物の所定物体に対する注目度の判定を行う。つまり、複数の身体部位運動の相関によって注目度を判定でき、顔方向といった単独の身体部位の情報のみを用いた場合に比べて、誤動作が軽減され安定した注目度判定が可能となる。また、顔方向及び視線方向の変位の時間変化のパターンから注目度判定を行うので、より信頼性の向上した注目度判定を実現できる。
なお、本実施の形態では、注目状態を3状態に分類しているが、これを3以上、3未満、もしくは連続した値をとる注目度としてもよい。例えば、注目状態の条件を満たし、かつ、長時間にわたってその状態を維持する場合を最注目状態と定義し、これを含めた4状態の判定を行う。
ただし、その際には、分類する種類に応じた注目状態データベース104を新たに構築する。
また、注目度判定の結果として運転時に注目している対象を得られる場合に、その注目している対象に関する情報をリアルタイムに提供することで、ドライバーの理解を助け、注意を運転に集中させて安全性を向上させることができる。
また、全情報ではなく、注目、または一瞥した物体の情報のみを蓄積しておくことで、再度情報を確認したい場合に、検索性を向上させ、ユーザーの負担を減らすことができる。
例えば、渋滞情報を表示している掲示板を見て通り過ぎた後、表示されていた渋滞距離を忘れてしまい、再度すぐに確認したい場合に、本実施の形態の画像処理装置100を用いれば、容易に掲示板の情報を検索することができ、短時間の操作で渋滞距離の確認をすることができる。
さらに、注目と一瞥を区別したことで、一瞥しただけですむような、詳細な情報が不必要と判断した対象に関する情報を提供しないため、不必要な情報提供による不快感をユーザーに与えないという効果を有する。
例えば、夜間工事中の看板を見る場合に、昼間しか通らない道で看板を見た場合は、詳細な情報が必要ないため、多くの場合、一瞥しか行わないが、夜間も通る道であれば、詳細な情報が必要なため、多くの場合、注目する。
しかし、注目した場合だけでなく、一瞥しか行っていない場合も、毎回看板の内容を音声で報告されることは、ドライバーにとって不快である。
本実施の形態の画像処理装置100を用いれば、注目と一瞥の区別ができるため、一瞥の際は、情報の蓄積のみを行い、報告は行わない。
これによって、ドライバーは、不快感を覚えず、結果、安全運転を行うことができる。
さらに、複数の身体部位の動きの変位の相関を調べることによって、注目度判定精度のロバスト性を向上させるという効果を有する。
なお、本実施の形態では、カーナビゲーションシステムを一例として説明したが、その他、テレビ、スピーカーなどの情報提示機器や、車載カメラや監視カメラなどの安全状態監視機器、スチールカメラやビデオカメラなどの映像記録機器、ロボットなどの生活補助機器、TVゲームや体感ゲームなどの遊戯機器などに適用することも考え得る。
本実施の形態を含め、本願発明を上記機器に適用することで、従来の技術のように、脈拍や汗、脳波を計らなくても、注目度を安定して測定できるので、機器の構成がシンプルにでき、製造コスト低減等を低減できるという効果も有する。
その場合、本実施の形態の情報取得手段108、RFIDデータベース109、情報保存手段110、情報表示手段111は、入力画像を記録するための映像記録手段や、ロボットがユーザーまたはロボットなどの状況を把握するための周辺情報把握手段、ゲームの状態を変化させるための状態更新手段などに置き換えることで、実現できる。
(実施の形態2)
本実施の形態は、実施の形態1の画像処理装置の注目判定データベースを、あらかじめ学習させて構築することで、個人の身体的特徴や癖に適した注目判定を行い、それに基づいて情報提供を行う情報提供装置である。
図12は、本発明の実施の形態2における情報提供装置に含まれる本発明の画像処理装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。
画像処理装置500は、実施の形態1の構成に加え、注目指示手段516、対応抽出手段517、及び注目状態データベース504を備える。注目指示手段516は、被験者に対して注目対象と前記注目度合いを指示し、注目度合いを指示情報として対応抽出手段517に出力する。対応抽出手段517は、変位検出手段103の出力と、注目指示手段516の出力とを対応付けて注目状態データベース504に出力する。注目状態データベース504は、対応抽出手段517の出力を格納する。
上記注目指示手段516と対応抽出手段517とを総称して学習手段515とする。学習手段515は、注目状態判定手段105が用いる注目判定条件を学習する。
画像入力手段101、向き検出手段102、変位検出手段103、注目状態判定手段105、情報取得手段108、RFIDデータベース109、情報保存手段110、情報提示手段111に関しては、実施の形態1と同様であるので、説明を省略する。
本実施の形態の注目状態データベース504の学習動作の説明を行う。
図13は、上記図12に記載の発明の構成を有する画像処理装置500の動作の流れを示すフローチャートである。
ステップS551では、注目指示手段516は、被験者に対して、物体を示し、物体を、1.注目、2.一瞥、3.非注目(特に物体を見ようとしない視線移動)の3状態で見るよう指示し、指示内容を対応抽出手段517に出力する。
指示方法として、注目してみてもらう場合には、被験者に「後で見たものを詳しく説明できるまで見てください」と指示する。一瞥してもらう場合には、被験者に非常に短い時間しか見ないように指示した上で、「あとで見たものの名前を言えるようにしてください」と指示したり、「後で見たものの簡単な絵を描いてもらいます」とあらかじめ言っておく。注目してもらう場合には複雑な形状、模様の物体を見せ、一瞥してもらう場合には、三角形や円のように単純な形状、模様の物体を見せたりしてもよい。
ステップS552では、対応抽出手段517は、注目指示手段516の指示内容と、指示されてからの頭部向き変位算出手段113の出力と、眼球向き変位算出手段114の出力と、変位検出手段103の出力とを対応付け、その対応付け情報を注目状態データベース504に出力する。つまり、1.注目、2.一瞥、3.非注目のうち指示内容に該当する状態と、検出される頭部変位、眼球変位、及び変位比とを対応付ける。
具体的には、対応抽出手段517は、たとえば、図9〜図11で説明した時間T〜T10に該当する時間と、時間Tに該当する時間における眼球変位の変化量と、を計測する。そして、計測された各時間および眼球変位の変化量から、時間T〜Tおよび閾値dを決定する。このとき、複数回にわたって計測を行い、計測値の平均と分散から、時間T〜T10および閾値dを決定してもよい。また、対応抽出手段517は、注目対象の方向、つまり被験者の視線方向に対応付けた上記対応付け情報を生成してもよい。さらに、被験者がある対象に注目しているときの眼球変位の変動や頭部変位の変動を、被験者が対象に注目しているときの特徴の1つとして学習してもよい。
ステップS553では、注目状態データベース504は、対応抽出手段517の出力した対応付け情報を格納する。
次に、本実施の形態における注目状態判定時の動作について説明する。本実施の形態の画像処理装置500は、実施の形態1の図2と同様の動作を行うが、ステップS213における注目状態判定手段105の注目状態判定処理の一部が、実施の形態1とは異なる。
図2のステップS213において、注目状態データベース504は、入力された頭部向き変位算出手段113の出力と、眼球向き変位算出手段114の出力と、と、変位検出手段103の出力のうち、もっとも近いものの状態を、そのときの状態として出力する。ここで、もっとも近いものの状態とは、例えば、注目状態判定の対象として検出された頭部変位、眼球変位、及び変位比と、学習段階で得られた頭部変位、眼球変位、及び変位比との差の絶対値の総和が、最小となる状態である。このとき、頭部変位、眼球変位、及び変位比のそれぞれの差の絶対値に重み付けを行ってもよい。
また、対応抽出手段517の出力から、各状態のテンプレートパターンを作成し、動的計画法で、もっとも距離の小さい状態を出力したり、対応抽出手段517の出力から、対応状態の確率モデルを生成し、HMM(Hidden Markov Model)でもっとも生起確率の高い状態を、出力しても良い。
また、上記したように、図9〜図11で説明した時間T〜T10および閾値dが学習段階で注目状態データベース504に格納されている場合には、注目状態判定手段105は、注目状態データベース504を参照して、図9〜図11に示す第1〜第3の注目状態判定処理を実行すればよい。また、上記対応付け情報が被験者の視線方向に対応付けられている場合には、注目状態データベース504は、頭部変位と眼球変位から判定対象となる人物の視線方向を判別し、対応する対応付け情報を参照すればよい。さらに、被験者がある対象に注目しているときの眼球変位の変動や頭部変位の変動が学習されている場合には、注目状態判定手段105は、注目状態データベース504を参照して、判定対象となる人物の眼球変位の変動や頭部変位の変動が学習結果に類似するときに「注目」の注目状態判定結果を出力すればよい。
以上、本実施の形態では、個人の身体的特徴や癖に適した注目判定を行い、それに基づいて情報提供を行うことで、ユーザーに最適な情報を提供できるという効果を有する。また、個人ごとの学習を行うため、判定精度が向上するという効果も有する。
(実施の形態3)
本実施の形態は、ドライバーの脇見や見落としによる事故を防止するために、車運転時にドライバーがドアミラーやバックミラー等を注目しているか否かを判定して警告を行う警告システムに、本発明の画像処理装置を適用したものである。
図14は、本発明の実施の形態3における画像処理装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
画像処理装置600は、実施の形態1の構成に加え、警告判定手段608、ミラー位置データベース609、外部センサー610、及び警告手段611を備える。
ミラー位置データベース609は、ドアミラーやバックミラーなどドライバーが車外の様子を確認するためのミラー(以下単に「ミラー」という)の、位置及びドライバー位置からみて各ミラーに映る範囲(カバー範囲)に関する情報をあらかじめ格納している。外部センサー610は、車外の所定の範囲について、歩行者等の存在と位置を感知し、感知結果を出力する。警告判定手段608は、外部センサー610の感知結果と、向き検出手段102から出力されるドライバーの頭部向き情報および眼球向き情報と、注目状態判定手段105から出力される注目状態判定結果と、を入力する。そして、警告判定手段608は、入力した情報およびミラー位置データベース609に格納された情報から、注目すべきミラーにドライバーが注目しているか否かを判別し、注目していないと判別するとドライバーに対する警告を警告手段611に指示する。警告手段611は、警告判定手段608からの指示に従い、どのミラーに注目すべきかをドライバーに音声で警告する。
外部センサー610は、例えば車外に設置された複数の赤外線センサーを有し、車外の前後左右の所定の範囲について、歩行者やバイク、自転車等(以下「歩行者等」という)の存在と位置を感知し、感知結果を出力する。上記所定の範囲は、歩行者等が存在している場合に、事故防止の観点からドライバーが目で存在を確認すべき範囲である。
注目状態判定手段105は、実施の形態1と同様に、ドライバーが、1.注目、2.一瞥、3.非注目の3状態のいずれの状態にあるかを示す注目状態判定結果を、逐次、警告判定手段608へ出力する。
警告判定手段608は、外部センサー610で歩行者等の存在が感知されると、まず、ミラー位置データベース609を参照し、その歩行者の位置をカバー範囲に含むミラーを特定し、そのミラーの位置を特定する。警告判定手段608は、特定したミラー位置をドライバーが注目すべき対象と判定し、運転席からみたミラーの方向を算出する。全てのミラーの方向をミラー位置データベース609にあらかじめ格納しておき、警告判定手段608は、ミラー位置データベース609からミラーの方向を取得してもよい。
そして、警告判定手段608は、ドライバーが歩行者等を目で確認したかを、特定したミラー位置をドライバーが注目したかによって判別する。
車の運転中には、ドライバーは主に車の進行方向に注目する必要があるため、ミラーを用いた他方向の確認はごく短い時間で行われる。したがって、注目と一瞥とを、目で確認したことを示す状態として扱う。
警告判定手段608は、注目状態判定手段105が注目または一瞥と判定した場合に、向き検出手段102から得られる頭部向き情報および眼球向き情報から、ドライバーの視線方向を算出する。具体的には、例えば、胴体の位置および向きを固定とし、正面に対する頭部変位角と、顔正面に対する眼球変位角とを加算し、加算結果とドライバーの座席位置から視線方向を求める。
警告判定手段608は、注目すべきと判定したミラーの方向と、算出した視線方向とが一致するか否かを判別する。一致しない場合は、ドライバーがミラーで確認を行っていないと判断し、警告手段611に対して、特定したミラーを示す情報を出力してドライバーに対する警告を行うよう指示する。
警告手段611は、いずれかのミラーを示す情報が入力されると、例えば「左のミラーを確認して下さい」というように、該当するミラーを見ることを促す音声を、カーオーディオ用スピーカなどの車内スピーカから出力する。
このように、本実施の形態によれば、注目すべき対象に、実際に人物が注目しているか否かを判別できる。また、事故防止の観点からドライバーが確認すべきミラーを特定し、そのミラーをドライバーが実際に注目しているか否かを判別でき、注目していない場合には、警告によりドライバーに注意を促すことができる。これにより、ドライバーの脇見や見落としによる事故を防止することができる。さらに、一瞥を目で確認したとみなすので、ドライバーがごく短い時間でミラーを確認したにもかかわらず警告が行われるといった誤報の発生を防ぐことができる。
なお、注目状態判定結果が注目または一瞥か否かにかかわらず、また、外部センサー610の感知結果にかかわらず、視線方向の算出を常に行うようにすれば、警告の要否を判定するまでの時間を短縮することができる。
また、外部センサー610は、歩行者とバイクと自転車のいずれであるか、歩行者の性別や年代など、感知対象の属性を検出し、属性情報を警告判定手段608に出力し、警告判定手段608は、属性情報に応じて警告の要否を判定したり、警告の種類を変えるようにしてもよい。
この場合、例えば、歩行者等が携帯するRFタグから歩行者等の属性情報を読み取るリーダを用意したり、車外に設置したディジタルカメラの撮影画像を解析して感知対象の属性を判別する装置を用意すればよい。また、属性情報に警告の可否や警告のレベルを対応付けたテーブルをあらかじめ用意しておき、警告判定手段608は、このテーブルを参照して警告の可否や警告のレベルを判定すればよい。これにより、例えば感知対象が老人または子供である場合にのみ警告を行うというように、よりきめ細やかにドライバーへの警告を行うことができる。
また、外部センサー610は、歩行者等の位置だけでなく、歩行者等の移動方向および移動速度を検出して警告判定手段608に出力し、警告判定手段608は、歩行者等の移動方向および移動速度に応じて警告の要否を判定してもよい。この場合、例えば、警告判定手段608は、歩行者等が所定の距離よりも近い位置から所定の速度以上の速度で近付いてくる場合にのみ、ミラー位置データベース609の各ミラーのカバー範囲と照合し、警告を行えばよい。
また、警告手段611は、上記した音声出力以外の手法でドライバーへの警告を行うようにしてもよい。例えば、プリクラッシュ制御システムにおける警告音や、シートベルトの巻き上げ、自動ブレーキなどを用いてもよい。
また、交差点など周囲の安全の確認をすべき箇所では、歩行者等の有無にかかわらず、ドライバーが周囲を確認したかを視線方向から判別し、確認していない場合には警告を行いうようにしてもよい。この場合、警告判定手段608は、例えば、ミラー位置だけでなく、運転席からみて車の前方や左右に注目すべき方向を設定し、設定した方向の全てに少なくとも1回は視線方向が一致し、かつそれぞれの一致のタイミングにおいてドライバーが注目または一瞥の状態であったか否かを判別すればよい。
また、ミラー位置データベース609を配置せずに、警告手段611は、外部センサー610で検出した歩行者等を運転席から直接にみたときの方向と、ドライバーの視線方向とを比較してもよい。
また、警告判定手段608は、同じ方向にドライバーが注目している場合に、その視線方向が車の進行方向または注目すべきと判定されたミラー方向に一致するか否かを判別し、一致していない場合に警告を行うようにしてもよい。このとき、例えば、一瞥を頻繁に繰り返す場合も注目していると判断する。具体的には、警告判定手段608は、「一瞥」の注目状態判定結果が入力されるたびにそのときのドライバーの視線方向を記録し、同じ視線方向での一瞥が例えば3秒以内に3回以上というように頻繁に繰り返されたか否かを判別する。そして、同じ視線方向での一瞥が頻繁に繰り返された場合には、その視線方向が注目すべきと判定されたミラー方向に一致するか否かを判別し、一致していなければ運転への集中を促す警告を行う。または、注目状態判定手段105で、同じ視線方向での一瞥が頻繁に繰り返されたか否かの判別を行い(注目判定条件5)、該当する場合に「一瞥」ではなく「集中」の注目状態判定結果を出力するようにしてもよい。
同じ方向にドライバーが頻繁に視線を向けており、その方向が車の進行方向や事故防止の観点から注目すべき方向ではない場合には、ドライバーが運転に無関係なものに気をとられている可能性が高い。このように運転への集中を促す警告を行うことにより、交通事故の低減を図ることができる。
さらに、同じ方向に存在する対象物でも、対象物の状態や安全上の重要度に応じて、注目状態判定の条件や警告レベルを変えてもよい。たとえば、信号や標識が感知された場合には「一瞥」すれば警告は行わないが、人の飛び出しの場合には「一瞥」であっても警告を行うようにすればよい。このように状況に応じた警告を使い分けることにより、不要な警告や誤った警告の低減と、必要な警告の確実な実施とを、両立させることができる。
(実施の形態4)
本実施の形態は、DVD(Digital Versatile Disc)やハードディスクなどの記録媒体に記録されたビデオ映像を再生する映像再生装置に、本発明の画像処理装置を適用したものである。
図15は、本発明の実施の形態4における画像処理装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
画像処理装置700は、実施の形態1の構成に加え、再生装置制御手段708及び表示位置データベース709を備える。画像処理装置700は、ビデオ映像を再生する映像再生装置に接続され、ビデオ映像の再生を制御する。
画像処理装置700の画像入力手段101は、図示しないテレビジョンの画面(以下単に「画面」という)の近傍に配置され、所定の範囲を画面側から撮像した画像を取得する。つまり、テレビジョンの前にテレビジョンを視聴する人物がいる場合に、その人物を含む画像を入力する。表示位置データベース709は、画面の位置に関する情報をあらかじめ格納する。画面の位置は、例えば、画像入力手段101による撮像の視点を基準とした座標値で示される。再生装置制御手段708は、向き検出手段102から出力される人物の頭部向き情報および眼球向き情報と、注目状態判定手段105から出力される注目状態判定結果と、を入力する。そして、再生装置制御手段708は、入力した情報および表示位置データベース709に格納された情報から、再生中のビデオ映像に対して人物が非注目の状態にあるか否かを判別し、非注目の状態にある区間のビデオ映像の再生を巻き戻すように、映像再生装置を制御する。
向き検出手段102および注目状態判定手段105は、実施の形態1と同様に、それぞれ頭部向き情報および眼球向き情報と、注目状態判定結果と、を逐次出力する。
再生装置制御手段708は、人物の視線が画面に向いていない場合や、注目状態判定結果が「非注目」の場合には、再生装置制御手段708は、人物が再生映像を見ていないと判断し、見ていない映像の区間を巻き戻して再生する。
具体的には、再生装置制御手段708は、まず、頭部向き情報および眼球向き情報から人物の視線方向を算出し、表示位置データベース709を参照して、人物の視線方向に画面が位置するか、つまり人物の視線が画面に向いているか否かを判別する。人物の視線が画面に向いていない場合には、再生を一時停止するか、ビデオ映像の再生中の位置を示す情報を非注目開始位置として記憶し再生を続行する。非注目開始位置の記憶は、例えばビデオ映像に付加された映像の絶対時間を示すタイムコードを用いればよい。
再生装置制御手段708は、人物の視線が画面に向いている場合には、次に、注目状態判定結果が「非注目」か否かを判別し、非注目である場合には、再生を一時停止するか、ビデオ映像の再生中の位置を示す情報を非注目開始位置として記憶し再生を続行する。このとき、注目状態判定結果が「一瞥」の場合には、人物は一瞬の脇見をしているだけで実質的には映像を見ていると判断する。
さらに、再生装置制御手段708は、再生の一時停止または非注目開始位置の記憶を行うと、人物の視線が画面に向き、かつ注目状態判定結果が「注目」または「一瞥」となるのを監視する。そして、再生装置制御手段708は、人物の視線が画面に向き、かつ注目状態判定結果が「注目」または「一瞥」となると、人物が再生映像を見ていると判断し、再生を一時停止した場合にはこれを解除し、再生を続行して再生を一時停止した場合には再生を非注目開始位置まで巻き戻す。
このように、本実施の形態によれば、視聴者が映像を見ていないにもかかわらずそのまま映像の再生が続行されたままとなることを防ぐことができ、視聴者は連続した映像を見ることができる。また、注目状態判定結果が「一瞥」の場合には再生の一時停止や巻き戻しを行わないので、一瞬の脇見などでは通常通り映像の再生が行われ、視聴者は効率的に映像を視聴することができる。
なお、1度の一瞥で即座に再生の再開や巻き戻しを行うのではなく、3秒以内に3回以上というように一瞥が頻繁に繰り返された場合に、再生の再開や巻き戻しを行うようにしてもよい。これにより、視聴者が実際には映像を見る状態になっていないにもかかわらず映像が再生されてしまうのを防ぐことができる。適用するビデオ映像としては、学習ビデオ、映画、及びドラマを含む一般の映像プログラムなどが考えられる。抜けの無い視聴が望ましい学習ビデオに適用した場合には特に効果的である。
(実施の形態5)
本実施の形態は、監視カメラを用いて覗きなどの不審行為を行う不審者を検出する不審者監視システムに、本発明の画像処理装置を適用したものである。
図16は、本発明の実施の形態5における画像処理装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
画像処理装置800は、実施の形態1の構成に加えて、録画手段808を備える。画像処理装置800は、住居の内部を覗く人物の有無を入力画像から判別し、人物が映っている画像を記録する。
画像処理装置800の画像入力手段101は、監視の対象となる住居の外部の、例えば窓の近傍に配置され、所定の範囲を窓側から撮像した画像を取得する。つまり、窓の外部に窓を覗く人物がいる場合に、その人物を含む画像を入力する。画像入力手段101および注目状態判定手段105は、実施の形態1と同様に、それぞれ撮像した画像と、撮像した画像に含まれる人物の注目状態判定結果と、を逐次出力する。
録画手段808は、画像入力手段101から出力される画像と、注目状態判定手段105から出力される注目状態判定結果と、を入力する。そして、注目状態判定結果が「注目」の場合には、不審者が住居内を覗き見している可能性が高いと判断して、画像を記録する。このように、画像の記録を不審者が住居内を覗き見している可能性が高い場合に限定できるので、不審者の有無のチェックの対象となる画像を最小限に抑えることができ、不審者や不審行為を効率的に発見することができる。また、人物の視線がどこに向いているかの判別を行わないので、処理を簡素化でき、装置の小型化や低コスト化を図ることができる。
なお、録画手段808に替えて、注目状態判定結果が「注目」の場合に警報を鳴らす警報手段を備えてもよい。また、住居ではなく、宝石店の入口や、銀行のATMなど、ある方向を注目している人物が不審者である可能性が高いような場所に適用してもよい。
(実施の形態6)
本実施の形態は、複数の広告を配置した新聞の紙面やインターネット上のウェブページに対する被検者の注目状態から広告の評価を行う広告評価システムに、本発明の画像処理装置を適用したものである。
図17は、本発明の実施の形態6における画像処理装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
画像処理装置900は、実施の形態1の構成に加えて、評価手段908及び広告位置データベース909を備える。画像処理装置900は、複数の広告を配置したページを被検者に見せ、被検者である人物がページのどこに注目したかを入力画像から判別し、各広告の効果を評価する。ここでは、ディスプレイに表示されるウェブページに配置された各広告を評価する場合を説明する。
画像処理装置900の画像入力手段101は、ディスプレイの近傍に配置され、被検者が位置する範囲をディスプレイ側から撮像した画像を取得する。本発明では、頭部の向きの変位と眼球の向きの変位との関係から注目状態判定を行うため、ディスプレイの大きさは、被検者が各広告に注目したときに頭部の向きの変位が検出される程度の大きさ以上であることが望ましい。向き検出手段102および注目状態判定手段105は、実施の形態1と同様に、それぞれ頭部向き情報および眼球向き情報と、注目状態判定結果と、を逐次出力する。
広告位置データベース909は、評価の対象となる広告が配置された各ウェブページについて、それぞれのウェブページがディスプレイに表示されているときの各広告の表示位置をあらかじめ格納している。
評価手段908は、向き検出手段102から出力される頭部向き情報および眼球向き情報と、注目状態判定手段105から出力される注目状態判定結果と、を入力する。評価手段908は、評価の対象となる広告が配置されたウェブページの表示が開始されると、頭部向き情報および眼球向き情報から人物の視線方向を算出し、広告位置データベース909を参照して、人物の視線方向にどの広告が位置するか、つまり人物がどの広告に視線を向けているかを判別する。
評価手段908は、いずれかの広告に人物が視線を向けていると判別すると、注目状態判定結果から、広告の効果を評価する。具体的には、注目判定結果が「注目」の場合には、該当する広告を、見た目がある程度目立つとともに内容も注目を引くものであり、広告としての効果が高いと評価する。また、注目判定結果が「非注目」の場合には、該当する広告を、見た目が目立たず、広告としての効果が低いと評価する。注目判定結果が「一瞥」の場合には、該当する広告を、見た目は目立つものの内容はあまり注目されないものであり、広告としての効果がやや低いと評価する。そして、最終的に一度も視線を向けられなかった広告については、見た目が極端に目立たず、広告としての効果がかなり低いと評価する。
このように、本実施の形態によれば、被検者の注目状態から広告の評価を行うことができる。また、被検者によって注目されたか、一瞥されたか、非注目であったか、視線を向けられなかったか、に応じて評価することができるので、きめ細やかな分析を行うことができる。
なお、いずれかの広告に人物が視線を向けていると判別するたびに、その広告に注目状態判定結果を対応付けた情報を記憶し、蓄積された情報から広告の評価を行うようにしてもよい。この場合、注目した回数や合計時間、視線移動の履歴情報などを、評価に用いることができる。また、案内板や展示パネルなど、複数の情報や物体を一度に提示するものに対する評価に適用してもよい。
(実施の形態7)
本実施の形態は、人物が注目する対象をその人物が携帯するウェアラブルカメラで自動撮影する自動撮影システムに、本発明の画像処理装置を適用したものである。以下、展示会場において、参加者が携帯するウェアラブルカメラで自動撮影を行う場合を例として説明する。
図18は、本発明の実施の形態7における画像処理装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
画像処理装置1000は、実施の形態1の構成に加えて、保存判定手段1008、保存手段1011、及びウェアラブルカメラ1018を備える。画像処理装置1000は、展示会場に配置した遠隔カメラの撮影画像から、ウェアラブルカメラ1018を携帯する人物がなんらかの物体や情報に注目したときにこれを検出し、ウェアラブルカメラ1018を遠隔操作してその注目対象を撮影する。
画像処理装置1000の画像入力手段101は、展示会場にいるそれぞれの人物の顔を撮影できる位置と数で展示会場の上方に配置された遠隔カメラの撮影画像を、無線通信により受信する。画像入力手段101は、ウェアラブルカメラ1018を携帯する人物が含まれる画像のみを受信するようにしてもよい。この画像の分別は、例えば、RFIDタグ備えたウェアラブルカメラ1018を用い、各遠隔カメラが自己の撮影範囲内に存在するRFIDタグから取得したIDを送信画像に付加することにより、実現できる。向き検出手段102および注目状態判定手段105は、実施の形態1と同様に、それぞれ頭部向き情報および眼球向き情報と、注目状態判定結果と、を逐次出力する。
保存判定手段1008は、向き検出手段102から出力される頭部向き情報および眼球向き情報と、注目状態判定手段105から出力される注目状態判定結果と、を入力する。保存判定手段1008は、「注目」の注目状態判定結果か、何度も「一瞥」の注目状態判定結果が入力されると、人物の視線方向にある情報または物体を撮影すべきであると判断し、保存手段1011に撮影を指示する。具体的には、頭部向き情報および眼球向き情報から人物の視線方向を算出するとともに、撮影される画像の保存場所を判定し、視線方向および保存場所を示す情報を保存手段1011に出力する。保存場所は、例えば、注目度(注目状態)や、撮影のエリア、撮影日時等に応じて設定すればよい。保存手段1011は、保存判定手段1008の指示に従い、視線方向を撮影方向としてウェアラブルカメラ1018を用いて撮影を行い、指示された保存場所に撮影画像を格納する。
このように、本実施の形態によれば、人物が注目したもののみを、人物の視点に近い視点を有するウェアラブルカメラ1018で自動撮影できる。また、撮影画像の属性に応じて保存場所を設定できるので、保存された画像の中から所望の画像を容易に検索でき、日記や旅行記の作成などが簡単になり、撮影画像の利用価値を高めることができる。
なお、ウェアラブルカメラ1018の撮影画像を保存する際に、注目度(注目状態)などの各種メタデータを付与してもよい。この場合、メタデータを用いた画像検索が可能になるので、必ずしも保存場所を設定する必要はない。また、画像処理装置1000は、必ずしもウェアラブルカメラ1018と一体である必要はなく、たとえば画像入力手段101から保存判定手段1008までの各部を、遠隔カメラや展示会場側のコンピュータ等に配置してもよい。この場合、複数の人物で画像処理装置1000の大部分を共用でき、システム全体のコストダウンを図ることができる。
なお、本願明細書にかかる実施の形態1〜実施の形態7では、画像処理装置の発明について説明してきたが、この画像処理装置が行う処理を方法的に表した、上記画像処理装置が奏する効果と同様の効果が得られる処理方法の発明も考え得る。
また、上記画像処理装置が行う処理を記述したプログラムにより、上記画像処理装置の構成要素が有機的に作用して、本願画像処理装置が奏する効果と同様の効果が得られる。
このようなプログラムの発明についても考え得る。
本発明にかかる画像処理装置は、パーソナルコンピュータ、OA機器、携帯電話などの情報端末や、自動車、飛行機、船、電車などの移動手段に搭載される情報提供装置として有用である。また、監視装置や、ロボット、映像音響再生装置などの用途にも応用できる。
本発明の実施の形態1における画像処理装置の構成を表すブロック図 本発明の実施の形態1における画像処理装置の処理の流れを表すフローチャート 本発明の実施の形態1における入力画像例を説明する図 本発明の実施の形態1における、胴体方向と顔方向と視線方向との説明図 本発明の実施の形態1における変位比の例を説明する図 本発明の実施の形態1における、顔の回転軸と視線の回転軸との説明図 本発明の実施の形態1における、顔の回転軸と視線の回転軸との関係の例を示す説明図 本発明の実施の形態1における各注目判定条件に合致する顔方向及び視線方向の変位の時間変化パターンの例を示した説明図 本発明の実施の形態1における注目状態判定手段による第1の注目状態判定処理の流れの一例を示すフローチャート 本発明の実施の形態1における注目状態判定手段による第2の注目状態判定処理の流れの一例を示すフローチャート 本発明の実施の形態1における注目状態判定手段による第3の注目状態判定処理の流れの一例を示すフローチャート 本発明の実施の形態2における画像処理装置の構成を表すブロック図 本発明の実施の形態2における画像処理装置の学習処理の流れを表すフローチャート 本発明の実施の形態3における画像処理装置の構成を示すブロック図 本発明の実施の形態4における画像処理装置の構成を示すブロック図 本発明の実施の形態5における画像処理装置の構成を示すブロック図 本発明の実施の形態6における画像処理装置の構成を示すブロック図 本発明の実施の形態7における画像処理装置の構成を示すブロック図
符号の説明
100、500、600、700、800、900、1000 画像処理装置
101 画像入力手段
102 向き検出手段
103 変位検出手段
104、504 注目状態データベース
105 注目状態判定手段
106 頭部向き検出手段
107 眼球向き検出手段
108 情報取得手段
109 RFIDデータベース
110 情報保存手段
111 情報提示手段
112 変位算出手段
113 頭部向き変位算出手段
114 眼球向き変位算出手段
515 学習手段
516 注目指示手段
517 対応抽出手段
608 警告判定手段
609 ミラー位置データベース
610 外部センサー
611 警告手段
708 再生装置制御手段
709 表示位置データベース
808 録画装置
908 評価手段
909 広告位置データベース
1008 保存判定手段
1011 保存手段
1018 ウェアラブルカメラ

Claims (7)

  1. 人物画像を含む所定画像から、前記人物画像で表される人物の頭部の向きを検出する頭部向き検出手段と、
    前記所定画像から、前記人物画像で表される人物の眼球の向きを検出する眼球向き検出手段と、
    前記頭部の向きの変位と前記眼球の向きの変位との比である変位比を算出する変位検出手段と、
    第1の人物画像を含む第1の所定画像から算出される前記変位比と、前記第1の人物画像を含む第2の所定画像から算出される前記変位比と、に基づき、前記人物の所定物体に対する注目度の判定を行う注目状態判定手段と、
    を備える、画像処理装置。
  2. さらに、前記人物の所定物体に対する注目度を規定する注目判定条件を記憶する、注目状態データベースを備え、
    前記注目状態判定手段は、前記変位比に基づく情報を、前記注目判定条件と照合することで、前記人物の所定物体に対する注目度の判定を行う、
    請求項1記載の画像処理装置。
  3. さらに、前記人物画像で表される人物の胴体の向きに対する、前記人物画像で表される人物の頭部の向きの変位を、前記頭部の向きの変位とする頭部向き変位算出手段を備える、
    請求項1記載の画像処理装置。
  4. さらに、前記人物画像で表される人物の頭部の向きに対する、前記人物画像で表される人物の眼球の向きの変位を、前記眼球の向きの変位とする頭部向き変位算出手段を備える、
    請求項1記載の画像処理装置。
  5. さらに、前記所定画像を撮影する画像入力手段を設け、
    前記第1の所定画像と前記第2の所定画像とは、前記画像入力手段により撮影された撮影時が異なる画像である、
    請求項1記載の画像処理装置。
  6. 前記注目状態データベースが有する注目判定条件を更新する学習手段を有する、
    請求項2記載の画像処理装置。
  7. 人物画像を含む所定画像から、前記人物画像で表される人物の頭部の向きを検出するステップと、
    前記所定画像から、前記人物画像で表される人物の眼球の向きを検出するステップと、
    前記頭部の向きの変位と前記眼球の向きの変位との比である変位比を算出するステップと、
    第1の人物画像を含む第1の所定画像から算出される前記変位比と、前記第1の人物画像を含む第2の所定画像から算出される前記変位比と、に基づき、前記人物の所定物体に対する注目度の判定を行うステップと、
    を有する、画像処理方法。
JP2006349800A 2005-12-27 2006-12-26 画像処理装置 Active JP4633043B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006349800A JP4633043B2 (ja) 2005-12-27 2006-12-26 画像処理装置
EP06843352.3A EP1968006B1 (en) 2005-12-27 2006-12-26 Image processing apparatus
US12/159,416 US7889244B2 (en) 2005-12-27 2006-12-26 Image processing apparatus
CN2006800465233A CN101326546B (zh) 2005-12-27 2006-12-26 图像处理装置
PCT/JP2006/325968 WO2007074842A1 (ja) 2005-12-27 2006-12-26 画像処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005374448 2005-12-27
JP2006349800A JP4633043B2 (ja) 2005-12-27 2006-12-26 画像処理装置

Publications (2)

Publication Number Publication Date
JP2007200298A JP2007200298A (ja) 2007-08-09
JP4633043B2 true JP4633043B2 (ja) 2011-02-16

Family

ID=38218063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006349800A Active JP4633043B2 (ja) 2005-12-27 2006-12-26 画像処理装置

Country Status (5)

Country Link
US (1) US7889244B2 (ja)
EP (1) EP1968006B1 (ja)
JP (1) JP4633043B2 (ja)
CN (1) CN101326546B (ja)
WO (1) WO2007074842A1 (ja)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406457B2 (en) * 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
US8144196B2 (en) * 2007-05-09 2012-03-27 Panasonic Corporation Display, display method, and display program
JP4998364B2 (ja) * 2008-04-28 2012-08-15 オムロン株式会社 視線検出装置および方法、並びに、プログラム
JP2010018148A (ja) * 2008-07-10 2010-01-28 Bosch Corp 車両の誤発進防止装置
JP5159515B2 (ja) * 2008-08-26 2013-03-06 キヤノン株式会社 画像処理装置およびその制御方法
KR20100064873A (ko) * 2008-12-05 2010-06-15 엘지전자 주식회사 단말기 및 그 제어 방법
DK2389095T3 (da) 2009-01-26 2014-11-17 Tobii Technology Ab Detektering af blikpunkt hjulpet af optiske referencesignaler
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
US20120169596A1 (en) * 2009-09-29 2012-07-05 Zhuang Longpeng Method and apparatus for detecting a fixation point based on face detection and image measurement
KR101644015B1 (ko) * 2009-11-27 2016-08-01 삼성전자주식회사 시스템과 다수 사용자 간의 대화 인터페이스 장치
WO2011099299A1 (ja) * 2010-02-10 2011-08-18 パナソニック株式会社 映像抽出装置、撮影装置、プログラム及び記録媒体
JP5033902B2 (ja) 2010-07-01 2012-09-26 本田技研工業株式会社 脇見判定装置
JP2012068690A (ja) * 2010-09-21 2012-04-05 Univ Of Tsukuba 手指ジェスチャ検出装置
US9081416B2 (en) * 2011-03-24 2015-07-14 Seiko Epson Corporation Device, head mounted display, control method of device and control method of head mounted display
JP5755012B2 (ja) * 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
CN102890346A (zh) * 2011-07-20 2013-01-23 英华达(上海)科技有限公司 眼镜
KR101605276B1 (ko) * 2011-09-08 2016-03-21 인텔 코포레이션 오디오 비주얼 재생을 위한 시선 기반 위치 선택
US10410254B2 (en) * 2011-10-07 2019-09-10 Tsunemi Tokuhara Billing electronic advertisement system
CN102508551B (zh) * 2011-11-18 2014-06-18 北京恒信彩虹科技有限公司 一种目光捕捉方法和采用目光捕捉的人机交互方法
JP5863423B2 (ja) * 2011-11-30 2016-02-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9256071B1 (en) 2012-01-09 2016-02-09 Google Inc. User interface
US8915738B2 (en) * 2012-01-24 2014-12-23 Toyota Motor Engineering & Manufacturing North America, Inc. Driver quality assessment for driver education
US9471763B2 (en) 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking
JP2014048936A (ja) * 2012-08-31 2014-03-17 Omron Corp ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
JP6094140B2 (ja) * 2012-10-23 2017-03-15 富士通株式会社 診断プログラム、診断履歴作成方法、及び電子カルテ
WO2014087498A1 (ja) * 2012-12-05 2014-06-12 キヤノン株式会社 画像形成装置および画像形成装置の制御方法
US9351019B2 (en) * 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
US8937552B1 (en) * 2013-01-02 2015-01-20 The Boeing Company Heads down warning system
KR102062310B1 (ko) 2013-01-04 2020-02-11 삼성전자주식회사 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법
JP6036335B2 (ja) 2013-01-24 2016-11-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8847771B2 (en) * 2013-01-25 2014-09-30 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for early detection of dynamic attentive states for providing an inattentive warning
KR102187837B1 (ko) * 2013-05-16 2020-12-07 삼성전자 주식회사 컴퓨터의 입력 장치 및 이를 이용한 입력 방법과 그 시스템
US9360672B2 (en) 2013-07-11 2016-06-07 Seiko Epson Corporation Head mounted display device and control method for head mounted display device
JP6024617B2 (ja) * 2013-08-15 2016-11-16 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP6142307B2 (ja) * 2013-09-27 2017-06-07 株式会社国際電気通信基礎技術研究所 注目対象推定システムならびにロボットおよび制御プログラム
US10115164B1 (en) * 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
KR20150045637A (ko) * 2013-10-21 2015-04-29 삼성전자주식회사 사용자 인터페이스 운용 방법 및 그 전자 장치
JP2015087824A (ja) * 2013-10-28 2015-05-07 オムロン株式会社 画面操作装置および画面操作方法
JP5884811B2 (ja) * 2013-11-18 2016-03-15 コニカミノルタ株式会社 Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム
CN103593691B (zh) * 2013-11-26 2017-02-15 刘启强 一种实景互动娱乐系统
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
CN106462242B (zh) * 2014-04-23 2019-06-04 谷歌有限责任公司 使用视线跟踪的用户界面控制
US10663740B2 (en) * 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9846807B1 (en) * 2014-12-31 2017-12-19 Morphotrust Usa, Llc Detecting eye corners
US10089525B1 (en) 2014-12-31 2018-10-02 Morphotrust Usa, Llc Differentiating left and right eye images
JP6319349B2 (ja) * 2015-04-03 2018-05-09 株式会社デンソー 情報提示装置
JP6582514B2 (ja) 2015-04-23 2019-10-02 富士通株式会社 コンテンツ再生装置、コンテンツ再生プログラム及びコンテンツ再生方法
JP6573193B2 (ja) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
JP6561639B2 (ja) * 2015-07-09 2019-08-21 富士通株式会社 関心度判定装置、関心度判定方法および関心度判定プログラム
US9845097B2 (en) * 2015-08-12 2017-12-19 Ford Global Technologies, Llc Driver attention evaluation
KR20180057693A (ko) * 2015-09-24 2018-05-30 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
JP6672940B2 (ja) * 2016-03-25 2020-03-25 富士ゼロックス株式会社 情報処理装置
CN107865473B (zh) * 2016-09-26 2019-10-25 华硕电脑股份有限公司 人体特征测距装置及其测距方法
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
JP6795469B2 (ja) * 2017-08-04 2020-12-02 Kddi株式会社 注視領域推定装置及びプログラム
JP2019185218A (ja) * 2018-04-04 2019-10-24 アイシン精機株式会社 警報装置
WO2019226691A1 (en) * 2018-05-22 2019-11-28 Magic Leap, Inc. Transmodal input fusion for a wearable system
JP7180228B2 (ja) * 2018-09-20 2022-11-30 いすゞ自動車株式会社 車両用監視装置
GB2582775B (en) * 2019-04-02 2022-04-06 Jaguar Land Rover Ltd Attention level determination
US11625311B2 (en) * 2019-06-17 2023-04-11 Beseeq User interaction for determining attention
US11263634B2 (en) 2019-08-16 2022-03-01 Advanced New Technologies Co., Ltd. Payment method and device
KR20210061638A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
EP4099134A4 (en) * 2020-01-29 2023-03-22 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
JP2022155703A (ja) * 2021-03-31 2022-10-14 本田技研工業株式会社 脇見判定装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260776A (ja) * 2000-03-22 2001-09-26 Mazda Motor Corp 車両用障害物警報装置
JP2004062393A (ja) * 2002-07-26 2004-02-26 Japan Science & Technology Corp 注目判定方法及び注目判定装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147119A (ja) * 1995-11-28 1997-06-06 Toshiba Corp 人物注目方向検出方式
ID27878A (id) * 1997-12-05 2001-05-03 Dynamic Digital Depth Res Pty Konversi image yang ditingkatkan dan teknik mengenkodekan
AUPQ896000A0 (en) 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US7003139B2 (en) * 2002-02-19 2006-02-21 Eastman Kodak Company Method for using facial expression to determine affective information in an imaging system
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260776A (ja) * 2000-03-22 2001-09-26 Mazda Motor Corp 車両用障害物警報装置
JP2004062393A (ja) * 2002-07-26 2004-02-26 Japan Science & Technology Corp 注目判定方法及び注目判定装置

Also Published As

Publication number Publication date
CN101326546B (zh) 2011-10-12
US7889244B2 (en) 2011-02-15
EP1968006A1 (en) 2008-09-10
WO2007074842A1 (ja) 2007-07-05
US20090273687A1 (en) 2009-11-05
EP1968006B1 (en) 2020-03-25
JP2007200298A (ja) 2007-08-09
CN101326546A (zh) 2008-12-17
EP1968006A4 (en) 2012-04-11

Similar Documents

Publication Publication Date Title
JP4633043B2 (ja) 画像処理装置
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
US11847857B2 (en) Vehicle device setting method
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
EP2490155A1 (en) A user wearable visual assistance system
US20200310528A1 (en) Vehicle system for providing driver feedback in response to an occupant's emotion
US20130271584A1 (en) User wearable visual assistance device
Jiménez et al. Gaze fixation system for the evaluation of driver distractions induced by IVIS
CN109087485B (zh) 驾驶提醒方法、装置、智能眼镜及存储介质
CN105654753A (zh) 一种智能车载安全驾驶辅助方法及系统
JPWO2005114576A1 (ja) 動作内容判定装置
JP2015007952A (ja) 顔の動きを検知して信号を生成する装置、方法及びコンピュータ可読記憶媒体
EP2629242A1 (en) A user wearable visual assistance device and method
JP2019195377A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
JP6120444B2 (ja) ウェアラブルデバイス
JP6321848B2 (ja) ウェアラブルデバイス
US11536970B1 (en) Tracking of item of interest using wearable heads up display
EP3855349A1 (en) Extracting information about people from sensor signals
US20210097727A1 (en) Computer apparatus and method implementing sound detection and responses thereto
JP7466433B2 (ja) 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム
US20230145966A1 (en) Augmented reality device performing audio recognition and control method therefor
JP2023020925A (ja) 防犯装置、防犯方法及びプログラム
KR20220093481A (ko) 이동체 번호 인식 및 정보 안내 시스템 및 방법
Khanduja et al. Multifunctional HUD with Drowsy Detection and Fog Elimination Mechanism

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101116

R150 Certificate of patent or registration of utility model

Ref document number: 4633043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350