JP2007094619A - 認識装置および方法、記録媒体、並びに、プログラム。 - Google Patents

認識装置および方法、記録媒体、並びに、プログラム。 Download PDF

Info

Publication number
JP2007094619A
JP2007094619A JP2005281228A JP2005281228A JP2007094619A JP 2007094619 A JP2007094619 A JP 2007094619A JP 2005281228 A JP2005281228 A JP 2005281228A JP 2005281228 A JP2005281228 A JP 2005281228A JP 2007094619 A JP2007094619 A JP 2007094619A
Authority
JP
Japan
Prior art keywords
face
user
sight
predetermined
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005281228A
Other languages
English (en)
Inventor
Shunji Ota
俊二 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2005281228A priority Critical patent/JP2007094619A/ja
Priority to EP06121275A priority patent/EP1770596B1/en
Priority to DE602006011992T priority patent/DE602006011992D1/de
Priority to AT06121275T priority patent/ATE456839T1/de
Priority to US11/527,879 priority patent/US7853051B2/en
Priority to CNB2006101414014A priority patent/CN100472557C/zh
Publication of JP2007094619A publication Critical patent/JP2007094619A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

【課題】簡単かつ正確にユーザの意思を示す動作を認識する。
【解決手段】 カメラ13により撮影された画像データに基づいて、顔方向検出部14は、ユーザの顔の向きを検知し、視線方向検知部15は、ユーザの視線の向きを検知する。うなずき認識部21は、顔が下を向き、顔の向きに対して視線が上方向を向く状態である場合、ユーザがうなずいたと認識する。首振り認識部22は、顔が右または左に向くのに対し、視線が顔の向きに対して左右方向に逆方向を向く状態である場合、ユーザが首を横に振ったと認識する。本発明は、運転者の意思を確認する意思確認装置に適用することができる。
【選択図】図1

Description

本発明は、認識装置および方法、記録媒体、並びに、プログラムに関し、特に、簡単かつ正確にユーザの意思を示す動作を認識することができるようにした認識装置および方法、記録媒体、並びに、プログラムに関する。
従来、ユーザからの指示を待っている場合に、表示部に表示されている選択候補のうちいずれかの選択候補を注視しながら、ユーザがうなずくのを検出したとき、注視していた項目が選択されたと判定し、所定の処理を行うことが提案されている(例えば、特許文献1参照)。
特開2000−163196号公報
しかしながら、特許文献1に記載の発明では、例えば、運転中など、ユーザが表示部の1点を注視することができない状態である場合、ユーザの意思を検出することができない。
本発明は、このような状況に鑑みてなされたものであり、簡単かつ正確にユーザの意思を示す動作を認識することができるようにするものである。
本発明の一側面の認識装置は、ユーザの顔の向きを検知する顔方向検知手段と、前記ユーザの視線の向きを検知する視線方向検知手段と、前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作を認識する動作認識手段とを含む。
本発明の一側面の認識装置においては、ユーザの顔の向きが検知され、前記ユーザの視線の向きが検知され、前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作が認識される。
従って、簡単かつ正確にユーザの意思を示す動作を認識することができ、ユーザの意思を簡単かつ確実に認識することができる。
この顔方向検知手段、視線方向検知手段、動作認識手段は、例えば、CPUにより構成される。また、この顔方向検知手段は、例えば、顔の向きを検知する専用の装置により構成するようにすることもできる。さらに、視線方向検知手段は、例えば、視線の向きを検知する専用の装置により構成するようにすることもできる。
前記動作認識手段には、前記顔が下方向を向くのに対し、前記視線が前記顔の向きに対して上方向を向く状態である場合、前記ユーザが意思を示すためにうなずいたと認識させるようにすることができる。
これにより、ユーザがうなずくのを簡単かつ正確に認識することが可能になる。
前記動作認識手段には、前記ユーザに意思の表示が促されてから所定の時間内に、前記状態である第1の状態とは異なる第2の状態から前記第1の状態への第1の遷移、または、前記第1の状態から前記第2の状態への第2の遷移を行った場合、前記ユーザが意思を示すためにうなずいたと認識させるようにすることができる。
これにより、ユーザがうなずくのをより正確に認識することが可能になる。
前記動作認識手段には、前記所定の時間内に、所定の第1の回数以上前記第1の遷移を行い、かつ、所定の第2の回数以上前記第2の遷移を行った場合、前記ユーザが意思を示すためにうなずいたと認識させるようにすることができる。
これにより、ユーザがうなずくのをより正確に認識することが可能になる。
前記動作認識手段には、前記所定の時間内に、前記顔が所定の方向から所定の第1の角度以上下方向を向き、かつ、前記顔の向きに対して前記視線が所定の第2の角度以上上方向を向き、かつ、前記顔が前記所定の方向から下方向に向いた角度と前記視線が前記顔の向きに対して上方向に向いた角度の和が所定の閾値以上となり、かつ、前記顔の左または右方向の向きが前記所定の方向から所定の第3の角度未満である第1の状態である場合、前記ユーザが意思を示すためにうなずいたと認識させるようにすることができる。
これにより、ユーザがうなずくのをより正確に認識することが可能になる。
前記動作認識手段には、前記顔が右方向を向くのに対し、前記視線が前記顔の向きに対して左方向を向く第1の状態、または、前記顔が左方向を向くのに対し、前記視線が前記顔の向きに対して右方向を向く第2の状態である場合、前記ユーザが意思を示すために首を横に振ったと認識させるようにすることができる。
これにより、ユーザが首を横に振るのを簡単かつ正確に認識することが可能になる。
前記動作認識手段には、前記ユーザに意思の表示が促されてから所定の時間内に、前記第1の状態および前記第2の状態とは異なる第3の状態から前記第1の状態への第1の遷移、前記第3の状態から前記第2の状態への第2の遷移、前記第1の状態から前記第3の状態への第3の遷移、または、前記第2の状態から前記第3の状態への第4の遷移を行った場合、前記ユーザが意思を示すために首を横に振ったと認識させるようにすることができる。
これにより、ユーザが首を横に振るのをより正確に認識することが可能になる。
前記動作認識手段には、前記所定の時間内に、所定の第1の回数以上前記第1の遷移を行い、かつ、所定の第2の回数以上前記第2の遷移を行った場合、前記ユーザが意思を示すために首を横に振ったと認識させるようにすることができる。
これにより、ユーザが首を横に振るのをより正確に認識することが可能になる。
前記動作認識手段には、前記所定の時間内に、前記顔が所定の方向から所定の第1の角度以上右方向を向き、かつ、前記視線が前記顔の向きに対して所定の第2の角度以上左方向を向き、かつ、前記顔が前記所定の方向から右方向に向いた角度と前記視線が前記顔の向きに対して左方向に向いた角度の和が所定の閾値以上となり、かつ、前記顔の上または下方向の向きが前記所定の方向から所定の第3の角度未満である第3の状態である場合、または、前記顔が前記所定の方向から前記第1の角度以上左方向を向き、かつ、前記視線が前記顔の向きに対して前記第2の角度以上右方向を向き、かつ、前記顔が前記所定の方向から左方向に向いた角度と前記視線が前記顔の向きに対して右方向に向いた角度の和が前記閾値以上となり、かつ、前記顔の上または下方向の向きが前記所定の方向から所定の第3の角度未満である第4の状態である場合、前記ユーザが意思を示すために首を横に振ったと認識させるようにすることができる。
これにより、ユーザが首を横に振るのをより正確に認識することが可能になる。
この認識装置は、前記動作認識手段により認識された前記ユーザの意思を示す動作に基づいて、前記ユーザの意思を認識する意思認識手段をさらに備えることができる。
これにより、簡単かつ確実にユーザの意思を認識することが可能になる。
この意思認識手段は、例えば、CPUにより構成される。
本発明の一側面の認識方法またはプログラムは、ユーザの顔の向きを検知する顔方向検知ステップと、前記ユーザの視線の向きを検知する視線方向検知ステップと、前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作を認識する動作認識ステップとを含む。
本発明の一側面の認識方法またはプログラムにおいては、ユーザの顔の向きが検知され、前記ユーザの視線の向きが検知され、前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作が認識される。
従って、簡単かつ正確にユーザの意思を示す動作を認識することができ、ユーザの意思を簡単かつ確実に認識することができる。
この顔方向検知ステップは、例えば、ユーザの顔を撮影した画像データに基づいて、ユーザの顔の向きをCPUにより検知する顔方向検知ステップにより構成され、視線方向検知ステップは、例えば、ユーザの顔を撮影した画像データに基づいて、ユーザの視線の向きをCPUにより検知する視線方向検知ステップにより構成され、動作認識ステップは、例えば、前記ユーザの意思を示す動作をCPUにより認識する動作認識ステップにより構成される。
以上のように、本発明の一側面によれば、簡単かつ正確にユーザの意思を示す動作を認識することができ、ユーザの意思を簡単かつ確実に認識することができる。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した意思確認装置の一実施の形態を示すブロック図である。意思確認装置1は、音声出力部11、スピーカ12、カメラ13、顔方向検知部14、視線方向検知部15、動作認識部16、および、意思認識部17を含むように構成される。また、動作認識部16は、うなずき認識部21および首振り認識部22を含むように構成される。
なお、以下、主に、意思確認装置1が、自動車の内部に設置され、自動車の運転者の意思を確認する場合を例に挙げて説明する。ただし、意思確認装置1が設置される場所は、自動車の内部に限定されるものではなく、また、意思確認装置1が意思を確認する対象も、自動車の運転者に限定されるものではない。
音声出力部11は、図示せぬ外部のアプリケーション装置(例えば、運転支援装置、ナビゲーション装置、カーエアコン、カーステレオなど)から運転者の意思の確認を要求する情報が入力された場合、運転者に対して意思の表示を促す音声データを生成し、音声データに基づく音声をスピーカ12から出力させる。例えば、音声出力部11は、運転者の意思の表示を促すために、「設定を自動変更しますがよろしいですか?」のような内容の音声をスピーカ12から出力させる。
カメラ13は、例えば、CCD(Charge Coupled Device)撮像素子、CMOS(Complementary Metal Oxide Semiconductor)撮像素子、または、対数変換型撮像素子(例えば、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor))(登録商標))などを用いたカメラとされ、運転者の顔および視線の向きを検知するために必要な性能(例えば、解像度が横640画素×縦480画素、階調数が256階調、フレームレートが毎秒30フレーム)を有する。カメラ13は、運転者の顔を撮影できる位置に設置され、撮影することにより得られた運転者の顔を含む画像データを顔方向検知部14および視線方向検知部15に供給する。
顔方向検知部14は、カメラ13から供給された画像データに基づいて、運転者の顔の向きを検知する。顔方向検知部14が顔の向きを検知する手法は、特定の手法に限定されるものではなく、顔の向きをより迅速かつ正確に検知できる手法が望ましい。顔方向検知部14は、検知した運転者の顔の向きを示す情報をうなずき認識部21および首振り認識部22に供給する。
なお、例えば、顔方向検知部14は、運転者が基準となる方向(例えば、自動車の前方かつ地面に対して水平な方向)を向いた状態を基準とする顔の向きを、上下方向および左右方向とも5度単位の角度分解能で0.2秒ごとに検知する。なお、以下、顔の向きを、運転者が基準となる方向を向いた状態を基準として、上下方向については、上方向を正、下方向を負の値により表し、左右方向については、右方向を正、左方向を負の値により表す。例えば、運転者が基準となる方向を向いた状態から、上方向に10度顔を向けた場合、上下方向の顔の向きは10度となり、下方向に10度顔を向けた場合、上下方向の顔の向きは−10度となり、右方向に10度顔を向けた場合、左右方向の顔の向きは10度となり、左方向に10度顔を向けた場合、左右方向の顔の向きは−10度となる。
視線方向検知部15は、カメラ13から供給された画像データに基づいて、運転者の顔の向きに対する視線の向きを検知する。視線方向検知部15が視線の向きを検知する手法は、特定の手法に限定されるものではなく、視線の向きをより迅速かつ正確に検知できる手法が望ましい。視線方向検知部15は、検知した運転者の視線の向きを示す情報をうなずき認識部21および首振り認識部22に供給する。
なお、例えば、視線方向検知部15は、運転者の顔の向きに対する視線の向きを、顔の上下方向および左右方向とも5度単位の角度分解能で0.2秒ごとに検知する。なお、以下、視線の向きを、顔の向きを基準として、顔の上下方向については、上方向を正、下方向を負の値により表し、顔の左右方向については、右方向を正、左方向を負の値により表す。例えば、運転者の顔の向きを基準として、上方向に10度視線を向けた場合、顔の上下方向における視線の向きは10度となり、下方向に10度視線を向けた場合、顔の上下方向における視線の向きは−10度となり、右方向に10度視線を向けた場合、顔の左右方向における視線の向きは10度となり、左方向に10度視線を向けた場合、顔の左右方向における視線の向きは−10度となる。
なお、顔または視線の向きを検知する時間間隔および角度分解能、並びに、顔または視線の向きを表す座標系は、上述した例に限定されるものではない。
動作認識部16は、運転者の顔の向きと視線の向きの違いに基づいて、運転者の意思を示す動作を認識する。
うなずき認識部21は、図3を参照して後述するように、運転者の顔の向きと視線の向きの違いに基づいて、運転者が意思を示すためにうなずいたか否かを認識する。うなずき認識部21は、認識結果を示す情報を意思認識部17に供給する。
首振り認識部22は、図10を参照して後述するように、運転者の顔の向きと視線の向きの違いに基づいて、運転者が意思を示すために首を横に振ったか否かを認識する。首振り認識部22は、認識結果を示す情報を意思認識部17に供給する。
意思認識部17は、うなずき認識部21または首振り認識部22により供給される認識結果に基づいて、運転者の意思を認識する。意思認識部17は、認識結果を示す情報を運転者の意思の確認を要求したアプリケーション装置に出力する。
次に、図2乃至図16を参照して、意思確認装置1の処理を説明する。
まず、図2のフローチャートを参照して、意思確認装置1により実行される意思確認処理を説明する。なお、この処理は、例えば、図示せぬ外部のアプリケーション装置から運転者の意思の確認を要求する情報が入力されたとき、開始される。
ステップS1において、音声出力部11は、意思表示を促す。具体的には、音声出力部11は、運転者に対して意思の表示を促す音声データを生成し、音声データに基づく音声をスピーカ12から出力させる。
ステップS2において、顔方向検知部14は、カメラ13から供給される画像データに基づいて、顔の向きの検知を開始する。顔方向検知部14は、検知した運転者の顔の向きを示す情報のうなずき認識部21および首振り認識部22への供給を開始する。
ステップS3において、視線方向検知部15は、カメラ13から供給される画像データに基づいて、視線の向きの検知を開始する。視線方向検知部15は、検知した運転者の顔の向きを示す情報のうなずき認識部21および首振り認識部22への供給を開始する。
ステップS4において、うなずき認識部21は、うなずき認識処理を実行する。うなずき認識処理の詳細は、図3を参照して後述するが、この処理により、意思の表示が促されたのに対して、運転者がうなずいたか否かが認識され、認識結果を示す情報がうなずき認識部21から意識認識部17に供給される。
ステップS5において、首振り認識部22は、首振り認識処理を実行する。首振り認識処理の詳細は、図10を参照して後述するが、この処理により、意思の表示が促されたのに対して、運転者が首を横に振ったか否かが認識され、認識結果を示す情報が首振り認識部22から意識認識部17に供給される。
なお、ステップS4とS5の処理は並行して実行される。
ステップS6において、意思認識部17は、うなずき認識部21または首振り認識部22による認識結果に基づいて、意思を認識し、意思確認処理は終了する。具体的には、うなずき認識部21により運転者がうなずいたと認識され、かつ、首振り認識部22により運転者が首を横に振っていないと認識された場合、意思認識部17は、運転者が肯定の意志を示したと認識する。また、うなずき認識部21により運転者がうなずいていないと認識され、かつ、首振り認識部22により運転者が首を横に振ったと認識された場合、意思認識部17は、運転者が否定の意志を示したと認識する。さらに、意思認識部17は、うなずき認識部21により運転者がうなずいていないと認識され、かつ、首振り認識部22により運転者が首を横に振っていないと認識された場合、運転者が意思を示していないと認識する。
また、うなずき認識部21により運転者がうなずいたと認識され、かつ、首振り認識部22により運転者が首を横に振ったと認識された場合、例えば、先または後に認識された動作に基づいて、運転者の意思を認識する。あるいは、例えば、運転者がうなずいたか否かを判定する基準となるうなずきらしさと、運転者が首を横に振ったか否かを判定する基準となる首振りらしさに基づいて、運転者の意思を認識するようにしてもよい。なお、うなずきらしさと首振りらしさについては後述する。
意思認識部17は、認識結果を示す情報を、運転者の意思の確認を要求したアプリケーション装置に出力する。アプリケーション装置は、認識された運転者の意思に基づく処理を行う。
なお、国や文化などの違いにより、うなずく動作または首を横に振る動作が示す意思が異なる場合があるが、それらの違いに応じて運転者の意思を正確に認識できるように、例えば、意思確認装置1の設定が事前に変更される。
次に、図3のフローチャートを参照して、図2のステップS4のうなずき認識処理の詳細を説明する。
ステップS21において、うなずき認識部21は、基準方向を設定する。具体的には、うなずき認識部21は、例えば、ステップS2において顔の向きの検知が開始された時点における顔の向き、または、運転中に運転者が最も多く顔を向ける方向を基準方向に設定する。
ステップS22において、うなずき認識部21は、うなずきらしさの算出を開始する。ここで、図4乃至図7を参照して、うなずきらしさの算出方法について説明する。
図4は、ほぼ正面を向いている人の頭部を横から見た場合の顔の向きと視線の向きを模式的に示した図であり、図5は、図4に示される状態における人の眼の状態を模式的に示した図である。図4に示されるように、人がほぼ正面を向いている場合、例えば、運転者が自動車を運転しながら前方を見ている場合、顔の向きと視線の向きはほぼ一致し、個人差はあるが、図5に示されるように、ほぼ眼の中央に黒目の部分が位置するようになる。
図6は、意思表示をするためにうなずいている人の頭部を横から見た場合の顔の向きと視線の向きを模式的に示した図であり、図6は、図7に示される状態における人の眼の状態を模式的に示した図である。人が意思表示をするためにうなずく場合、視線をなるべく動かさずに顔の向きだけを変える傾向がある。例えば、会話中の場合、人は相手からあまり視線を動かさずにうなずき、運転などの作業をしている場合、人は作業の対象からあまり視線を動かさずにうなずく。また、そのような注視する対象がない場合でも、うなずく方向を特に見る必要がないため、やはり、人は視線をあまり動かさずにうなずく。
従って、人がうなずいた場合、図6に示されるように、顔の動きと視線の動きに違いが生じ、顔が下を向くのに対して、顔の向きに対して上方向に視線が向くため、個人差はあるが、図7に示されるように、顔の移動方向とは逆の上方向に黒目の部分が眼の中を移動し、いわゆる上目遣いの状態となる。
うなずき認識部21は、この人がうなずいた場合の上下方向の顔の動き(向き)と視線の動き(向き)の違いに着目して、うなずきらしさを算出する。具体的には、運転者の顔が基準方向から所定の第1の角度(例えば、5度)以上下方向を向き、かつ、顔の向きに対する視線の向きが所定の第2の角度(例えば、5度)以上上方向を向き、かつ、顔の左または右方向の向きが基準方向から所定の第3の角度(例えば、5度)未満である場合、すなわち、運転者の顔が、左右方向についてはほぼ基準方向を向いたまま下を向き、かつ、上目遣いになった場合、うなずきらしさは、以下の式(1)により算出される。
うなずきらしさ=顔の向きに対する上下方向の視線の向き−上下方向の顔の向き
・・・(1)
すなわち、うなずきらしさは、顔の向きに対して視線が上目遣いになっている角度と、うつむいた角度の和(式(1)においては、角度を表す符号の関係で引き算となっている)により表される。
一方、顔および視線の向きが上述した状態とは異なる場合、うなずきらしさ=0とされる。
うなずき認識部21は、上述した方法に基づいて、うなずきらしさの算出を開始する。
ステップS23において、うなずき認識部21は、意思表示を促してから所定の時間が経過したか否かを判定する。ステップS1において意思表示を促してから所定の時間(例えば、7秒)が経過していないと判定された場合、処理はステップS24に進む。
ステップS24において、うなずき認識部21は、うなずきらしさが所定の閾値以上であるか否かを判定する。うなずきらしさが所定の閾値(例えば、30)未満であると判定された場合、処理はステップS23に戻る。
その後、ステップS23において、意思表示を促してから所定の時間が経過したと判定されるか、ステップS24において、うなずきらしさが所定の閾値以上であると判定されるまで、ステップS23およびS24の処理が繰返し実行される。
ステップS24において、うなずきらしさが所定の閾値以上であると判定された場合、処理はステップS25に進む。
図8は、顔の向きに対する視線の上下方向の向きを横軸方向に示し、基準方向に対する顔の上下方向の向きを縦軸方向に示すグラフである。なお、横軸を原点から右に移動するほど、視線が上を向く角度が大きくなり、横軸を原点から左に移動するほど、視線が下を向く角度が大きくなる。また、縦軸を原点から上に移動するほど、顔が上を向く角度が大きくなり、縦軸を原点から下に移動するほど、顔が下を向く角度が大きくなる。
また、図8内の斜線で示される領域は、うなずきらしさが所定の閾値(図8に示される例において、30)以上となる領域を示している。すなわち、斜線で示される領域は、運転者の顔が基準方向から所定の第1の角度(図8に示される例において、5度)以上下方向を向き、かつ、顔の向きに対して視線が所定の第2の角度(図8に示される例において、5度)以上上方向を向き、かつ、顔が基準方向から下方向に向いた角度と視線が顔の向きに対して上方向に向いた角度の和(うなずきらしさ)が所定の閾値(図8に示される例において、30)以上となる領域である。
ステップS25において、うなずき認識部21は、運転者がうなずいたと認識し、うなずき認識処理は終了する。うなずき認識部21は、認識結果を示す情報を意思認識部17に供給する。
ステップS23において、意思表示を促してから所定の時間が経過したと判定された場合、処理はステップS26に進む。
ステップS26において、うなずき認識部21は、運転者がうなずいていないと認識し、うなずき認識処理は終了する。うなずき認識部21は、認識結果を示す情報を意思認識部17に供給する。
図9は、運転者がうなずいた場合の顔および視線の向き、並びに、うなずきらしさの遷移を示すグラフである。図9の横軸は時間を示し、縦軸は顔および視線の向き、並びに、うなずきらしさを示している。また、線51は顔の上下方向の向きの遷移を示し、線52は顔の向きに対する視線の上下方向の向きの遷移を示し、線53は顔の左右方向の向きの遷移を示し、線54はうなずきらしさの遷移を示している。
図9に示される例において、うなずいているか否かを判定する閾値を30とした場合、5.2秒から5.6秒にかけてうなずきらしさが閾値以上となっており、運転者がうなずいたと認識される。
次に、図10のフローチャートを参照して、図2のステップS5の首振り認識処理の詳細を説明する。
ステップS41において、首振り認識部22は、上述した図3のステップS21におけるうなずき認識部21による処理と同様に、基準方向を設定する。
ステップS42において、首振り認識部22は、首振りらしさの算出を開始する。ここで、図11乃至図14を参照して、首振りらしさの算出方法について説明する。
図11は、ほぼ正面を向いている人の頭部を上から見た場合の顔の向きと視線の向きを模式的に示した図であり、図12は、図11に表される状態における人の眼の状態を模式的に示した図である。図11に示されるように、人がほぼ正面を向いている場合、例えば、運転者が自動車を運転しながら前方を見ている場合、顔の向きと視線の向きはほぼ一致し、個人差はあるが、図12に示されるように、ほぼ眼の中央に黒目の部分が位置するようになる。
図13は、意思表示をするために首を横に振っている人の頭部を上から見た場合の顔の向きと視線の向きを模式的に示した図であり、図13は、図14に示される状態における人の眼の状態を模式的に示した図である。人が意思表示するために首を横に振る場合、視線をなるべく動かさずに顔の向きだけを変える傾向がある。例えば、会話中の場合、人は相手からあまり視線を動かさずに首を横に振り、運転などの作業をしている場合、人は作業の対象からあまり視線を動かさずに首を横に振る。また、そのような注視する対象がない場合でも、首(顔)を振る方向を特に見る必要がないため、やはり、人は視線をあまり動かさずに首を横に振る。
従って、人が首を横に振った場合、図13に示されるように、顔の向きと視線の向きに違いが生じ、顔の向きに対して視線が顔の向きと逆方向に向くため、個人差はあるが、図14に示されるように、顔の移動方向(いまの場合、右方向)とは逆方向(いまの場合、左方向)に黒目の部分が眼の中を移動し、いわゆる横目遣いの状態となる。
首振り認識部22は、この人がうなずいた場合の左右方向の顔の動き(向き)と視線の動き(向き)の違いに着目して、首振りらしさを算出する。具体的には、運転者の顔が基準方向から所定の第1の角度(例えば、5度)以上右または左方向を向き、かつ、左右方向における顔の向きに対する視線の向きが所定の第2の角度(例えば、5度)以上顔の向きと逆の方向を向き、顔の上または下方向の向きが基準方向から所定の第3の角度(例えば、5度)未満である場合、すなわち、運転者の顔が、上下方向についてはほぼ基準方向を向いたまま左または右を向き、かつ、左右方向において顔の向きとは視線が逆方向に向いた場合、首振りらしさは、以下の式(2)により算出される。
首振りらしさ=顔の向きに対する左右方向の視線の向き−左右方向の顔の向き
・・・(2)
すなわち、首振りらしさは、顔の向きに対して視線が横目遣いになっている角度と、顔が横を向いた角度の和(式(2)においては、角度を表す符号の関係で引き算となっている)により表される。
一方、顔および視線の向きが上述した状態とは異なる場合、首振りらしさ=0とされる。
首振り認識部22は、上述した方法に基づいて、首振りらしさの算出を開始する。
ステップS43において、首振り認識部22は、意思表示を促してから所定の時間が経過したか否かを判定する。ステップS41において意思表示を促してから所定の時間(例えば、7秒)が経過していないと判定された場合、処理はステップS44に進む。
ステップS44において、首振り認識部22は、顔の向きが左方向、かつ、首振りらしさが所定の上限閾値以上であるか否かを判定する。顔の向きが右方向(左右方向の顔の向きの角度が0度より大きい)、または、首振りらしさが所定の上限閾値(例えば、30)より小さいと判定された場合、すなわち、運転者が左方向に首を振っていないと判定された場合、処理はステップS45に進む。
ステップS45において、首振り認識部22は、顔の向きが右方向、かつ、首振りらしさが所定の下限閾値以下であるか否かを判定する。顔の向きが右方向(左右方向の顔の向きの角度が0度より小さい)、または、首振りらしさが所定の下限閾値(例えば、−30)より大きいと判定された場合、すなわち、運転者が右方向に首を振っていないと判定された場合、処理はステップS43に戻る。
その後、ステップS43において、意思表示を促してから所定の時間が経過したと判定されるか、ステップS44において、顔の向きが左方向かつ首振りらしさが所定の上限閾値以上であると判定されるか、ステップS45において、顔の向きが右方向かつ首振りらしさが所定の下限閾値以下であると判定されるまで、ステップS43乃至S45の処理が繰り返し実行される。
ステップS45において、顔の向きが右方向かつ首振りらしさが所定の下限閾値以下であると判定された場合、すなわち、運転者が右方向に首を振ったと判定された場合、処理はステップS46に進む。
図15は、顔の向きに対する視線の左右方向の向きを横軸方向に示し、基準方向に対する顔の左右方向の角度を縦軸方向に示すグラフである。なお、横軸を原点から右に移動するほど、視線が右に向く角度が大きくなり、横軸を原点から左に移動するほど、視線が左を向く角度が大きくなる。また、縦軸を原点から上に移動するほど、顔が右を向く角度が大きくなり、縦軸を原点から下に移動するほど、顔が左を向く角度が大きくなる。
また、図15内の網掛けで示される領域Rは、顔が右方向を向いている場合に首振りらしさが所定の下限閾値(図15に示される例において、−30)以下となる領域を示している。すなわち、領域Rは、運転者の顔が基準方向から所定の第1の角度(図15に示される例において、5度)以上右方向を向き、かつ、顔の向きに対して視線が所定の第2の角度(図15に示される例において、5度)以上左方向を向き、かつ、顔が基準方向から右方向に向いた角度と視線が顔の向きに対して左方向に向いた角度の和(首振りらしさ)が所定の閾値(図15に示される例において、30(下限閾値の絶対値))以上となる領域である。
ステップS46において、ステップS43の処理と同様に、意思表示を促してから所定の時間が経過したか否かが判定される。意思表示を促してから所定の時間が経過していないと判定された場合、処理はステップS47に進む。
ステップS47において、ステップS44の処理と同様に、顔の向きが左方向かつ首振りらしさが所定の上限閾値以上であるか否かが判定される。顔の向きが右方向、または、首振りらしさが所定の上限閾値(例えば、30)より小さいと判定された場合、すなわち、運転者が左方向に首を振っていないと判定された場合、処理はステップS46に戻る。
その後、ステップS46において、意思表示を促してから所定の時間が経過したと判定されるか、ステップS47において、顔の向きが左方向かつ首振りらしさが所定の上限閾値以上であると判定されるまで、ステップS46およびS47の処理が繰り返し実行される。
ステップS47において、顔の向きが左方向かつ首振りらしさが所定の上限閾値以上であると判定された場合、すなわち、運転者が左方向に首を振ったと判定された場合、処理はステップS50に進む。すなわち、これは、ステップS45の判定処理と合わせて、意思表示を促してから所定の時間内に、運転者が左右両方向に首を振ったと判定された場合である。
図15内の斜線で示される領域Lは、顔が左方向を向いている場合に首振りらしさが所定の上限閾値(図15に示される例において、30)以上となる領域を示している。すなわち、領域Lは、運転者の顔が基準方向から所定の第1の角度(図15に示される例において、5度)以上左方向を向き、かつ、顔の向きに対して視線が所定の第2の角度(図15に示される例において、5度)以上右方向を向き、かつ、顔が基準方向から左方向に向いた角度と視線が顔の向きに対して右方向に向いた角度の和(首振りらしさ)が所定の閾値(図15に示される例において、30)以上となる領域である。
ステップS44において、顔の向きが左方向かつ首振りらしさが所定の上限閾値以上であると判定された場合、すなわち、運転者が左方向に首を振ったと判定された場合、処理はステップS48に進む。
ステップS48において、ステップS43の処理と同様に、意思表示を促してから所定の時間が経過したか否かが判定される。意思表示を促してから所定の時間が経過していないと判定された場合、処理はステップS49に進む。
ステップS49において、ステップS45の処理と同様に、顔の向きが右方向かつ首振りらしさが所定の下限閾値以下であるか否かが判定される。顔の向きが左方向、または、首振りらしさが所定の下限閾値より大きいと判定された場合、すなわち、運転者が右方向に首を振っていないと判定された場合、処理はステップS48に戻る。
その後、ステップS48において、意思表示を促してから所定の時間が経過したと判定されるか、ステップS49において、顔の向きが右方向かつ首振りらしさが所定の下限閾値以下であると判定されるまで、ステップS48およびS49の処理が繰り返し実行される。
ステップS48において、顔の向きが右方向かつ首振りらしさが所定の下限閾値以下であると判定された場合、すなわち、運転者が右方向に首を振ったと判定された場合、処理はステップS50に進む。すなわち、これは、ステップS44の判定処理と合わせて、意思表示を促してから所定の時間内に、運転者が左右両方向に首を振ったと判定された場合である。
ステップS50において、首振り認識部22は、運転者が首を横に振ったと認識し、首振り認識処理は終了する。首振り認識部22は、認識結果を示す情報を意思認識部17に供給する。
ステップS43、S46またはS48において、意思表示を促してから所定の時間が経過したと判定された場合、すなわち、所定の時間内に、左または右方向のすくなくとも一つの方向に首が振られなかった場合、処理はステップS51に進む。
ステップS51において、首振り認識部22は、運転者が首を横に振っていないと認識し、首振り認識処理は終了する。首振り認識部22は、認識結果を示す情報を意思認識部17に供給する。
図16は、運転者が首を横に振った場合の顔および視線の向き、並びに、首振りらしさの遷移を示すグラフである。図16の横軸は時間を示し、縦軸は顔および視線の向き、並びに、首振りらしさを示している。また、線61は顔の左右方向の向きの遷移を示し、線62は顔の向きに対する視線の左右方向の向きの遷移を示し、線63は顔の上下方向の向きの遷移を示し、線64は首振りらしさの遷移を示している。
図16に示される例において、首を左に振っているか否かを判定する上限閾値を30とし、首を右に振っているか否かを判定する下限閾値を−30とした場合、3.4秒から3.6秒にかけて首振りらしさが上限閾値以上となり、運転者が首を左に振ったと認識され、4.4秒から5.0秒にかけて首振りらしさが下限閾値以下となり、運転者が首を右に振ったと認識される。
以上のように、ユーザ(運転者)の意思を示す動作を簡単かつ正確に認識することができ、その結果、ユーザの意思を簡単かつ確実に認識することができる。また、ユーザはうなずくか首を横に振るといったごく自然な動作を行うだけでよく、ユーザに負担を与えないようにすることができる。また、ユーザは、所定の方向に視線や顔を向けたり、手屋芦などを動かしたりする必要がないため、自動車の運転などの作業を継続したまま、意思確認装置1に対して意思を表示することができる。
なお、ここで、うなずきおよび首振りを認識する他の方法の例について説明する。
図17に示されるように、上下方向の顔の向きと顔の向きに対する視線の向きの組み合わせにより、顔が上を向き、かつ、顔の向きに対して視線が下を向いている状態SV1、顔が上を向き、かつ、顔の向きと視線の向きがほぼ同じ状態SV2、顔が上を向き、かつ、顔の向きに対して視線が上を向いている状態SV3、顔がほぼ水平方向を向き、かつ、顔の向きに対して視線が下を向いている状態SV4、顔がほぼ水平方向を向き、かつ、顔の向きと視線の向きがほぼ同じ状態SV5、顔がほぼ水平方向を向き、かつ、顔の向きに対して視線が上を向いている状態SV6、顔が下を向き、かつ、顔の向きに対して視線が下を向いている状態SV7、顔が下を向き、かつ、顔の向きと視線の向きがほぼ同じ状態SV8、および、顔が下を向き、かつ、顔の向きに対して視線が上を向いている状態SV9の9つの状態が存在する。
上述したように、人がうなずくとき、顔が下を向き、顔の向きに対して視線が上を向く傾向があるので、人が状態SV9であることを検知した時点で、うなずいたと認識する方法が考えられる。この方法は、図3などを参照して上述した方法と比べて、精度は高くないが、より迅速に人がうなずくのを認識することができる。
同様に、図18に示されるように、左右方向の顔の向きと顔の向きに対する視線の向きの組み合わせにより、顔が右を向き、かつ、顔の向きに対して視線が左を向いている状態SH1、顔が右を向き、かつ、顔の向きと視線の向きがほぼ同じ状態SH2、顔が右を向き、かつ、顔の向きに対して視線が右を向いている状態SH3、顔がほぼ正面方向を向き、かつ、顔の向きに対して視線が左を向いている状態SH4、顔がほぼ正面方向を向き、かつ、顔の向きと視線の向きがほぼ同じ状態SH5、顔がほぼ正面方向を向き、かつ、顔の向きに対して視線が右を向いている状態SH6、顔が左を向き、かつ、顔の向きに対して視線が左を向いている状態SH7、顔が左を向き、かつ、顔の向きと視線の向きがほぼ同じ状態SH8、および、顔が左を向き、かつ、顔の向きに対して視線が右を向いている状態SH9の9つの状態が存在する。
上述したように、人が首を横に振るとき、顔が左または右を向き、左右方向において顔の向きに対して視線が逆方向を向く傾向があるので、人が状態SH1であることを検知した時点で、首を右に振ったと認識し、人が状態SH9であることを検知した時点で、首を左に振ったと認識する方法が考えられる。この方法は、図10などを参照して上述した方法と比べて、精度は高くないが、より迅速に人が首を横に振るのを認識することができる。
また、うなずきらしさを、上述した算出方法の代わりに、以下の式(3)および(4)により算出するとともに、うなずきらしさが所定の閾値以上となり、かつ、顔の左または右方向の向きが基準方向から所定の角度(例えば、5度)未満である場合、うなずいたと認識する方法が考えられる。
うなずきらしさ=顔の向きに対する上下方向の視線の向き×(−1×上下方向の顔の向き) (上下方向の顔の向き<0) ・・・(3)
うなずきらしさ=0 (上下方向の顔の向き≧0) ・・・(4)
この場合、図8に示されるグラフと同じ座標軸を持つ図19のグラフにおいて、斜線で示される曲線を境界とする領域が、うなずきらしさが所定の閾値以上となる領域である。
同様に、首振りらしさを、上述した算出方法の代わりに、以下の式(5)により算出し、首振りらしさが所定の閾値以下となり、かつ、顔の上または下方向の向きが基準方向から所定の角度(例えば、5度)未満である場合、首を横に振ったと認識する方法が考えられる。
首振りらしさ=顔の向きに対する左右方向の視線の向き×(左右方向の顔の向き)
・・・(5)
この場合、図15に示されるグラフと同じ座標軸を持つ図20のグラフにおいて、双曲線を境界とする網掛けで示される領域Rと斜線で示される領域Lが、首振りらしさが所定の閾値以下となる領域である。また、領域Rが首を右に振った場合に対応する領域であり、領域Lが首を左に振った場合に対応する領域である。
さらに、図21に示されるように、図8に示されるグラフと同じ座標軸を持つグラフを複数の領域に分割し、分割した領域ごとにうなずきらしさの値を割り当てる。そして、検知した顔の上下方向の向きと、顔の向きに対する上下方向の視線の向きとの組み合わせが属する領域に対応するうなずきらしさが所定の閾値以上であり、かつ、顔の左または右方向の向きが基準方向から所定の角度(例えば、5度)未満である場合、うなずいたと認識する方法が考えられる。
同様に、図22に示されるように、図15に示されるグラフと同じ座標軸を持つグラフを複数の領域に分割し、分割した領域ごとに首振りらしさの値を割り当てる。そして、検知した顔の左右方向の向きと、顔の向きに対する左右方向の視線の向きとの組み合わせが属する領域に対応する首振りらしさが所定の閾値以上であり、かつ、顔の上または下方向の向きが基準方向から所定の角度(例えば、5度)未満である場合、首を横に振ったと認識する方法が考えられる。
また、以上の説明では、うなずいたと判定される状態(以下、うなずき状態と称する)が検知された場合に、人がうなずいたと認識する例を示したが、うなずいていないと判定される状態(以下、非うなずき状態と称する)からうなずき状態への遷移が検知された場合、または、うなずき状態から非うなずき状態への遷移が検知された場合に、うなずいたと認識するようにしてもよい。さらに、所定の時間内に、所定の第1の回数以上うなずき状態から非うなずき状態への遷移を行い、かつ、所定の第2の回数以上非うなずき状態からうなずき状態への遷移を行ったことが検知された場合、すなわち、人がうなずく動作を繰返すのを検知した場合、うなずいたと認識するようにしてもよい。
また、以上の説明では、首を左右に1回ずつ振った状態を検知した場合、首を横に振ったと認識する例を示したが、首を左右どちらにも振っていないと判定される状態(以下、非首振り状態と称する)から首を右に振っていると判定される状態(以下、右首振り状態と称する)または首を左に振っていると判定される状態(以下、左首振り状態と称する)への遷移が検知された場合、または、右首振り状態または左首振り状態から非首振り状態への遷移が検知された場合、首を横に振ったと認識するようにしてもよい。さらに、所定の時間内に、所定の第1の回数以上非首振り状態から右首振り状態への遷移が検知され、かつ、所定の第2の回数以上非首振り状態から左首振り状態への遷移が検知された場合、すなわち、人が左右に首を振る動作を繰返すのを検知した場合、首を横に振ったと認識するようにしてもよい。
以上のように、第1の通信装置により、第1の表現方法、および、第1の表現方法と関連する第2の表現方法を設定し、通信を確立した第2の通信装置に、第2の表現方法を示すデータを送信し、第1の通信装置と第2の通信装置との間の通信が確立したことを、第2の通信装置が第2の表現方法で表すのに対応して、第1の表現方法で表し、第2の通信装置により、第1の通信装置から送信されてくる、第2の表現方法を示すデータを受信し、第1の通信装置と第2の通信装置との間の通信が確立したことを、第1の通信装置が第1の表現方法で表すのに対応して、第2の表現方法で表す場合には、他の通信装置との通信が確立したことを知ることができる。また、簡単に通信相手を特定することができ、簡単かつ確実に安全な通信を行うことができる。
なお、以上の説明では、ユーザの意思表示を促すときに、音声によるメッセージを出力する例を示したが、それ以外にも、例えば、ビープ音を鳴動したり、文字や記号を表示装置に表示させたり、ランプを点滅したりするようにしてもよい。
なお、本発明は、上述した車載用の装置以外にも、ユーザの意思を確認して処理を行う各種の装置、例えば、パーソナルコンピュータ、携帯電話機、PDA(Personal Digital Assistant)、PC(Personal Computer)、AV(Audio Visual)機器、各種の電気製品、自動販売機などに適用することが可能である。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図23は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。
CPU901にはまた、バス904を介して入出力インターフェース905が接続されている。入出力インターフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。
入出力インターフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。
入出力インターフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図23に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した意思確認装置の一実施の形態を示すブロック図である。 図1の意思確認装置の意思確認処理を説明するためのフローチャートである。 図2のステップS4のうなずき認識処理の詳細を説明するためのフローチャートである。 人が正面を向いている場合の顔の向きと視線の向きを模式的に示した図である。 図4に示される状態における人の眼の状態を模式的に示した図である。 人がうなずいている場合の顔の向きと視線の向きを模式的に示した図である。 図6に示される状態における人の眼の状態を模式的に示した図である。 うなずきらしさが閾値以上となる状態を説明するためのグラフである。 運転者がうなずいたことを認識する例を説明するためのグラフである。 図2のステップS5の首振り認識処理の詳細を説明するためのフローチャートである。 人が正面を向いている場合の顔の向きと視線の向きを模式的に示した図である。 図11に示される状態における人の眼の状態を模式的に示した図である。 人が首を横に振っている場合の顔の向きと視線の向きを模式的に示した図である。 図13に示される状態における人の眼の状態を模式的に示した図である。 首振りらしさが上限閾値以上または下限閾値以下となる状態を説明するためのグラフである。 運転者が首を横に振ったことを認識する例を説明するためのグラフである。 うなずいたことを認識する他の方法を説明するための図である。 首を横に振ったことを認識する他の方法を説明するための図である。 うなずいたことを認識するさらに他の方法を説明するための図である。 首を横に振ったことを認識するさらに他の方法を説明するための図である。 うなずいたことを認識するさらに他の方法を説明するための図である。 首を横に振ったことを認識するさらに他の方法を説明するための図である。 パーソナルコンピュータの構成の例を示すブロック図である。
符号の説明
1 意思確認装置
11 音声出力部
13 カメラ
14 顔方向検知部(顔方向検知手段)
15 視線方向検知部(視線方向検知手段)
16 動作認識部(動作認識手段)
17 意思認識部(意思認識手段)
21 うなずき認識部
22 首振り認識部
901 CPU
902 ROM
903 RAM
908 記録部
910 ドライブ
911 リムーバブルメディア

Claims (13)

  1. ユーザの顔の向きを検知する顔方向検知手段と、
    前記ユーザの視線の向きを検知する視線方向検知手段と、
    前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作を認識する動作認識手段と
    を含む認識装置。
  2. 前記動作認識手段は、前記顔が下方向を向くのに対し、前記視線が前記顔の向きに対して上方向を向く状態である場合、前記ユーザが意思を示すためにうなずいたと認識する
    請求項1に記載の認識装置。
  3. 前記動作認識手段は、前記ユーザに意思の表示が促されてから所定の時間内に、前記状態である第1の状態とは異なる第2の状態から前記第1の状態への第1の遷移、または、前記第1の状態から前記第2の状態への第2の遷移を行った場合、前記ユーザが意思を示すためにうなずいたと認識する
    請求項2に記載の認識装置。
  4. 前記動作認識手段は、前記所定の時間内に、所定の第1の回数以上前記第1の遷移を行い、かつ、所定の第2の回数以上前記第2の遷移を行った場合、前記ユーザが意思を示すためにうなずいたと認識する
    請求項3に記載の認識装置。
  5. 前記動作認識手段は、前記所定の時間内に、前記顔が所定の方向から所定の第1の角度以上下方向を向き、かつ、前記顔の向きに対して前記視線が所定の第2の角度以上上方向を向き、かつ、前記顔が前記所定の方向から下方向に向いた角度と前記視線が前記顔の向きに対して上方向に向いた角度の和が所定の閾値以上となり、かつ、前記顔の左または右方向の向きが前記所定の方向から所定の第3の角度未満である第1の状態である場合、前記ユーザが意思を示すためにうなずいたと認識する
    請求項2に記載の認識装置。
  6. 前記動作認識手段は、前記顔が右方向を向くのに対し、前記視線が前記顔の向きに対して左方向を向く第1の状態、または、前記顔が左方向を向くのに対し、前記視線が前記顔の向きに対して右方向を向く第2の状態である場合、前記ユーザが意思を示すために首を横に振ったと認識する
    請求項1に記載の認識装置。
  7. 前記動作認識手段は、前記ユーザに意思の表示が促されてから所定の時間内に、前記第1の状態および前記第2の状態とは異なる第3の状態から前記第1の状態への第1の遷移、前記第3の状態から前記第2の状態への第2の遷移、前記第1の状態から前記第3の状態への第3の遷移、または、前記第2の状態から前記第3の状態への第4の遷移を行った場合、前記ユーザが意思を示すために首を横に振ったと認識する
    請求項6に記載の認識装置。
  8. 前記動作認識手段は、前記所定の時間内に、所定の第1の回数以上前記第1の遷移を行い、かつ、所定の第2の回数以上前記第2の遷移を行った場合、前記ユーザが意思を示すために首を横に振ったと認識する
    請求項7に記載の認識装置。
  9. 前記動作認識手段は、前記所定の時間内に、前記顔が所定の方向から所定の第1の角度以上右方向を向き、かつ、前記視線が前記顔の向きに対して所定の第2の角度以上左方向を向き、かつ、前記顔が前記所定の方向から右方向に向いた角度と前記視線が前記顔の向きに対して左方向に向いた角度の和が所定の閾値以上となり、かつ、前記顔の上または下方向の向きが前記所定の方向から所定の第3の角度未満である第3の状態である場合、または、前記顔が前記所定の方向から前記第1の角度以上左方向を向き、かつ、前記視線が前記顔の向きに対して前記第2の角度以上右方向を向き、かつ、前記顔が前記所定の方向から左方向に向いた角度と前記視線が前記顔の向きに対して右方向に向いた角度の和が前記閾値以上となり、かつ、前記顔の上または下方向の向きが前記所定の方向から所定の第3の角度未満である第4の状態である場合、前記ユーザが意思を示すために首を横に振ったと認識する
    請求項6に記載の認識装置。
  10. 前記動作認識手段により認識された前記ユーザの意思を示す動作に基づいて、前記ユーザの意思を認識する意思認識手段を
    さらに含む請求項1に記載の認識装置。
  11. ユーザの顔の向きを検知し、
    前記ユーザの視線の向きを検知し、
    前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作を認識する
    ステップを含む認識方法。
  12. ユーザの顔の向きを検知する顔方向検知ステップと、
    前記ユーザの視線の向きを検知する視線方向検知ステップと、
    前記顔の向きと前記視線の向きの違いに基づいて、前記ユーザの意思を示す動作を認識する動作認識ステップと
    を含む処理をコンピュータに実行させるプログラム。
  13. 請求項12に記載のプログラムが記録されている記録媒体。
JP2005281228A 2005-09-28 2005-09-28 認識装置および方法、記録媒体、並びに、プログラム。 Pending JP2007094619A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005281228A JP2007094619A (ja) 2005-09-28 2005-09-28 認識装置および方法、記録媒体、並びに、プログラム。
EP06121275A EP1770596B1 (en) 2005-09-28 2006-09-26 Apparatus, method, recording media, and program for recognition of head nodding.
DE602006011992T DE602006011992D1 (de) 2005-09-28 2006-09-26 Vorrichtung, Verfahren, Aufzeichnungsmedium und Programm für die Erkennung von Kopfnicken.
AT06121275T ATE456839T1 (de) 2005-09-28 2006-09-26 Vorrichtung, verfahren, aufzeichnungsmedium und programm für die erkennung von kopfnicken.
US11/527,879 US7853051B2 (en) 2005-09-28 2006-09-27 Recognizing apparatus and method, recording media, and program
CNB2006101414014A CN100472557C (zh) 2005-09-28 2006-09-28 识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005281228A JP2007094619A (ja) 2005-09-28 2005-09-28 認識装置および方法、記録媒体、並びに、プログラム。

Publications (1)

Publication Number Publication Date
JP2007094619A true JP2007094619A (ja) 2007-04-12

Family

ID=37499264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005281228A Pending JP2007094619A (ja) 2005-09-28 2005-09-28 認識装置および方法、記録媒体、並びに、プログラム。

Country Status (6)

Country Link
US (1) US7853051B2 (ja)
EP (1) EP1770596B1 (ja)
JP (1) JP2007094619A (ja)
CN (1) CN100472557C (ja)
AT (1) ATE456839T1 (ja)
DE (1) DE602006011992D1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
JP2010076602A (ja) * 2008-09-26 2010-04-08 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
JP2013083731A (ja) * 2011-10-06 2013-05-09 Murata Mach Ltd 画像表示システム
US8475938B2 (en) 2008-04-30 2013-07-02 Konica Minolta Holdings, Inc. Organic electroluminescent element, lighting device and display device
US9684372B2 (en) 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
JP2018055264A (ja) * 2016-09-27 2018-04-05 株式会社デンソー ジェスチャ検出装置
JP2019135601A (ja) * 2018-02-05 2019-08-15 Kddi株式会社 入力制御装置、入力制御方法及びプログラム
JP2019191648A (ja) * 2018-04-18 2019-10-31 富士通株式会社 動作判定プログラム、動作判定装置及び動作判定方法
JP2020052189A (ja) * 2018-09-26 2020-04-02 いすゞ自動車株式会社 表示制御装置及び表示制御方法
JP7459959B2 (ja) 2020-10-09 2024-04-02 日本電気株式会社 生体検知装置、制御方法、及びプログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406457B2 (en) * 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
US9596401B2 (en) * 2006-10-02 2017-03-14 Sony Corporation Focusing an image based on a direction of a face of a user
WO2008126389A1 (ja) * 2007-04-02 2008-10-23 Panasonic Corporation 安全運転支援装置
JP5045212B2 (ja) * 2007-04-25 2012-10-10 株式会社デンソー 顔画像撮像装置
JP5115139B2 (ja) * 2007-10-17 2013-01-09 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP6106921B2 (ja) * 2011-04-26 2017-04-05 株式会社リコー 撮像装置、撮像方法および撮像プログラム
CN102306293A (zh) * 2011-07-29 2012-01-04 南京多伦科技有限公司 基于面部图像识别技术的评判实际道路驾驶员考试的方法
US9390032B1 (en) * 2012-06-27 2016-07-12 Amazon Technologies, Inc. Gesture camera configurations
CN103309446B (zh) * 2013-05-30 2016-03-02 上海交通大学 以人类双手为载体的虚拟数据获取与传递系统
CN103491297A (zh) * 2013-08-22 2014-01-01 英华达(南京)科技有限公司 拍照方法及设备
US9533687B2 (en) 2014-12-30 2017-01-03 Tk Holdings Inc. Occupant monitoring systems and methods
US10532659B2 (en) 2014-12-30 2020-01-14 Joyson Safety Systems Acquisition Llc Occupant monitoring systems and methods
US10614328B2 (en) 2014-12-30 2020-04-07 Joyson Safety Acquisition LLC Occupant monitoring systems and methods
USD751437S1 (en) 2014-12-30 2016-03-15 Tk Holdings Inc. Vehicle occupant monitor
JP7031588B2 (ja) * 2016-07-05 2022-03-08 日本電気株式会社 不審者検出装置、不審者検出方法およびプログラム
JP6747311B2 (ja) * 2017-01-20 2020-08-26 富士通株式会社 画像処理プログラム、画像処理方法及び画像処理装置
JP6922686B2 (ja) * 2017-11-20 2021-08-18 トヨタ自動車株式会社 操作装置
CN109376666B (zh) * 2018-10-29 2022-01-25 百度在线网络技术(北京)有限公司 一种商品售卖方法、装置、售卖机及存储介质
JP7339604B2 (ja) * 2019-11-12 2023-09-06 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
CN116597425B (zh) * 2023-05-24 2024-04-05 无锡车联天下信息技术有限公司 一种驾驶员的样本标签数据的确定方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
JPH10105310A (ja) * 1996-09-27 1998-04-24 Nissan Motor Co Ltd 身振り入力装置及びそれを含む入力装置
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2003150306A (ja) * 2002-11-14 2003-05-23 Toshiba Corp 情報表示装置とその方法
JP2005235142A (ja) * 2004-01-21 2005-09-02 Nomura Research Institute Ltd ユーザ間親密度測定システム及びユーザ間親密度測定プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912721A (en) 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
EP0866625A1 (de) * 1997-03-19 1998-09-23 Siemens Aktiengesellschaft Netz-SCP eines IN-Netzes
JP4578795B2 (ja) * 2003-03-26 2010-11-10 富士通テン株式会社 車両制御装置、車両制御方法および車両制御プログラム
JP4543694B2 (ja) * 2004-02-17 2010-09-15 富士ゼロックス株式会社 コミュニケーションシステム、コミュニケーションシステムのサーバー、及びサーバーの処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
JPH10105310A (ja) * 1996-09-27 1998-04-24 Nissan Motor Co Ltd 身振り入力装置及びそれを含む入力装置
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
US6677969B1 (en) * 1998-09-25 2004-01-13 Sanyo Electric Co., Ltd. Instruction recognition system having gesture recognition function
JP2003150306A (ja) * 2002-11-14 2003-05-23 Toshiba Corp 情報表示装置とその方法
JP2005235142A (ja) * 2004-01-21 2005-09-02 Nomura Research Institute Ltd ユーザ間親密度測定システム及びユーザ間親密度測定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"A real-time head nod and shake detector", PROCEEDINGS OF THE 2001 WORKSHOP ON PERCEPTIVE USER INTERFACES, vol. POSTER SESSION, JPN6010054922, 15 November 2001 (2001-11-15), US, pages 1 - 5, ISSN: 0001731710 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8475938B2 (en) 2008-04-30 2013-07-02 Konica Minolta Holdings, Inc. Organic electroluminescent element, lighting device and display device
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
JP2010076602A (ja) * 2008-09-26 2010-04-08 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
JP2013083731A (ja) * 2011-10-06 2013-05-09 Murata Mach Ltd 画像表示システム
US9684372B2 (en) 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
JP2018055264A (ja) * 2016-09-27 2018-04-05 株式会社デンソー ジェスチャ検出装置
WO2018061413A1 (ja) * 2016-09-27 2018-04-05 株式会社デンソー ジェスチャ検出装置
JP2019135601A (ja) * 2018-02-05 2019-08-15 Kddi株式会社 入力制御装置、入力制御方法及びプログラム
JP2019191648A (ja) * 2018-04-18 2019-10-31 富士通株式会社 動作判定プログラム、動作判定装置及び動作判定方法
JP2020052189A (ja) * 2018-09-26 2020-04-02 いすゞ自動車株式会社 表示制御装置及び表示制御方法
JP7459959B2 (ja) 2020-10-09 2024-04-02 日本電気株式会社 生体検知装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
CN100472557C (zh) 2009-03-25
US20070071321A1 (en) 2007-03-29
US7853051B2 (en) 2010-12-14
CN1940964A (zh) 2007-04-04
DE602006011992D1 (de) 2010-03-18
EP1770596B1 (en) 2010-01-27
EP1770596A1 (en) 2007-04-04
ATE456839T1 (de) 2010-02-15

Similar Documents

Publication Publication Date Title
JP2007094619A (ja) 認識装置および方法、記録媒体、並びに、プログラム。
US10083710B2 (en) Voice control system, voice control method, and computer readable medium
CN103383595B (zh) 基于用户人脸的分析控制移动终端的装置和方法
JP2019075162A (ja) 画像処理装置
US20150309569A1 (en) User interface control using gaze tracking
JPWO2017104207A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US9749494B2 (en) User terminal device for displaying an object image in which a feature part changes based on image metadata and the control method thereof
KR20200080050A (ko) 자세 교정을 위한 디스플레이 장치 및 그의 제어 방법
JP6144363B2 (ja) 3dビジュアルコンテンツの自動評価のための技術
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
WO2018139036A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2011186636A (ja) 情報処理装置および方法、並びにプログラム
JP2011089784A (ja) 物体方向推定装置
KR102330218B1 (ko) 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법
KR102314647B1 (ko) 이미지를 처리하는 방법, 디바이스 및 기록매체
US10069956B2 (en) Apparatus, method, and program product for performing an action in response to a movement
US20140078284A1 (en) Eye searching method and eye state detection apparatus and eye searching apparatus using the same
US10768699B2 (en) Presentation to user of indication of object at which another person is looking
US9449369B2 (en) Image processing apparatus and control method thereof
JP2010134489A (ja) 視線検出装置および方法、並びに、プログラム
CN110941344B (zh) 获取注视点数据的方法及相关装置
CN111095922B (zh) 电子设备及其操作方法
US20240104686A1 (en) Low-Latency Video Matting
JP4809869B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20240107086A1 (en) Multi-layer Foveated Streaming

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101130