JP5916566B2 - 情報システム - Google Patents

情報システム Download PDF

Info

Publication number
JP5916566B2
JP5916566B2 JP2012188463A JP2012188463A JP5916566B2 JP 5916566 B2 JP5916566 B2 JP 5916566B2 JP 2012188463 A JP2012188463 A JP 2012188463A JP 2012188463 A JP2012188463 A JP 2012188463A JP 5916566 B2 JP5916566 B2 JP 5916566B2
Authority
JP
Japan
Prior art keywords
gesture
user
reflected
target image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012188463A
Other languages
English (en)
Other versions
JP2014048680A (ja
Inventor
安本 貴史
貴史 安本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012188463A priority Critical patent/JP5916566B2/ja
Priority to US13/889,038 priority patent/US8922483B2/en
Publication of JP2014048680A publication Critical patent/JP2014048680A/ja
Application granted granted Critical
Publication of JP5916566B2 publication Critical patent/JP5916566B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • B60K2360/1464

Description

本発明は、ユーザのジェスチャーによる入力を受け付ける情報システムにおいて、入力を行った主体である操作者を識別する技術に関するものである。
ユーザのジェスチャーによる入力を受け付ける情報システムとしては、ユーザの手を撮影するカメラを設け、カメラで撮影した映像からユーザの手のジェスチャーを認識し、認識したジェスチャーに応じた処理を行うシステムが知られている(たとえば、特許文献1)。
また、情報システムにおいて、入力を行った主体である操作者を識別する技術としては、自動車に搭載された情報システムにおいて、運転席と助手席との間に配置した入力装置と、入力装置の上方より下方を撮影するカメラとを設け、カメラで撮影した操作者の腕の水平方向の向きより、操作者が運転席のユーザであるか助手席のユーザであるかを判別する技術が知られている(特許文献2)。
また、カメラで撮影した画像より手のジェスチャーを認識する技術としては、たとえば、カメラで撮影した手の画像から、当該画像中の手の領域や指の領域や、手の骨格の特徴や、伸びている指の本数などを認識する技術が知られている(特許文献3)。
特開2011-204019号公報 特開2009-294843号公報 特開2003-346162号公報
自動車に搭載される情報システムにユーザの手を撮影するカメラを設け、当該カメラで撮影した映像に基づいて、運転席のユーザと助手席のユーザとの双方の手によるジェスチャー入力を受け付ける場合には、前記カメラを自動車の前席の前方に配置し、当該カメラで略水平に後方を撮影することが望ましい。なぜならば、このようにすることにより、ユーザの前方に向けた手のジェスチャーを撮影画像に基づいて良好に識別することができ、かつ、このような前方に向けた手のジェスチャーは、ユーザにとって自然なジェスチャーであるからである。
一方、このような場合に、上述のように上方より下方を撮影するカメラを設け、カメラで撮影した操作者の腕の水平方向の向きより、操作者が運転席のユーザであるか助手席のユーザであるかを判別するものとすると、前方より後方にユーザの手を撮影するカメラの他に、上方より下方にユーザの腕を撮影するカメラが別途必要となる。
そこで、本発明は、ユーザの手をユーザの前方より撮影するカメラで撮影した撮影画像に基づいて、ユーザの手のジェスチャーに加え、入力を行った主体である操作者も識別えきるようにすることを課題とする。
前記課題達成のために、本発明は、前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えた情報システムに、前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部によって認識されたジェスチャーが写り込んでいる画像を対象画像として、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定する判定部と、前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が右側のユーザであると特定し、前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも左側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部とを備えたものである。
ここで、このような情報システムは、より具体的には、たとえば、前記判定部において、前記対象画像に写り込んでいる手の中心から、当該対象画像に写り込んでいる腕の幅方向の中央の点に向かう方向の角度に基づいて、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定するように構成してもよい。
また、前記課題達成のために、本発明は、前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えた情報システムに、前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部によって認識された手のジェスチャーが写り込んでいる画像以前に前記カメラに撮影された画像に基づいて、当該ジェスチャーが認識された手が前記カメラの撮影範囲に右側から登場したか左側から登場したかを調べ、右側から登場している場合には、当該ジェスチャーを行った主体が右側のユーザであると特定し、左側から登場している場合には、当該ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部とを備えたものである。
これらのような情報システムによれば、ジェスチャーを認識するために、前方を向いて左右に並んだ二人のユーザの前方に後方を撮影するように設けたカメラの他に、他のカメラやセンサを設けることなく、ジェスチャーの主体を判定することができるようになる。
ここで、以上の情報システムは、当該情報システムに、さらに、表示装置と、前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを設け、前記参照画像表示部において、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示するように構成してもよい。
このように参照画像を表示することにより、ジェスチャーを行うユーザは、ジェスチャーを行う自身の手で遮られることなく参照画像を視認でき、視認した参照画像より、自身の手が適正にカメラの撮影範囲内に位置しているかを把握することができるようになる。
また、以上の情報システムは、当該情報システムに、さらに、入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部を設け、前記制御部において、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないように構成してもよい。
このようにすることにより、操作者に応じて受け付ける操作を異ならせる場合に、最初にジェスチャー入力による操作を行った操作者と異なる操作者による操作を、最初にジェスチャー入力による操作を行った操作者による操作として受け付けてしまうことを排除することができる。
また、本発明は、併せて、前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラと、表示装置とを備えた情報システムであって、前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを備えた情報システムも提供する。ここで、前記参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示するものである。
このような情報システムによれば、ジェスチャーを行うユーザは、ジェスチャーを行う自身の手で遮られることなく参照画像を視認でき、視認した参照画像より、自身の手が適正にカメラの撮影範囲内に位置しているかを把握することができるようになる。
また、本発明は、併せて、前方を向いて左右に並んだ二人のユーザの前方に、後方を撮影するように配置されたカメラを備えた情報システムであって、前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部によって認識されたジェスチャーを行った主体が右側のユーザであるか、左側のユーザであるかを特定する操作ユーザ特定部と、入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部とを備えた情報システムを提供する。但し、前記制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないものである。
このような情報システムによれば、操作者に応じて受け付ける操作を異ならせる場合に、最初にジェスチャー入力による操作を行った操作者と異なる操作者による操作を、最初にジェスチャー入力による操作を行った操作者による操作として受け付けてしまうことを排除することができる。
なお、以上の各情報システムは自動車に搭載されたものであってよく、前記二人のユーザを、前記自動車の運転席に搭乗したユーザと前記自動車の助手席に搭乗したユーザとし、前記カメラを、前記運転席と前記助手席の前方の、前記運転席と前記助手席との左右方向について中央の位置に、後方を撮影するように配置するようにしてもよい。
以上のように、本発明によれば、ユーザの手をユーザの前方より撮影するカメラで撮影した撮影画像に基づいて、ユーザの手のジェスチャーに加え、入力を行った主体である操作者も識別することができる。
本発明の実施形態に係る情報システムの構成を示すブロック図である。 本発明の実施形態に係るジェスチャー入力受付処理を示すフローチャートである。 本発明の実施形態に係るジェスチャー主体の判定法を示す図である。 本発明の実施形態に係る表示装置の表示例を示す図である。 本発明の実施形態に係るジェスチャー主体の判定法を示す図である。
以下、本発明の実施形態について説明する。
図1aに、本実施形態に係る情報システムの構成を示す。
ここで、情報システムは、自動車に搭載されるシステムであり、当該情報システムは、たとえば、AVシステムやナビゲーションシステムなどを構成するものである。
そして、情報システムは、図示するように赤外カメラ1、赤外カメラ1で撮影した画像を格納する画像メモリ2、ジェスチャー認識部3、表示装置4、表示装置4に表示する画像を格納する表示メモリ5、制御装置6、1つまたは複数の周辺装置7を備えている。
ただし、このような情報システムは、CPUやメモリを備えたコンピュータを用いて構成されるものであってよく、この場合、制御装置6やジェスチャー認識部3などは、コンピュータが所定のコンピュータプログラムを実行することにより実現されるものであってよい。
ここで、表示装置4は、たとえば液晶表示装置であり、図1bに示すように、ダッシュボード上の、左右方向について運転席と助手席の中間の位置に配置される。
また、赤外カメラ1は、図1bに示すように、表示装置4の上部の、左右方向について中央の位置に、後方を撮影するように配置される。
また、後方を向いた赤外カメラ1で撮影した画像は、左右方向をユーザから見た左右方向に合わせるために、左右を反転して画像メモリ2に格納される。
次に、ジェスチャー認識部3は、当該ジェスチャー認識部3において認識対象とする手のジェスチャーの種別が予め登録されており、ジェスチャー認識部3は、画像メモリ2に格納された画像が表す赤外カメラ1の撮影映像より手のジェスチャーの種別を認識し、認識したジェスチャーの種別を認識ジェスチャーとして制御装置6に出力する。
ここで、本情報システムがAVシステムを構成するものであれば、周辺装置7は、放送受信機や、CD/DVDなどの記録ディスクを再生するディスクドライブや、スピーカを備えた音声出力装置などである。そして、制御装置6は、表示装置4に適当なGUI画面を表示しつつ、ジェスチャー認識部3から入力する認識ジェスチャーをユーザの操作として受け付けながら、放送受信機やディスクドライブの動作を制御する処理や、放送受信機で受信した音声やディスクドライブ装着された記録ディスクに記録されている音声を音声出力装置に出力する処理や、放送受信機で受信した映像や、ディスクドライブ装着された記録ディスクに記録されている映像を表示装置4に出力する処理などを行う。
また、情報システムがナビゲーションシステムを構成するものであれば、周辺装置7は、地図データを記憶した記憶装置や、GPS受信機や、自動車の車速や角速度を検出するセンサなどである。そして、制御装置6は、表示装置4に適当なGUI画面を表示しつつ、ジェスチャー認識部3から入力する認識ジェスチャーをユーザの操作として受け付けながら、現在位置の算出や、目的地の設定や、目的地までのルートの設定や、地図上に現在位置や目的地やルートを表したナビゲーション画像の表示装置4への表示や、ナビゲーション画像のスクロール表示などの処理を行う。
以下、このような動作を行うために制御装置6が実行するジェスチャー入力受付処理について説明する。
図2に、ジェスチャー入力受付処理の手順を示す。
図示するように、この処理では、まず、ジェスチャー入力待機モードをジェスチャー認識部3に設定する(ステップ202)。
ジェスチャー認識部3は、ジェスチャー入力待機モードが設定されている期間中には、入力開始ジェスチャーとして予め定めた種別のジェスチャーのみを認識対象としてジェスチャーの認識を行い、入力開始ジェスチャーを認識できたときに、認識ジェスチャーとして入力開始ジェスチャーを制御装置6に出力する。
ここで、本実施形態では、この入力開始ジェスチャーとしては、全ての指を開いた手(所謂、じゃんけんの「パー」)を用いる。すなわち、ジェスチャー入力待機モードにおいて、ジェスチャー認識部3は、赤外カメラ1によって、全ての指を開いた手の映像が撮影されたならば、これを認識し、認識ジェスチャーとして入力開始ジェスチャーを制御装置6に出力する。
そして、制御装置6は、ジェスチャー認識部3が入力開始ジェスチャーを認識し、認識ジェスチャーとして入力開始ジェスチャーが入力されたならば(ステップ204)、ジェスチャー入力モードをジェスチャー認識部3に設定する(ステップ206)。
ジェスチャー認識部3は、ジェスチャー入力モードが設定されている期間中には、予め登録されている認識対象とする手のジェスチャーの種別の全てを認識対象としてジェスチャーの認識を行い、認識したジェスチャーの種別を認識ジェスチャーとして制御装置6に入力する。
そして、次に、制御装置6は、認識された入力開始ジェスチャーの主体(ジェスチャーを行った者)が運転席のユーザであるのか、助手席のユーザであるのかを判定する(ステップ208)。
ここで、入力開始ジェスチャーの主体の判定は次のように行う。
すなわち、まず、画像メモリ2から、ジェスチャー認識部3が入力開始ジェスチャーを認識した画像を取得する。
そして、図3a、bに示すような取得した画像中に含まれる手の映像の、手の中心点301と、腕の幅方向についての中央点302とを算定する。
ここで、運転席は右座席であり、助手席は左座席であるものして、撮影された手が赤外カメラ1の左側に位置する助手席のユーザの手であれば腕は手より左にあり、撮影された手が赤外カメラ1の右側に位置する運転席のユーザの手であれば腕は手より右にあることとなる。
そこで、手の中心点301より腕の中央点302が左にある場合には、入力開始ジェスチャーの主体が助手席のユーザであると判定し、手の中心点301より腕の中央点302が右にあれば入力開始ジェスチャーの主体が運転席のユーザであると判定する。
すなわち、たとえば、図3a、bのように右方向を0度とし反時計回りに角度を測るものとして、図3aに示すように手の中心点301から腕の中央点302に向かう方向θが、0度から90度の間、270度から0度の間である場合には、入力開始ジェスチャーの主体が運転席のユーザであると判定する。また、図3bに示すように、θが90度から270度の間である場合に、入力開始ジェスチャーの主体が助手席のユーザであると判定する。
なお、図3a、bに示す画像は、上述のように赤外カメラ1で撮影した画像の左右を反転したものとなっており、画像の左右とユーザから見た左右は一致している。
ここで、手の中心点301の算定は、様々な手法で行うことができ、図3c1に示すように、ジェスチャー認識部3で手と認識した画像領域311の重心を手の中心点301としたり、図3c2に示すように、ジェスチャー認識部3で手のひらと認識した画像領域312、すなわち、手と認識した画像領域から指と認識した画像領域を除いた画像領域312の重心を手の中心点301としたりすることができる。
また、図3c3に示すように、ジェスチャー認識部3で手の骨格認識を行う場合には、認識した骨格313における中指の第3間接位置を手の中心点301としたり、図3c4に示すようにジェスチャー認識部3で手と認識した画像部分に外接する領域314の重心を手の中心点301としたり、図3c5に示すようにジェスチャー認識部3で手と認識した画像部分に外接する四角形315の中心を手の中心点301としたりすることができる。
また、腕の中央点302の算定は、図3c2に示すように、手の領域や指の領域に対して、腕が存在し得る領域内にある略平行な二つの直線状のエッジ321の直線と垂直な方向についての中間点を腕の中央点302として算定することができる。また、図3c3に示すように、ジェスチャー認識部3で腕を含めて骨格認識を行うようにして、腕の骨格322の腕の幅方向についての中点を、腕の中央点302として算定するようにすることもできる。
ここで、以上のように、赤外カメラ1で撮影されたジェスチャーの主体を判定することにより、ジェスチャーを認識するために設けた赤外カメラ1の他に、他のカメラやセンサを設けることなく、ジェスチャーの主体を判定することができるようになる。
さて、図2に戻り、以上のようにして、入力開始ジェスチャーの主体が運転席のユーザであるのか、助手席のユーザであるのかを判定したならば、(ステップ208)、入力開始ジェスチャーの主体が運転席のユーザであれば(ステップ210)、ステップ212以降の処理に進み、入力開始ジェスチャーの主体が助手席のユーザであれば(ステップ210)、ステップ232以降の処理に進む、
そして、入力開始ジェスチャーの主体が運転席のユーザであると判定されてステップ212に進んだならば、図4aに示すように、表示装置4の表示画面の運転席側(ユーザから見て右側)の位置に撮影画像表示ウインドウ402を小画面状に配置し、撮影画像表示ウインドウ402への赤外カメラ1で撮影された画像の表示を開始する。
また、図4aに示すように、表示装置4の表示画面上に予め定めた運転席のユーザ用の操作メニューを表示する(ステップ214)。ここで、図4aは、情報システムがナビゲーションシステムを構成している場合の表示装置4の表示例を示しており、この表示例では、上述したナビゲーション画像400の下方に、ナビゲーション画像の地図の拡大操作を一本指を立てるジェスチャーで受け付けることを示すメニュー411と、ナビゲーション画像の地図の縮小操作を二本指を立てるジェスチャーで受け付けることを表すメニュー412が表示されている。
そして、ジェスチャー認識部3における新たなジェスチャーの認識の発生(新たな認識ジェスチャーの入力の発生)と(ステップ216)、ジェスチャー入力モード解除イベントとの発生と(ステップ218)を監視する。
ここで、ジェスチャー入力モード解除イベントは、予め定められたイベントであり、所定期間以上の新たな認識ジェスチャーの入力の発生無しや、ジェスチャー入力を介してユーザと対話的に応じて行う一連の処理シーケンス(たとえば、ナビゲーションシステムにおける目的地設定処理シーケンスの終了や、AVシステムにおける再生コンテンツの指定受付処理シーケンスの終了など)の発生などをジェスチャー入力モード解除イベントとして用いる。
そして、ジェスチャー認識部3からの新たな認識ジェスチャーの入力が発生したならば(ステップ216)、上述のようにジェスチャー認識部3が認識したジェスチャーの主体を判定し(ステップ220)、主体が運転席のユーザでなければ(ステップ222)、ステップ216、218の監視に戻り、ジェスチャーの主体が運転席のユーザであれば、入力した認識ジェスチャーで受け付ける操作として予め定めておいた操作を受け付け、受け付けた操作に応じた処理を行って(ステップ224)、ステップ216、218の監視に戻る。
一方、ジェスチャー入力モード解除イベントが発生した場合には(ステップ218)、撮影画像表示ウインドウ402の表示を消去した上で(ステップ250)、ステップ202からの処理に戻る。
また、ステップ210で、入力開始ジェスチャーの主体が助手席のユーザであると判定されてステップ232に進んだ場合には、図4bに示すように、表示装置4の表示画面の助手席側(ユーザから見て左側)の位置に撮影画像表示ウインドウ402を小画面状に配置し、撮影画像表示ウインドウ402への赤外カメラ1で撮影された画像の表示を開始する。
また、図4bに示すように、表示装置4の表示画面上に予め定めた助手席のユーザ用の操作メニューを表示する(ステップ234)。ここで、図4bは、情報システムがナビゲーションシステムを構成している場合の表示装置4の表示例を示しており、この表示例では、上述したナビゲーション画像の下方に、上述した運転席のユーザ用のメニューに加え、目的地の設定処理の開始操作を三本指を立てるジェスチャーで受け付けることを示すメニューと413、その他のメニューの表示操作を4本指を立てるジェスチャーで受け付けることを表すメニュー414が表示されている。
そして、ジェスチャー認識部3における新たなジェスチャーの認識の発生(新たな認識ジェスチャーの入力の発生)と(ステップ236)、ジェスチャー入力モード解除イベントとの発生と(ステップ238)を監視する。
そして、ジェスチャー認識部3からの新たな認識ジェスチャーの入力が発生したならば(ステップ236)、上述のようにジェスチャー認識部3が認識したジェスチャーの主体を判定し(ステップ240)、主体が助手席のユーザでなければ(ステップ242)、ステップ236、238の監視に戻り、ジェスチャーの主体が助手席のユーザであれば、入力した認識ジェスチャーで受け付ける操作として予め定めておいた操作を受け付け、受け付けた操作に応じた処理を行って(ステップ244)、ステップ236、238の監視に戻る。
一方、ジェスチャー入力モード解除イベントが発生した場合には(ステップ238)、撮影画像表示ウインドウ402の表示を消去した上で(ステップ250)、ステップ202からの処理に戻る。
以上、制御装置6が行うジェスチャー入力受付処理について説明した。
さて、ここで、以上のジェスチャー入力受付処理のステップ212、232で、撮影画像表示ウインドウ402への赤外カメラ1で撮影された画像の表示を開始するのは、ユーザが、以降のジェスチャーを、赤外カメラ1に適正に手が写り込む位置で行えるようにするためである。このように、赤外カメラ1で撮影された画像を表示することにより、たとえば、手を左右に動かすジェスチャーをスクロール操作として受け付けるような場合に、ジェスチャー中にしだいに手が赤外カメラ1に適正に手が写り込む位置からずれていってしまうことなどを抑制することができる。
また、以上のジェスチャー入力受付処理のステップ212、232で、入力開始ジェスチャーの主体が運転席のユーザである場合には図4aに示すように表示装置4の表示画面の運転席側(ユーザから見て右側)の位置に撮影画像表示ウインドウ402を配置し、入力開始ジェスチャーの主体が助手席のユーザである場合には表示装置4の表示画面の助手席側(ユーザから見て左側)の位置に撮影画像表示ウインドウ402を配置するのは、このような配置によれば、図4c、dに示すように、ジェスチャーを行うユーザ自身の手によって、撮影画像表示ウインドウ402がユーザに対して遮られて、撮影画像表示ウインドウ402に表示される赤外カメラ1で撮影された画像が視認し難くなったり、視認できなくなってしまうことが避けられるからである。
なお、図4cは、入力開始ジェスチャーの主体、すなわち、以降のジェスチャーを行うユーザが運転席のユーザである場合を、図4dは、入力開始ジェスチャーの主体、すなわち、以降のジェスチャーを行うユーザが助主席のユーザである場合を示している。
また、以上のジェスチャー入力受付処理のステップ220-222、240-242で認識ジェスチャーの主体が、ジェスチャー入力モード設定時に認識した入力開始ジェスチャーの主体と異なる場合に、認識ジェスチャーに応じた操作を受け付けないのは、ジェスチャー入力を行う操作者に応じて受け付ける操作を異ならせる場合に、最初にジェスチャー入力による操作を行った操作者と異なる操作者による操作を禁止するためである。すなわち、このようにすることにより、たとえば、助手席のユーザの入力開始ジェスチャーに応答して表示する図4bに示す助手席のユーザ用の操作メニューに対する、運転席のユーザのジェスチャー入力による操作は、これを受け付けないようにすることができる。
また、以上のジェスチャー入力受付処理のステップ206、222、242の全てのステップまたはその一部のステップでは、ジェスチャーの主体の判定を次のように行うようにしてもよい。
すなわち、まず、画像メモリ2をFIFO形式とすることなどにより、画像メモリ2に常の過去十秒程度の間の赤外カメラ1で撮影された画像が常に蓄積されているようにする。そして、ジェスチャー認識部3でジェスチャーを認識しときに、ジェスチャーを認識した手が、過去において、左右のいずれ側から赤外カメラ1の撮影範囲内に登場しているかを画像メモリ2に格納されている過去の撮影画像を用いて調べ、図5aに示すように右から登場している場合には主体は運転席のユーザであると判定し、図5bに示すように左から登場している場合には主体は助手席のユーザであると判定するようにする。
以上、本発明の実施形態について説明した。
なお、以上の実施形態は、赤外カメラ1に代えて、可視光用のカメラを用いるようにしてもよい。
また、以上の実施形態は、任意の情報システムにおいて、左右に並んだ二人のユーザからジェスチャー入力を受け付ける場合にも同様に適用することができる。
1…赤外カメラ、2…画像メモリ、3…ジェスチャー認識部、4…表示装置、5…表示メモリ、6…制御装置、7…周辺装置、402…撮影画像表示ウインドウ。

Claims (10)

  1. 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えた情報システムであって、
    前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
    前記ジェスチャー認識部によって認識されたジェスチャーが写り込んでいる画像を対象画像として、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定する判定部と、
    前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が右側のユーザであると特定し、前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも左側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部とを有することを特徴とする情報システム。
  2. 請求項1記載の情報システムであって、
    前記判定部は、前記対象画像に写り込んでいる手の中心から、当該対象画像に写り込んでいる腕の幅方向の中央の点に向かう方向の角度に基づいて、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定することを特徴とする情報システム。
  3. 請求項1または2記載の情報システムであって、
    表示装置と、
    前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部とを有し、
    前記参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示することを特徴とする情報システム。
  4. 請求項1、2または3記載の情報システムであって、
    入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部とを有し、
    前記制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないことを特徴とする情報システム。
  5. 請求項1、2、3または4記載の情報システムであって、
    当該情報システムは自動車に搭載されており、
    前記二人のユーザは、前記自動車の運転席に搭乗したユーザと前記自動車の助手席に搭乗したユーザであり、
    前記カメラは、前記運転席と前記助手席の前方の、前記運転席と前記助手席との左右方向について中央の位置に、後方を撮影するように配置されていることを特徴とする情報システム。
  6. 前方を向いて左右に並んだ二人のユーザの前方の、左右方向中央の位置に、後方を撮影するように配置されたカメラを備えたコンピュータによって読み取られ実行されるコンピュータプログラムであって、
    前記コンピュータを、
    前記カメラで撮影された画像に写り込んだユーザの手のジェスチャーを認識するジェスチャー認識部と、
    前記ジェスチャー認識部によって認識されたジェスチャーが写り込んでいる画像を対象画像として、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定する判定部と、
    前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が右側のユーザであると特定し、前記判定部が、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも左側を撮影した位置であると判定した場合に、前記ジェスチャーを行った主体が左側のユーザであると特定する操作ユーザ特定部として機能させることを特徴とするコンピュータプログラム。
  7. 請求項6記載のコンピュータプログラムであって、
    前記判定部は、前記対象画像に写り込んでいる手の中心から、当該対象画像に写り込んでいる腕の幅方向の中央の点に向かう方向の角度に基づいて、当該対象画像に写り込んでいる腕の幅方向の中央の点が、当該対象画像に写り込んでいる手の中心よりも右側を撮影した位置であるか左側を撮影した位置であるかを判定することを特徴とするコンピュータプログラム。
  8. 表示装置を備えた、請求項6または7記載のコンピュータプログラムであって、
    当該コンピュータプログラムは前記コンピュータを、さらに、前記カメラで撮影された画像を参照画像として前記表示装置に表示する参照画像表示部として機能させ、
    当該参照画像表示部は、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が右側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の右側の位置に表示し、前記操作ユーザ特定部が、前記ジェスチャーを行った主体が左側のユーザであると判定した場合に、前記参照画像を前記表示装置の表示画面上の左側の位置に表示することを特徴とするコンピュータプログラム。
  9. 請求項6、7または8記載のコンピュータプログラムであって、
    当該コンピュータプログラムは前記コンピュータを、さらに、入力開始ジェスチャーとして予め定めた所定のジェスチャーが前記ジェスチャー認識部によって認識されるのを監視し、前記入力開始ジェスチャーが前記ジェスチャー認識部によって認識されたならば、前記ジェスチャー認識部によって認識されたジェスチャーである操作ジェスチャーを当該操作ジェスチャーに予め対応づけたユーザ操作として受け付け、受け付けたユーザ操作に応じた処理を実行する制御部として機能させ、
    当該制御部は、前記入力開始ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザと、前記操作ジェスチャーを行った主体として前記操作ユーザ特定部が特定したユーザとが異なるユーザである場合には、当該操作ジェスチャーをユーザ操作として受け付けないことを特徴とするコンピュータプログラム。
  10. 請求項6、7、8または9記載のコンピュータプログラムであって、
    前記コンピュータは自動車に搭載されており、
    前記二人のユーザは、前記自動車の運転席に搭乗したユーザと前記自動車の助手席に搭乗したユーザであり、
    前記カメラは、前記運転席と前記助手席の前方の、前記運転席と前記助手席との左右方向について中央の位置に、後方を撮影するように配置されていることを特徴とするコンピュータプログラム。
JP2012188463A 2012-08-29 2012-08-29 情報システム Active JP5916566B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012188463A JP5916566B2 (ja) 2012-08-29 2012-08-29 情報システム
US13/889,038 US8922483B2 (en) 2012-08-29 2013-05-07 Information system having centrally located camera and gesture recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012188463A JP5916566B2 (ja) 2012-08-29 2012-08-29 情報システム

Publications (2)

Publication Number Publication Date
JP2014048680A JP2014048680A (ja) 2014-03-17
JP5916566B2 true JP5916566B2 (ja) 2016-05-11

Family

ID=50186831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012188463A Active JP5916566B2 (ja) 2012-08-29 2012-08-29 情報システム

Country Status (2)

Country Link
US (1) US8922483B2 (ja)
JP (1) JP5916566B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5805503B2 (ja) * 2011-11-25 2015-11-04 京セラ株式会社 携帯端末、表示方向制御プログラムおよび表示方向制御方法
JP5882270B2 (ja) * 2013-08-29 2016-03-09 東芝テック株式会社 情報処理装置、プログラム
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
KR20150062317A (ko) * 2013-11-29 2015-06-08 현대모비스 주식회사 자동차의 통합 멀티미디어 장치
KR20150087544A (ko) * 2014-01-22 2015-07-30 엘지이노텍 주식회사 제스처 장치, 그 동작 방법 및 이를 구비한 차량
JP6401268B2 (ja) 2014-06-30 2018-10-10 クラリオン株式会社 非接触操作検出装置
JP2016095614A (ja) * 2014-11-13 2016-05-26 ソフトバンク株式会社 表示制御装置及びプログラム
JP6603024B2 (ja) * 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
CN104700132A (zh) * 2015-03-20 2015-06-10 周立成 机动车和驾驶员管理识别方法
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
JP6515028B2 (ja) * 2015-12-18 2019-05-15 本田技研工業株式会社 車両用操作装置
DE102016001314B4 (de) * 2016-02-05 2017-10-12 Audi Ag Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
JP6776067B2 (ja) * 2016-09-05 2020-10-28 東芝テック株式会社 操作入力装置及びプログラム
CN106778670A (zh) * 2016-12-30 2017-05-31 上海集成电路研发中心有限公司 手势识别装置及识别方法
US20190180883A1 (en) * 2017-12-11 2019-06-13 Teletracking Technologies, Inc. Milestone detection sensing
CN107998670A (zh) * 2017-12-13 2018-05-08 哈尔滨拓博科技有限公司 基于平面手势识别的遥控玩具控制系统
JP2019139633A (ja) * 2018-02-14 2019-08-22 京セラ株式会社 電子機器、移動体、プログラムおよび制御方法
EP3816584A4 (en) * 2018-06-26 2022-04-06 Kyocera Corporation ELECTRONIC DEVICE, MOBILE BODY, PROGRAM AND CONTROL METHOD
CN110850975B (zh) * 2018-11-08 2024-03-19 英属开曼群岛商麦迪创科技股份有限公司 具有手掌辨识的电子系统、车辆及其操作方法
KR102272309B1 (ko) * 2019-03-15 2021-07-05 엘지전자 주식회사 차량 제어 장치
JP7179334B2 (ja) * 2019-05-07 2022-11-29 コーデンシ株式会社 ジェスチャ認識装置及びジェスチャ認識装置用プログラム
WO2022157090A1 (en) * 2021-01-25 2022-07-28 Sony Semiconductor Solutions Corporation Electronic device, method and computer program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868383B1 (en) * 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
DE602004011907D1 (de) * 2003-03-10 2008-04-03 Koninkl Philips Electronics Nv Anzeige mit mehrfachen Ansichten
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
JP2009184551A (ja) * 2008-02-07 2009-08-20 Panasonic Corp 車載機器入力装置
JP5029470B2 (ja) * 2008-04-09 2012-09-19 株式会社デンソー プロンプター式操作装置
JP2009294843A (ja) 2008-06-04 2009-12-17 Tokai Rika Co Ltd 操作者判別装置及び操作者判別方法
US20110199292A1 (en) * 2010-02-18 2011-08-18 Kilbride Paul E Wrist-Mounted Gesture Device
JP2011204019A (ja) 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
JP2012121386A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 車載装置

Also Published As

Publication number Publication date
US8922483B2 (en) 2014-12-30
JP2014048680A (ja) 2014-03-17
US20140062858A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
JP5916566B2 (ja) 情報システム
US10496220B2 (en) Method and apparatus for controlling vehicular user interface under driving condition
US20150015479A1 (en) Mobile terminal and control method thereof
US11900672B2 (en) Integrated internal and external camera system in vehicles
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
WO2009116285A1 (ja) 車両用操作入力装置
JP6669240B1 (ja) 記録制御装置、記録制御システム、記録制御方法、および記録制御プログラム
CN103870802A (zh) 使用指谷操作车辆内的用户界面的系统和方法
US20140152549A1 (en) System and method for providing user interface using hand shape trace recognition in vehicle
US10061995B2 (en) Imaging system to detect a trigger and select an imaging area
CN112540739B (zh) 一种投屏方法及系统
CN113330395B (zh) 一种多屏交互的方法、装置、终端设备和车辆
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
WO2014045843A1 (ja) 画像処理システム、画像処理方法及びプログラム
KR20130107697A (ko) 내비게이션 단말기의 배경 화면 표시 장치 및 방법
US9983407B2 (en) Managing points of interest
WO2014175356A1 (ja) 情報処理システム、情報処理方法及びプログラム
US10771707B2 (en) Information processing device and information processing method
JP6589796B2 (ja) ジェスチャ検出装置
CN113994312A (zh) 通过手势识别和控制设备运行移动终端的方法、手势识别和控制设备、机动车及可佩戴在头上的输出装置
JPWO2007135865A1 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
CN111583669B (zh) 一种超速检测方法、装置、控制设备和存储介质
JP2013157787A (ja) 動画データ生成システム
WO2020113185A1 (en) Control system for a three dimensional environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160405

R150 Certificate of patent or registration of utility model

Ref document number: 5916566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150