JPWO2007088942A1 - 入力装置、及びその方法 - Google Patents

入力装置、及びその方法 Download PDF

Info

Publication number
JPWO2007088942A1
JPWO2007088942A1 JP2007556917A JP2007556917A JPWO2007088942A1 JP WO2007088942 A1 JPWO2007088942 A1 JP WO2007088942A1 JP 2007556917 A JP2007556917 A JP 2007556917A JP 2007556917 A JP2007556917 A JP 2007556917A JP WO2007088942 A1 JPWO2007088942 A1 JP WO2007088942A1
Authority
JP
Japan
Prior art keywords
unit
image
display
body shape
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007556917A
Other languages
English (en)
Other versions
JP5201999B2 (ja
Inventor
山下 敦士
敦士 山下
智裕 寺田
智裕 寺田
卓哉 平井
卓哉 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2007556917A priority Critical patent/JP5201999B2/ja
Publication of JPWO2007088942A1 publication Critical patent/JPWO2007088942A1/ja
Application granted granted Critical
Publication of JP5201999B2 publication Critical patent/JP5201999B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

前方の画面を見ながら手元で簡便にタッチパネルを操作できる入力装置において、手形状の検知やジェスチャの検知の精度を高める。機器に対して命令や情報を入力するための入力装置であって、ユーザの身体形状情報を取り込む身体形状入力部と、ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成部と、表示画像に対応する操作面を有する操作部と、身体形状入力部が取得した身体情報から操作面に対応する部分を抽出して身体画像を作成する身体形状抽出部と、表示情報作成部が作成した表示画像と身体形状抽出部が作成した身体画像を合成する画像合成部と、画像合成部が合成した画像を表示する表示部とを備える。

Description

本発明は、ユーザが機器に対して命令や情報を入力するための入力装置、及びその方法に関し、より特定的には、ディスプレイ等に表示された情報をもとにユーザが手などの身体を用いて命令や情報を入力することのできる入力装置、及びその方法に関する。
従来、ディスプレイ等の表示画面に表示された情報をもとにユーザが指などを用いて命令や情報を入力する入力装置として、例えば特許文献1や特許文献2に示す装置がある。この装置は、タッチパネル操作面を格子マトリックス状のスキャン手段またはカメラで撮像し、取得したデータから手形状部分を抽出して、ディスプレイに表示されるGUI(Graphical User Interface)などに合成して表示する内容を含んでいる。このような構成により、ユーザは、表示画面とは離れた位置に設置されているタッチパネル上に運転中の視線を一度移動させて目視することなく、表示画面に仮想的に表示された操作指の映像を見ながら、命令や情報を入力することができる。
一方で、特許文献1や2に記載された装置を用いて、カメラで撮影した画像からパターンマッチングによりユーザの手形状を取得し、手形状であることを認証したうえでユーザの操作を許可することや、ユーザの手形状や手の位置の時間変化パターンであるジェスチャを検知して、ユーザの入力を解釈することが考えられる。
特開平9−77622号公報 特開2000−6687号公報
しかしながら、前述のような従来の入力インターフェースには以下のような欠点がある。特許文献1または2に示された装置においてユーザの手形状またはジェスチャをパターンマッチングによって検知するためには、手が撮像範囲である操作面内におさまっている必要がある。例えば、ユーザから見て手前の操作面を操作する間は、指の付け根より手前側が撮像範囲内に入らないため、手として認識されない。これでは、手であることを認識した上で何らかの操作を許可する、といった処理ができない。
また、手を左右に振ることによって直前の操作をキャンセルする、といった直感的なジェスチャによる操作を導入しても、常にユーザは手が操作面内にあることを意識しながらジェスチャをしなければならず、使いやすいインターフェースを構築できない。
本発明は上記問題に鑑みてなされた。すなわち、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することを目的とする。
上記目的を達成するために、本発明は以下の構成を採用した。
本発明の第1の局面は、ユーザが機器に対して命令や情報を入力するための入力装置に向けられている。本発明は、ユーザの身体形状情報を取り込む身体形状入力部と、ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成部と、表示画像に対応する操作面を有する操作部と、身体形状入力部が取得した身体情報から操作面に対応する部分を抽出して身体画像を作成する身体形状抽出部と、表示情報作成部が作成した表示画像と身体形状抽出部が作成した身体画像を合成する画像合成部と、画像合成部が合成した画像を表示する表示部とを備える。
これにより、撮像される画像情報を、操作部の範囲よりも広くすることができる。そのため、操作部が比較的狭い場合においても、広い範囲の画像情報を身体部分の形状の検知やその動きの検知に用いることができ、これらの検知の精度を高めることができる。
また、表示情報作成部は、身体形状抽出部が検出した操作面に対応する部分より広い範囲の身体情報により表示画像を作成することが好ましい。
これにより、操作面に対応するユーザの身体の一部しか画像合成により表示画面に表示されない場合においても、操作面より広い範囲の身体情報から表示画像を作成するので、ユーザの操作状況を適切に反映した表示インターフェースとすることができる。具体的にはGUI部品の配置、形状をユーザの操作状況に合わせて最適にすることが可能となる。
また、身体形状抽出部は、予め保持しておいた身体部分の形状パターンを用いたパターンマッチングによって、身体形状入力部から出力される画像データから検出された形状が身体部分の形状であるか否かを判定することが好ましい。
これにより、検出された形状が身体部分の形状であるか否かをより正確に判定することができるので、判定結果に応じた任意の制御が可能となる。また画像データは操作部の範囲にとどまらないので、身体部分が操作部をはみ出していても検出対象とすることができる。
また、身体形状抽出部は、形状パターンに基づいて、身体形状入力部から出力される画像データから検出された身体部分の形状を補正することが好ましい。
これにより、例えば爪にマニキュアを塗っていた場合など、画像認識によって得られた身体部分の形状の一部が欠けている場合でも、違和感のない身体画像を表示することができる。
また、操作部の所定位置には、形状補正処理で利用される目印が付されており、身体形状抽出部は、身体形状入力部から出力された画像データ中の目印の位置が表示部の画面上の所定位置に変換されるように形状補正処理を行うことが好ましい。
これにより、カメラと操作部の相対位置に左右されずに、違和感のない身体画像を生成することができる。
また、画像合成部は、表示画像と身体画像を合成するときに、身体画像の輪郭内部の透明度を変化させることが好ましい。
これにより、身体画像を表示することによって表示情報が隠れてしまうことを回避できる。
また、画像合成部は、表示画像と身体画像を合成するときに、身体画像の輪郭を強調することが好ましい。
これにより、身体画像を表示することによって表示情報が隠れてしまうことを回避できる。
また、画像合成部は、表示画像と身体画像を合成するときに、身体画像におけるユーザの指先部分を検出し、指先部分を強調することが好ましい。
これにより、入力操作に大きく関わる指先部分にユーザの注意を向けることができる。
また、画像合成部は、表示画像と身体画像を合成するときに、身体画像によって隠れる表示画面中の表示情報を、身体画像によって隠れない領域にポップアップ表示させることが好ましい。
これにより、ユーザは、身体画像を表示することによって隠れてしまった表示情報も確認することができる。
また、画像合成部は、表示画像と身体画像を合成するときに、身体画像によって隠れてしまう表示画像中の情報を、身体画像よりも前面に表示させることが好ましい。
これにより、ユーザは、身体画像を表示することによって隠れてしまった表示情報も確認することができる。
また、身体形状抽出部は、身体形状入力部が取得した情報に基づいて検出した形状が、身体部分の形状かどうかを判断するものであり、表示情報作成部は、身体形状抽出部の判断結果に応じて、作成する表示画像を変更することが好ましい。
これにより、身体部分が検出されない場合には、ユーザが操作を行う意志がないと判断し、操作の補助となる表示処理を行わないようにして、必要な情報のみを表示することができる。
また、表示情報作成手段は、身体形状抽出部において検出された身体部分の形状が右手または左手のものの場合にのみ表示画像を作成することが好ましい。
これにより、身体部分の形状が右手または左手が検出されない場合にはGUI部品を目立たないように表示することで、GUI部品以外の表示情報を見やすくしたり、その情報量を増やしたりすることができる。また、例えば操作部が車の運転席と助手席の間に設置されている場合に、助手席にいるユーザが操作部の左側から右手を用いて入力操作をしている場合にのみ表示情報を表示し、運転席にいるユーザが操作部の右側から左手を用いて入力操作をしている場合には表示情報を表示しないといった制御が可能である。
また、表示情報作成部は、身体形状抽出部において身体部分の形状が検出された場合に、検出された身体部分の形状に基づいて表示画像中のGUI部品を強調表示、もしくは当該GUI部品の位置を変更、及び/又は当該GUI部品の有効性を変更することが好ましい。
これにより、ユーザが操作部の右側(または左側)から入力操作をしている場合にのみ、GUI部品を強調したり、GUI部品を有効にしたり、GUI部品が無効化されていることを表示したりすることができる。また、ユーザの位置に合わせてGUI部品の位置を入力操作のしやすい位置に変更することができる。
また、表示情報作成部は、複数の表示領域からなる表示画像を作成し、画像合成部は、表示画像と身体画像を合成するときに、当該身体画像におけるユーザの指先部分を検出し、当該指先部分が存在する表示領域に限定して身体形状を合成することが好ましい。
これにより、ユーザが操作対象としていない画面には身体形状を合成表示しないので、操作対象でない画面の表示を妨げることがない。
また、表示情報作成部は、複数の表示領域からなる表示画像を作成し、画像合成部は、表示画像と身体画像を合成するときに、現在の表示対象となる領域に身体形状を縮小して合成することが好ましい。
これにより、ユーザが操作対象としていない画面には身体形状を合成表示しないので、操作対象でない画面の表示を妨げることがない。
本発明の第2の局面は、機器に対して命令や情報を入力するための入力方法に向けられている。本発明は、ユーザの身体形状情報を取り込む身体形状入力ステップと、ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成ステップと、身体形状入力ステップで取得した身体情報から表示画像に対応する部分を抽出して身体画像を作成する身体形状抽出ステップと、表示情報作成ステップで作成した表示画像と身体形状抽出ステップで作成した身体画像を合成する画像合成ステップと、画像合成ステップが合成した画像を表示する表示ステップとを備える。
これにより、撮像される画像情報を、操作部の範囲よりも広くすることができる。そのため、操作部が比較的狭い場合においても、広い範囲の画像情報を身体部分の形状の検知やその動きの検知に用いることができ、これらの検知の精度を高めることができる。
また、表示情報作成ステップは、身体形状抽出ステップで検出した表示画像に対応する部分より広い範囲の身体情報により表示画像を作成することが好ましい。
これにより、操作面に対応するユーザの身体の一部しか画像合成により表示画面に表示されない場合においても、操作面より広い範囲の身体情報から表示画像を作成するので、ユーザの操作状況を適切に反映した表示インターフェースとすることができる。具体的にはGUI部品の配置、形状をユーザの操作状況に合わせて最適にすることができる。
以上説明したように、本発明によれば、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することができる。
図1は、本発明の一実施形態にかかる入力装置の概念図である。 図2は、入力装置の構成を示すブロック図である。 図3は、車内における入力装置の設置例である。 図4は、車内における入力装置の設置例である。 図5は、車内における入力装置の設置例である。 図6は、車内における入力装置の設置例である。 図7は、身体形状入力部100の設置例である。 図8は、身体形状入力部100の設置例である。 図9は、身体形状入力部100と操作部300を一体的に構成した例である。 図10は、身体形状入力部100を操作部300の下方に設置した例の側面図である。 図11は、身体形状入力部100を操作部300の下方に設置した例の上面図である。 図12は、身体形状抽出部600の処理の流れを示すフローチャートである。 図13は、身体形状抽出部600で処理される画像データの例である。 図14は、身体形状抽出部600で抽出される身体領域607の例である。 図15は、身体形状抽出部600で抽出される輪郭609の例である。 図16は、形状補正処理の一例を示す図である。 図17は、形状補正処理の一例を示す図である。 図18は、身体形状抽出部600で作成される身体画像の例である。 図19は、操作部300の一例である。 図20は、ユーザによる操作方法の一例である。 図21は、操作部300の一例である。 図22は、身体画像を表示するための制御部500の処理の流れを示すシーケンス図である。 図23Aは、身体形状が検出されていない場合に表示情報作成部700によって作成される表示情報の例である。 図23Bは、身体形状が検出された場合に表示情報作成部700によって作成される表示情報の例である。 図24Aは、身体形状が検出されていない場合に表示情報作成部700によって作成される表示情報の例である。 図24Bは、身体形状が検出された場合に表示情報作成部700によって作成される表示情報の例である。 図25Aは、右手が検出された場合に表示情報作成部700によって作成される表示情報の例である。 図25Bは、左手が検出された場合に表示情報作成部700によって作成される表示情報の例である。 図26Aは、比較的大きい手が検出された場合に表示情報作成部700によって作成される表示情報の例である。 図26Bは、比較的小さい手が検出された場合に表示情報作成部700によって作成される表示情報の例である。 図27Aは、画像合成部800によって合成された画像例である。 図27Bは、画像合成部800によって合成された画像例である。 図27Cは、画像合成部800によって合成された画像例である。 図27Dは、画像合成部800によって合成された画像例である。 図27Eは、画像合成部800によって合成された画像例である。 図27Fは、画像合成部800によって合成された画像例である。 図27Gは、画像合成部800によって合成された画像例である。 図27Hは、画像合成部800によって合成された画像例である。 図28は、ユーザによる入力操作が検知されたときの制御部500の処理の流れを示すシーケンス図である。 図29Aは、ユーザによる入力操作があった時に表示情報作成部700によって作成される表示情報の例である。 図29Bは、ユーザによる入力操作があった時に表示情報作成部700によって作成される表示情報の例である。 図30Aは、身体形状を合成表示する部分を,操作対象とする範囲のみに限定した場合の表示例である。 図30Bは、身体形状を,操作対象とする範囲に縮小して合成表示した場合の表示例である。
符号の説明
1 カメラ
2 ディスプレイ
3 GUI部品
4 タッチパッド
6 手
7 手画像
100 身体形状入力部
110 光源
120 ミラー
130 筐体
140 可視光カットフィルター
150 受光部
160 発光部
171 感度範囲
200 表示部
300 操作部
400 演算部
500 制御部
600 身体形状抽出部
700 表示情報作成部
800 画像合成部
1000 入力装置
以下、本発明の実施形態について図面を用いて詳細に説明する。
図1は、本発明の実施形態に係る入力装置の概念図である。図1において、ユーザの手元に操作用のタッチパッド4が設置され、ユーザから離れた位置にディスプレイ2が設置されている。タッチパッド4の上方にはカメラ1が設置されている。ディスプレイ2には、ユーザが所望の命令や情報を入力するための1つ以上のGUI部品3が表示されている。
タッチパッド4の操作面の各点は、ディスプレイ2の表示画面の各点と一対一で対応しており、ユーザがタッチパッド4の操作面のある点を指で押すと、その接触位置を示す座標データ(絶対座標データ)がタッチパッド4から制御部へと出力され、この座標データに基づいて、その接触位置に対応するGUI部品3が特定され、そのGUI部品3に関連付けられた命令や情報が入力される。
ユーザがGUI部品3を選択するためにタッチパッド4上に手6を移動させると、タッチパッド4を背景に含むようにして手6の画像がカメラ1によって撮像される。制御部は、カメラ1から出力された画像データから、パターンマッチングの手法により手6の形状やジェスチャを認識する。その後、タッチパッド4に対応する部分だけを抽出し、抽出した手6の画像をスーパーインポーズによってディスプレイ2に手画像7として表示する。即ち、手6の形状やジェスチャの検出には撮像された画像全体を用い、ディスプレイ2への表示にはタッチパッド4に対応する部分のみを用いる。
ユーザは、ディスプレイ2に表示された手画像7を見ながら、手画像7の指先が所望のGUI部品3上に来るように手6を移動させてからタッチパッド4を押す。するとその接触位置に対応するGUI部品3(すなわち、手画像7の指先に位置するGUI部品3)に関連付けられた命令や情報が入力される。
また、本発明の入力装置では、ユーザが指をタッチパッド4の操作面から少し浮かしている状態でも手画像7が画面に表示されるため、ユーザは、タッチパッド4に指を実際に接触させてスライドさせてみることなしに、現在の指の位置が画面上のどの位置に対応しているのかを確認することができる。よって、タッチパッド4を一押しするだけという単純かつ素早い入力操作が可能となる。
なお、ここではタッチパッド4から座標データが出力されるとしたが、後述するように、タッチパッド4は、必ずしも接触位置の座標データを出力する機能を備えている必要はなく、単にユーザがタッチパッド4を押したかどうかだけを検出するものでも構わない。この場合、カメラ1で撮像された画像から指先の位置が検出され、検出された指先の位置からユーザがどのGUI部品3を選択したかが判断されればよい。
以下、入力装置についてより詳細に説明する。
図2は、入力装置の構成を示すブロック図である。図2において、入力装置1000は、身体形状入力部100、表示部200、操作部300、及び演算部400を備える。演算部400は、演算部400全体を制御する制御部500、身体形状入力部100の出力を処理して身体形状を抽出する身体形状抽出部600、ユーザによる命令や情報の入力に必要となる表示情報(すなわちGUI部品3を含む画像)を作成する表示情報作成部700、及び操作部300を操作するユーザの身体部分を表す画像と表示情報作成部700によって作成された表示情報とを合成する画像合成部800を備える。以下、各部の構成について詳細に説明する。
(身体形状入力部100)
まず、身体形状入力部100について説明する。身体形状入力部100は、ユーザが操作に用いる手など身体部分の形状と位置を装置に入力するための手段である。身体形状入力部100としてカメラを用いた例について、図3〜図11を参照しながら説明する。
身体形状入力部100としては、例えば可視光カメラ、近赤外カメラ、赤外線カメラ、及び/又は超音波カメラを利用することができる。身体形状入力部100は、操作部300を撮影することのできる位置に配置され、操作部300を撮影してその画像データを出力する。ユーザが操作部300を手6で操作しているときには、身体形状入力部100によって撮影される画像に手6が含まれることとなる。身体形状入力部100は、好ましくは、操作部300の操作面の中央を通る法線上に配置され、且つレンズの光軸が法線と平行になるように設置される。
身体形状入力部100が可視光カメラの場合には、夜間でも手6が明瞭に撮影されるように、可視光を照射する光源110を設けることが好ましく、また、身体形状入力部100から出力された画像データから手の形状を抽出し易くするために、操作部300の操作面は均一色であるのが好ましく、特に黒や青であるのが好ましい。
身体形状入力部100が近赤外カメラの場合には、常に手6が明瞭に撮影されるように、近赤外光を照射する光源110を設けることが好ましく、また、操作部300の操作面は黒であるのが好ましい。
また、身体形状入力部100から出力された画像データから手の形状を抽出し易くするためにも、操作部300や操作中の手6に日光、車のヘッドライト、及び街灯等が直接照射されない様にするのが好ましい。
図3〜図6を用いて車内における設置例を説明する。図3は第1の設置例を示している。この設置例では、操作部300がセンターコンソールの延長上であって、運転者が肘置きに肘をおいた状態で操作できるような位置に設置される。身体形状入力部100は、操作部300が撮像できる位置に設置される。身体形状入力部100は、操作部300の法線上であるBの位置(車両の天井など)に設置されるのが好ましいが、Bの位置よりも前方(Aの位置)にあるマップランプやルームミラーに組み込まれていても良い。また、Bの位置よりも後方(Cの位置)にあるルームランプユニットに組み込まれていてもよい。
なお、図3のAの位置やCの位置のように、操作部300の操作面に対して斜め方向(すなわち垂直方向とは異なる方向)に身体形状入力部100が設置される場合には、身体形状入力部100によって撮像された手6の形状が、操作面に対して垂直な方向から見たときの手6の形状とは異なる可能性があり、手画像7を作成する際に後述する視点変換処理(操作面に対して斜め方向から見た画像を、操作面に対して垂直方向から見た画像に変換する画像処理)が必要となる場合がある。
図4は第2の設置例を示している。この設置例では、操作部300がステアリングの中央部に斜め上向きに設置される。身体形状入力部100は、操作部300が撮像できる位置(車両の天井など)に設置される。この場合、身体形状入力部100によって撮影される画像はステアリングの蛇角に応じて回転することになるが、身体形状入力部100から出力される画像データを補正することによって、この回転による影響を除去することができる。画像データの補正方法の一例として、ステアリングの蛇角を検出する手段を設けて、検出された蛇角に応じて画像データに回転処理が施されてもよい。また、他の例として、操作部300の操作面に1つ以上の基準となる目印を付しておき、画像データからこの目印の位置を検出することによってステアリングの蛇角を検出し、検出された蛇角に応じて画像データに回転処理が施されてもよい。
図5は第3の設置例を示している。この設置例では、操作部300が運転席のドアの内側であって、運転者が肘置きに肘をおいた状態で操作できるような位置に設置される。身体形状入力部100は、操作部300が撮像できる位置(車両の天井など)に設置される。
図6は第4の設置例を示している。この設置例では、操作部300が後部座席の中央にある肘掛け上に設置される。身体形状入力部100は、操作部300が撮像できる位置(車両の天井やルームランプ)に設置される。
図3〜図6の例では、身体形状入力部100を車両の天井等、操作部300から離れた位置に設置しているが、身体形状入力部100と操作部300とを一体的に構成することも考えられる。以下、図7〜図9を参照して、身体形状入力部100と操作部300とを一体的に構成した例を説明する。
図7は、操作部300の上方の所定位置に身体形状入力部100を設置した例を示している。身体形状入力部100の近傍に必要に応じて光源110が設置されてもよい。光源110は、身体形状入力部100が色画像を作成するものであれば可視光源で有る必要があるが、身体形状入力部100が白黒画像を作成するものであれば近赤外光源でもよい。
図8は、操作部300の上方の所定位置にミラー120を設置し、このミラー120に映る操作部300および手6を身体形状入力部100が撮像するようにした例である。
図7や図8のような構成を実現するには、例えば図9のような筐体130を用いて操作部300に対する身体形状入力部100の相対位置が固定されればよい。
このように身体形状入力部100と操作部300とを一体的に構成することにより、身体形状入力部100の光軸調整が簡単になるという利点がある。また、操作部300を図9のような筐体130で遮蔽することにより、外部からの光(太陽光など)が操作部300に当たりにくくなるという利点もある。
図3〜図9の例では、操作部300および手6を上方(すなわち操作部300の操作面側)から身体形状入力部100で撮像しているが、操作部300および手6を下方(すなわち操作部300の操作面とは反対の面側)から身体形状入力部100で撮像することも考えられる。以下、図10および図11を参照して、身体形状入力部100で操作部300を下方から撮像するようにした構成例を説明する。
図10は、操作部300として透明なタッチパネルを採用し、その下方に身体形状入力部100と光源110を設置した例である。図11は、図10において操作部300を上方から見た図である。この例ではタッチパネルの下側の面に重ねて可視光カットフィルター140が配置されている。また、光源110は近赤外光を照射するものであり、身体形状入力部100は近赤外光に感度のある撮像装置である。
(身体形状抽出部600)
次に、身体形状抽出部600について説明する。身体形状抽出部600は、身体形状入力部100の出力に基づいて身体形状データを抽出する。身体形状データとは、例えばユーザが操作部300の操作面に載せている(操作面から浮いていても良い)身体部分(すなわち手や足など)の形状とその位置を示すデータである。
図12は、身体形状抽出部600による身体形状抽出処理の流れを示すフローチャートである。
身体形状抽出部600は、まず身体形状入力部100(ここではカメラ)から出力された画像データをフレームメモリに取り込む(ステップS602)。図13は、フレームメモリに取り込まれた画像データの一例を示している。図13の画像データ601において、603は操作部300の操作面であり、605はユーザの手6である。
続いて身体形状抽出部600は、ステップS602でフレームメモリに取り込んだ画像データから、図14のようにユーザの身体(ここでは手6)に対応する領域を身体領域607として抽出する(ステップS604)。画像データから身体領域を抽出する方法としては、例えば以下の方法が考えられる。
第1の抽出方法は、背景差分法である。背景差分法では、まず、身体形状入力部100と操作部300との間に何も存在しない状態で身体形状入力部100によって操作部300を撮影し、その結果を背景画像データとして記憶しておく。そして、身体形状入力部100から出力された画像データと背景画像データとを画素毎またはブロック毎に比較し、両者間で異なる部分を身体領域として抽出する。背景差分法は、操作部300の操作面を単一色にする必要が無いという点で有利である。なお、背景画像データは、予めメモリーに記憶しておいても良いし、身体形状入力部100から出力される画像データが一定時間以上変化しなかった場合にその画像データを背景画像データとして記憶するようにしても良い。
第2の抽出方法は、輝度閾値法である。輝度閾値法では、身体形状入力部100から出力された画像データの各画素の輝度値を所定の閾値と比較することによって身体領域を抽出する。よって、身体形状入力部100から出力された画像データにおいて、手6の部分と操作部300の操作面の部分との輝度差が大きくなるように、操作部300の操作面を黒ないし黒に近い色とし、且つ操作面につや消し処理を施して光の反射を極力無くすことが好ましい。閾値は、身体形状入力部100から出力される画像データにおいて操作部300に対応するいずれの画素の輝度値よりも大きい値に設定される。このようにして設定された閾値よりも高い輝度値を有する領域を抽出することにより、身体領域を抽出することができる。なお、夜間など暗い場合にも安定した身体領域の抽出を行うためには、身体形状入力部100の画角の範囲に可視光や近赤外光を照射するなどして、身体領域が閾値よりも明るく映るようにする必要がある。
しかし、操作部300の操作面には必ずしもユーザの身体部分が載せられるとは限らず、例えば荷物などが載せられる場合もある。この場合、荷物が身体部分として認識されてしまうため、表示部200に荷物の画像が表示されてしまい、表示情報の表示の妨げとなってしまう。そこで、ステップS606で抽出された形状が身体部分の形状かどうかを判定し、身体部分でなければ以降の処理を行わないようにすれば、このような問題を回避することができる。ステップS606で抽出された形状が身体部分の形状かどうかを判定するには、身体部分の形状パターンを予め保持しておき、ステップS606で抽出された形状をこの形状パターンと比較(パターンマッチング)すればよい。なお、このパターンマッチングの結果を制御部500に通知することによって、ステップS606で抽出された形状が身体部分の形状だと判明した場合にだけ操作部300による入力操作を有効にしてもよい。これにより、操作部300の操作面に載せられた荷物などによる誤動作を防止することができる。
ところで、ユーザが爪に操作部300の操作面と同一の色のマニキュアを塗っていた場合などには、ステップS606において、爪の部分が欠けたような手の形状が検出されることになるが、上記のような形状パターンを用意しておけば、この形状パターンを参照して、検出された身体部分の形状において部分的に欠けた部分を補完するができる。
身体領域の抽出が完了すると、次に身体形状抽出部600は、ステップS604で抽出した身体領域607に基づいて、図15に示すようにその輪郭609を抽出する(ステップS606)。この輪郭抽出処理は、身体領域607に含まれる画素の中から、身体領域607以外の領域の画素と接している画素を抽出することにより行われる。より具体的には、身体領域607に含まれる全ての画素の中から、その上下左右の4近傍画素(もしくは注目画素の右上・左上・右下・左下の画素をさらに加えた8近傍画素)の中に身体領域607以外の領域の画素が含まれているような画素を抽出する。なお、必要に応じて、抽出した輪郭609に平滑化処理を施してもよい。平滑化処理を行うことにより、輪郭609に生じるエイリアシングを解消することができる。
次に、身体形状抽出部600は、形状補正処理を行う(S608)。形状補正処理では、身体形状入力部100から出力された撮像範囲の画像データおよび身体形状の輪郭609のうち、操作範囲にかかわる領域のみを抽出する。つづいて抽出された画像データについて、カメラレンズの歪み補正処理や視点変換処理やその他の補正処理を行う。
撮像範囲に含まれる操作範囲については、身体形状入力部100と操作部300の設置方法によって決定される。その取得方法としては、例えば事前に(身体部分が撮像範囲に写っていない状態で)、操作部300の四隅などにマーカーを設置しておき、それらを輝度閾値法によって判別し、その位置を記憶しておけばよい。実際の操作時には、記憶しておいた操作範囲に従って操作範囲以外の領域を除去することで抽出が完了する。
カメラレンズの歪み補正処理は、特に身体形状入力部100で広角レンズを用いた場合に、レンズの歪曲収差データを用いて補正するものである。よって、身体形状入力部100で歪みの小さいレンズ(例えば標準レンズや望遠レンズ)を用いた場合にはカメラレンズの歪み補正は不要である。
視点変換処理は、設置位置の制約などで所望の視点(本実施例の場合は、操作部300の真上方向からの視点)に身体形状入力部100を設置できなかった場合に行うものである。視点変換技術は周知の技術である。図16および図17を参照して、視点変換処理の例を説明する。
図16は、身体形状入力部100が図3の位置Aのような位置に設置されている場合に適用される視点変換処理の例である。身体形状入力部100から出力された画像データ601における操作部300の4隅(a、b、c、d)が、表示部200の画面の4隅に対応する位置となるように画像が引き延ばされる。このとき、身体形状入力部100と操作部300の相対位置が固定であれば、画像データ601における操作部300の4隅(a、b、c、d)の位置も固定であるため、これら4隅の位置をその都度検出しなくても図16のような視点変換処理を施すことが可能である。しかし、身体形状入力部100と操作部300の相対位置が固定でない場合には、身体形状入力部100から出力された画像データ601から操作部300の4隅の位置を検出する必要がある。この場合、操作部300の4隅に何らかの目印を付けておけば、4隅の位置をより正確に検出することができる。なお、操作部300の操作面内の任意の領域を表示部200の画面に対応させることもできる。この場合にも、その任意の領域の4隅に基準となる目印を付けておけば、その4隅が表示部200の画面の4隅に対応する位置となるように画像を引き延ばすことができる。
図17は、身体形状入力部100が図4の位置に設置されている場合に適用される視点変換処理の例である。図4の例では操作部300がステアリングとともに回転するため、ステアリングの回転に応じて、身体形状入力部100から出力された画像データ601内の操作部300も回転することとなる。この場合も、身体形状入力部100から出力された画像データ601における操作部300の4隅(a、b、c、d)が検出され、これらの4隅が、表示部200の画面の4隅に対応する位置となるように画像が引き延ばされる。
なお、ステップS608では、必要に応じて、カメラレンズの歪み補正処理や視点変換処理以外の形状補正処理も行われる。例えば、身体形状入力部100から出力された画像データの解像度およびアスペクト比を、表示部200の画面の解像度およびアスペクト比に変換する処理が適宜行われる。
なお、本実施例では、身体形状入力部100でレンズ歪み補正の必要のない標準レンズを用い、身体形状入力部100は操作部300の操作面の中央を通る法線上に設置され、身体形状入力部100の光軸はその法線と平行になるように設置され、身体形状入力部100の画角は操作部300の操作面全体が画像内にちょうど収まるように設定されているものと仮定する。この場合、ステップS608の形状補正処理は不要である。ステップS608の形状補正処理の結果、図18のような手画像611が得られる。
次に身体形状抽出部600は、身体画像作成処理を行う(ステップS610)。このステップでは、表示部200に表示すべき身体画像を作成するステップである。ステップS608で作成した身体画像(例えば図18の手画像611)をそのまま表示部200に表示する場合には、このステップで特に何らかの処理を行う必要はない。ここでは、ステップS608で作成した身体画像が暗い場合に明度を上げたり、手の細かなしわなどを目立たなくするために身体画像に平滑化処理を施したり、身体画像の色調を補正して手がより綺麗に表示されるようにしたり、輪郭の内側の領域に予め用意したテクスチャー画像を貼り付けたりといった処理を行う。テクスチャーの例としては、動物の皮、木、コンクリート、金属、人工的な模様などが挙げられる。
(表示部200)
次に、表示部200について説明する。表示部200は、画像合成部800が合成した画像を画面に表示するものであり、表示部200としては、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ、EL(Electronic Luminescence)ディスプレイなどが利用できる。
なお、表示部200は、例えばHUD(Head Up Display)やHMD(Head Mounted Display)のように、画像合成部800が合成した画像をハーフミラー、鏡、レンズなどを用いて空中に結像させるディスプレイであってもよい。この場合、例えば車両のフロントボンネットの上方のように、表示部200の設置が困難な位置にも画像を表示することが可能となる。
また、表示部200としてプロジェクターを利用してもよい。この場合、画像合成部800が合成した画像がプロジェクターによってスクリーンに投影されるため、安価に大画面表示を実現することができる。
このように、表示部200の構成は、設置場所や表示目的などに応じて適宜に選択すればよい。
(操作部300)
次に、操作部300について説明する。操作部300は、ユーザによる入力操作を検知し、その入力操作に対応する信号を出力するものである。操作部300としては、例えばタッチパネルやタッチパッドなどの座標入力デバイスや、ボタンスイッチ・ジョグダイヤルなどのスイッチ(ハードウェアとしてのスイッチ)が利用できる。もちろん、操作部300が座標入力デバイスとスイッチを両方含んでいてもよい。以下に、操作部300として座標入力デバイスを用いる例とスイッチを用いる例についてそれぞれ説明する。
まず、操作部300として座標入力デバイスを用いる例について図19を参照して説明する。
図19において、操作部300はタッチパッドやタッチパネルのような座標入力デバイスであり、ユーザが触れた(または押した)位置を示す座標データを、予め定められたタイミングで出力する。
ここで、操作部300で検知するユーザの入力操作としては、ユーザが操作部300の操作面に触れる操作、または操作面を押す操作が一般的であるが、これは座標入力デバイスの種類や設定にも依存する。例えば、静電容量式のタッチパッドの場合は、一般的には、ユーザが操作面に触れたかどうかを検知する。一方、感圧式のタッチパッドの場合は、操作面に触れたかどうかではなく、ユーザが操作面を一定値以上の圧力で押したかどうかを検知する。圧力の閾値を大きくすれば、ユーザが操作面を強く押したときにだけ入力操作として検知することもできる。なお、ユーザの入力操作としては、操作面に触れる操作や操作面を押す操作以外にも、例えば、ダブルクリック(短い間隔で操作面に2度触れる、または操作面を2度押す)、ドラッグ(操作面に触れた状態で指を移動させる)、長押し(一定時間以上操作面に触れる、または操作面を押す)、操作面に近づける、操作面から離す、などの種々の入力操作が考えられる。これらの入力操作は、必ずしも操作部300のみが検知する必要はなく、例えば、制御部500が、操作部300の出力する座標データに基づいて、ダブルクリックやドラッグなどの入力操作を検知してもよい。
また、図19に示すように、表示部200に例えば音量調節用のロータリースイッチがGUI部品によって模擬的に表示され、操作部300の操作面に円を描くようなドラッグ操作を検知したときに、そのドラッグ操作に応じて音量が変化するようにしてもよい。これにより、あたかも実際にロータリースイッチを回しているかのような直感的な入力操作が可能となる。
このように、操作部300として座標入力デバイスを用いれば、表示部200に表示するGUI部品の形、位置、機能、及び数を、必要に応じていつでも任意に変更することができる。また、例えば、表示部200に表示された地図上の任意の地点を指定することも簡単にできる。よって、非常に汎用的な入力装置を実現することができる。
なお、前述したように、操作部300は、一般的なタッチパッドやタッチパネルが備えているような座標データを出力する機能を必ずしも備えている必要はない。すなわち、ユーザが操作面に触れたかどうか、もしくは押したかどうかだけを信号として出力するようなものでもよい。この場合、操作部300の出力からはユーザが触れた(または押した)位置を検出することができないため、身体形状入力部100から出力されるデータに基づいてその位置を検出する必要がある。例えば、図1のように人差し指を立てた状態でGUI部品が選択されるようにユーザに制約を課し、身体形状抽出部600で得られた手画像から人差し指の指先の位置が検出されると、ユーザがどのGUI部品を選択したかが分かる。ただし、上記のように何らかの制約を課さなければ、身体形状入力部100から出力されるデータに基づいてユーザが押した位置を正確に判定することは困難である。しかし、操作部300が座標データを出力する機能を備えていれば、例えば、図20のように予め複数の指を複数のGUI部品上にそれぞれ位置させておき、手6を移動させることなく、これらのGUI部品の中から所望のGUI部品を適宜選択するような使い方も可能である。
次に、操作部300としてスイッチを用いる例について説明する。図21において、操作部300は、ベース部301と複数のスイッチ310からなる。スイッチ310の例としては、ボタンスイッチ311、トグルスイッチ、ロータリースイッチ312、ジョグダイヤル313、及び/又はジョイスティック314が挙げられる。
表示部200には、操作部300に設置されたスイッチ310の位置に対応してGUI部品が表示される。これらのGUI部品の形状は、スイッチ310の形状とほぼ同一とするのが好ましい。
なお、表示部200に表示されるGUI部品の機能は、必要に応じていつでも任意に変更することができる。例えば、オーディオモードではロータリースイッチ312を音量調節手段として利用し、ナビゲーションモードではロータリースイッチ312を地図の表示倍率変更手段として利用することができる。
このように、操作部300としてスイッチを用いれば、ユーザはスイッチの挙動を触覚で感知しながら入力操作を行うことができるため、タッチパッドのように視覚だけを頼りにした入力操作と比較して、より直感的かつ確実な入力が可能となる。
もちろん、操作部300が座標入力デバイスとスイッチを両方とも備えていても構わない。例えば、図21のベース部301の中央に座標入力デバイスをさらに配置してもよい。座標入力デバイスとスイッチを組み合わせることにより、例えば、ユーザの使用頻度が高く表示部200に固定的に表示されるようなGUI部品については対応するスイッチを操作部300に設けておくことでその選択操作を容易にすると同時に、それ以外のGUI部品については座標入力デバイスを用いて選択させることでGUI部品の配置を柔軟にし、画面を有効に利用することができる。
(演算部400)
次に、演算部400について説明する。なお、演算部400に含まれる身体形状抽出部600についてはすでに説明したため、ここではその説明を省略する。
演算部400の処理は、大きく分けて、ユーザの身体部分の画像を表示部200に表示するために実行される処理と、ユーザの入力操作があったときに実行される処理とに分けられる。
まず、ユーザの身体部分の画像を表示部200に表示するために実行される制御部500の処理の流れを、図22のシーケンス図を参照して説明する。
身体形状抽出部600が身体形状を検出すると(ステップS501)、身体形状抽出部600は、身体形状を検出した旨のメッセージを制御部500に送る。ここで必要であれば、身体形状抽出部600は、身体形状に関する特性(手の大きさ、左手か右手かなど)を検出し、その特性をメッセージと共に制御部500に送ってもよい。
次に、制御部500は、その時点での操作モードをチェックする(ステップS502)。ここでは、操作モードとして、ユーザによる入力操作が許可されているモードと、ユーザによる入力操作が禁止されているモードの2通りのモードが用意されているものとする。カーナビゲーション装置では、運転者が移動中にカーナビゲーション装置を操作することは危険につながるため、移動中はユーザによる入力操作が禁止されるのが普通である。
ステップS502のチェックによってユーザによる入力操作が許可されていると判断されると、制御部500は、表示情報作成部700に対して表示部200に表示すべき表示情報を変更するように指示する(ステップS503)。表示情報作成部700はこの指示に従って表示情報を変更する。ここでの表示情報作成部700による表示情報の変更例を以下に説明する。
図23Aおよび図23Bは、身体形状抽出部600が身体形状を検出した場合(すなわちユーザの身体部分が操作部300上に存在する場合)と検出していない場合(すなわちユーザの身体部分が操作部300上に存在しない場合)とで表示情報を変更する第1の例である。図23Aは、身体形状抽出部600が身体形状を検出していない場合の画面表示例である。ここでは、ユーザが選択することのできるGUI部品(ここではボタン)の輪郭が、「目的地まで24分」と書かれた単なるメッセージ表示用の欄と同じ線種で表示されている。図24Bは、身体形状抽出部600が身体形状を検出した場合の、図23Aに対応する画面表示例である。ここでは、ボタンが立体的に表示されるため、ユーザは選択の対象となる領域がどこかを一目で認識することができる。このように表示情報を変更することによって、ユーザが入力操作をしようとしていないときには表示情報を簡素化して表示情報の視認性を向上し、ユーザが入力操作をしようとしているときには選択対象を強調表示して操作性を向上することができる。
図24Aおよび図24Bは、身体形状抽出部600が身体形状を検出した場合(すなわちユーザの身体部分が操作部300上に存在する場合)と検出していない場合(すなわちユーザの身体部分が操作部300上に存在しない場合)とで表示情報を変更する第2の例である。図24Aは、身体形状抽出部600が身体形状を検出していない場合の別の画面表示例である。ここでは、ユーザが選択することのできるGUI部品(ここではボタン)が比較的小さい大きさで表示されている。図24Bは、身体形状抽出部600が身体形状を検出した場合の、図23Aに対応する画面表示例である。ここでは、ボタンが図24Aと比較してより大きく表示されるため、ユーザはボタンを選択し易くなる。このように表示情報を変更することによって、ユーザが入力操作をしようとしていないときにはボタン以外の情報を見易くし、ユーザが入力操作をしようとしているときにはボタンを拡大表示して操作性を向上することができる。
図25Aおよび図25Bは、身体形状抽出部600が右手を検出した場合と左手を検出した場合とで表示情報を変更する例である。この場合、身体形状抽出部600は、検出された身体形状が右手のものか左手のものかを判定し、その判定結果を身体形状に関する特性として制御部500に通知する。制御部500はこの判定結果に基づいて表示情報作成部700に表示情報の変更を指示する。検出された身体形状が右手のものか左手のものかは、図14や図15のようなデータから既存の種々のアルゴリズムを用いて判定することができる。図25Aは、身体形状抽出部600が右手を検出した場合の画面表示例であり、図25Bは、身体形状抽出部600が左手を検出した場合の画面表示例である。ここでは、車内の運転席と助手席の間に操作部300が設置されている場合のように、操作部300が左右両側に2人のユーザが存在し、操作部300の右側に存在するユーザは操作部300を左手で操作し、操作部300の左側に存在するユーザは操作部300を右手で操作するという状況を想定している。つまり、身体形状抽出部600が右手を検出したということは、操作部300を操作しているユーザは操作部300の左側にいると考えられる。このとき、仮にGUI部品(ここではボタン)が画面の右上に表示されていると、ユーザがそのボタンを押そうとするときに操作部300の中央付近がユーザの手のひらで覆われてしまい、その結果として表示画面の中央付近が手画像で覆われることとなり、画面が見づらくなってしまう。そこで、このような問題を避けるために、身体形状抽出部600が右手を検出した場合には、図25Aのようにボタンが画面の左側に表示され、逆に、身体形状抽出部600が左手を検出した場合には、図25Bのようにボタンが画面の右側に表示される。
なお、上の例では、身体形状抽出部600が右手を検出した場合と左手を検出した場合とでボタンの配置位置を変更するようにしたが、ボタンの機能や形や大きさや数などを変更するようにしても良い。例えば、操作部300が車内の運転席と助手席の間に設置されている場合に、車両の移動中に右手(すなわち助手席の搭乗者の手)が検出された場合には、文字入力のように比較的複雑な入力操作を要するボタンも画面スクロールのように比較的簡単な入力操作を要するボタンも表示するが、車両の移動中に左手(すなわち運転者の手)が検出された場合には、安全のために比較的簡単な入力操作を要するボタンだけを表示することが考えられる。
図26Aおよび図26Bは、身体形状抽出部600が比較的大きい手(すなわち大人の手)を検出した場合と比較的小さい手(すなわち子供の手)を検出した場合とで表示情報を変更する例である。この場合、身体形状抽出部600は、検出された身体形状が比較的大きい手か比較的小さい手かを判定し、その判定結果を身体形状に関する特性として制御部500に通知する。制御部500はこの判定結果に基づいて表示情報作成部700に表示情報の変更を指示する。検出された身体形状が比較的大きい手のものか比較的小さい手のものかは、例えば図14の身体領域607の面積や幅を所定の閾値と比較することにより判定することができる。図26Aは、身体形状抽出部600が比較的大きい手を検出した場合の画面表示例である。身体形状抽出部600が比較的大きい手を検出したということは、大人が操作しようとしていると考えられるので、入力操作は特に制限されない。図25Bは、身体形状抽出部600が比較的小さい手を検出した場合の画面表示例である。身体形状抽出部600が比較的大きい手を検出したということは、子供が操作しようとしていると考えられるので、一部または全てのボタンを無効化して入力操作が制限され、さらにボタンが無効化されていることがユーザに分かるように、ボタンの色が変化したり、目印が付けられる。
なお、上の例では、身体形状抽出部600が比較的小さい手を検出した場合にボタンの色が変化したり、目印が付けられるとしたが、これに限らず、種々の表示情報の変更例が考えられる。例えば、表示情報に含まれる難しい単語が易しい単語に変更されたり、画面構成や色遣いが子供風に変更されたりすることも考えられる。
なお、表示情報の変更の他の例として、表示情報作成部700は、身体形状抽出部600によって身体部分の形状が検出された場合にのみ表示情報を生成するようにしてもよい。これにより、ユーザが入力操作を行わないときに画像表示に係る処理を中断するため、消費電力を抑えることができる。同様に、表示情報作成部700は、身体形状抽出部600によって右手(または左手)が検出された場合にのみ表示情報を生成するようにしてもよい。同様に、表示情報作成部700は、身体形状抽出部600によって大人の手(または子供の手)が検出された場合にのみ表示情報を生成するようにしてもよい。
なお、身体形状抽出部600によって検出された形状が必ずしも身体部分の形状であるとは限らない。そこで、身体形状抽出部600によって検出された形状が身体部分の形状かどうかを判定し、身体部分の形状だった場合と、身体部分以外のものの形状だった場合とで表示情報を変更するようにしても構わない。例えば、身体形状抽出部600によって検出された形状が身体部分の形状でなかった場合には、表示情報作成部700は表示情報を生成しないようにしてもよい。身体形状抽出部600によって検出された形状が身体部分の形状かどうかの判定は、前述したパターンマッチングにより可能である。
表示情報が変更されると、制御部500は、画像合成部800に対して、身体形状抽出部600によって作成された身体画像と表示情報作成部700によって作成(変更)された表示情報とを合成するように指示する(ステップS504)。画像合成部800はこの指示に従って身体画像と表示情報を合成する。画像合成部800によって合成された画像例を以下に説明する。
図27Aは、身体形状抽出部600が作成した身体画像(例えば図18)を、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このようにリアルな手画像を表示することにより、実際に画面に触れているかのような感覚をユーザに与えることができ、直感的な入力操作が可能となる。
図27Bは、身体形状抽出部600が作成した輪郭画像(例えば図15)を身体画像として、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、身体部分の形状と位置が表示されると同時に、身体画像の内側の表示情報も表示されるので、操作中にも表示情報を確認し易くなる。
図27Cは、身体形状抽出部600が作成した身体画像を、輪郭を不透明にして内部を半透明にするように加工してから、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、直感的な入力操作が可能となると同時に、操作中にも表示情報を確認し易くなる。
図27Dは、身体形状抽出部600が作成した輪郭画像を、指先部分が強調表示されるように加工してから、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、ユーザは自分が押そうとしている位置を素早く確認することができ、なおかつ身体画像の内側の表示情報も表示されるので、操作中にも表示情報を確認し易くなる。なお、指先部分を検出する方法としては、例えば輪郭の形状からパターンマッチング手法を用いて指先部分を特定したり、図13のような画像データから爪の部分を抽出したりといった方法が考えられる。また、強調表示の例としては、印を表示したり、色を変更したり、透明度を変更したり、さらには、指先に行くほど徐々に輪郭の色を濃くしたり、指先に行くほど徐々に輪郭の透明度を小さくしたりすることが挙げられる。
図27Eは、身体形状抽出部600が作成した身体画像を、半透明または不透明の影を付加してから、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、実際に画面に触れているかのような感覚をユーザに与えることができる。
上記の図27F〜図27Hの例は、身体画像を必要に応じて加工してから表示情報作成部700が作成した表示情報に上書きするものであるが、画像合成の際に手画像以外を加工することも考えられる。以下、そのような例について説明する。
図27Fは、身体形状抽出部600が作成した身体画像を表示情報に上書きするとその一部または全体が隠れてしまうようなGUI部品について、その近傍に補助情報(GUI部品のラベルや補助説明などの情報)をポップアップ表示した例である。この表示を実現するために、画像合成部800はまず、表示情報作成部700が作成した表示情報に含まれる各GUI部品が身体画像と重なるかどうかを既知のアルゴリズムを用いて判断する。そして、身体画像と重なるGUI部品があれば、そのGUI部品の位置から所定の方向(右方向や上方向など)に離れて存在する身体画像と重ならないような領域を見つけ、その領域にそのGUI部品の補助情報を表示する。このような画像合成により、ユーザは、画面に表示された任意のGUI部品に関する情報を、そのGUI部品に身体画像を重ねることによって簡単に取得することができる。また、身体画像によって隠れてしまったGUI部品を、手を移動させることなく識別することができ、操作性が向上する。
図27Gは、身体形状抽出部600が作成した身体画像を表示情報に上書きするとその一部または全体が隠れてしまうようなGUI部品について、そのGUI部品のラベルを身体画像に上書きした例である。なお、図27Gの例では、隠れたGUI部品のラベルのみを身体画像に上書きしているが、隠れたGUI部品の形状もあわせて上書きしても良い。このような画像合成により、ユーザは、身体画像によって隠れてしまったGUI部品を、手を移動させることなく識別することができ、操作性が向上する。
図27Hは、身体形状抽出部600が作成した身体画像を表示情報に上書きしたときに身体画像の指先部分に重なるGUI部品を強調表示した例である。このような画像合成により、ユーザは身体画像の指先がどのGUI部品の上にあるのかを容易に確認することができる。なお、指先部分の位置を検出する方法としては、例えば輪郭の形状からパターンマッチング手法を用いて指先部分を特定したり、図13のような画像データから爪の部分を抽出したりといった方法が考えられる。また、強調表示は、例えば、色の変更、透明度の変更、形状の変更、線種・線の太さの変更、文字書式の変更、アイコンの変更、色や透明度の連続的な変更(グラデーション)など、種々の方法により可能である。
次に、ユーザの入力操作があったときに実行される制御部500の処理の流れを、図28のシーケンス図を参照して説明する。
まず、操作部300は、ユーザによる接触操作もしくは押圧操作を検出すると(ステップS511)、制御部500にメッセージを送る。ただし前述のように、操作部300が単に座標データだけを制御部500に出力し、この座標データに基づいて制御部500が接触操作などを検知するようにしても構わない。
次に、制御部500は、表示情報作成部700に対して表示情報を変更するように指示する(ステップS512)。表示情報作成部700は、制御部500の指示に従って表示情報を変更する。ここでの表示情報の変更例を図29Aおよび図29Bを用いて説明する。
図29Aは、ユーザが触れた(または押した)操作部300上の点に対応するGUI部品(すなわちユーザによって選択されたGUI部品)を強調表示する例である。図29Aの例では、ユーザによって選択されたGUI部品(ここではボタン)が、ボタンが押し込まれたような画像に変更されている。なお図29Aでは便宜上、手画像が図示されているが、実際には、表示情報作成部700が作成する表示情報に手画像は含まれない。このような表示情報の変更により、ユーザは、自分が選択しようとしたGUI部品を正しく選択できたかどうかを容易に確認することができ、操作性が向上する。
図29Bは、ユーザが触れた(または押した)操作部300上の点に対応する画面上の点を強調表示する例である。図29Bの例では、ユーザが触れた(または押した)操作部300上の点に対応する画面上の点に、あたかも指紋が残ったかのように、円形の目印が上書きされている。この円形の目印は、この目印が表示されてから一定時間が経過するか、ユーザが再び操作部300に触れる(または押す)までの間表示される。このような表示情報の変更により、ユーザは、自分が指定しようとした画面上の点を正しく指定できたかどうかを容易に確認することができる。特に、自分が指定しようとした点と実際に指定された点とがずれていた場合に、ずれた方向と距離を確認することができる。
表示情報が変更されると、制御部500は、画像合成部800に対して、身体形状抽出部600によって作成された身体画像と表示情報作成部700によって作成された表示情報とを合成するように指示する(ステップS513)。画像合成部800はこの指示に従って身体画像と表示情報を合成する。
図30は、身体形状を合成表示する部分を、表示部全体ではなく、操作対象とする範囲のみに限定した場合の表示例である。ここでは、左側がテレビ、右側がカーナビの地図画面と、表示部を2画面に分割して表示している。ユーザがテレビを操作しようとしている場合にナビ側に手形状を合成表示すると、不要な表示が重なって邪魔であるため、ナビ側には手形状を表示しないという構成が可能である。また、この場合、前述した指先位置の検出方法により、テレビ側に指先が存在する場合に現在の操作対象がテレビであると判断できるので、指先位置に応じて画像合成する範囲がテレビ側か、ナビ側に限定されればよい。
図31は、身体形状を、表示部全体ではなく、操作対象とする範囲に縮小して合成表示した場合の表示例である。ここでは、DVD画面を例に説明する。操作部に触れる、若しくは手を操作部にかざすと、画面の上部にDVD操作用の子画面が出現する。子画面以外の場所では、操作する対象がなく、DVDの再生が行われているので、手形状を合成すると表示の邪魔である。そこで、子画面が表示されている間は、S608に説明した形状補正処理は、この子画面のサイズに対して視点変換処理を行う。これにより、子画面のみに対して手形状を合成することができる。
以上のように、本発明によれば、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することを目的とすることができる。
上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。
本発明の入力装置は、タッチパネルディスプレイのような直感的な入力操作を、画面に直接触れることなしに行えるようにしたものであり、ディスプレイから離れた位置で入力操作を行う場合や、表示手段として遠焦点ディスプレイを利用する場合等に好適である。また、入力操作時に手元を見る必要がないため、カーナビゲーション装置の入力装置等としても好適である。
【0002】
さまっている必要がある。例えば、ユーザから見て手前の操作面を操作する間は、指の付け根より手前側が撮像範囲内に入らないため、手として認識されない。これでは、手であることを認識した上で何らかの操作を許可する、といった処理ができない。
[0005]
また、手を左右に振ることによって直前の操作をキャンセルする、といった直感的なジェスチャによる操作を導入しても、常にユーザは手が操作面内にあることを意識しながらジェスチャをしなければならず、使いやすいインターフェースを構築できない。
[0006]
本発明は上記問題に鑑みてなされた。すなわち、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することを目的とする。
課題を解決するための手段
[0007]
上記目的を達成するために、本発明は以下の構成を採用した。
[0008]
機器に対して命令や情報を入力するための入力装置であって、ユーザからの操作入力を受付ける操作部の操作面よりも広い範囲の画像データを取り込む身体形状入力部と、前記画像データから身体部分の形状を認識し、前記画像データから前記操作面の操作範囲に対応する部分を抽出して身体画像を作成する身体形状抽出部と、前記操作面の操作範囲に対応した表示範囲であり、ユーザによる命令や情報の入力に必要な表示画像を作成する表示画像作成部と、前記表示情報作成部が作成した表示画像と前記身体形状抽出部が作成した身体画像を合成する画像合成部と、前記画像合成部が合成した画像を表示する表示部と、前記操作部の操作面へのユーザからの操作入力、又は前記画像データからユーザのジェスチャによる機器に対する操作入力を認識する演算部とを備える。
[0009]
[0010]
前記身体形状抽出部は、前記身体形状入力部から出力される画像データから検出された形状が身体部分の形状であるか否かを、予め保持していた身体部分の形状パターンを用いたパターンマッチングによって判定することが好ましい。
[0011]
【0003】
[0012]
前記身体形状抽出部は、前記身体形状入力部から出力される画像データから検出された身体部分の形状を前記形状パターンに基づいて補正することが好ましい。
[0013]
[0014]
前記操作部の所定位置には、前記形状補正処理で利用される目印が付されており、前記身体形状抽出部は、前記身体形状入力部から出力された画像データ中の前記目印の位置が前記表示部の両面上の所定位置に変換されるように形状補正処理を行うことが好ましい。
[0015]
[0016]
前記表示情報作成部は、前記身体形状抽出部が認識した身体部分の形状に応じて、作成する表示画像を変更することが好ましい。
[0017]
[0018]
前記表示情報作成部は、前記身体形状入力部により認識された身体部分の形状が右手、又は左手の場合にのみ、表示画像を作成することが好ましい。
[0019]
[0020]
前記表示情報作成部は、前記身体形状抽出部により認識された身体部分の形状に基づいて、表示画像中のGUI部品を強調表示、当該GUI部品の位置変更、又は当該GUI部品の有効性を変更することが好ましい。
[0021]
[0022]
前記表示情報作成部は、操作対象で分けられた複数の表示領域からなる表示画像を作成し、前記画像合成部は、前記身体画像におけるユーザの指先部分を検出し、当該指先部分が存在する表示領域に限定して前記表示画像と前記身体画像とを合成することが好ましい。
【0004】
[0023]
[0024]
前記表示情報作成部は、操作対象で分けられた複数の表示領域からなる表示画像を作成し、前記画像合成部は、現在の操作対象となる領域に前記身体画像を縮小して前記表示画像と合成することが好ましい。
[0025]
[0026]
本発明の第2の局面は、機器に対して命令や情報を入力するための入力方法に向けられている。本発明は、ユーザからの操作入力を受付ける操作部の操作面よりも広い範囲の画像データを取り込む身体形状入力ステップと、前記画像データから身体部分の形状を認識し、前記画像データから前記操作面の操作範囲に対応する部分を抽出して身体画像を作成する身体形状抽出ステップと、前記操作面の操作範囲に対応した表示範囲であり、ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成ステップと、前記表示情報作成ステップで作成した表示画像と前記身体形状抽出ステップで作成した身体画像を合成する画像合成ステップと、前記画像合成ステップで合成した画像を表示する表示ステップと、前記操作部の操作面へのユーザからの操作入力、又は前記画像データからユーザのジェスチャによる機器に対する操作入力を認識する演算ステップとを備える。
[0027]
[0028]
[0029]
[0030]
[0031]
[0032]
【0005】
[0033]
[0034]
[0035]
[0036]
[0037]
[0038]
[0039]
【0006】
[0040]
[0041]
発明の効果
[0042]
以上説明したように、本発明によれば、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することができる。
[0043]
図面の簡単な説明
[図1]図1は、本発明の一実施形態にかかる入力装置の概念図である。
[図2]図2は、入力装置の構成を示すブロック図である。
[図3]図3は、車内における入力装置の設置例である。
[図4]図4は、車内における入力装置の設置例である。
[図5]図5は、車内における入力装置の設置例である。
[図6]図6は、車内における入力装置の設置例である。
[図7]図7は、身体形状入力部100の設置例である。
[図8]図8は、身体形状入力部100の設置例である。
[図9]図9は、身体形状入力部100と操作部300を一体的に構成した例である。
[図10]図10は、身体形状入力部100を操作部300の下方に設置した例の側面図である。
[図11]図11は、身体形状入力部100を操作部300の下方に設置した例の上面図である。
[図12]図12は、身体形状抽出部600の処理の流れを示すフローチャートである。
[図13]図13は、身体形状抽出部600で処理される画像データの例である。
[図14]図14は、身体形状抽出部600で抽出される身体領域607の例である。
本発明は、ユーザが機器に対して命令や情報を入力するための入力装置、及びその方法に関し、より特定的には、ディスプレイ等に表示された情報をもとにユーザが手などの身体を用いて命令や情報を入力することのできる入力装置、及びその方法に関する。
従来、ディスプレイ等の表示画面に表示された情報をもとにユーザが指などを用いて命令や情報を入力する入力装置として、例えば特許文献1や特許文献2に示す装置がある。この装置は、タッチパネル操作面を格子マトリックス状のスキャン手段またはカメラで撮像し、取得したデータから手形状部分を抽出して、ディスプレイに表示されるGUI(Graphical User Interface)などに合成して表示する内容を含んでいる。このような構成により、ユーザは、表示画面とは離れた位置に設置されているタッチパネル上に運転中の視線を一度移動させて目視することなく、表示画面に仮想的に表示された操作指の映像を見ながら、命令や情報を入力することができる。
一方で、特許文献1や2に記載された装置を用いて、カメラで撮影した画像からパターンマッチングによりユーザの手形状を取得し、手形状であることを認証したうえでユーザの操作を許可することや、ユーザの手形状や手の位置の時間変化パターンであるジェスチャを検知して、ユーザの入力を解釈することが考えられる。
特開平9−77622号公報 特開2000−6687号公報
しかしながら、前述のような従来の入力インターフェースには以下のような欠点がある。特許文献1または2に示された装置においてユーザの手形状またはジェスチャをパターンマッチングによって検知するためには、手が撮像範囲である操作面内におさまっている必要がある。例えば、ユーザから見て手前の操作面を操作する間は、指の付け根より手前側が撮像範囲内に入らないため、手として認識されない。これでは、手であることを認識した上で何らかの操作を許可する、といった処理ができない。
また、手を左右に振ることによって直前の操作をキャンセルする、といった直感的なジェスチャによる操作を導入しても、常にユーザは手が操作面内にあることを意識しながらジェスチャをしなければならず、使いやすいインターフェースを構築できない。
本発明は上記問題に鑑みてなされた。すなわち、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することを目的とする。
上記目的を達成するために、本発明は以下の構成を採用した。
機器に対して命令や情報を入力するための入力装置であって、ユーザからの操作入力を受付ける操作部の操作面よりも広い範囲の画像データを取り込む身体形状入力部と、前記画像データから身体部分の形状を認識し、前記画像データから前記操作面の操作範囲に対応する部分を抽出して身体画像を作成する身体形状抽出部と、前記操作面の操作範囲に対応した表示範囲であり、ユーザによる命令や情報の入力に必要な表示画像を作成する表示画像作成部と、前記表示情報作成部が作成した表示画像と前記身体形状抽出部が作成した身体画像を合成する画像合成部と、前記画像合成部が合成した画像を表示する表示部と、前記操作部の操作面へのユーザからの操作入力、又は前記画像データからユーザのジェスチャによる機器に対する操作入力を認識する演算部とを備える。
前記身体形状抽出部は、前記身体形状入力部から出力される画像データから検出された形状が身体部分の形状であるか否かを、予め保持していた身体部分の形状パターンを用いたパターンマッチングによって判定することが好ましい。
また、表示情報作成部は、身体形状抽出部が検出した操作面に対応する部分より広い範囲の身体情報により表示画像を作成することが好ましい。
前記身体形状抽出部は、前記身体形状入力部から出力される画像データから検出された身体部分の形状を前記形状パターンに基づいて補正することが好ましい。
前記操作部の所定位置には、前記形状補正処理で利用される目印が付されており、前記身体形状抽出部は、前記身体形状入力部から出力された画像データ中の前記目印の位置が前記表示部の画面上の所定位置に変換されるように形状補正処理を行うことが好ましい。
前記表示情報作成部は、前記身体形状抽出部が認識した身体部分の形状に応じて、作成する表示画像を変更することが好ましい。
前記表示情報作成部は、前記身体形状入力部により認識された身体部分の形状が右手、又は左手の場合にのみ、表示画像を作成することが好ましい。
前記表示情報作成部は、前記身体形状抽出部により認識された身体部分の形状に基づいて、表示画像中のGUI部品を強調表示、当該GUI部品の位置変更、又は当該GUI部品の有効性を変更することが好ましい。
前記表示情報作成部は、操作対象で分けられた複数の表示領域からなる表示画像を作成し、前記画像合成部は、前記身体画像におけるユーザの指先部分を検出し、当該指先部分が存在する表示領域に限定して前記表示画像と前記身体画像とを合成することが好ましい。
前記表示情報作成部は、操作対象で分けられた複数の表示領域からなる表示画像を作成し、前記画像合成部は、現在の操作対象となる領域に前記身体画像を縮小して前記表示画像と合成することが好ましい。
本発明の第2の局面は、機器に対して命令や情報を入力するための入力方法に向けられている。本発明は、ユーザからの操作入力を受付ける操作部の操作面よりも広い範囲の画像データを取り込む身体形状入力ステップと、前記画像データから身体部分の形状を認識し、前記画像データから前記操作面の操作範囲に対応する部分を抽出して身体画像を作成する身体形状抽出ステップと、前記操作面の操作範囲に対応した表示範囲であり、ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成ステップと、前記表示情報作成ステップで作成した表示画像と前記身体形状抽出ステップで作成した身体画像を合成する画像合成ステップと、前記画像合成ステップで合成した画像を表示する表示ステップと、前記操作部の操作面へのユーザからの操作入力、又は前記画像データからユーザのジェスチャによる機器に対する操作入力を認識する演算ステップとを備える。
以上説明したように、本発明によれば、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することができる。
以下、本発明の実施形態について図面を用いて詳細に説明する。
図1は、本発明の実施形態に係る入力装置の概念図である。図1において、ユーザの手元に操作用のタッチパッド4が設置され、ユーザから離れた位置にディスプレイ2が設置されている。タッチパッド4の上方にはカメラ1が設置されている。ディスプレイ2には、ユーザが所望の命令や情報を入力するための1つ以上のGUI部品3が表示されている。
タッチパッド4の操作面の各点は、ディスプレイ2の表示画面の各点と一対一で対応しており、ユーザがタッチパッド4の操作面のある点を指で押すと、その接触位置を示す座標データ(絶対座標データ)がタッチパッド4から制御部へと出力され、この座標データに基づいて、その接触位置に対応するGUI部品3が特定され、そのGUI部品3に関連付けられた命令や情報が入力される。
ユーザがGUI部品3を選択するためにタッチパッド4上に手6を移動させると、タッチパッド4を背景に含むようにして手6の画像がカメラ1によって撮像される。制御部は、カメラ1から出力された画像データから、パターンマッチングの手法により手6の形状やジェスチャを認識する。その後、タッチパッド4に対応する部分だけを抽出し、抽出した手6の画像をスーパーインポーズによってディスプレイ2に手画像7として表示する。即ち、手6の形状やジェスチャの検出には撮像された画像全体を用い、ディスプレイ2への表示にはタッチパッド4に対応する部分のみを用いる。
ユーザは、ディスプレイ2に表示された手画像7を見ながら、手画像7の指先が所望のGUI部品3上に来るように手6を移動させてからタッチパッド4を押す。するとその接触位置に対応するGUI部品3(すなわち、手画像7の指先に位置するGUI部品3)に関連付けられた命令や情報が入力される。
また、本発明の入力装置では、ユーザが指をタッチパッド4の操作面から少し浮かしている状態でも手画像7が画面に表示されるため、ユーザは、タッチパッド4に指を実際に接触させてスライドさせてみることなしに、現在の指の位置が画面上のどの位置に対応しているのかを確認することができる。よって、タッチパッド4を一押しするだけという単純かつ素早い入力操作が可能となる。
なお、ここではタッチパッド4から座標データが出力されるとしたが、後述するように、タッチパッド4は、必ずしも接触位置の座標データを出力する機能を備えている必要はなく、単にユーザがタッチパッド4を押したかどうかだけを検出するものでも構わない。この場合、カメラ1で撮像された画像から指先の位置が検出され、検出された指先の位置からユーザがどのGUI部品3を選択したかが判断されればよい。
以下、入力装置についてより詳細に説明する。
図2は、入力装置の構成を示すブロック図である。図2において、入力装置1000は、身体形状入力部100、表示部200、操作部300、及び演算部400を備える。演算部400は、演算部400全体を制御する制御部500、身体形状入力部100の出力を処理して身体形状を抽出する身体形状抽出部600、ユーザによる命令や情報の入力に必要となる表示情報(すなわちGUI部品3を含む画像)を作成する表示情報作成部700、及び操作部300を操作するユーザの身体部分を表す画像と表示情報作成部700によって作成された表示情報とを合成する画像合成部800を備える。以下、各部の構成について詳細に説明する。
(身体形状入力部100)
まず、身体形状入力部100について説明する。身体形状入力部100は、ユーザが操作に用いる手など身体部分の形状と位置を装置に入力するための手段である。身体形状入力部100としてカメラを用いた例について、図3〜図11を参照しながら説明する。
身体形状入力部100としては、例えば可視光カメラ、近赤外カメラ、赤外線カメラ、及び/又は超音波カメラを利用することができる。身体形状入力部100は、操作部300を撮影することのできる位置に配置され、操作部300を撮影してその画像データを出力する。ユーザが操作部300を手6で操作しているときには、身体形状入力部100によって撮影される画像に手6が含まれることとなる。身体形状入力部100は、好ましくは、操作部300の操作面の中央を通る法線上に配置され、且つレンズの光軸が法線と平行になるように設置される。
身体形状入力部100が可視光カメラの場合には、夜間でも手6が明瞭に撮影されるように、可視光を照射する光源110を設けることが好ましく、また、身体形状入力部100から出力された画像データから手の形状を抽出し易くするために、操作部300の操作面は均一色であるのが好ましく、特に黒や青であるのが好ましい。
身体形状入力部100が近赤外カメラの場合には、常に手6が明瞭に撮影されるように、近赤外光を照射する光源110を設けることが好ましく、また、操作部300の操作面は黒であるのが好ましい。
また、身体形状入力部100から出力された画像データから手の形状を抽出し易くするためにも、操作部300や操作中の手6に日光、車のヘッドライト、及び街灯等が直接照射されない様にするのが好ましい。
図3〜図6を用いて車内における設置例を説明する。図3は第1の設置例を示している。この設置例では、操作部300がセンターコンソールの延長上であって、運転者が肘置きに肘をおいた状態で操作できるような位置に設置される。身体形状入力部100は、操作部300が撮像できる位置に設置される。身体形状入力部100は、操作部300の法線上であるBの位置(車両の天井など)に設置されるのが好ましいが、Bの位置よりも前方(Aの位置)にあるマップランプやルームミラーに組み込まれていても良い。また、Bの位置よりも後方(Cの位置)にあるルームランプユニットに組み込まれていてもよい。
なお、図3のAの位置やCの位置のように、操作部300の操作面に対して斜め方向(すなわち垂直方向とは異なる方向)に身体形状入力部100が設置される場合には、身体形状入力部100によって撮像された手6の形状が、操作面に対して垂直な方向から見たときの手6の形状とは異なる可能性があり、手画像7を作成する際に後述する視点変換処理(操作面に対して斜め方向から見た画像を、操作面に対して垂直方向から見た画像に変換する画像処理)が必要となる場合がある。
図4は第2の設置例を示している。この設置例では、操作部300がステアリングの中央部に斜め上向きに設置される。身体形状入力部100は、操作部300が撮像できる位置(車両の天井など)に設置される。この場合、身体形状入力部100によって撮影される画像はステアリングの蛇角に応じて回転することになるが、身体形状入力部100から出力される画像データを補正することによって、この回転による影響を除去することができる。画像データの補正方法の一例として、ステアリングの蛇角を検出する手段を設けて、検出された蛇角に応じて画像データに回転処理が施されてもよい。また、他の例として、操作部300の操作面に1つ以上の基準となる目印を付しておき、画像データからこの目印の位置を検出することによってステアリングの蛇角を検出し、検出された蛇角に応じて画像データに回転処理が施されてもよい。
図5は第3の設置例を示している。この設置例では、操作部300が運転席のドアの内側であって、運転者が肘置きに肘をおいた状態で操作できるような位置に設置される。身体形状入力部100は、操作部300が撮像できる位置(車両の天井など)に設置される。
図6は第4の設置例を示している。この設置例では、操作部300が後部座席の中央にある肘掛け上に設置される。身体形状入力部100は、操作部300が撮像できる位置(車両の天井やルームランプ)に設置される。
図3〜図6の例では、身体形状入力部100を車両の天井等、操作部300から離れた位置に設置しているが、身体形状入力部100と操作部300とを一体的に構成することも考えられる。以下、図7〜図9を参照して、身体形状入力部100と操作部300とを一体的に構成した例を説明する。
図7は、操作部300の上方の所定位置に身体形状入力部100を設置した例を示している。身体形状入力部100の近傍に必要に応じて光源110が設置されてもよい。光源110は、身体形状入力部100が色画像を作成するものであれば可視光源で有る必要があるが、身体形状入力部100が白黒画像を作成するものであれば近赤外光源でもよい。
図8は、操作部300の上方の所定位置にミラー120を設置し、このミラー120に映る操作部300および手6を身体形状入力部100が撮像するようにした例である。
図7や図8のような構成を実現するには、例えば図9のような筐体130を用いて操作部300に対する身体形状入力部100の相対位置が固定されればよい。
このように身体形状入力部100と操作部300とを一体的に構成することにより、身体形状入力部100の光軸調整が簡単になるという利点がある。また、操作部300を図9のような筐体130で遮蔽することにより、外部からの光(太陽光など)が操作部300に当たりにくくなるという利点もある。
図3〜図9の例では、操作部300および手6を上方(すなわち操作部300の操作面側)から身体形状入力部100で撮像しているが、操作部300および手6を下方(すなわち操作部300の操作面とは反対の面側)から身体形状入力部100で撮像することも考えられる。以下、図10および図11を参照して、身体形状入力部100で操作部300を下方から撮像するようにした構成例を説明する。
図10は、操作部300として透明なタッチパネルを採用し、その下方に身体形状入力部100と光源110を設置した例である。図11は、図10において操作部300を上方から見た図である。この例ではタッチパネルの下側の面に重ねて可視光カットフィルター140が配置されている。また、光源110は近赤外光を照射するものであり、身体形状入力部100は近赤外光に感度のある撮像装置である。
(身体形状抽出部600)
次に、身体形状抽出部600について説明する。身体形状抽出部600は、身体形状入力部100の出力に基づいて身体形状データを抽出する。身体形状データとは、例えばユーザが操作部300の操作面に載せている(操作面から浮いていても良い)身体部分(すなわち手や足など)の形状とその位置を示すデータである。
図12は、身体形状抽出部600による身体形状抽出処理の流れを示すフローチャートである。
身体形状抽出部600は、まず身体形状入力部100(ここではカメラ)から出力された画像データをフレームメモリに取り込む(ステップS602)。図13は、フレームメモリに取り込まれた画像データの一例を示している。図13の画像データ601において、603は操作部300の操作面であり、605はユーザの手6である。
続いて身体形状抽出部600は、ステップS602でフレームメモリに取り込んだ画像データから、図14のようにユーザの身体(ここでは手6)に対応する領域を身体領域607として抽出する(ステップS604)。画像データから身体領域を抽出する方法としては、例えば以下の方法が考えられる。
第1の抽出方法は、背景差分法である。背景差分法では、まず、身体形状入力部100と操作部300との間に何も存在しない状態で身体形状入力部100によって操作部300を撮影し、その結果を背景画像データとして記憶しておく。そして、身体形状入力部100から出力された画像データと背景画像データとを画素毎またはブロック毎に比較し、両者間で異なる部分を身体領域として抽出する。背景差分法は、操作部300の操作面を単一色にする必要が無いという点で有利である。なお、背景画像データは、予めメモリーに記憶しておいても良いし、身体形状入力部100から出力される画像データが一定時間以上変化しなかった場合にその画像データを背景画像データとして記憶するようにしても良い。
第2の抽出方法は、輝度閾値法である。輝度閾値法では、身体形状入力部100から出力された画像データの各画素の輝度値を所定の閾値と比較することによって身体領域を抽出する。よって、身体形状入力部100から出力された画像データにおいて、手6の部分と操作部300の操作面の部分との輝度差が大きくなるように、操作部300の操作面を黒ないし黒に近い色とし、且つ操作面につや消し処理を施して光の反射を極力無くすことが好ましい。閾値は、身体形状入力部100から出力される画像データにおいて操作部300に対応するいずれの画素の輝度値よりも大きい値に設定される。このようにして設定された閾値よりも高い輝度値を有する領域を抽出することにより、身体領域を抽出することができる。なお、夜間など暗い場合にも安定した身体領域の抽出を行うためには、身体形状入力部100の画角の範囲に可視光や近赤外光を照射するなどして、身体領域が閾値よりも明るく映るようにする必要がある。
しかし、操作部300の操作面には必ずしもユーザの身体部分が載せられるとは限らず、例えば荷物などが載せられる場合もある。この場合、荷物が身体部分として認識されてしまうため、表示部200に荷物の画像が表示されてしまい、表示情報の表示の妨げとなってしまう。そこで、ステップS606で抽出された形状が身体部分の形状かどうかを判定し、身体部分でなければ以降の処理を行わないようにすれば、このような問題を回避することができる。ステップS606で抽出された形状が身体部分の形状かどうかを判定するには、身体部分の形状パターンを予め保持しておき、ステップS606で抽出された形状をこの形状パターンと比較(パターンマッチング)すればよい。なお、このパターンマッチングの結果を制御部500に通知することによって、ステップS606で抽出された形状が身体部分の形状だと判明した場合にだけ操作部300による入力操作を有効にしてもよい。これにより、操作部300の操作面に載せられた荷物などによる誤動作を防止することができる。
ところで、ユーザが爪に操作部300の操作面と同一の色のマニキュアを塗っていた場合などには、ステップS606において、爪の部分が欠けたような手の形状が検出されることになるが、上記のような形状パターンを用意しておけば、この形状パターンを参照して、検出された身体部分の形状において部分的に欠けた部分を補完するができる。
身体領域の抽出が完了すると、次に身体形状抽出部600は、ステップS604で抽出した身体領域607に基づいて、図15に示すようにその輪郭609を抽出する(ステップS606)。この輪郭抽出処理は、身体領域607に含まれる画素の中から、身体領域607以外の領域の画素と接している画素を抽出することにより行われる。より具体的には、身体領域607に含まれる全ての画素の中から、その上下左右の4近傍画素(もしくは注目画素の右上・左上・右下・左下の画素をさらに加えた8近傍画素)の中に身体領域607以外の領域の画素が含まれているような画素を抽出する。なお、必要に応じて、抽出した輪郭609に平滑化処理を施してもよい。平滑化処理を行うことにより、輪郭609に生じるエイリアシングを解消することができる。
次に、身体形状抽出部600は、形状補正処理を行う(S608)。形状補正処理では、身体形状入力部100から出力された撮像範囲の画像データおよび身体形状の輪郭609のうち、操作範囲にかかわる領域のみを抽出する。つづいて抽出された画像データについて、カメラレンズの歪み補正処理や視点変換処理やその他の補正処理を行う。
撮像範囲に含まれる操作範囲については、身体形状入力部100と操作部300の設置方法によって決定される。その取得方法としては、例えば事前に(身体部分が撮像範囲に写っていない状態で)、操作部300の四隅などにマーカーを設置しておき、それらを輝度閾値法によって判別し、その位置を記憶しておけばよい。実際の操作時には、記憶しておいた操作範囲に従って操作範囲以外の領域を除去することで抽出が完了する。
カメラレンズの歪み補正処理は、特に身体形状入力部100で広角レンズを用いた場合に、レンズの歪曲収差データを用いて補正するものである。よって、身体形状入力部100で歪みの小さいレンズ(例えば標準レンズや望遠レンズ)を用いた場合にはカメラレンズの歪み補正は不要である。
視点変換処理は、設置位置の制約などで所望の視点(本実施例の場合は、操作部300の真上方向からの視点)に身体形状入力部100を設置できなかった場合に行うものである。視点変換技術は周知の技術である。図16および図17を参照して、視点変換処理の例を説明する。
図16は、身体形状入力部100が図3の位置Aのような位置に設置されている場合に適用される視点変換処理の例である。身体形状入力部100から出力された画像データ601における操作部300の4隅(a、b、c、d)が、表示部200の画面の4隅に対応する位置となるように画像が引き延ばされる。このとき、身体形状入力部100と操作部300の相対位置が固定であれば、画像データ601における操作部300の4隅(a、b、c、d)の位置も固定であるため、これら4隅の位置をその都度検出しなくても図16のような視点変換処理を施すことが可能である。しかし、身体形状入力部100と操作部300の相対位置が固定でない場合には、身体形状入力部100から出力された画像データ601から操作部300の4隅の位置を検出する必要がある。この場合、操作部300の4隅に何らかの目印を付けておけば、4隅の位置をより正確に検出することができる。なお、操作部300の操作面内の任意の領域を表示部200の画面に対応させることもできる。この場合にも、その任意の領域の4隅に基準となる目印を付けておけば、その4隅が表示部200の画面の4隅に対応する位置となるように画像を引き延ばすことができる。
図17は、身体形状入力部100が図4の位置に設置されている場合に適用される視点変換処理の例である。図4の例では操作部300がステアリングとともに回転するため、ステアリングの回転に応じて、身体形状入力部100から出力された画像データ601内の操作部300も回転することとなる。この場合も、身体形状入力部100から出力された画像データ601における操作部300の4隅(a、b、c、d)が検出され、これらの4隅が、表示部200の画面の4隅に対応する位置となるように画像が引き延ばされる。
なお、ステップS608では、必要に応じて、カメラレンズの歪み補正処理や視点変換処理以外の形状補正処理も行われる。例えば、身体形状入力部100から出力された画像データの解像度およびアスペクト比を、表示部200の画面の解像度およびアスペクト比に変換する処理が適宜行われる。
なお、本実施例では、身体形状入力部100でレンズ歪み補正の必要のない標準レンズを用い、身体形状入力部100は操作部300の操作面の中央を通る法線上に設置され、身体形状入力部100の光軸はその法線と平行になるように設置され、身体形状入力部100の画角は操作部300の操作面全体が画像内にちょうど収まるように設定されているものと仮定する。この場合、ステップS608の形状補正処理は不要である。ステップS608の形状補正処理の結果、図18のような手画像611が得られる。
次に身体形状抽出部600は、身体画像作成処理を行う(ステップS610)。このステップでは、表示部200に表示すべき身体画像を作成するステップである。ステップS608で作成した身体画像(例えば図18の手画像611)をそのまま表示部200に表示する場合には、このステップで特に何らかの処理を行う必要はない。ここでは、ステップS608で作成した身体画像が暗い場合に明度を上げたり、手の細かなしわなどを目立たなくするために身体画像に平滑化処理を施したり、身体画像の色調を補正して手がより綺麗に表示されるようにしたり、輪郭の内側の領域に予め用意したテクスチャー画像を貼り付けたりといった処理を行う。テクスチャーの例としては、動物の皮、木、コンクリート、金属、人工的な模様などが挙げられる。
(表示部200)
次に、表示部200について説明する。表示部200は、画像合成部800が合成した画像を画面に表示するものであり、表示部200としては、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ、EL(Electronic Luminescence)ディスプレイなどが利用できる。
なお、表示部200は、例えばHUD(Head Up Display)やHMD(Head Mounted Display)のように、画像合成部800が合成した画像をハーフミラー、鏡、レンズなどを用いて空中に結像させるディスプレイであってもよい。この場合、例えば車両のフロントボンネットの上方のように、表示部200の設置が困難な位置にも画像を表示することが可能となる。
また、表示部200としてプロジェクターを利用してもよい。この場合、画像合成部800が合成した画像がプロジェクターによってスクリーンに投影されるため、安価に大画面表示を実現することができる。
このように、表示部200の構成は、設置場所や表示目的などに応じて適宜に選択すればよい。
(操作部300)
次に、操作部300について説明する。操作部300は、ユーザによる入力操作を検知し、その入力操作に対応する信号を出力するものである。操作部300としては、例えばタッチパネルやタッチパッドなどの座標入力デバイスや、ボタンスイッチ・ジョグダイヤルなどのスイッチ(ハードウェアとしてのスイッチ)が利用できる。もちろん、操作部300が座標入力デバイスとスイッチを両方含んでいてもよい。以下に、操作部300として座標入力デバイスを用いる例とスイッチを用いる例についてそれぞれ説明する。
まず、操作部300として座標入力デバイスを用いる例について図19を参照して説明する。
図19において、操作部300はタッチパッドやタッチパネルのような座標入力デバイスであり、ユーザが触れた(または押した)位置を示す座標データを、予め定められたタイミングで出力する。
ここで、操作部300で検知するユーザの入力操作としては、ユーザが操作部300の操作面に触れる操作、または操作面を押す操作が一般的であるが、これは座標入力デバイスの種類や設定にも依存する。例えば、静電容量式のタッチパッドの場合は、一般的には、ユーザが操作面に触れたかどうかを検知する。一方、感圧式のタッチパッドの場合は、操作面に触れたかどうかではなく、ユーザが操作面を一定値以上の圧力で押したかどうかを検知する。圧力の閾値を大きくすれば、ユーザが操作面を強く押したときにだけ入力操作として検知することもできる。なお、ユーザの入力操作としては、操作面に触れる操作や操作面を押す操作以外にも、例えば、ダブルクリック(短い間隔で操作面に2度触れる、または操作面を2度押す)、ドラッグ(操作面に触れた状態で指を移動させる)、長押し(一定時間以上操作面に触れる、または操作面を押す)、操作面に近づける、操作面から離す、などの種々の入力操作が考えられる。これらの入力操作は、必ずしも操作部300のみが検知する必要はなく、例えば、制御部500が、操作部300の出力する座標データに基づいて、ダブルクリックやドラッグなどの入力操作を検知してもよい。
また、図19に示すように、表示部200に例えば音量調節用のロータリースイッチがGUI部品によって模擬的に表示され、操作部300の操作面に円を描くようなドラッグ操作を検知したときに、そのドラッグ操作に応じて音量が変化するようにしてもよい。これにより、あたかも実際にロータリースイッチを回しているかのような直感的な入力操作が可能となる。
このように、操作部300として座標入力デバイスを用いれば、表示部200に表示するGUI部品の形、位置、機能、及び数を、必要に応じていつでも任意に変更することができる。また、例えば、表示部200に表示された地図上の任意の地点を指定することも簡単にできる。よって、非常に汎用的な入力装置を実現することができる。
なお、前述したように、操作部300は、一般的なタッチパッドやタッチパネルが備えているような座標データを出力する機能を必ずしも備えている必要はない。すなわち、ユーザが操作面に触れたかどうか、もしくは押したかどうかだけを信号として出力するようなものでもよい。この場合、操作部300の出力からはユーザが触れた(または押した)位置を検出することができないため、身体形状入力部100から出力されるデータに基づいてその位置を検出する必要がある。例えば、図1のように人差し指を立てた状態でGUI部品が選択されるようにユーザに制約を課し、身体形状抽出部600で得られた手画像から人差し指の指先の位置が検出されると、ユーザがどのGUI部品を選択したかが分かる。ただし、上記のように何らかの制約を課さなければ、身体形状入力部100から出力されるデータに基づいてユーザが押した位置を正確に判定することは困難である。しかし、操作部300が座標データを出力する機能を備えていれば、例えば、図20のように予め複数の指を複数のGUI部品上にそれぞれ位置させておき、手6を移動させることなく、これらのGUI部品の中から所望のGUI部品を適宜選択するような使い方も可能である。
次に、操作部300としてスイッチを用いる例について説明する。図21において、操作部300は、ベース部301と複数のスイッチ310からなる。スイッチ310の例としては、ボタンスイッチ311、トグルスイッチ、ロータリースイッチ312、ジョグダイヤル313、及び/又はジョイスティック314が挙げられる。
表示部200には、操作部300に設置されたスイッチ310の位置に対応してGUI部品が表示される。これらのGUI部品の形状は、スイッチ310の形状とほぼ同一とするのが好ましい。
なお、表示部200に表示されるGUI部品の機能は、必要に応じていつでも任意に変更することができる。例えば、オーディオモードではロータリースイッチ312を音量調節手段として利用し、ナビゲーションモードではロータリースイッチ312を地図の表示倍率変更手段として利用することができる。
このように、操作部300としてスイッチを用いれば、ユーザはスイッチの挙動を触覚で感知しながら入力操作を行うことができるため、タッチパッドのように視覚だけを頼りにした入力操作と比較して、より直感的かつ確実な入力が可能となる。
もちろん、操作部300が座標入力デバイスとスイッチを両方とも備えていても構わない。例えば、図21のベース部301の中央に座標入力デバイスをさらに配置してもよい。座標入力デバイスとスイッチを組み合わせることにより、例えば、ユーザの使用頻度が高く表示部200に固定的に表示されるようなGUI部品については対応するスイッチを操作部300に設けておくことでその選択操作を容易にすると同時に、それ以外のGUI部品については座標入力デバイスを用いて選択させることでGUI部品の配置を柔軟にし、画面を有効に利用することができる。
(演算部400)
次に、演算部400について説明する。なお、演算部400に含まれる身体形状抽出部600についてはすでに説明したため、ここではその説明を省略する。
演算部400の処理は、大きく分けて、ユーザの身体部分の画像を表示部200に表示するために実行される処理と、ユーザの入力操作があったときに実行される処理とに分けられる。
まず、ユーザの身体部分の画像を表示部200に表示するために実行される制御部500の処理の流れを、図22のシーケンス図を参照して説明する。
身体形状抽出部600が身体形状を検出すると(ステップS501)、身体形状抽出部600は、身体形状を検出した旨のメッセージを制御部500に送る。ここで必要であれば、身体形状抽出部600は、身体形状に関する特性(手の大きさ、左手か右手かなど)を検出し、その特性をメッセージと共に制御部500に送ってもよい。
次に、制御部500は、その時点での操作モードをチェックする(ステップS502)。ここでは、操作モードとして、ユーザによる入力操作が許可されているモードと、ユーザによる入力操作が禁止されているモードの2通りのモードが用意されているものとする。カーナビゲーション装置では、運転者が移動中にカーナビゲーション装置を操作することは危険につながるため、移動中はユーザによる入力操作が禁止されるのが普通である。
ステップS502のチェックによってユーザによる入力操作が許可されていると判断されると、制御部500は、表示情報作成部700に対して表示部200に表示すべき表示情報を変更するように指示する(ステップS503)。表示情報作成部700はこの指示に従って表示情報を変更する。ここでの表示情報作成部700による表示情報の変更例を以下に説明する。
図23Aおよび図23Bは、身体形状抽出部600が身体形状を検出した場合(すなわちユーザの身体部分が操作部300上に存在する場合)と検出していない場合(すなわちユーザの身体部分が操作部300上に存在しない場合)とで表示情報を変更する第1の例である。図23Aは、身体形状抽出部600が身体形状を検出していない場合の画面表示例である。ここでは、ユーザが選択することのできるGUI部品(ここではボタン)の輪郭が、「目的地まで24分」と書かれた単なるメッセージ表示用の欄と同じ線種で表示されている。図24Bは、身体形状抽出部600が身体形状を検出した場合の、図23Aに対応する画面表示例である。ここでは、ボタンが立体的に表示されるため、ユーザは選択の対象となる領域がどこかを一目で認識することができる。このように表示情報を変更することによって、ユーザが入力操作をしようとしていないときには表示情報を簡素化して表示情報の視認性を向上し、ユーザが入力操作をしようとしているときには選択対象を強調表示して操作性を向上することができる。
図24Aおよび図24Bは、身体形状抽出部600が身体形状を検出した場合(すなわちユーザの身体部分が操作部300上に存在する場合)と検出していない場合(すなわちユーザの身体部分が操作部300上に存在しない場合)とで表示情報を変更する第2の例である。図24Aは、身体形状抽出部600が身体形状を検出していない場合の別の画面表示例である。ここでは、ユーザが選択することのできるGUI部品(ここではボタン)が比較的小さい大きさで表示されている。図24Bは、身体形状抽出部600が身体形状を検出した場合の、図23Aに対応する画面表示例である。ここでは、ボタンが図24Aと比較してより大きく表示されるため、ユーザはボタンを選択し易くなる。このように表示情報を変更することによって、ユーザが入力操作をしようとしていないときにはボタン以外の情報を見易くし、ユーザが入力操作をしようとしているときにはボタンを拡大表示して操作性を向上することができる。
図25Aおよび図25Bは、身体形状抽出部600が右手を検出した場合と左手を検出した場合とで表示情報を変更する例である。この場合、身体形状抽出部600は、検出された身体形状が右手のものか左手のものかを判定し、その判定結果を身体形状に関する特性として制御部500に通知する。制御部500はこの判定結果に基づいて表示情報作成部700に表示情報の変更を指示する。検出された身体形状が右手のものか左手のものかは、図14や図15のようなデータから既存の種々のアルゴリズムを用いて判定することができる。図25Aは、身体形状抽出部600が右手を検出した場合の画面表示例であり、図25Bは、身体形状抽出部600が左手を検出した場合の画面表示例である。ここでは、車内の運転席と助手席の間に操作部300が設置されている場合のように、操作部300が左右両側に2人のユーザが存在し、操作部300の右側に存在するユーザは操作部300を左手で操作し、操作部300の左側に存在するユーザは操作部300を右手で操作するという状況を想定している。つまり、身体形状抽出部600が右手を検出したということは、操作部300を操作しているユーザは操作部300の左側にいると考えられる。このとき、仮にGUI部品(ここではボタン)が画面の右上に表示されていると、ユーザがそのボタンを押そうとするときに操作部300の中央付近がユーザの手のひらで覆われてしまい、その結果として表示画面の中央付近が手画像で覆われることとなり、画面が見づらくなってしまう。そこで、このような問題を避けるために、身体形状抽出部600が右手を検出した場合には、図25Aのようにボタンが画面の左側に表示され、逆に、身体形状抽出部600が左手を検出した場合には、図25Bのようにボタンが画面の右側に表示される。
なお、上の例では、身体形状抽出部600が右手を検出した場合と左手を検出した場合とでボタンの配置位置を変更するようにしたが、ボタンの機能や形や大きさや数などを変更するようにしても良い。例えば、操作部300が車内の運転席と助手席の間に設置されている場合に、車両の移動中に右手(すなわち助手席の搭乗者の手)が検出された場合には、文字入力のように比較的複雑な入力操作を要するボタンも画面スクロールのように比較的簡単な入力操作を要するボタンも表示するが、車両の移動中に左手(すなわち運転者の手)が検出された場合には、安全のために比較的簡単な入力操作を要するボタンだけを表示することが考えられる。
図26Aおよび図26Bは、身体形状抽出部600が比較的大きい手(すなわち大人の手)を検出した場合と比較的小さい手(すなわち子供の手)を検出した場合とで表示情報を変更する例である。この場合、身体形状抽出部600は、検出された身体形状が比較的大きい手か比較的小さい手かを判定し、その判定結果を身体形状に関する特性として制御部500に通知する。制御部500はこの判定結果に基づいて表示情報作成部700に表示情報の変更を指示する。検出された身体形状が比較的大きい手のものか比較的小さい手のものかは、例えば図14の身体領域607の面積や幅を所定の閾値と比較することにより判定することができる。図26Aは、身体形状抽出部600が比較的大きい手を検出した場合の画面表示例である。身体形状抽出部600が比較的大きい手を検出したということは、大人が操作しようとしていると考えられるので、入力操作は特に制限されない。図25Bは、身体形状抽出部600が比較的小さい手を検出した場合の画面表示例である。身体形状抽出部600が比較的大きい手を検出したということは、子供が操作しようとしていると考えられるので、一部または全てのボタンを無効化して入力操作が制限され、さらにボタンが無効化されていることがユーザに分かるように、ボタンの色が変化したり、目印が付けられる。
なお、上の例では、身体形状抽出部600が比較的小さい手を検出した場合にボタンの色が変化したり、目印が付けられるとしたが、これに限らず、種々の表示情報の変更例が考えられる。例えば、表示情報に含まれる難しい単語が易しい単語に変更されたり、画面構成や色遣いが子供風に変更されたりすることも考えられる。
なお、表示情報の変更の他の例として、表示情報作成部700は、身体形状抽出部600によって身体部分の形状が検出された場合にのみ表示情報を生成するようにしてもよい。これにより、ユーザが入力操作を行わないときに画像表示に係る処理を中断するため、消費電力を抑えることができる。同様に、表示情報作成部700は、身体形状抽出部600によって右手(または左手)が検出された場合にのみ表示情報を生成するようにしてもよい。同様に、表示情報作成部700は、身体形状抽出部600によって大人の手(または子供の手)が検出された場合にのみ表示情報を生成するようにしてもよい。
なお、身体形状抽出部600によって検出された形状が必ずしも身体部分の形状であるとは限らない。そこで、身体形状抽出部600によって検出された形状が身体部分の形状かどうかを判定し、身体部分の形状だった場合と、身体部分以外のものの形状だった場合とで表示情報を変更するようにしても構わない。例えば、身体形状抽出部600によって検出された形状が身体部分の形状でなかった場合には、表示情報作成部700は表示情報を生成しないようにしてもよい。身体形状抽出部600によって検出された形状が身体部分の形状かどうかの判定は、前述したパターンマッチングにより可能である。
表示情報が変更されると、制御部500は、画像合成部800に対して、身体形状抽出部600によって作成された身体画像と表示情報作成部700によって作成(変更)された表示情報とを合成するように指示する(ステップS504)。画像合成部800はこの指示に従って身体画像と表示情報を合成する。画像合成部800によって合成された画像例を以下に説明する。
図27Aは、身体形状抽出部600が作成した身体画像(例えば図18)を、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このようにリアルな手画像を表示することにより、実際に画面に触れているかのような感覚をユーザに与えることができ、直感的な入力操作が可能となる。
図27Bは、身体形状抽出部600が作成した輪郭画像(例えば図15)を身体画像として、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、身体部分の形状と位置が表示されると同時に、身体画像の内側の表示情報も表示されるので、操作中にも表示情報を確認し易くなる。
図27Cは、身体形状抽出部600が作成した身体画像を、輪郭を不透明にして内部を半透明にするように加工してから、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、直感的な入力操作が可能となると同時に、操作中にも表示情報を確認し易くなる。
図27Dは、身体形状抽出部600が作成した輪郭画像を、指先部分が強調表示されるように加工してから、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、ユーザは自分が押そうとしている位置を素早く確認することができ、なおかつ身体画像の内側の表示情報も表示されるので、操作中にも表示情報を確認し易くなる。なお、指先部分を検出する方法としては、例えば輪郭の形状からパターンマッチング手法を用いて指先部分を特定したり、図13のような画像データから爪の部分を抽出したりといった方法が考えられる。また、強調表示の例としては、印を表示したり、色を変更したり、透明度を変更したり、さらには、指先に行くほど徐々に輪郭の色を濃くしたり、指先に行くほど徐々に輪郭の透明度を小さくしたりすることが挙げられる。
図27Eは、身体形状抽出部600が作成した身体画像を、半透明または不透明の影を付加してから、表示情報作成部700が作成した表示情報に上書きした場合の画面例である。このような画像合成により、実際に画面に触れているかのような感覚をユーザに与えることができる。
上記の図27F〜図27Hの例は、身体画像を必要に応じて加工してから表示情報作成部700が作成した表示情報に上書きするものであるが、画像合成の際に手画像以外を加工することも考えられる。以下、そのような例について説明する。
図27Fは、身体形状抽出部600が作成した身体画像を表示情報に上書きするとその一部または全体が隠れてしまうようなGUI部品について、その近傍に補助情報(GUI部品のラベルや補助説明などの情報)をポップアップ表示した例である。この表示を実現するために、画像合成部800はまず、表示情報作成部700が作成した表示情報に含まれる各GUI部品が身体画像と重なるかどうかを既知のアルゴリズムを用いて判断する。そして、身体画像と重なるGUI部品があれば、そのGUI部品の位置から所定の方向(右方向や上方向など)に離れて存在する身体画像と重ならないような領域を見つけ、その領域にそのGUI部品の補助情報を表示する。このような画像合成により、ユーザは、画面に表示された任意のGUI部品に関する情報を、そのGUI部品に身体画像を重ねることによって簡単に取得することができる。また、身体画像によって隠れてしまったGUI部品を、手を移動させることなく識別することができ、操作性が向上する。
図27Gは、身体形状抽出部600が作成した身体画像を表示情報に上書きするとその一部または全体が隠れてしまうようなGUI部品について、そのGUI部品のラベルを身体画像に上書きした例である。なお、図27Gの例では、隠れたGUI部品のラベルのみを身体画像に上書きしているが、隠れたGUI部品の形状もあわせて上書きしても良い。このような画像合成により、ユーザは、身体画像によって隠れてしまったGUI部品を、手を移動させることなく識別することができ、操作性が向上する。
図27Hは、身体形状抽出部600が作成した身体画像を表示情報に上書きしたときに身体画像の指先部分に重なるGUI部品を強調表示した例である。このような画像合成により、ユーザは身体画像の指先がどのGUI部品の上にあるのかを容易に確認することができる。なお、指先部分の位置を検出する方法としては、例えば輪郭の形状からパターンマッチング手法を用いて指先部分を特定したり、図13のような画像データから爪の部分を抽出したりといった方法が考えられる。また、強調表示は、例えば、色の変更、透明度の変更、形状の変更、線種・線の太さの変更、文字書式の変更、アイコンの変更、色や透明度の連続的な変更(グラデーション)など、種々の方法により可能である。
次に、ユーザの入力操作があったときに実行される制御部500の処理の流れを、図28のシーケンス図を参照して説明する。
まず、操作部300は、ユーザによる接触操作もしくは押圧操作を検出すると(ステップS511)、制御部500にメッセージを送る。ただし前述のように、操作部300が単に座標データだけを制御部500に出力し、この座標データに基づいて制御部500が接触操作などを検知するようにしても構わない。
次に、制御部500は、表示情報作成部700に対して表示情報を変更するように指示する(ステップS512)。表示情報作成部700は、制御部500の指示に従って表示情報を変更する。ここでの表示情報の変更例を図29Aおよび図29Bを用いて説明する。
図29Aは、ユーザが触れた(または押した)操作部300上の点に対応するGUI部品(すなわちユーザによって選択されたGUI部品)を強調表示する例である。図29Aの例では、ユーザによって選択されたGUI部品(ここではボタン)が、ボタンが押し込まれたような画像に変更されている。なお図29Aでは便宜上、手画像が図示されているが、実際には、表示情報作成部700が作成する表示情報に手画像は含まれない。このような表示情報の変更により、ユーザは、自分が選択しようとしたGUI部品を正しく選択できたかどうかを容易に確認することができ、操作性が向上する。
図29Bは、ユーザが触れた(または押した)操作部300上の点に対応する画面上の点を強調表示する例である。図29Bの例では、ユーザが触れた(または押した)操作部300上の点に対応する画面上の点に、あたかも指紋が残ったかのように、円形の目印が上書きされている。この円形の目印は、この目印が表示されてから一定時間が経過するか、ユーザが再び操作部300に触れる(または押す)までの間表示される。このような表示情報の変更により、ユーザは、自分が指定しようとした画面上の点を正しく指定できたかどうかを容易に確認することができる。特に、自分が指定しようとした点と実際に指定された点とがずれていた場合に、ずれた方向と距離を確認することができる。
表示情報が変更されると、制御部500は、画像合成部800に対して、身体形状抽出部600によって作成された身体画像と表示情報作成部700によって作成された表示情報とを合成するように指示する(ステップS513)。画像合成部800はこの指示に従って身体画像と表示情報を合成する。
図30は、身体形状を合成表示する部分を、表示部全体ではなく、操作対象とする範囲のみに限定した場合の表示例である。ここでは、左側がテレビ、右側がカーナビの地図画面と、表示部を2画面に分割して表示している。ユーザがテレビを操作しようとしている場合にナビ側に手形状を合成表示すると、不要な表示が重なって邪魔であるため、ナビ側には手形状を表示しないという構成が可能である。また、この場合、前述した指先位置の検出方法により、テレビ側に指先が存在する場合に現在の操作対象がテレビであると判断できるので、指先位置に応じて画像合成する範囲がテレビ側か、ナビ側に限定されればよい。
図31は、身体形状を、表示部全体ではなく、操作対象とする範囲に縮小して合成表示した場合の表示例である。ここでは、DVD画面を例に説明する。操作部に触れる、若しくは手を操作部にかざすと、画面の上部にDVD操作用の子画面が出現する。子画面以外の場所では、操作する対象がなく、DVDの再生が行われているので、手形状を合成すると表示の邪魔である。そこで、子画面が表示されている間は、S608に説明した形状補正処理は、この子画面のサイズに対して視点変換処理を行う。これにより、子画面のみに対して手形状を合成することができる。
以上のように、本発明によれば、ユーザの手が操作面外にはみ出しても、手形状の検知やジェスチャ検知を正確に行うことによって、入力が可能な入力装置、及びその方法を提供することを目的とすることができる。
上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。
本発明の入力装置は、タッチパネルディスプレイのような直感的な入力操作を、画面に直接触れることなしに行えるようにしたものであり、ディスプレイから離れた位置で入力操作を行う場合や、表示手段として遠焦点ディスプレイを利用する場合等に好適である。また、入力操作時に手元を見る必要がないため、カーナビゲーション装置の入力装置等としても好適である。
本発明の一実施形態にかかる入力装置の概念図 入力装置の構成を示すブロック図 車内における入力装置の設置例 車内における入力装置の設置例 車内における入力装置の設置例 車内における入力装置の設置例 身体形状入力部100の設置例 身体形状入力部100の設置例 身体形状入力部100と操作部300を一体的に構成した例 身体形状入力部100を操作部300の下方に設置した例の側面図 身体形状入力部100を操作部300の下方に設置した例の上面図 身体形状抽出部600の処理の流れを示すフローチャート 身体形状抽出部600で処理される画像データの例 身体形状抽出部600で抽出される身体領域607の例 身体形状抽出部600で抽出される輪郭609の例 形状補正処理の一例を示す図 形状補正処理の一例を示す図 身体形状抽出部600で作成される身体画像の例 操作部300の一例 ユーザによる操作方法の一例 操作部300の一例 身体画像を表示するための制御部500の処理の流れを示すシーケンス図 身体形状が検出されていない場合に表示情報作成部700によって作成される表示情報の例 身体形状が検出された場合に表示情報作成部700によって作成される表示情報の例 身体形状が検出されていない場合に表示情報作成部700によって作成される表示情報の例 身体形状が検出された場合に表示情報作成部700によって作成される表示情報の例 右手が検出された場合に表示情報作成部700によって作成される表示情報の例 左手が検出された場合に表示情報作成部700によって作成される表示情報の例 比較的大きい手が検出された場合に表示情報作成部700によって作成される表示情報の例 比較的小さい手が検出された場合に表示情報作成部700によって作成される表示情報の例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 画像合成部800によって合成された画像例 ユーザによる入力操作が検知されたときの制御部500の処理の流れを示すシーケンス図 ユーザによる入力操作があった時に表示情報作成部700によって作成される表示情報の例 ユーザによる入力操作があった時に表示情報作成部700によって作成される表示情報の例 身体形状を合成表示する部分を,操作対象とする範囲のみに限定した場合の表示例 身体形状を,操作対象とする範囲に縮小して合成表示した場合の表示例
符号の説明
1 カメラ
2 ディスプレイ
3 GUI部品
4 タッチパッド
6 手
7 手画像
100 身体形状入力部
110 光源
120 ミラー
130 筐体
140 可視光カットフィルター
150 受光部
160 発光部
171 感度範囲
200 表示部
300 操作部
400 演算部
500 制御部
600 身体形状抽出部
700 表示情報作成部
800 画像合成部
1000 入力装置

Claims (17)

  1. 機器に対して命令や情報を入力するための入力装置であって、
    ユーザの身体形状情報を取り込む身体形状入力部と、
    ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成部と、
    前記表示画像に対応する操作面を有する操作部と、
    前記身体形状入力部が取得した身体情報から前記操作面に対応する部分を抽出して身体画像を作成する身体形状抽出部と、
    前記表示情報作成部が作成した表示画像と前記身体形状抽出部が作成した身体画像を合成する画像合成部と、
    前記画像合成部が合成した画像を表示する表示部とを備える、入力装置。
  2. 前記表示情報作成部は、前記身体形状抽出部が検出した前記操作面に対応する部分より広い範囲の身体情報により表示画像を作成することを特徴とする、請求項1に記載の入力装置。
  3. 前記身体形状抽出部は、予め保持しておいた身体部分の形状パターンを用いたパターンマッチングによって、前記身体形状入力部から出力される画像データから検出された形状が身体部分の形状であるか否かを判定することを特徴とする、請求項1又は2に記載の入力装置。
  4. 前記身体形状抽出部は、前記形状パターンに基づいて、前記身体形状入力部から出力される画像データから検出された身体部分の形状を補正することを特徴とする、請求項3に記載の入力装置。
  5. 前記操作部の所定位置には、前記形状補正処理で利用される目印が付されており、
    前記身体形状抽出部は、前記身体形状入力部から出力された画像データ中の前記目印の位置が前記表示部の画面上の所定位置に変換されるように形状補正処理を行うことを特徴とする、請求項1又は2に記載の入力装置。
  6. 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、前記身体画像の輪郭内部の透明度を変化させることを特徴とする、請求項1又は2に記載の入力装置。
  7. 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、前記身体画像の輪郭を強調することを特徴とする、請求項1又は2に記載の入力装置。
  8. 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、前記身体画像におけるユーザの指先部分を検出し、前記指先部分を強調することを特徴とする、請求項1又は2に記載の入力装置。
  9. 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、前記身体画像によって隠れる前記表示画面中の表示情報を、前記身体画像によって隠れない領域にポップアップ表示させることを特徴とする、請求項1又は2に記載の入力装置。
  10. 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、前記身体画像によって隠れてしまう前記表示画像中の情報を、前記身体画像よりも前面に表示させることを特徴とする、請求項1又は2に記載の入力装置。
  11. 前記身体形状抽出部は、前記身体形状入力部が取得した情報に基づいて検出した形状が、身体部分の形状かどうかを判断し、
    前記表示情報作成部は、前記身体形状抽出部の判断結果に応じて、作成する表示画像を変更することを特徴とする、請求項2に記載の入力装置。
  12. 前記表示情報作成手段は、前記身体形状抽出部において検出された身体部分の形状が右手または左手のものの場合にのみ表示画像を作成することを特徴とする、請求項2に記載の入力装置。
  13. 前記表示情報作成部は、前記身体形状抽出部において前記身体部分の形状が検出された場合に、前記検出された身体部分の形状に基づいて表示画像中のGUI部品を強調表示、当該GUI部品の位置を変更、及び/又は当該GUI部品の有効性を変更することを特徴とする、請求項2に記載の入力装置。
  14. 前記表示情報作成部は、複数の表示領域からなる表示画像を作成し、
    前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画像におけるユーザの指先部分を検出し、当該指先部分が存在する表示領域に限定して身体形状を合成することを特徴とする、請求項1又は2に記載の入力装置。
  15. 前記表示情報作成部は、複数の表示領域からなる表示画像を作成し、
    前記画像合成部は、前記表示画像と前記身体画像を合成するときに、現在の表示対象となる領域に前記身体形状を縮小して合成することを特徴とする、請求項1又は2に記載の入力装置。
  16. 機器に対して命令や情報を入力するための入力方法であって、
    ユーザの身体形状情報を取り込む身体形状入力ステップと、
    ユーザによる命令や情報の入力に必要な表示画像を作成する表示情報作成ステップと、
    前記身体形状入力ステップで取得した身体情報から前記表示画像に対応する部分を抽出して身体画像を作成する身体形状抽出ステップと、
    前記表示情報作成ステップで作成した表示画像と前記身体形状抽出ステップで作成した身体画像を合成する画像合成ステップと、
    前記画像合成ステップが合成した画像を表示する表示ステップとを備える、入力方法。
  17. 前記表示情報作成ステップは、前記身体形状抽出ステップで検出した前記表示画像に対応する部分より広い範囲の身体情報により表示画像を作成することを特徴とする、請求項16に記載の入力方法。
JP2007556917A 2006-02-03 2007-02-01 入力装置、及びその方法 Expired - Fee Related JP5201999B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007556917A JP5201999B2 (ja) 2006-02-03 2007-02-01 入力装置、及びその方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006027316 2006-02-03
JP2006027316 2006-02-03
PCT/JP2007/051725 WO2007088942A1 (ja) 2006-02-03 2007-02-01 入力装置、及びその方法
JP2007556917A JP5201999B2 (ja) 2006-02-03 2007-02-01 入力装置、及びその方法

Publications (2)

Publication Number Publication Date
JPWO2007088942A1 true JPWO2007088942A1 (ja) 2009-06-25
JP5201999B2 JP5201999B2 (ja) 2013-06-05

Family

ID=38327511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007556917A Expired - Fee Related JP5201999B2 (ja) 2006-02-03 2007-02-01 入力装置、及びその方法

Country Status (5)

Country Link
US (1) US8085243B2 (ja)
EP (1) EP1983402A4 (ja)
JP (1) JP5201999B2 (ja)
CN (1) CN101379455B (ja)
WO (1) WO2007088942A1 (ja)

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8066384B2 (en) 2004-08-18 2011-11-29 Klip Collective, Inc. Image projection kit and method and system of distributing image content for use with the same
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
KR101267378B1 (ko) * 2008-03-19 2013-05-24 가부시키가이샤 덴소 차량용 조작 입력 장치
JP5257779B2 (ja) * 2008-03-19 2013-08-07 株式会社デンソー 表示方法、表示装置、及び操作入力装置
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
JP5077956B2 (ja) * 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
DE102008023405B4 (de) * 2008-05-13 2020-10-01 Volkswagen Ag Kraftfahrzeug mit einem Display sowie Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Display
US20090295682A1 (en) * 2008-05-30 2009-12-03 Fuji Xerox Co., Ltd. Method for improving sensor data collection using reflecting user interfaces
GB2462579A (en) 2008-06-10 2010-02-17 Sony Service Ct Touch screen display including proximity sensor
JP4922266B2 (ja) * 2008-08-25 2012-04-25 パナソニック株式会社 入力装置及び入力方法
JP4692937B2 (ja) * 2008-09-29 2011-06-01 株式会社デンソー 車載用電子機器操作装置
JP5364925B2 (ja) * 2009-02-27 2013-12-11 現代自動車株式会社 車載機器の入力装置
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置
JP2011028366A (ja) * 2009-07-22 2011-02-10 Sony Corp 操作制御装置および操作制御方法
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
US9551590B2 (en) * 2009-08-28 2017-01-24 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
JP5568929B2 (ja) 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
EP2480955B1 (en) 2009-09-22 2018-05-16 Facebook Inc. Remote control of computer devices
JP5412227B2 (ja) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
US8564424B2 (en) * 2009-12-07 2013-10-22 Inventioneers Etc., Llc Steering wheel hand position sensing device
US8818027B2 (en) 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
US9678662B2 (en) 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US9639195B2 (en) 2010-04-23 2017-05-02 Handscape Inc. Method using finger force upon a touchpad for controlling a computerized system
US9542032B2 (en) 2010-04-23 2017-01-10 Handscape Inc. Method using a predicted finger location above a touchpad for controlling a computerized system
US9529523B2 (en) * 2010-04-23 2016-12-27 Handscape Inc. Method using a finger above a touchpad for controlling a computerized system
US9891820B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US9311724B2 (en) * 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9891821B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a control region of a computerized device from a touchpad
US9430147B2 (en) 2010-04-23 2016-08-30 Handscape Inc. Method for user input from alternative touchpads of a computerized system
US9310905B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Detachable back mounted touchpad for a handheld computerized device
WO2011148607A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 ジェスチャ認識装置及びジェスチャ認識方法
US9870068B2 (en) 2010-09-19 2018-01-16 Facebook, Inc. Depth mapping with a head mounted display using stereo cameras and structured light
CN103314344B (zh) * 2010-12-10 2015-11-25 索尼爱立信移动通讯有限公司 触敏触觉显示器
JP5845585B2 (ja) * 2011-02-04 2016-01-20 セイコーエプソン株式会社 情報処理装置
US10025388B2 (en) * 2011-02-10 2018-07-17 Continental Automotive Systems, Inc. Touchless human machine interface
CN102768573A (zh) * 2011-05-06 2012-11-07 鸿富锦精密工业(深圳)有限公司 投影机监控系统及方法
US8558759B1 (en) 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
US20130088434A1 (en) * 2011-10-06 2013-04-11 Sony Ericsson Mobile Communications Ab Accessory to improve user experience with an electronic display
CN103092376B (zh) * 2011-10-27 2017-07-25 联想(北京)有限公司 生成控制命令的方法和装置、以及电子设备
CN103092491B (zh) * 2011-10-27 2017-02-01 联想(北京)有限公司 生成控制命令的方法和装置、以及电子设备
KR101349515B1 (ko) 2011-12-30 2014-01-16 대성전기공업 주식회사 차량 디스플레이 유니트 및 차량 디스플레이 유니트 제어 방법
US20130179811A1 (en) * 2012-01-05 2013-07-11 Visteon Global Technologies, Inc. Projection dynamic icon knobs
US9239624B2 (en) * 2012-04-13 2016-01-19 Nokia Technologies Oy Free hand gesture control of automotive user interface
JP5886139B2 (ja) * 2012-05-30 2016-03-16 シャープ株式会社 タッチセンサシステム
DE102012215407A1 (de) * 2012-08-30 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Eingabe für ein Bedienelement
JP6027406B2 (ja) * 2012-11-12 2016-11-16 東芝アルパイン・オートモティブテクノロジー株式会社 車室内カメラのスキャン方法、車室内カメラにおける対象物の探索方法及び車室内カメラ
JP6018509B2 (ja) * 2013-01-16 2016-11-02 アズビル株式会社 情報表示装置、方法、およびプログラム
EP2767888A3 (en) * 2013-02-19 2014-10-01 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9519355B2 (en) * 2013-03-15 2016-12-13 Derek A Devries Mobile device event control with digital images
US20140362110A1 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
DE102013015205B3 (de) * 2013-09-13 2015-02-05 Audi Ag Verfahren und System zum Betreiben einer Mehrzahl von Anzeigeeinrichtungen eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben einer Mehrzahl von Anzeigeeinrichtungen
DE102013015634B4 (de) * 2013-09-20 2015-06-18 Audi Ag Verfahren und System zum Betreiben wenigstens einer Anzeigeeinrichtung eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben wenigstens einer Anzeigeeinrichtung
CN105659106B (zh) 2013-10-23 2018-12-28 脸谱公司 使用动态结构光的三维深度映射
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
USD761320S1 (en) * 2013-11-08 2016-07-12 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
USD759118S1 (en) * 2013-11-08 2016-06-14 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US20150185858A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara System and method of plane field activation for a gesture-based control system
DE102014202836A1 (de) * 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
KR101655810B1 (ko) 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
DE102014213021A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines HMD im Fahrzeug
CN204480228U (zh) * 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
JP3194297U (ja) 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
JP6149825B2 (ja) * 2014-08-22 2017-06-21 トヨタ自動車株式会社 車両用操作装置
CN104317402B (zh) * 2014-10-24 2020-07-03 小米科技有限责任公司 描述信息的显示方法及装置、电子设备
TWI591514B (zh) 2014-11-07 2017-07-11 鴻海精密工業股份有限公司 手勢創建系統及方法
US9606697B1 (en) 2014-11-11 2017-03-28 Google Inc. Display cursor for motion controller
CN105739673B (zh) * 2014-12-10 2018-06-05 南宁富桂精密工业有限公司 手势创建系统及方法
JP5976145B2 (ja) * 2015-02-05 2016-08-23 キヤノン株式会社 撮像装置、その制御方法及びプログラム並びに記録媒体
USD791785S1 (en) * 2015-02-24 2017-07-11 Linkedin Corporation Display screen or portion thereof with a graphical user interface
US10049460B2 (en) 2015-02-25 2018-08-14 Facebook, Inc. Identifying an object in a volume based on characteristics of light reflected by the object
KR102279790B1 (ko) 2015-03-10 2021-07-19 엘지전자 주식회사 차량용 디스플레이 장치
CN107637074B (zh) 2015-03-22 2020-09-18 脸谱科技有限责任公司 使用立体摄像机与结构化光的头戴显示器的深度绘制
FR3028222A1 (fr) * 2015-03-26 2016-05-13 Continental Automotive France Systeme de palette tactile formant une interface homme-machine adapte sur un volant de vehicule
US10338673B2 (en) * 2015-09-16 2019-07-02 Google Llc Touchscreen hover detection in an augmented and/or virtual reality environment
JP6858352B2 (ja) 2016-01-25 2021-04-14 裕行 池田 画像投影装置
DE102016001314B4 (de) 2016-02-05 2017-10-12 Audi Ag Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
JP6739864B2 (ja) * 2016-04-05 2020-08-12 マレリ株式会社 車載用情報処理システム
JP2017197016A (ja) * 2016-04-27 2017-11-02 カルソニックカンセイ株式会社 車載用情報処理システム
US10318145B2 (en) * 2016-07-28 2019-06-11 Florida Institute for Human & Machine Cognition, Inc Smart mirror
JP6844159B2 (ja) * 2016-09-12 2021-03-17 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
USD896820S1 (en) 2017-08-09 2020-09-22 Sony Corporation Projector table with graphical user interface
US10623743B1 (en) * 2018-05-22 2020-04-14 Facebook Technologies, Llc Compression of captured images including light captured from locations on a device or object
JP7224799B2 (ja) * 2018-07-13 2023-02-20 キヤノン株式会社 画像投影装置、画像投影装置の制御方法、プログラム
WO2021002487A1 (ko) * 2019-07-01 2021-01-07 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
CN112383664B (zh) * 2020-10-15 2021-11-19 华为技术有限公司 一种设备控制方法、第一终端设备、第二终端设备及计算机可读存储介质
FR3124872A1 (fr) * 2021-07-02 2023-01-06 Faurecia Interieur Industrie Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
US11847293B2 (en) * 2021-08-05 2023-12-19 Rolland & Hamann Innovations, LLC Selectable input alterations

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
JP3132021B2 (ja) 1991-02-15 2001-02-05 ソニー株式会社 座標入力装置
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP3777650B2 (ja) 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
WO1996034332A1 (fr) 1995-04-28 1996-10-31 Matsushita Electric Industrial Co., Ltd. Dispositif d'interface
JP3637985B2 (ja) 1995-09-13 2005-04-13 株式会社ジーシー 光硬化型歯科用ワックス組成物
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6154196A (en) * 1998-06-08 2000-11-28 Wacom Co., Ltd. Coordinate input device convertible between right-handed and left-handed modes
JP2000006687A (ja) 1998-06-25 2000-01-11 Yazaki Corp 車載機器スイッチ安全操作システム
CN2399783Y (zh) * 1999-08-27 2000-10-04 叶富国 结构改进的输入装置
JP3284272B2 (ja) * 1999-11-24 2002-05-20 栄治 秋山 データ入力方法および装置・データ入力プログラム記録媒体
US6833851B1 (en) * 2000-06-06 2004-12-21 Garmin Corporation GPS Receiver and depth sounder unit having an adjustable display screen
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP4262414B2 (ja) 2000-12-26 2009-05-13 株式会社日本製鋼所 高Crフェライト系耐熱鋼
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP2005141151A (ja) 2003-11-10 2005-06-02 Seiko Epson Corp プロジェクタおよびプロジェクタの機能設定方法

Also Published As

Publication number Publication date
US8085243B2 (en) 2011-12-27
CN101379455A (zh) 2009-03-04
WO2007088942A1 (ja) 2007-08-09
JP5201999B2 (ja) 2013-06-05
EP1983402A4 (en) 2013-06-26
EP1983402A1 (en) 2008-10-22
CN101379455B (zh) 2011-06-01
US20090167682A1 (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP5201999B2 (ja) 入力装置、及びその方法
WO2006013783A1 (ja) 入力装置
JP4351599B2 (ja) 入力装置
JP4702959B2 (ja) ユーザインタフェイスシステム
TWI450132B (zh) A portrait recognition device, an operation judgment method, and a computer program
US20100079413A1 (en) Control device
JP4783456B2 (ja) 映像再生装置及び映像再生方法
JP3968477B2 (ja) 情報入力装置及び情報入力方法
US20140043234A1 (en) Computer vision gesture based control of a device
US20130135199A1 (en) System and method for user interaction with projected content
JPWO2007088939A1 (ja) 情報処理装置
JPH08315154A (ja) ジェスチャ認識システム
US20140053115A1 (en) Computer vision gesture based control of a device
JP4626860B2 (ja) 操作装置
JP4789885B2 (ja) インタフェース装置、インタフェース方法及びインタフェースプログラム
JP4945694B2 (ja) 映像再生装置及び映像再生方法
JPH0981307A (ja) 機器制御装置
JP5342806B2 (ja) 表示方法および表示装置
JP4712754B2 (ja) 情報処理装置及び情報処理方法
JP5118663B2 (ja) 情報端末装置
JP2020071641A (ja) 入力操作装置及びユーザインタフェースシステム
JP4973508B2 (ja) 画像表示装置および画像表示方法
JP2018147500A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
JP2017142820A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
JP2007206777A (ja) 情報入力システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091005

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371