JP6179412B2 - 入力表示装置 - Google Patents

入力表示装置 Download PDF

Info

Publication number
JP6179412B2
JP6179412B2 JP2014014221A JP2014014221A JP6179412B2 JP 6179412 B2 JP6179412 B2 JP 6179412B2 JP 2014014221 A JP2014014221 A JP 2014014221A JP 2014014221 A JP2014014221 A JP 2014014221A JP 6179412 B2 JP6179412 B2 JP 6179412B2
Authority
JP
Japan
Prior art keywords
change
detection position
input
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014014221A
Other languages
English (en)
Other versions
JP2014167792A (ja
Inventor
田中 裕二
裕二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014014221A priority Critical patent/JP6179412B2/ja
Publication of JP2014167792A publication Critical patent/JP2014167792A/ja
Application granted granted Critical
Publication of JP6179412B2 publication Critical patent/JP6179412B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Description

本発明は、タッチセンサを搭載した入力表示装置に関する。
従来、カメラの液晶モニタなどにタッチセンサが搭載されている(例えば、特許文献1)。さらに、近年普及し始めている電子書籍の閲覧専用端末や、ホームページの閲覧やメール操作が行える多機能端末などの液晶モニタにも、タッチセンサが搭載されている。一方で、表示画像が投射された投射光がレンズを介して表示部(コンバイナ)で反射し、ユーザがその反射光によって表示画像を確認できるHUD(Head Up Display)と呼ばれる表示装置が航空機用の表示装置や自動車のカーナビゲーションシステムなどに搭載されている。ここで、HUDの表示部にタッチセンサを設けた場合、タッチセンサの操作時に投射光が遮られてしまう。そこで、操作によって投射光が遮られないように、タッチセンサを表示部の正面を避け外周面に設けることが考えられる。
特開2009−55622号公報
ところで、HUDに限らず、液晶モニタにおいても、設計の都合上、表示部の正面を避け外周面にタッチセンサを設けることがある。しかし、外周面にボタンなどの画像を表示しても視認し難く、操作性が低下してしまう。そこで、高感度の静電容量式のタッチセンサを用いて、非接触のジェスチャーによる操作入力(ジェスチャー入力)を行う構成が考えられる。
外周面にタッチセンサを設ける場合、センサ領域の長手方向、すなわち、表示部の外周面の長手方向に対し、ジェスチャー入力を行うことで、静電容量が連続して変化したことを検知できる。例えば、このような長手方向のジェスチャー入力に応じて表示画像を左右上下に移動したりする。しかし、かかる長手方向のジェスチャー入力だけでは、例えば、表示画像の拡大や縮小等の操作といった奥行き方向(画面手前方向、および、画面奥方向)の操作を直感的に行うことができなかった。また、奥行き方向にセンサ領域を確保しようにも、表示部の外周面の手前方向の幅に制限され、操作の方向までは検知できなかった。
そこで本発明は、このような課題に鑑み、奥行き方向の操作を直感的なジェスチャーを通じて実現することが可能な入力表示装置を提供することを目的としている。
上記課題を解決するために、本発明の入力表示装置は、正面に画像を表示する表示部と、前記表示部の外周部に設けられた検知部と、前記検知部が検知した検知位置の変化が、前記表示部の正面側から前記表示部の裏面側に向かう奥方向、および、前記表示部の裏面側から前記表示部の正面側に向かう手前方向のいずれであるかを判定する入力判定部と、を備え、前記入力判定部は、前記検知位置の変化の速度を導出するとともに、前記奥方向および前記手前方向のいずれか一方の方向に前記検知位置の変化が検知された後に、さらに他方の方向に前記検知位置の変化が検知されたとき、後の前記検知位置の変化の速度が先の前記検知位置の変化の速度よりも遅い場合に、前記後の検知位置の変化を、前記後の検知位置の変化の方向に対応する操作入力と判定することを特徴とする。
本発明によれば、奥行き方向の操作を直感的なジェスチャーを通じて実現することが可能となる。
入力表示装置の概略を示した機能ブロック図である。 表示機構による虚像の結像を説明するための説明図である。 表示部における検知部の配置を説明するための説明図である。 ジェスチャー入力について説明するための説明図である。 入力判定方法の処理の流れを説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(入力表示装置100)
図1は、入力表示装置100の概略を示した機能ブロック図である。図1に示すように、入力表示装置100は、操作部110と、画像保持部112と、入力部114と、表示機構116と、検知部118と、中央制御部120とを含んで構成される。本実施形態では、入力表示装置100の一例として、例えば、HUD(Head Up Display)で構成される表示機構116を備える場合について説明する。
操作部110は、操作キー、十字キー、ジョイスティック等で構成され、ユーザの操作入力を受け付ける。
画像保持部112は、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、画像データを保持する。入力部114は、画像再生装置などの外部機器から画像データを取得するためのインターフェースである。
表示機構116は、画像保持部112に保持された画像データに基づく画像、または、入力部114から取得された画像データに基づく画像を表示する。また、表示機構116は、後述する中央制御部120の制御に応じ、中央制御部120で実行されるアプリケーションの画像を表示する。
具体的に、表示機構116は、発光部130、ミラー部132、MEMS(Micro Electro Mechanical Systems)制御部134、同期処理部136、発光制御部138、中間スクリーン140、表示部142を有する。
発光部130は、例えばレーザなどで構成され、画像データに基づく画像の虚像を視認させる光を発光する。ミラー部132は、平面ミラーや凹面ミラーなどで構成され、発光部130が発光した光を反射して、後述する中間スクリーン140に導く。
MEMS制御部134は、ミラー部132の向きを制御する。具体的に、MEMS制御部134は、例えば、コイルと磁石による自励発振によって、発光部130の光が中間スクリーン140を水平方向に走査するように、ミラー部132を変位させる。また、MEMS制御部134は、自励発振の周期を示す同期信号(例えば正弦波)を、同期処理部136に出力する。
そして、同期処理部136は、同期信号に基づいて、自励発振の周期に同期する水平同期信号を生成し、さらに、水平同期信号に基づいて垂直同期信号を生成し、MEMS制御部134に出力する。MEMS制御部134は、垂直同期信号に基づいて、発光部130の光が中間スクリーン140を垂直方向に走査するように、ミラー部132を変位させる。
また、同期処理部136は、後述する表示制御部152から出力された画像データと、画像データを水平同期信号および垂直同期信号に基づいて走査するときの各画素に対応する発光のタイミングを発光制御部138に出力する。
発光制御部138は、各画素に対応するタイミングに基づいてRGBそれぞれの輝度になるように、発光部130を発光させる。
表示部142は、コンバイナで構成され、例えば、表面コーティング加工によって透過または反射する光の波長を制限するなどして、前方(表示部142を挟んでユーザの反対側)からの光を透過すると共に、中間スクリーン140に投影された発光部130からの光を後方(ユーザ側)に反射する。
図2は、表示機構116による虚像iの結像を説明するための説明図である。図2に示すように、ユーザUが表示部142に視線を向けている状態で、ユーザUの目には、表示部142によって反射された発光部130からの光が入射する。
すると、発光部130から発光された光によって、ユーザUから見て表示部142の後方に画像データに基づく画像の虚像iが結像され、ユーザUに視認されることとなる。このように、表示部142は、画像データに基づく画像を視認させる(画像を表示する)。
検知部118は、静電容量式のタッチセンサで構成され、静電容量の変化を検知する。
図3は、表示部142における検知部118の配置を説明するための説明図である。図3に示すように、検知部118は、表示部142の外周部に設けられる。より詳細に説明すると、検知部118は、表示部142の外周側に位置する外周面144に設けられる。ここでは、正面146側のみを図示するが、裏面も正面146と同様の外観となっている。また、表示部142は、ユーザUから見たときに凹面となる形状でもよい。
また、検知部118は、発光部130からの光を反射する反射面である正面146の外縁部146a、および正面146の反対側に位置する裏面の外縁部にも設けられている。ここで、外縁部146aは、正面146のうち、外周面144と正面146の境界から正面146側に向かう領域である。
本実施形態においては、検知部118は、長手方向に垂直な断面がコ字型(U字型)のセンサ部材118aで構成されており、表示部142の外周面144、正面146、裏面に跨って配されている。
また、センサ部材118aは、表示部142の左側、右側、および、上方にそれぞれ設けられる。このように、表示部142の外周部にコ字型のセンサ部材118aを配することで、表示部142のエッジ部分を被覆して保護することが可能となる。また、センサ部材118aには、屈曲部分に切り欠き118bが設けられているため、平面の素材をコ字型に折り曲げてセンサ部材118aを成形し易くなっている。
検知部118は、静電容量の変化を検知すると、静電容量の変化を検知した位置である検知位置とその変化の大きさを示す変化情報を、後述する入力判定部150に配線118cを介して出力する。
図4は、ジェスチャー入力について説明するための説明図である。入力表示装置100の検知部118は高感度な静電容量式センサであるため、検知部118に直接接触しなくとも、手を近づけるだけで静電容量の変化として検知される。そのため、図4(a)〜(c)に示すように、検知部118の近くで手を動かすジェスチャー入力による操作入力が可能となっている。
例えば、図4(a)に示すように、表示部142の左右の外周面144に沿って、手を上下に動かしたり、図4(b)に示すように、表示部142の上側の外周面144に沿って、手を左右に動かすと、検知部118のうち、手に近い部位の静電容量が変化するため、検知部118によって検知される。
例えば、表示機構116が電子書籍を表示している場合、図4(a)に示すジェスチャー入力において、手を上から下に動かすと次ページに進み、手を下から上に動かすと前ページに戻る操作入力となる。また、図4(b)に示すジェスチャー入力によって、手を左から右に動かすと次ページに進み、手を右から左に動かすと前ページに戻る操作入力となる。
また、表示部142の左の外周面144に対し、手を左から右に近づけると、次ページに進み、手を右から左に遠ざけると、前ページに戻る操作入力となる。同様に、表示部142の右の外周面144に対し、手を右から左に近づけると、前ページに戻り、手を左から右に遠ざけると、次ページに進む操作入力となる。
さらに、電子書籍が縦方向にページをめくるものであるとき、表示部142の上の外周面144に対し、手を上から下に近づけると、前ページに戻り、手を下から上に遠ざけると、次ページに進む操作入力となる。
ここで挙げたジェスチャー入力に対応する電子書籍の操作は、一例に過ぎず、他のどのような電子書籍の操作に対応させてもよいし、操作の対象となる画像は、電子書籍の画像に限らない。
本実施形態の入力表示装置100は、図4に示したように、表示部142の外周面144で手を動かすジェスチャー入力が可能となるため、正面146にのみ検知部118が設けられる場合に比べ、手首を無理に屈曲させる必要がなく自然な操作入力が可能となる。
また、本実施形態の入力表示装置100は、図4(c)に示すように、表示部142の外周面144に沿って、表示部142の奥行き方向に手を動かすことによるジェスチャー入力も可能となっている。この場合、外周面144、正面146、裏面それぞれの部位の検知部118の静電容量の変化を総合して、奥行き方向のジェスチャー入力が判断される。
図1に戻って説明すると、中央制御部120は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により、入力表示装置100全体を管理および制御したり、アプリケーションを実行したりする。また、中央制御部120は、入力判定部150、表示制御部152としても機能する。
また、入力判定部150は、検知部118からの変化情報を取得すると、変化情報が示す、静電容量が変化した位置の移動方向(検知位置の変化の向き)に基づいて、操作入力を判定する。また、入力判定部150は、検知位置の変化の向きが、表示部142の正面146側から裏面側に向かう奥方向、および、裏面側から正面146側に向かう手前方向のいずれであるかに基づいて、操作入力を判定する。入力判定部150による入力判定処理については後に詳述する。
表示制御部152は、操作入力に応じ、画像保持部112や入力部114から取得した画像データに対し、表示機構116による表示に対応させたり、アプリケーションの実行状態に応じた画像となるように加工するなどのデータ処理を施し、同期処理部136に出力する。
具体的に、表示制御部152は、例えば、表示部142に表示された画像データに基づく画像を、入力判定部150の入力判定に基づいて縮小または拡大するように、画像データに対する画像処理を行う。
続いて、入力表示装置100の入力判定部150による入力判定方法について説明する。図5は、入力判定方法の処理の流れを説明するためのフローチャートである。
図5に示すように、入力判定部150は、検知部118から変化情報が取得されたか否かを判定する(S200)。取得されていない場合(S200におけるNO)、当該取得判定処理ステップS200を繰り返す。
変化情報が取得された場合(S200におけるYES)、変化情報が取得されてから、予め設定された設定時間が経過するまでに、検知部118の表面の静電容量の変化(検知位置の変化)の向きが同じ変化情報が取得されると、連続して変化情報が取得されたものとする。入力判定部150は、前の変化情報の取得から設定時間内に次の変化情報が取得されなくなるまで、判定を繰り返し、一連の変化情報を連続変化情報として関連付ける(S202)。
そして、入力判定部150は、連続変化情報に示される検知位置の軌跡の距離と、連続変化情報を取得した時間間隔とに基づいて、検知部118の検知位置の変化の速度を導出する(S204)。検知部118の検知位置の変化の速度は、検知位置の移動速度であり、以下、単に移動速度と称す。
続いて、入力判定部150は、導出した移動速度が所定の値である閾値よりも大きいか否かを判定する(S206)。閾値よりも大きい場合(S206におけるYES)、この移動速度の導出元となった連続変化情報に関わる入力については、操作入力と見なさず、取得判定処理ステップS200に処理を戻す。
例えば、ユーザUから見て表示部142の手の届きにくい側からユーザUの手元側に向かう(手前方向に向かう)ジェスチャー入力は、一旦、手の届きにくい位置に向けて(奥方向に)手を移動させてからジェスチャーする必要がある。しかし、このような操作入力ではない手の移動などを操作入力と誤判定される可能性がある。そこで、本実施形態では、入力判定部150が、移動速度が閾値よりも大きな値の場合は、その検知位置の変化を操作入力と判定しない。そのため、移動速度が閾値よりも大きくなるように、手を奥方向に素早く移動させることで、入力判定部150に奥方向への移動を判定せず、手前方向のジェスチャー入力が容易にできるようになる。
導出した移動速度が閾値以下の場合(S206におけるNO)、入力判定部150は、検知位置の変化の向きが、表示部142の奥方向、および、手前方向のいずれか一方であるか否かを判定する(S208)。
入力判定部150は、連続変化情報に示される検知位置が、表示部142の外周面144と、正面146および裏面のいずれか一方または両方を跨ぐ場合、検知位置の変化の向きが奥方向または手前方向であったと判定する。ここで、外周面144にしか検知部118が設けられていない場合、外周面144を手が通過したことは、静電容量の変化から特定できる。しかし、静電容量の変化(検知位置の変化)の向きは特定することが困難である。本実施形態では、正面146や裏面に設けられた検知部118によって、正面146側から外周面144に近づくジェスチャー入力なのか、裏面側から外周面144に近づくジェスチャー入力なのかを識別可能となる。
なお、一般的な静電容量型タッチセンサは、遮蔽物を挟んだ場合の静電容量の変化は通常よりも小さくなる。例えば、正面146側に手があるときには裏面側の検知部118の静電容量の変化よりも正面146側の静電容量の変化の方が大きいため、検知部118の断面をコの字型とすることによってジェスチャー方向の誤検知を低減する効果を発揮する。
このように、入力判定部150は、奥方向、および、手前方向のいずれであるかに基づいて、操作入力を判定する。そのため、入力表示装置100は、薄型化への対応などから表示部142の奥行き方向の幅が小さく、奥行き方向に検知部118の領域を大きく確保できなくても、精度よくジェスチャーによる操作入力を行うことが可能となる。
検知部118が検知した検知位置の変化の向きが、奥方向、および、手前方向のいずれでもない場合(S208におけるNO)、入力判定部150は、検知位置の変化の向きに基づいて、上下方向または左右方向の操作入力と判定する(S210)。上下方向または左右方向の操作入力については、本実施形態の特徴に関係がないため、詳細な説明は省略する。そして、取得判定処理ステップS200に処理を戻す。
検知位置の変化の向きが、奥方向、および、手前方向のいずれか一方である場合(S208におけるYES)、入力判定部150は、検知位置の変化の向きが、奥方向であるか否かを判定する(S212)。
検知位置の変化の向きは、奥方向、または、手前方向のいずれか一方が、縮小方向、他方が拡大方向として予め設定されている。ここでは、例えば、奥方向が縮小方向、手前方向が拡大方向と設定されているものとする。
縮小方向(奥方向)である場合(S212におけるYES)、表示部142が表示する画像を縮小する操作入力と判定する(S214)。そして、縮小方向の移動速度に応じて画像の縮小率を導出し、同期処理部136に出力する(S216)。
続いて、入力判定部150は、画像を縮小する操作入力と判定した後、予め設定された待機時間のうちに、検知部118から変化情報が取得されたか否かを判定する(S218)。変化情報が取得されない場合(S218におけるNO)、取得判定処理ステップS200に処理を戻す。変化情報が取得された場合(S218におけるYES)、関連付けステップS202と同様、一連の変化情報を連続変化情報として関連付ける(S220)。そして、その連続変化情報から移動速度を導出する(S222)。
続いて、入力判定部150は、連続変化情報に示される検知位置の変化の向きが、拡大方向(手前方向)であるか否かを判定する(S224)。拡大方向でない場合(S224におけるNO)、奥行き方向判定ステップS208に処理を戻す。拡大方向である場合(S224におけるYES)、導出ステップS222で導出した拡大方向の移動速度の方が、導出ステップS204で導出した縮小方向の移動速度よりも遅いか否かを判定する(S226)。
拡大方向の検知位置の変化の方が縮小方向の検知位置の変化よりも遅い場合(S226におけるYES)、画像を拡大する操作入力と判定し、拡大方向の移動速度に応じて画像の拡大率を導出し、同期処理部136に出力し(S228)、取得判定処理ステップS200に処理を戻す。
このように、入力判定部150は、奥方向および手前方向のいずれか一方の方向に検知位置の変化が検知された後に、さらに他方の方向に検知位置の変化が検知されたとき、後の検知位置の変化の移動速度が、先の検知位置の変化の移動速度よりも遅い場合に、後の検知位置の変化を、後の検知位置の変化の方向(奥方向または手前方向)に対応する操作入力と判定する。
拡大方向の検知位置の変化の方が縮小方向の検知位置の変化よりも速いか、または同じ速度の場合(S226におけるNO)には、画像を拡大する操作入力と判定せず、取得判定処理ステップS200に処理を戻す。
このように、入力判定部150は、奥方向および手前方向のいずれか一方の方向に検知位置の変化が検知された後に、さらに他方の方向に検知位置の変化が検知されたとき、後の検知位置の変化の移動速度が、先の検知位置の変化の移動速度より速いか同じ場合に、後の検知位置の変化を、操作入力と判定しない。
例えば、縮小方向の検知位置の変化の後、その移動速度よりも遅い拡大方向の検知位置の変化があると、画像の拡大の操作入力と認識することで、画像を縮小し過ぎたときの微調整を可能とする。しかし、奥方向が縮小方向の場合、その操作入力が終わると手を手前に戻すこととなる。このとき、拡大方向の操作入力と誤判定されると、画像の縮小と拡大を繰り返すこととなってしまう。そこで、本実施形態では、拡大方向(手前方向)の移動速度が縮小方向(奥方向)の移動速度より速いか、または同じ速度で手前に戻すと、拡大方向の操作入力を無視するものとし、ユーザは、手を手前に戻すときに素早く戻すことで、意図せぬ画像の拡大を回避することが可能となる。
変化判定ステップS212において、検知位置の変化の向きが、奥方向でない場合(S212におけるNO)、すなわち、拡大方向(手前方向)である場合、入力判定部150は、表示部142が表示する画像を拡大する操作入力と判定する(S230)。そして、入力判定部150は、拡大方向の移動速度に応じて画像の拡大率を同期処理部136に出力する(S232)。
続いて、入力判定部150は、画像を拡大する操作入力と判定した後、予め設定された待機時間のうちに、検知部118から変化情報が取得されたか否かを判定する(S234)。変化情報が取得されない場合(S234におけるNO)、取得判定処理ステップS200に処理を戻す。変化情報が取得された場合(S234におけるYES)、関連付けステップS202と同様、一連の変化情報を連続変化情報として関連付ける(S236)。そして、その連続変化情報から移動速度を導出する(S238)。
続いて、入力判定部150は、連続変化情報に示される検知位置の変化の向きが、縮小方向(奥方向)であるか否かを判定する(S240)。縮小方向でない場合(S240におけるNO)、奥行き方向判定ステップS208に処理を移す。縮小方向である場合(S240におけるYES)、導出ステップS238で導出した縮小方向の移動速度の方が、導出ステップS204で導出した拡大方向の移動速度よりも遅いか否かを判定する(S242)。
縮小方向の検知位置の変化の方が拡大方向の検知位置の変化よりも遅い場合(S242におけるYES)、画像を縮小する操作入力と判定し、縮小方向の移動速度に応じて画像の縮小率を同期処理部136に出力し(S244)、取得判定処理ステップS200に処理を戻す。
縮小方向の検知位置の変化の方が拡大方向の検知位置の変化よりも速いか、または同じ速度の場合(S242におけるNO)には、画像を縮小する操作入力と判定せず、取得判定処理ステップS200に処理を戻す。
このように、拡大方向の検知位置の変化の後、その移動速度よりも遅い縮小方向の検知位置の変化があると、画像の縮小の操作入力と認識することで、画像を拡大し過ぎたときの微調整を可能とする。
また、本実施形態では、奥方向が縮小方向としているが、仮に、奥方向が拡大方向とした場合、その操作入力が終わると手を手前に戻すこととなる。このとき、縮小方向の操作入力と誤判定されると、画像の縮小と拡大を繰り返すこととなってしまう。そこで、縮小方向(手前方向)の移動速度が拡大方向(奥方向)の移動速度より速いか、または同じ速度で手前に戻すと、縮小方向の操作入力を無視するものとし、ユーザは、手を手前に戻すときに素早く戻すことで、意図せぬ画像の縮小を回避することが可能となる。
上述したように、入力判定部150は、手前方向と奥方向の検知位置の変化によって、画像の拡大、および、縮小の操作入力と判定するため、直感的な画像の拡縮操作が可能となる。
また、上述した実施形態では、入力判定部150は、奥方向または手前方向のいずれか一方を縮小方向、他方を拡大方向とし、奥方向および手前方向の検知位置の変化を、画像の拡大や縮小の操作入力と判定する場合について説明した。しかし、入力判定部150は、奥方向および手前方向の検知位置の変化を、奥行き方向の移動に関連して把握し易い処理の操作入力と判定する構成であってもよい。この場合であっても、ユーザUは検知部118を介して直感的な操作が可能となる。
また、中間スクリーン140から表示部142の正面146までの間に光学的な変倍手段(一般的な光学ズーム機構)を配置して、奥行き方向のジェスチャーに対して光学的に変倍させて表示画像などの拡大や縮小を行っても良い。
また、これまでジェスチャーに対して表示部142に表示する画像などのコンテンツの拡大、縮小、ページめくり、などの動作を割り当てた例を示したが、ユーザUから見て表示部142の後方に結像する虚像の結像位置を変化させる動作をジェスチャーによって実現してもよい。
例えば、中間スクリーン140から表示部142の正面146までの光学的な距離(光路長)を可変させる光学機構を配置し、奥行き方向の奥方向(または手前方向)へのジェスチャーに対して光路長を長くすることで結像位置を奥へ、奥行き方向の手前方向(または奥方向)へのジェスチャーに対して光路長を短くすることで結像位置を手前に、それぞれ変化させてもよい。
例えば、中間スクリーン140から表示部142の正面146までの間に、光軸に対して投射光に角度を持たせる光学機構を配置してもよい。そして、表示部142の上側の外周面144に沿って配置された検知部118に対し、左右方向のジェスチャー(図4(b)の動作)があると、光軸に体して左右方向に傾斜する角度を持たせて虚像の結像位置を左右に移動させたり、表示部142の左右の外周面144に沿って配置された検知部118に対し、上下方向のジェスチャー(図4(a)の動作)があると、光軸に対して上下方向に傾斜する角度を持たせて虚像の結像位置を上下に移動させたりしてもよい。
上記の虚像の結像位置の調整に関して、凹型の表示部142の焦点位置の移動や角度の変化・設置位置の移動も併せて調節すると、より効果的に虚像を移動させることができる。
なお、本実施形態においては、検知部118として静電容量式のタッチセンサを例に挙げて説明したが、検知部は、静電容量などの検知量が変化した位置である検知位置が特定可能であればよい。例えば、接触タイプとしては感圧センサ・変位センサなどを、非接触タイプとしては光センサ・磁気センサ・熱センサ・風圧センサなどを、それぞれ用いてもよい。接触タイプのセンサを用いるときには操作性を向上させるために、表示部の外周面と、正面および裏面のいずれか一方または両方の外縁部に設けられた検知部は互いに連続となるように隣り合ってもよい。
なお、本明細書の入力判定方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上述した実施形態では、表示部142としてHUDのコンバイナを例に挙げたが、画像データに基づく画像を視認させるものであれば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等であってもよい。
また、上述した実施形態では、入力表示装置100は、操作部110を備える場合について説明したが、操作部110を備えず、検知部118によってすべての操作入力が行われてもよい。
また、上述した実施形態では、検知部118は、表示部142の外周面144に加え、正面146の外縁部146aおよび裏面の外縁部の両方に設けられている場合について説明した。しかし、検知部118は、外周面144に加え、正面146の外縁部146aおよび裏面の外縁部のいずれか一方に設けられていればよい。
本発明は、タッチセンサを搭載した入力表示装置に利用することができる。
100 …入力表示装置
118 …検知部
142 …表示部
144 …外周面
146 …正面
146a …外縁部
150 …入力判定部

Claims (6)

  1. 正面に画像を表示する表示部と、
    前記表示部の外周部に設けられた検知部と、
    前記検知部が検知した検知位置の変化が、前記表示部の正面側から前記表示部の裏面側に向かう奥方向、および、前記表示部の裏面側から前記表示部の正面側に向かう手前方向のいずれであるかを判定する入力判定部と、
    を備え
    前記入力判定部は、
    前記検知位置の変化の速度を導出するとともに、
    前記奥方向および前記手前方向のいずれか一方の方向に前記検知位置の変化が検知された後に、さらに他方の方向に前記検知位置の変化が検知されたとき、後の前記検知位置の変化の速度が先の前記検知位置の変化の速度よりも遅い場合に、前記後の検知位置の変化を、前記後の検知位置の変化の方向に対応する操作入力と判定することを特徴とする入力表示装置
  2. 前記入力判定部は、
    前記検知位置の変化の速度を導出するとともに、
    前記奥方向および前記手前方向のいずれか一方の方向に前記検知位置の変化が検知された後に、さらに他方の方向に前記検知位置の変化が検知されたとき、後の前記検知位置の変化の速度が先の前記検知位置の変化の速度よりも速いか同じ場合に、前記後の検知位置の変化を、操作入力と判定しないことを特徴とする請求項1に記載の入力表示装置。
  3. 前記入力判定部は、
    前記先の前記検知位置の変化の速度が所定の値よりも大きい場合には、前記先の前記検知位置の変化を、操作入力と判定しないことを特徴とする請求項またはに記載の入力表示装置。
  4. 前記検知部は、
    前記表示部の外周面と、正面および裏面のいずれか一方または両方の外縁部とに設けられていることを特徴とする請求項1から3のいずれか1項に記載の入力表示装置。
  5. 前記表示部に表示された画像を、縮小または拡大するように、画像処理を行う表示制御部をさらに備え、
    前記入力判定部は、前記奥方向または前記手前方向のいずれか一方を縮小方向、他方を拡大方向とし、前記縮小方向の前記検知位置の変化を検知すると前記表示制御部に表示された前記画像を縮小させ、前記拡大方向の検知位置の変化が検知されると前記表示制御部に表示された前記画像を拡大させることを特徴とする請求項1から4のいずれか1項に記載の入力表示装置。
  6. 前記検知部は、
    静電容量が変化した位置を前記検知位置として検知することを特徴とする請求項1からのいずれか1項に記載の入力表示装置。
JP2014014221A 2013-01-31 2014-01-29 入力表示装置 Active JP6179412B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014014221A JP6179412B2 (ja) 2013-01-31 2014-01-29 入力表示装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013016776 2013-01-31
JP2013016776 2013-01-31
JP2014014221A JP6179412B2 (ja) 2013-01-31 2014-01-29 入力表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017135090A Division JP6409919B2 (ja) 2013-01-31 2017-07-10 入力表示装置

Publications (2)

Publication Number Publication Date
JP2014167792A JP2014167792A (ja) 2014-09-11
JP6179412B2 true JP6179412B2 (ja) 2017-08-16

Family

ID=51224449

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014014221A Active JP6179412B2 (ja) 2013-01-31 2014-01-29 入力表示装置
JP2017135090A Active JP6409919B2 (ja) 2013-01-31 2017-07-10 入力表示装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017135090A Active JP6409919B2 (ja) 2013-01-31 2017-07-10 入力表示装置

Country Status (2)

Country Link
US (1) US20140215363A1 (ja)
JP (2) JP6179412B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9729740B2 (en) * 2015-09-21 2017-08-08 Toshiba Tec Kabushiki Kaisha Image display device
JP6333461B1 (ja) * 2017-12-01 2018-05-30 京セラ株式会社 電子機器

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1083253A (ja) * 1996-09-10 1998-03-31 Hitachi Ltd 情報処理装置
JP3866336B2 (ja) * 1996-09-17 2007-01-10 株式会社東芝 ペン入力表示装置
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
WO2000017848A1 (en) * 1998-09-22 2000-03-30 Vega Vista, Inc. Intuitive control of portable data displays
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP4560224B2 (ja) * 2001-03-13 2010-10-13 株式会社リコー 情報入力装置、情報入出力システム、プログラム及び記憶媒体
JP2003167670A (ja) * 2001-12-04 2003-06-13 Sharp Corp 入力装置及び該入力装置を用いた携帯機器
JP3735086B2 (ja) * 2002-06-20 2006-01-11 ウエストユニティス株式会社 作業誘導システム
JP2004110439A (ja) * 2002-09-18 2004-04-08 Ricoh Co Ltd 表示一体型座標入力装置およびプログラム
JP2004157760A (ja) * 2002-11-06 2004-06-03 Sharp Corp 携帯用情報処理装置
KR20070026659A (ko) * 2004-06-29 2007-03-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 불연속 줌
JP2009517728A (ja) * 2005-11-25 2009-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像の非接触操作方法
WO2010095204A1 (ja) * 2009-02-18 2010-08-26 株式会社 東芝 インターフェース制御装置、及びその方法
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
JP5262990B2 (ja) * 2009-05-22 2013-08-14 富士通モバイルコミュニケーションズ株式会社 携帯端末
KR101623008B1 (ko) * 2009-10-23 2016-05-31 엘지전자 주식회사 이동 단말기
JP5535585B2 (ja) * 2009-11-10 2014-07-02 株式会社ソニー・コンピュータエンタテインメント プログラム、情報記憶媒体、情報入力装置、及びその制御方法
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
JP5429627B2 (ja) * 2009-12-04 2014-02-26 日本電気株式会社 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
US9335825B2 (en) * 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
JP5348004B2 (ja) * 2010-02-13 2013-11-20 ブラザー工業株式会社 ストライクゾーン提示システム
US8933910B2 (en) * 2010-06-16 2015-01-13 Panasonic Intellectual Property Corporation Of America Information input apparatus, information input method, and program
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
JP2012174248A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012243204A (ja) * 2011-05-23 2012-12-10 Nikon Corp 電子機器及び画像表示方法
US9377867B2 (en) * 2011-08-11 2016-06-28 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
US8723824B2 (en) * 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
WO2013168171A1 (en) * 2012-05-10 2013-11-14 Umoove Services Ltd. Method for gesture-based operation control
US9811216B2 (en) * 2012-09-14 2017-11-07 Sharp Kabushiki Kaisha Display device, portable terminal, monitor, television, and method for controlling display device

Also Published As

Publication number Publication date
JP6409919B2 (ja) 2018-10-24
US20140215363A1 (en) 2014-07-31
JP2014167792A (ja) 2014-09-11
JP2017204294A (ja) 2017-11-16

Similar Documents

Publication Publication Date Title
US9400562B2 (en) Image projection device, image projection system, and control method
US11188125B2 (en) Information processing apparatus, information processing meihod and program
US9696855B2 (en) Information processing terminal, information processing method, and computer program
US9092090B2 (en) Structured light for touch or gesture detection
TWI483143B (zh) 混合式指向裝置
JP5860835B2 (ja) タッチパネルを用いて車両画像表示の制御を行う方法およびその車両画像システム
US9454260B2 (en) System and method for enabling multi-display input
JP5808712B2 (ja) 映像表示装置
JP2008009759A (ja) タッチパネル装置
JP5553546B2 (ja) 画像投影装置、及びその制御方法
CN117590582A (zh) 头戴式显示设备及其操作方法
JP6409919B2 (ja) 入力表示装置
JP2010117917A (ja) 動作検出装置および操作システム
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
US20160026244A1 (en) Gui device
JP2013070227A (ja) 頭部装着型表示装置
JP5675484B2 (ja) 表示装置、表示装置の制御方法及びプログラム
US20100090955A1 (en) Mouse having scrolling function
KR102375240B1 (ko) 차량용 투명 디스플레이 장치
EP2957998A1 (en) Input device
JP2006302029A (ja) 表示装置制御プログラム、表示装置制御方法、表示装置
JP2015060295A (ja) 入力装置
JPWO2014076992A1 (ja) インターフェース装置、表示システム及び入力受付方法
US10967798B2 (en) Control device and method for image display
JP6065960B2 (ja) 頭部装着型表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6179412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150