JP2019133395A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2019133395A
JP2019133395A JP2018014844A JP2018014844A JP2019133395A JP 2019133395 A JP2019133395 A JP 2019133395A JP 2018014844 A JP2018014844 A JP 2018014844A JP 2018014844 A JP2018014844 A JP 2018014844A JP 2019133395 A JP2019133395 A JP 2019133395A
Authority
JP
Japan
Prior art keywords
input
unit
display
user
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018014844A
Other languages
English (en)
Inventor
及川 卓
Taku Oikawa
卓 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2018014844A priority Critical patent/JP2019133395A/ja
Publication of JP2019133395A publication Critical patent/JP2019133395A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 ジェスチャー入力による操作性を向上させた入力装置を提供する。【解決手段】 ジェスチャー入力システム100は、撮像装置300で車内のユーザの手を撮像し、撮像データを車載装置200に提供する。車載装置200は、提供された撮像データに基づいて画像解析を行い、任意の入力表示に対する入力空間にユーザの指が進入したか否かを判定する。ユーザの指が入力空間に1本あれば、当該入力空間に対応する入力表示を選択し、ユーザの指が入力空間に複数本あれば、当該入力空間に対応する入力表示が有する機能を実行する。【選択図】 図6

Description

本発明は、ジェスチャー入力機能を備えた入力装置に関し、特に、車内空間でのジェスチャー入力に関する。
現在、パソコン、スマートフォン、タブレット端末、車載装置など、様々な電子装置において、タッチパネルが搭載され、各種指示がタッチパネルへのタッチ操作により入力されている。タッチ入力は、ディスプレイに映し出される表示画像に基づき、入力操作が直感的に行えることから、ITスキルを持たない一般の方々にも広く利用されている。このような直感的に操作可能な入力方式は、タッチ入力以外にも、指や手の動きにより入力操作を行うジェスチャー入力、視線方向による視線入力、音声による音声入力などがあり、入力操作が簡便なことから注目を集めている。また、将来的な自動運転の実現に向けて、非接触操作が可能なジェスチャー入力が注目を集めている。
タッチ操作入力やジェスチャー入力においては、ユーザの手の動きを検出して、入力内容を選択することが知られている。特許文献1に記載の入力装置では、ユーザの指の数に基づいてタッチパネル操作を行う技術が開示されている。
特開2017−068291号公報
図12は、従来の入力装置の一例を示す図である。同図は、ディスプレイ40上に表示されたアイコン10A、10B、10Cのうち、10Bをジェスチャー入力で選択する場面を示している。アイコン10Bは、アイコン10Bに対するジェスチャー入力を検出する検出領域20を有している。検出領域20は、アイコン10Bの表示面から垂直方向に存在する空間である。ユーザ30の手が検出領域20に進入したことが検出されると、対象のアイコン10Bの色が変化したり、カーソル表示がなされたりして、アイコン10Bが選択されたことをユーザに認識させる(図12(A))。なお、ユーザ30の手が検出領域20を離脱すると、元の表示に切り替わる。
次に、ユーザ30は、アイコン10Bの選択を確定させる操作を行う必要がある。この確定操作により、アイコン10Bが有する機能実行される(図12(B))。例えば、アイコン10Bが、エアコンのオン/オフを切り替えるものである場合には、確定操作により、エアコンのオン/オフが実行される。確定操作方法は、例えば、ユーザ30が直接アイコン10Bに直接タッチする方法や、検出領域20内に一定期間ユーザ30の指を置いておき、アイコン10Bを選択し続けることをもって確定操作とする方法などがある。しかし、今後、自動運転技術が実用化されることを考慮すると、ユーザの状態によっては、ジェスチャー入力が困難になる場合が想定される。例えば、自動運転中であって、ユーザがリクライニング等の状態である場合、画面に直接触れるタッチ操作が困難となる場合がある。また、自動運転により、ユーザが予期しない振動が車両に伝わり、ジェスチャー入力の手がぶれることによって、入力が困難になる場合も想定される。
本発明は、このような従来の課題を解決し、ジェスチャー入力による操作性を向上させた入力装置を提供することを目的とする。
本発明に係る入力装置は、ジェスチャー入力可能な入力装置であって、入力対象を表示し、かつ前記入力対象へのユーザー操作部の接近または接触を検出する機能を備えた表示手段と、前記表示手段の入力対象との位置的関係から決められた検出領域内に前記ユーザー操作部が進入したか否かを検出する第1の検出手段と、前記検出領域内へ前記ユーザー操作部の進入が検出された場合、前記ユーザー操作部の態様が変化したか否かを検出する第2の検出手段と、前記ユーザー操作部の態様の変化が検出された場合に、前記入力対象を操作対象と認識する認識手段と、を有する。
好ましくは、前記認識手段は、前記検出領域内へ前記ユーザー操作部の進入が検出された場合、前記入力対象が選択対象と認識する。好ましくは、前記第2の検出手段は、ユーザーの指の態様の変化を検出する。好ましくは、前記第2の検出手段は、ユーザーの指の本数の変化を検出する。好ましくは、前記入力対象がロータリー式入力ボタンである場合に、前記第2の検出手段は、前記ユーザー操作部の第1の態様の変化と、当該第1の態様の変化に続く第2の態様の変化を検出することを含み、前記認識手段は、第1の態様の変化が検出されたとき、前記ロータリー式入力ボタンが掴まれたと認識し、第2の態様の変化が検出されたとき、前記ロータリー式入力ボタンが回転されたと認識する。好ましくは、入力装置はさらに、前記検出領域と前記ユーザー操作部の位置的関係を前記表示手段に表示させる表示制御手段を含む。好ましくは、前記第1の検出手段により前記ユーザー操作部が前記検出領域外に向かうことが検出されたとき、前記表示制御手段は、前記表示手段に警告を表示させる。
本発明によれば、ユーザ操作部の態様の変化を検出することで入力対象を操作対象と認識するようにしたので、例えば、車の振動時や自動運転時のリラックスした状態時のジェスチャー入力の操作性が向上する。また、車両が予期せぬ振動で揺れたとしても、ある程度の追従性が確保でき、操作の煩わしさの低減が見込まれる。
本発明の実施例に係るジェスチャー入力システムの具体的な全体構成を示す俯瞰図である。 本発明の実施例に係る車内のジェスチャー入力システムの斜視図を示す図である。 ジェスチャー入力システムの構成例を示すブロック図である。 ジェスチャー入力プログラム400の機能的な構成を示す図である ユーザの指の検出例を示す図である。 本発明の実施例に係るジェスチャー入力システムの動作を示すフロー図である 変形例に係るジェスチャー入力プログラム400Aの機能的な構成を示す図である。 変形例に係るユーザが行うジェスチャー動作を例示する図である。 変形例に係るジェスチャー入力システムの動作を示すフロー図である。 入力表示が選択されている際の入力空間の拡張および警告表示を例示する図である。 他の入力表示を例示する図である。 従来の入力装置の一例を示す図である。
次に、本発明の実施の形態について図面を参照して詳細に説明する。本発明の1つの好ましい態様では、ジェスチャー入力システムは、車両に搭載された車載装置への入力システムとして利用される。但し、本発明は、必ずしも車載用のジェスチャー入力システムに限定されるものではない。
本発明のジェスチャー入力システムは、ジェスチャー入力動作を撮像するための撮像装置を含み、撮像装置は、車内に設置された撮像カメラを含む。撮像カメラは、例えば、車両の天井などに設置され、車内の入力空間においてユーザの手などの実物体の動作または移動を撮像する。さらにジェスチャー入力システムは、入力情報としての撮像情報を撮像装置から受け取る電子装置を含む。当該電子装置は、例えば、車内に備えられた車載装置である。電子装置は、特に制限されないが、種々の機能を包含することができ、撮像装置から送信される撮像情報を解析する機能の他に、そのような解析から得られた入力に応答して動作可能なナビゲーション機能、オーディオ・ビデオデータを再生する機能、テレビ・ラジオ放送を受信する機能などを備えることができる。なお、ジェスチャー入力動作を検出するための手段は、撮像装置を用いたものに限られず、従来のジェスチャー入力システムで利用されている検出方法を用いることができ、例えば、静電センサーを用いた検出方法でも良い。
次に、本発明の実施例に係るジェスチャー入力システムについて図面を参照して説明する。図1は、本発明の実施例に係るジェスチャー入力システムの具体的な全体構成を示す俯瞰図である。本実施例に係るジェスチャー入力システム100は、入力空間R1を撮像する撮像装置300と、撮像装置300からの撮像情報を受け取る車載装置200とを含んで構成される。例えば、ユーザUは、運転席の運転者であり、入力空間R1の範囲内で手Hを用いてジェスチャー動作を行うことで、車載装置200への入力操作を行うことができる。
図2は、本発明の実施例に係る車内のジェスチャー入力システムの斜視図を示す図である。撮像装置300は、車内の天井またはユーザの手Hが撮像可能なその他の位置に固定され、手Hの動作を撮像する入力空間R1を形成する。入力空間R1は、好ましくは、運転者が運転をしながら、片方の手Hを容易に動かすことできる空間である(図2の場合、左手でハンドルを操作し、右手でジェスチャー入力が可能となる空間である)。例えば、車載装置200の表示部250のディスプレイがセンターコンソールに配置されるとき、入力空間R1は、運転席と助手席と間の空間、より好ましくはアームレスト上の空間であることができる。入力空間R1は、表示部250の表示面側に形成される3次元的な空間である。
図3は、ジェスチャー入力システムの構成例を示すブロック図である。車載装置200は、例えば、ナビゲーション装置などの電子装置であり、記憶部210、ナビゲーション部220、音声出力部230、入力部240、表示部250、マルチメディア再生部260、制御部270、入力インターフェイス(入力IF)280を含む。車載装置200は、入力インターフェイス280を介して撮像装置100とデータの送受を可能にする。データの送受は、有線または無線のいずれかを問わない。
記憶部210は、種々のデータやプログラムなどを記憶することができる。さらに記憶部210は、マルチメディア再生部260で再生可能な映像データやオーディオデータを格納したり、ナビゲーション部220に必要な地図データ等を格納することができる。さらに好ましくは、記憶部210は、撮像装置100から送信される画像データのデジタルデータを記憶したり、ジェスチャー入力を判定するために必要なデータを記憶することができる。ナビゲーション部220は、自車位置周辺の道路地図を案内したり、自車位置から目的地までの経路を探索し、これを案内したりする。自車位置は、ジャイロセンサや加速度センサーなどの測定結果、および/またはGPS衛星からのGPS信号から算出することができる。
音声出力部230は、マルチメディア再生部260で再生されたオーディオデータや記憶部210に記憶されているオーディオデータ等を出力する。入力部240は、タッチパネルやボタンキーなど、車載装置200を使用するユーザが実行する機能を選択したり、ユーザの音声を入力するマイク等を含むことができる。
表示部250は、マルチメディア再生部260で再生されたビデオデータや、記憶部210に記憶されている地図データ等を表示するディスプレイを含む。ディスプレイは、タッチパネル機能を有しており、好ましくは図2に示すように、車両のセンターコンソール上に配置される。ディスプレイは、その表示面が入力空間R1と向き合うように設置されており、ディスプレイに表示されている入力表示(例えば、各アプリケーションを実行するアイコン、音量調整用のツマミ(以下、ロータリー表示という)、スクロール用のバーなど)に対してジェスチャー動作を行うことで、ディスプレイに触れずとも、各入力表示が行える入力操作を実行することができる。
マルチメディア再生部260は、CD、DVD、メモリなどの外部媒体や記憶部210から読み出されたビデオデータやオーディオデータを再生したり、テレビ放送やラジオ放送で受信したビデオデータやオーディオデータを再生したりする。再生されたデータは、表示部250や音声出力部230から出力される。
制御部270は、マイクロプロセッサやマイクロコントローラ、ROM/RAM等を含み、例えば、プログラム等を実行することにより車載装置200の各部を制御する。本実施例では、制御部270は、撮像装置300から送信される画像データに基づき、ジェスチャー入力を制御するジェスチャー入力プログラム400を実行する。図4は、ジェスチャー入力プログラム400の機能的な構成を示す図である。
ジェスチャー入力プログラム400は、画像データ取得部410、進入検出部420、選択実行部430、態様変化検出部440、入力機能実行部450を含む。画像データ取得部410は、撮像装置300が撮像した入力空間R1のデジタル化された画像データを取得する。
進入検出部420は、画像データ取得部410が取得した画像データを解析し、取得された画像データに含まれるユーザUの手Hの侵入を検出する。図5は、ユーザの指の検出例を示す図である。図5では、表示部250のディスプレイにアイコン251、252、253が表示されており、それぞれ、音楽再生のオン/オフ、空調のオン/オフ、車内ライトのオン/オフを切り替える入力表示となっている。ユーザUは、表示部250に表示されたこれらのアイコンをタッチ操作入力できるほか、入力空間R1でジェスチャー動作を行うことで、入力操作を行うことができる。各アイコンには、それぞれ、対応する入力空間が予め決められており、例えば、入力空間R2は、アイコン252を操作する際の検出領域である。入力空間R2は、入力空間R1に含まれる3次元領域であり、好ましくは、アイコン252の表示面から垂直方向に存在する領域である。入力空間R2は、撮像装置300が撮像した入力空間R1の中で予め定められる領域である。進入検出部420は、例えば、画像データから、入力空間R2にユーザUの手Hの指H1が1本進入したことを検出することができる(図5(A))。
選択実行部430は、進入検出部420によって、ユーザの指が1本検出された場合に、表示部250に表示された入力表示のうち、対応する入力表示の選択を実行する。対応するとは、例えば、入力空間R2にはアイコン252が対応しているため、入力空間R2で指が1本検出された場合には、選択実行部430によってアイコン252が選択される。アイコンの選択は、例えば、選択されたアイコンの表示色を他の非選択のアイコンと異なるように表示したり、選択されたアイコンを大きく表示したりするほか、アイコンに対するカーソル表示、アイコンの点滅など、様々な強調表示をもって選択されたアイコンを表示する。なお、本実施例では、アイコン252に対する入力空間R2を例示しているが、アイコン251に対する入力空間、アイコン253に対する入力空間が存在し、それぞれの入力空間で指の進入が検出された場合には、対応するアイコンが選択される。
態様変化検出部440は、選択実行部430によって任意のアイコンが選択され、選択されたアイコンの入力空間内でユーザの指の態様が変化したことを検出する。例えば、入力空間内のユーザの指の本数が変化したことを検出する。図5を用いて説明すれば、図5(A)の状態で、進入検出部420による検出および選択実行部430によるアイコン252の選択が行われた後、図5(B)に示すように、指H1に加え指H2および指H3が侵入したことを認識し、指の数が変化したことを検出する。
入力機能実行部450は、態様変化検出部440によって指の態様の変化が検出された場合、選択されているアイコンの機能を実行する。例えば、アイコン252は、タッチすることで空調のオン/オフを切り替えられる機能を有しており、入力機能実行部450は、態様変化検出部440の検出結果に基づいて、図5(B)の状態になった時点でアイコン252の切り替え機能を実行する。具体的には、空調がオフの状態で入力機能実行部450の実行が行われた場合には、空調がオンに切り替えられ、空調がオンの状態で入力機能実行部450の実行が行われた場合には、空調がオフに切り替わる。その他、アイコン251の入力空間(検出領域)で同様の操作が行われた場合には、音楽再生のオン/オフが切り替えられ、アイコン253においては、車内ライトのオン/オフが切り替えられる。
選択実行部430および入力機能実行部450による選択/実行は、進入検出部420や態様変化検出部440、用いて即座に行うものであっても良いし、例えば、入力空間R2に指1本が3秒間連続して検出された場合には選択を行う、入力空間R2に複数の指が2秒間連続して検出された場合には入力機能の実行を行うなど、選択/実行までに時間を持たせるようにしても良い。
次に、撮像装置300について説明する。撮像装置300は、撮像装置300は、車内の入力空間R1を撮像する撮像部310、D/A変換部320、制御部330、画像データ送信部340を含む。
撮像部310は、車内上部に取り付けられた少なくとも1つの撮像カメラを含み、撮像カメラにより車内の入力空間R1(入力空間R2などの、各入力表示に対する入力空間を含む)を撮像する。撮像部310は、入力空間R1内にユーザUの手Hが進入したとき動作を開始するようにしてもよいし、あるいは、図示しない赤外線センサーなどにより入力空間R1内への物体の進入が検知されたことに応答して動作を開始するようにしてもよい。
D/A変換部320は、撮像部310によって撮像された画像データをデジタルデータに変換する。制御部330は、撮像装置300の各部を制御し、例えば、撮像部310の動作開始、撮像部310のチルト、撮像された画像データの送信等を制御する。動画像データ送信部340は、撮像部310で撮像された画像データを車載装置200に送信する。車載装置200は、入力インターフェイス280を介して画像データを受け取る。動画像データ送信部340は、画像データのほか、複数の画像データを合わせて動画データとしてデータを送信することも可能である。
次に、ジェスチャー入力システムの全体動作について説明する。図6は、本発明の実施例に係るジェスチャー入力システムの動作を示すフロー図である。ジェスチャーシステム100は、まず、撮像部310によってジェスチャー動作の検知/撮像が行われる(S100、S102)。撮像された画像は、D/A変換部320によってデジタルデータに変換され、動画像データ送信部340によって、車載装置200に提供される(S104)。
画像データ取得部410は、撮像装置300から提供された画像データを取得する(S106)。進入検出部420は、S106で取得された画像データに基づき、各入力表示に対する入力空間にユーザUの指が進入したか否か、すなわち、指が1本存在するか否かを検出する(S108)。選択実行部430は、S108で検出された指が進入した入力空間に対応する入力表示を選択する(S110)。一方で、S106で取得された画像データに基づき、態様変化検出部440は、複数の指が含まれていることを検出する(S112)。入力機能実行部450は、S114で複数の指が進入していることを検出した場合、複数の指が存在する入力空間に対応する入力表示の機能を実行する(S114)。なお、通常、ある入力空間で1本の指が検出されたのち、当該入力空間で複数の指が検出されることから、入力機能実行部450が実行する入力表示は、選択実行部430によって選択された入力表示となる。
次に、図6の動作フローを、図5を用いて具体的に説明する。まず、S100ないしS106の処理により、図5(A)で示すような状態を認識できる撮像画像が取得される。このとき、S108およびS110の処理によって、アイコン252が選択状態となる。次に、図5(B)に示すような状態を認識できる撮像画像が新たに取得されると(S100ないしS106)、S108の処理でNoとなった後、S112で複数の指が検出され、選択状態のアイコン252の機能が実行される(S114)。
本実施例では、ジェスチャー入力による操作を指の数によって区分けし、1本の指の場合には入力機能の選択を、1本の指から複数の指へと態様が変化した場合には入力機能の実行をするようにしたので、ジェスチャー入力の操作性が向上する。また、ジェスチャー入力の際に車両が振動したとしても、ある程度の追従性が確保でき、操作の煩わしさの低減が見込まれる。
次に、本実施例の変形例について説明する。上記した実施例では、機能のオン/オフを切り替えるジェスチャー入力方法について説明したが、変形例では、主に音量調節を行うVolノブを模したGUI(グラフィックユーザインターフェイス)を操作する場合のジェスチャー入力について説明する。図7は、変形例に係るジェスチャー入力プログラム400Aの機能的な構成を示す図である。ジェスチャープログラム400Aは、上記の実施例で説明した各機能部を含むことができ、さらに、態様変化検出部440は、複数指検出部442および動作変化検出部446を包含し、ロータリー表示掌握部444の機能を新たに含む。
図8は、変形例に係るユーザが行うジェスチャー動作を例示する図である。図8では、Volノブを模したロータリー表示254が表示部250に表示されている様子を示しており、ロータリー表示254に対応する入力空間R3が示されている。入力空間R3は、入力区間R1に含まれる3次元領域であり、好ましくは、ロータリー表示254の表示面から垂直方向に存在する領域である。入力空間R3は、撮像装置300が撮像した入力空間R1の中で予め定められる領域である。
進入検出部420は、図8(A)で示すように、入力空間R3にユーザUの指H1が進入した撮像データが取得された場合、入力空間R3への進入を検出する。選択実行部430は、上記した実施例と同様に、入力空間R3にユーザの指が1本検出された場合に、ロータリー表示254を選択する。
複数指検出部442は、図8(B)に示すように、入力空間R3にユーザの指が複数本進入していることを検出する。ロータリー表示掌握部444は、複数指検出部442による検出が行われた場合、ロータリー表示254をユーザUが仮想的に掴んだという判定を行う。当該判定が行われた際には、ロータリー表示254が仮想的に回転可能な状態であることを示すため、ロータリー表示254に陰影をつけて3次元的に見えるように表示を変更したり、回転可能な方向に矢印を表示するアシスト表示をしたりして、仮想的に掌握状態であることを表示する。
動作変化検出部446は、ロータリー表示254が仮想的に掴まれている状態で、図8(C)に示すような回転動作(右回り/左回り)を検出する。入力機能実行部450は、動作変化検出部446が検出した回転動作に応じた入力機能を実行する。例えば、右回りであれば音量を上げる、左回りであれば音量を下げるなどの入力制御を実行する。空調の調整であれば、温度の上げ下げの入力を行うことができる。
図9は、変形例に係るジェスチャー入力システムの動作を示すフロー図である。なお、画像データを受信するS106までのフローについては、上記した実施例と同様であるため、説明を割愛する。車載装置200に撮像データが提供されると、まず、進入検出部420によって、指の進入があるか否かが検出される(S108)。これにより、ロータリー表示254に対する入力空間R3にユーザの指が検出された場合、選択実行部430によって、ロータリー表示254の選択が行われる(S110)。一方、複数指検出部442により、入力空間R3に複数の指が検出された場合には(S112)、ロータリー表示掌握部444によって、ロータリー表示254を仮想的につまんだ状態である判定がなされる(S116)。図9上には図示しないが、S116の判定がなされた状態で、動作変化検出部446によって入力空間R3内で回転動作が検出された場合には、入力機能実行部450によって各回転動作に対する入力が実行される。
次に、本実施例および変形例に適用可能な、入力表示が選択されている際の入力空間の拡張および警告表示について説明する。ジェスチャープログラム400およびジェスチャープログラム400Aは、図6および図9の動作フローからわかるように、選択実行部430の選択が一度行われた場合であっても、次に取得された撮像データに基づいて入力空間に指が検出されない場合には、入力表示の選択が解除されてしまう。すなわち、すべての指が、検出領域である入力空間から出た場合に、選択を解除するようになっている。このような選択解除が意図せずに発生してしまう恐れを軽減するために、入力空間の拡張および警告表示を行うようにしても良い。図10は、入力表示が選択されている際の入力空間の拡張および警告表示を例示する図である。図10(A)は、ロータリー表示254が選択実行部430によって選択されている状態を示しており、ジェスチャープログラム400およびジェスチャープログラム400Aは、このような選択状態の際に入力空間R3を拡張し、選択状態が解除されにくい状態としても良い。入力空間R3の拡張により、ロータリー表示254からの距離L2は、通常の距離L1(図8)よりも長くなる。入力空間R3の拡張は、進入検出部420の検出範囲を拡大させることにより、実現することができる。
また、ジェスチャープログラム400およびジェスチャープログラム400Aは、指が入力空間R3からはみ出しそうになった場合には、図10(B)に示すように、表示部250に警告表示を表示するようにしても良い。警告表示は、ロータリー表示254の周りに入力空間R3を模した領域r3を表示し、指の位置を模したマークh1、h2、h3が表示される。さらに、理想の指の位置をP1、P2、P3として表示し、h1、h2、h3と線で結び、検出エリアからユーザの指が離れてしまうことを警告する。実際の指の位置と理想の指の位置の表示色を異なるものとすることにより、より分かり易い表示となる。なお、入力空間R3からのはみだしは、進入検出部420によって検出することができる。また、警告は、表示に限られず音声出力部230から警告案内を出力するようにしても良い。
上記した実施例および変形例では、オン/オフ切り替えの入力表示、つまみ式のロータリー表示を例示したが、ジェスチャー入力システム100は、他の入力表示に対しても適応可能である。図11は、他の入力表示を例示する図である。入力表示は、図11(A)に示すように、縦スクロール用の入力表示であっても良いし、図11(B)に示すように、横スクロール用の入力表示であっても良い。これらのスクロール表示の場合、変形例と同様に、スクロール表示に対応する入力空間にユーザの指が進入した場合に選択実行部430によってスクロール表示が選択され、複数の指が侵入した場合に、スクロールバーBを掴んだ状態になる。その後、縦または横のジェスチャー動作を検出し、表示画面のスクロールを行うことができる。その他、ページをめくる入力表示に、ジェスチャー入力システム100を適用するようにしても良い。
本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形・変更が可能である。
10A、10B、10C:アイコン 20:検出領域
30:ユーザ 40:ディスプレイ
100:ジェスチャー入力システム 200:車載装置
210:記憶部 220:ナビゲーション部
230:音声出力部 240:入力部
250:表示部 251:アイコン
252:アイコン 253:アイコン
254:ロータリー表示 260:マルチメディア再生部
270:入力部 280:入力IF
300:撮像装置 310:撮像部
320:D/A変換部 330:制御部
340:動画像データ送信部 400、400A:ジェスチャー入力プログラム
410:画像データ取得部 420:進入検出部
430:選択実行部 440:態様変化検出部
442:複数指検出部 444:ロータリー表示掌握部
446:動作変化検出部 450:入力機能実行部
B:スクロールバー H:手
H1、H2、H3:指 R1、R2、R3:入力空間
U:ユーザ

Claims (7)

  1. ジェスチャー入力可能な入力装置であって、
    入力対象を表示し、かつ前記入力対象へのユーザー操作部の接近または接触を検出する機能を備えた表示手段と、
    前記表示手段の入力対象との位置的関係から決められた検出領域内に前記ユーザー操作部が進入したか否かを検出する第1の検出手段と、
    前記検出領域内へ前記ユーザー操作部の進入が検出された場合、前記ユーザー操作部の態様が変化したか否かを検出する第2の検出手段と、
    前記ユーザー操作部の態様の変化が検出された場合に、前記入力対象を実行可能な操作対象と認識する認識手段と、
    を有する入力装置。
  2. 前記認識手段は、前記検出領域内へ前記ユーザー操作部の進入が検出された場合、前記入力対象が選択対象と認識する、請求項1に記載の入力装置。
  3. 前記第2の検出手段は、ユーザーの指の態様の変化を検出する、請求項1に記載の入力装置。
  4. 前記第2の検出手段は、ユーザーの指の本数の変化を検出する、請求項3に記載の入力装置。
  5. 前記入力対象がロータリー式入力ボタンである場合に、前記第2の検出手段は、前記ユーザー操作部の第1の態様の変化と、当該第1の態様の変化に続く第2の態様の変化を検出することを含み、
    前記認識手段は、第1の態様の変化が検出されたとき、前記ロータリー式入力ボタンが掴まれたと認識し、第2の態様の変化が検出されたとき、前記ロータリー式入力ボタンが回転されたと認識する、請求項1ないし4いずれか1つに記載の入力装置。
  6. 入力装置はさらに、前記検出領域と前記ユーザー操作部の位置的関係を前記表示手段に表示させる表示制御手段を含む、請求項1ないし5いずれか1つに記載の入力装置。
  7. 前記第1の検出手段により前記ユーザー操作部が前記検出領域外に向かうことが検出されたとき、前記表示制御手段は、前記表示手段に警告を表示させる請求項1ないし5いずれか1つに記載の入力装置。
JP2018014844A 2018-01-31 2018-01-31 入力装置 Pending JP2019133395A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018014844A JP2019133395A (ja) 2018-01-31 2018-01-31 入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018014844A JP2019133395A (ja) 2018-01-31 2018-01-31 入力装置

Publications (1)

Publication Number Publication Date
JP2019133395A true JP2019133395A (ja) 2019-08-08

Family

ID=67544968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018014844A Pending JP2019133395A (ja) 2018-01-31 2018-01-31 入力装置

Country Status (1)

Country Link
JP (1) JP2019133395A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021085028A1 (ja) * 2019-10-31 2021-05-06 ソニー株式会社 画像表示装置
WO2022259888A1 (ja) * 2021-06-09 2022-12-15 株式会社東海理化電機製作所 操作入力装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211500A (ja) * 2009-03-10 2010-09-24 Autonetworks Technologies Ltd 操作装置
JP2013167938A (ja) * 2012-02-14 2013-08-29 Mitsubishi Electric Corp 情報入力装置
JP2014222381A (ja) * 2013-05-13 2014-11-27 キヤノン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、及びコンピュータプログラム
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211500A (ja) * 2009-03-10 2010-09-24 Autonetworks Technologies Ltd 操作装置
JP2013167938A (ja) * 2012-02-14 2013-08-29 Mitsubishi Electric Corp 情報入力装置
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2014222381A (ja) * 2013-05-13 2014-11-27 キヤノン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、及びコンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021085028A1 (ja) * 2019-10-31 2021-05-06 ソニー株式会社 画像表示装置
US11829572B2 (en) 2019-10-31 2023-11-28 Sony Group Corporation Three dimensional input for a cylindrical display device
WO2022259888A1 (ja) * 2021-06-09 2022-12-15 株式会社東海理化電機製作所 操作入力装置

Similar Documents

Publication Publication Date Title
US8108137B2 (en) Map scrolling method and navigation terminal
KR101474448B1 (ko) 컨텐츠 내비게이션 장치 및 그 방법과 그를 이용한텔레매틱스 단말기
JP5225820B2 (ja) 入力装置、車両周辺監視装置、アイコンスイッチ選択方法及びプログラム
JP5259898B2 (ja) 表示装置、及び表示処理方法
JP4555538B2 (ja) 操作コマンド処理プログラムおよびナビゲーションシステム
JP5555555B2 (ja) 携帯機器と連携し、該携帯機器に対して可能な入力操作を実現する車載機器
JP2014046867A (ja) 入力装置
JP2000075991A (ja) 情報入力装置
JP5750687B2 (ja) カーナビ用ジェスチャ入力装置
WO2009128148A1 (ja) 遠隔操作装置
US9904467B2 (en) Display device
US9541416B2 (en) Map display controller
JP2011253468A (ja) 表示装置、表示方法、及び表示プログラム
JP4067374B2 (ja) 画像処理装置
JP2016038621A (ja) 空間入力システム
US20130201126A1 (en) Input device
JP2019133395A (ja) 入力装置
JP6033465B2 (ja) 表示制御装置
JP2004246455A (ja) 操作画面表示装置
JP6265839B2 (ja) 入力表示装置、電子機器、アイコンの表示方法および表示プログラム
JP2008114772A (ja) 表示装置
JP2008014871A (ja) 車載電子装置
JP2012027538A (ja) 電子機器
JP2022170505A (ja) 情報処理装置及びプログラム
JP7340150B2 (ja) 操作画像表示装置、操作画像表示システム、及び操作画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211110