JP2015060295A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2015060295A
JP2015060295A JP2013192072A JP2013192072A JP2015060295A JP 2015060295 A JP2015060295 A JP 2015060295A JP 2013192072 A JP2013192072 A JP 2013192072A JP 2013192072 A JP2013192072 A JP 2013192072A JP 2015060295 A JP2015060295 A JP 2015060295A
Authority
JP
Japan
Prior art keywords
detection surface
pointing object
aerial image
detection
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013192072A
Other languages
English (en)
Inventor
中瀬 貴文
Takafumi Nakase
貴文 中瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2013192072A priority Critical patent/JP2015060295A/ja
Publication of JP2015060295A publication Critical patent/JP2015060295A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザに操作感を得させることができる入力装置を提供することを目的とする。【解決手段】映像表示パネル50と、映像表示パネル50に表示された画像を反射することで、空間に上記画像の虚像である空中画像を結像させる反射板60と、空間の定められた第1位置に第1検出面41を設定し、指示物体70が第1検出面41に達したことを検出するセンサ部10と、空中画像51が第1検出面41と同一平面に結像されており、センサ部10で指示物体70が第1検出面41に達したことが検出された場合、映像表示パネル50を移動させることで、指示物体70の到達側とは反対側、かつ、第1検出面41から離れる方向である奥行き方向に、空中画像51を移動させる移動部30と、を備える。【選択図】図2

Description

本発明は、入力装置に関し、特に、空間に結像される空中画像に対してユーザが行う動作を検出する技術に関する。
従来、対象機器を動作させるための各種操作が入力できる入力装置として、浮かび上がって立体的に目視される虚像を操作目標として立体表示すると共に、その操作目標に対する非接触操作を実現した入力装置が知られている(例えば、特許文献1参照。)。
このような非接触操作を可能とした操作入力装置は、濡れ手による操作が必要なキッチンや洗面台、タッチ操作が敬遠されることもある多機能便器等への適用に好適である。
特開2013−8087号公報
しかしながら、上記特許文献1に開示される入力装置では、操作ボタンを空中に表示させその操作性を向上させているものの、空中に浮かび上がった実体の無い操作パネルを操作するため、ユーザは操作感なく操作することになるという課題がある。
そこで、本発明は、かかる事情に鑑みてなされたものであり、ユーザに操作感を得させることができる入力装置を提供することを目的とする。
上記目的を達成するために、本発明の一態様に係る入力装置は、表示パネルと、前記表示パネルに表示された画像を反射することで、空間に前記画像の虚像である空中画像を結像させる反射板と、前記空間の定められた第1位置に第1検出面を設定し、指示物体が前記第1検出面に達したことを検出するセンサ部と、前記空中画像が前記第1検出面と同一平面に結像されており、前記センサ部で前記指示物体が前記第1検出面に達したことが検出された場合、前記表示パネルを移動させることで、前記指示物体の到達側とは反対側、かつ、前記第1検出面から離れる方向である奥行き方向に、前記空中画像を移動させる移動部と、を備える。
この構成により、空中に浮かび上がった空中画像に指示物体が触れた際、空中画像が反応して奥に沈み込む。
このように、ユーザの操作する指示物体により空中画像が3次元的に変化するので、ユーザにより高い操作感を得させることができる入力装置を実現することができる。
また、例えば、前記入力装置は、さらに、前記空中画像に関連づけられた操作の実行を決定する制御部を備え、前記センサ部は、さらに、前記奥行き方向かつ前記空間の定められた第2位置に第2検出面を設定し、前記指示物体が前記第2検出面に達したことを検出し、前記制御部は、前記センサ部が、前記指示物体が前記第1検出面に達したことを検出した後に、前記指示物体が前記第2検出面にまで達したことを検出したとき、前記操作の実行を決定するとしてもよい。
この構成により、ユーザの操作する指示物体により空中画像が奥行き方向に移動し、一定の奥行きまで移動した場合に操作が実行されるので、ユーザは高い操作感を得ながら操作の決定を入力装置に行わせることができる。
また、例えば、前記センサ部は、さらに、前記奥行き方向の定められた1以上の位置それぞれに第3検出面を設定し、前記指示物体が前記第3検出面のうちどの第3検出面にまで達したかを検出することで、前記指示物体の前記奥行き方向における前記第1検出面からの移動距離を検出するとしてもよい。
ここで、例えば、前記移動部は、前記センサ部で検出された前記移動距離に応じて、前記空中画像を前記奥行き方向に移動させるとしてもよい。
これら構成により、ユーザの操作する指示物体の第1検出面からの奥行き方向の距離に応じて、空中画像が沈み込むので、ユーザは高い操作感を得ながら操作を行うことができる。
また、例えば、前記センサ部は、前記第1検出面を含む検出面を走査する検出光を出射する検出光源と、前記検出光の前記指示物体からの反射光を検出する反射光検出部と、を備え、前記反射光検出部は、前記反射光に基づき、前記指示物体が前記第1検出面を含む検出面に達したことを検出するとしてもよい。
また、例えば、前記センサ部は、さらに、前記反射光検出部で検出した反射光から、前記指示物体が前記検出面に達した位置であって前記指示物体と前記検出面との交点の位置である座標を算出する座標算出部を備えるとしてもよい。
また、例えば、前記制御部は、前記センサ部により前記指示物体が前記第1検出面に達したことが検出され、前記移動部により前記空中画像が奥行き方向に移動された後、さらに、前記指示物体が当該空中画像に沿って移動された場合、前記表示パネルに前記画像を更新して表示させることで、当該空中画像を前記指示物体の移動に合わせて変化させるとしてもよい。
この構成により、ユーザの操作する指示物体により空中画像が奥行き方向に移動した後、さらに、ユーザが操作する指示物体を空中画像に沿って移動させた場合、その指示物体の動きに沿って空中画像の表示領域を変化させる入力装置を実現することができる。
それにより、本態様の入力装置は、ユーザにより高い操作感を得させることができる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
本発明によれば、ユーザに操作感を得させることができる入力装置を実現することができる。
実施の形態1に係る入力装置の構成の一例を示す模式図である。 実施の形態1に係る入力装置の機能的な構成の一例を示すブロック図である。 実施の形態1に係るセンサ部の詳細構成の一例を示すブロック図である。 実施の形態1に係る入力装置の動作の一例を示すフローチャートである。 実施の形態1に係る入力装置の空中画像の動作の一例を示す図である。 実施の形態1に係る入力装置の空中画像の動作の一例を示す図である。 実施の形態2に係る入力装置の検出面の配置の一例を示す図である。 実施の形態2に係る入力装置の動作の一例を示すフローチャートである。 実施の形態3に係る入力装置の検出面の配置の一例を示す図である。 実施の形態3に係る入力装置の動作の一例を示すフローチャートである。 実施の形態3に係る入力装置の空中画像の動作の一例を示す図である。 実施の形態3の変形例に係る入力装置の検出面の配置の一例を示す図である。 実施の形態3の変形例に係る入力装置の動作の一例を示すフローチャートである。 実施の形態4に係る入力装置の機能的な構成の一例を示すブロック図である。 実施の形態4に係る入力装置の空中画像の動作の一例を示す図である。 実施の形態4に係る入力装置の動作の一例を示すフローチャートである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態などは、一例であり、本発明を限定する主旨ではない。本発明は、特許請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
(実施の形態1)
図1は、実施の形態1に係る入力装置100の構成の一例を示す模式図である。図2は、実施の形態1に係る入力装置100の機能的な構成の一例を示すブロック図である。
入力装置100は、図1および図2に示すように、センサ部10と、制御部20と、移動部30と、駆動回路40と、映像表示パネル50と、反射板60とを備える。
映像表示パネル50は、映像を表示するパネルである。例えば映像表示パネル50は、液晶表示パネルである。
駆動回路40は、制御部20により入力された制御信号に従って、映像表示パネル50を駆動する。具体的には、駆動回路40は、入力された制御信号に従って、映像表示パネル50が有する画素部を制御して画像を表示させる。
制御部20は、センサ部10、移動部30、及び、駆動回路40を制御する。制御部20は、例えば、CPU(Central Processing Unit)21、RAM(Random Access Memory)22、ROM(Read Only Memory)23などからなるコンピュータシステムとして構成される。また、制御部20の一部又は全部の機能は、CPU21がRAM22を作業用のメモリとして用いてROM23に記録されたプログラム(図示せず)を実行することによって達成されてもよい。また、制御部20の一部又は全部の機能は、専用のハードウェア回路によって達成されてもよい。
反射板60は、例えば図1に示すように、入力装置100に固定されて設置されている。反射板60は、映像表示パネル50に表示された画像(映像)を反射することで、空間にこの画像の虚像である空中画像を結像させる。より具体的には、反射板60は、映像表示パネル50に表示された画像(映像)を空中画像51として第1検出面41内に投影する光学素子である。反射板60は、例えば、2面コーナーリフレクタアレイ等で構成される。反射板60は、映像表示パネル50に表示された画像(映像)の奥行きが反転した実像を空中画像51として第1検出面41内に結像する。このように、入力装置100は、反射板60と映像表示パネル50とを備えることにより、映像表示パネル50に表示される画像(映像)を、空中に浮かび上がらせて空中画像51としてユーザに表示することができる。
移動部30は、ステッピングモータ31等を備え、ステッピングモータ31を用いてギアを回転させる事によって、例えば6mm程度のミリオーダで、映像表示パネル50を並行移動させる。具体的にはば、移動部30は、空中画像51が第1検出面41と同一平面に結像されており、センサ部10で指示物体70が第1検出面41に達したことが検出された場合、映像表示パネル50を移動させる。それにより、空中画像51は、指示物体70の到達側とは反対側、かつ、第1検出面41から離れる方向である奥行き方向に、移動される。ここで、指示物体70は、例えば、ユーザの指、又はユーザが手に持って動かすペンなどである。
センサ部10は、図2に示すように、検出光源11と、反射光検出部12とを備え、空間の定められた第1位置に第1検出面41を設定し、指示物体70が第1検出面41に達したことを検出する。
検出光源11は、空間中に定められる第1検出面41を含む検出面を走査する検出光117を出射する。検出光117は、例えば、赤外レーザのコリメート光である。
反射光検出部12は、検出光の指示物体70からの反射光を検出する。反射光検出部12は、反射光に基づき、指示物体70が第1検出面41を含む検出面に達したことを検出する。
ここで、センサ部10の詳細構成について説明する。図3は、実施の形態1に係るセンサ部の詳細構成の一例を示すブロック図である。
検出光源11は、図3に示すように、レーザドライバ111、赤外レーザ素子112、コリメートレンズ113、走査ドライバ114、アクチュエータ115、及びミラー116を有する。
レーザドライバ111は、制御部20の制御下で、赤外レーザ素子112を駆動する。赤外レーザ素子112は、検出光117としての赤外レーザ光を出射する。
コリメートレンズ113は、赤外レーザ素子112から入射された赤外レーザ光(検出光117)を平行光に変換する。
走査ドライバ114は、制御部20の制御下で、アクチュエータ115を駆動する。
アクチュエータ115は、ミラー116の方向を変更することにより、ミラー116で反射した検出光117で第1検出面41をラスタ走査する。第1検出面41のラスタ走査は、図1に示されるように、検出光117で第1検出面41をX方向に走査する主走査とY方向に走査する副走査とで構成されてもよい。
このようにして、センサ部10は、空間中に定められる第1検出面41を含む検出面を走査する検出光117を出射する。
なお、制御部20は、走査ドライバ114に、Y方向の走査位置をレベルによって指定するY走査信号、及びX方向の走査位置をレベルによって指定するX走査信号を供給する。一例として、Y走査信号は増加する階段波であり、X走査信号は三角波であってもよい。このようなY走査信号及びX走査信号に従って、アクチュエータ115がミラー116の方向を調整することによって、検出光117は、図1に示されるように第1検出面41をジグザグにラスタ走査する。
反射光検出部12は、図3に示すように、集光レンズ121及び光電変換素子122を有する。
集光レンズ121は、検出光117の指示物体70からの反射光128を光電変換素子122に集光する。光電変換素子122は、集光レンズ121を介して入射した反射光128を検出信号に変換する。
このようにして、反射光検出部12は、検出光117の指示物体70からの反射光を検出する。
次に、以上のように構成された入力装置100の動作の一例について説明する。
図4は、実施の形態1に係る入力装置の動作の一例を示すフローチャートである。図5A及び図5Bは、実施の形態1に係る入力装置の空中画像の動作の一例を示す図である。
まず、センサ部10は、上述したように、検出光117で第1検出面41を走査することで、指示物体70が第1検出面41に到達したかを確認している(S10)。ここで、映像表示パネル50は、移動部30により所定の位置(最初の位置)に移動されており、空中画像51が第1検出面41と同一平面に結像されている。
次に、ユーザは、図5Aに示すように、指示物体70を、空中画像51に触れさせた場合、センサ部10は、指示物体70が第1検出面41に到達したことを検出し(S10でYes)、移動部30は、映像表示パネル50を移動させて、図5Bに示すように、空中画像51をミリオーダで奥に移動させる(S20)。ここで、奥に移動させるとは、指示物体70の到達側とは反対側、かつ、第1検出面41から離れる方向である奥行き方向に移動させることを意味する。
次に、ユーザは、空中画像51(奥に移動した空中画像51a)から、指示物体70を、離した場合、センサ部10は、指示物体70が第1検出面41から離れたことを検出し(S30でYes)、移動部30は、映像表示パネル50を移動させて、空中画像51aを元の位置(空中画像51の位置)に戻す(S40)。
なお、ユーザが空中画像51に指示物体70を触れさせている間(S30でNo)、空中画像51は、空中画像51aの位置に移動されたままである。
このように、入力装置100は、空間に投影された空中画像51に指示物体70が触れた場合に、空中画像51が反応して奥に沈み込む表示を行うことができる。より具体的には、指示物体70がユーザの指であり、空中に浮かび上がった空中画像51に操作パネルが表示されているとすると、その操作パネルにユーザがタッチした際、操作パネルが反応して奥に沈み込むので、ユーザは操作感を得ることができる。
以上のように、実施の形態1によれば、ユーザの操作する指示物体により空中画像が3次元的に変化するので、ユーザにより高い操作感を得させることができる入力装置を実現できる。
(実施の形態2)
実施の形態1では、空間に投影された空中画像にユーザの指示物体が触れた場合に、空中画像が反応して奥に沈み込む表示を行う入力装置について説明したが、それに限らない。本実施の形態では、実施の形態1の動作に加え、空中画像に関連づけられた操作を実行する場合の例について説明する。
本実施の形態の入力装置100構成は、実施の形態1で説明したのと同様であるため、説明は省略し、以下では異なる部分のみを説明する。
図6は、実施の形態2に係る入力装置の検出面の配置の一例を示す図である。
センサ部10は、図6に示すように、空間の定められた第1位置に第1検出面41を設定し、指示物体70が第1検出面41に達したことを検出する。さらに、センサ部10は、図6に示すように、奥行き方向かつ空間の定められた第2位置に第2検出面42を設定し、指示物体70が第2検出面に達したことを検出する。なお、第2検出面42は、ユーザから見て(奥行き方向に)、第1検出面41から数ミリ(例えば6mm)離れた位置に設定される。
また、センサ部10は、検出光117で第1検出面41を走査するとともに、検出光117(または検出光117と異なる検出光)で第2検出面42を走査している。これにより、センサ部10は、指示物体70が第1検出面41に到達したか否か、指示物体70が第2検出面42に到達したか否かを確認する。
制御部20は、さらに、空中画像51に関連づけられた操作の実行を決定する。具体的には、制御部20は、センサ部10が、指示物体70が第1検出面41に達したことを検出した後、かつ、指示物体70が第2検出面42にまで達したことを検出したとき、上記操作の実行を決定する。
次に、以上のように構成された本実施の形態の入力装置100の動作の一例について説明する。図7は、実施の形態2に係る入力装置の動作の一例を示すフローチャートである。
まず、センサ部10は、上述したように、検出光117で第1検出面41を走査することで、指示物体70が第1検出面41に到達したかを確認している(S10)。ここで、映像表示パネル50は、移動部30により所定の位置(最初の位置)に移動されており、空中画像51が第1検出面41と同一平面に結像されている。
次に、ユーザは、指示物体70を、空中画像51に触れさせた場合、センサ部10は、指示物体70が第1検出面41に到達したことを検出し(S10でYes)、移動部30は、映像表示パネル50を移動させて、空中画像51を6mm程度奥に移動させる(S20)。
次に、ユーザは、さらに、指示物体70を、さらに深く移動(奥に移動した空中画像51aの方向にさらに移動)させた場合、センサ部10は、指示物体70が第2検出面42に到達したことを検出し(S50でYes)、制御部20は、空中画像51に関連づけられた操作の実行を決定し、操作を実行する(S60)。
なお、ユーザが、S20の状態で、指示物体70を、さらに深く移動させない場合には(S50でNo)、S30に進む。S30以降の動作は、実施の形態1で説明した通りであるため、説明を省略する。
このように、空間に投影された空中画像51に指示物体70を触れさせ、空中画像51が反応して奥に沈みこんだ状態で、さらに指示物体70を奥に移動させることで、空中画像51に関連づけられた操作を実行することができる。これにより、ユーザは操作感を得ることができる。
以上のように、実施の形態2によれば、ユーザの操作する指示物体により空中画像が3次元的に変化するので、ユーザにより高い操作感を得させることができる入力装置を実現できる。
(実施の形態3)
実施の形態1では、空間に投影された空中画像にユーザの指示物体が触れた場合に、空中画像が反応して奥に沈み込む表示を行う入力装置について説明したが、それに限らない。本実施の形態では、空中画像に対する指示物体の奥行き方向の移動の深さ(距離)の程度に応じて、奥に沈み込む程度を変化させる場合の例について説明する。
本実施の形態の入力装置100の構成は、実施の形態1で説明したのと同様であるため、説明は省略し、以下では異なる部分のみを説明する。
図8は、実施の形態3に係る入力装置の検出面の配置の一例を示す図である。
センサ部10は、図8に示すように、空間の定められた第1位置に第1検出面41を設定し、指示物体70が第1検出面41に達したことを検出する。さらに、センサ部10は、図8に示すように、奥行き方向の定められた1以上の位置それぞれに第3検出面43、44を設定する。センサ部10は、指示物体70が第3検出面43、44のうちどの第3検出面にまで達したかを検出することで、指示物体70の奥行き方向の第1検出面41からの移動距離を検出する。なお、本実施の形態では、第3検出面が2つの場合について例示をしているが、2つに限らず、3つ以上でもよい。センサ部10は、検出光117で第1検出面41を走査するとともに、検出光117(または検出光117と異なる検出光)で第3検出面43、44を走査している。これにより、センサ部10は、指示物体70が第1検出面41に到達したか否か、指示物体70が第3検出面43、44に到達したか否かを確認している。また、第3検出面43、44が配置される位置は、第1検出面41から数ミリ(ミリオーダ)の範囲である。
移動部30は、センサ部10で検出された移動距離に応じて、空中画像51を奥行き方向に移動させる。
次に、以上のように構成された本実施の形態の入力装置100の動作の一例について説明する。図9は、実施の形態3に係る入力装置の動作の一例を示すフローチャートである。図10は、実施の形態3に係る入力装置の空中画像の動作の一例を示す図である。
まず、センサ部10は、検出光117で第1検出面41を走査することで、指示物体70が第1検出面41に到達したかを確認している(S10)。ここで、映像表示パネル50は、移動部30により所定の位置(最初の位置)に移動されており、空中画像51が第1検出面41と同一平面に結像されている。
次に、ユーザは、指示物体70を、空中画像51に触れさせた場合、センサ部10は、指示物体70が第1検出面41に到達したことを検出し(S10でYes)、移動部30は、映像表示パネル50を移動させて、空中画像51を奥に移動させる(S20)。なお、ここでは、空中画像51は、第3検出面43まで沈み込むに留まる。
そして、センサ部10は、検出光117(または検出光117と異なる検出光)で第3検出面43、44を走査しており、指示物体70が第3検出面43または44に到達したかを確認している(S21)。
ここで、ユーザは、指示物体70を、深く移動させていた場合、センサ部10は、指示物体70が次の検出面(第3検出面43または第3検出面44)まで到達したことを検出し(S21でYes)、移動部30は、映像表示パネル50を移動させて、図10に示すように、空中画像51を第3検出面43または第3検出面44の位置まで奥に移動させる(S22)。
なお、ユーザが、S20の状態で、指示物体70を、さらに深く移動しない場合には(S21でNo)、S30に進む。S30以降の動作は、実施の形態1で説明した通りであるため、説明を省略する。
このように、空間に投影された空中画像51に指示物体70が触れ、空中画像51が反応して奥に沈みこんだ表示が行われた状態で、さらに指示物体70を奥に移動することで空中画像51に対する指示物体70の奥行き方向の移動さの程度に応じて、奥に沈み込む程度を変化させることができる。これにより、ユーザは操作感を得ることができる。
以上のように、実施の形態3によれば、ユーザの操作する指示物体により空中画像が3次元的に変化するので、ユーザにより高い操作感を得させることができる入力装置を実現できる。
(変形例)
なお、実施の形態3では、さらに、実施の形態2で説明した機能(処理の実行を決定する機能)が含まれているとしてもよい。その場合を変形例として説明する。
図11は、実施の形態3の変形例に係る入力装置の検出面の配置の一例を示す図である。図12は、実施の形態3の変形例に係る入力装置の動作の一例を示すフローチャートである。図12において、図4、図7及び図9と同様の要素には同一の符号を付しており、詳細な説明は省略する。
センサ部10は、図11に示すように、空間の定められた第1位置に第1検出面41を設定し、指示物体70が第1検出面41に達したことを検出する。また、センサ部10は、奥行き方向の定められた1以上の位置それぞれに第3検出面43、44を設定し、指示物体70が第3検出面43、44のうちどの第3検出面にまで達したかを検出することで、指示物体70の奥行き方向の第1検出面41からの移動距離を検出する。さらに、センサ部10は、図6に示すように、奥行き方向かつ空間の定められた第2位置に第2検出面42を設定し、指示物体70が第2検出面に達したことを検出する。ここで、第2検出面42および第3検出面43、44が配置される位置は、第1検出面41から数ミリ(ミリオーダ)の範囲である。
なお、図11に示すフローチャートは、図4、図7及び図9で説明したとの同様であるため、説明を省略する。
以上のように、本変形例によれば、空間に投影された空中画像51に指示物体70を触れさせた際、その触れさせた際の奥行き方向の深さの程度に応じて、空中画像51の奥に沈み込む程度を変化させることができるだけでなく、指示物体70をさらに(第2検出面まで)奥に移動させることで、空中画像51に関連づけられた操作を実行することができる。これにより、ユーザは操作感を得ることができる。
このように、ユーザの操作する指示物体により空中画像が3次元的に変化するので、ユーザにより高い操作感を得させることができる入力装置を実現できる。
(実施の形態4)
本実施の形態では、空間に投影された空中画像に指示物体が触れ、空中画像が奥に沈みこんだ状態で、さらに、その指示物体を沈み込んだ空中画像面に沿って移動した場合に、指示物体の移動の動きに連動して空中画像の表示が変化する場合の例について説明する。
図13は、実施の形態4に係る入力装置100Aの機能的な構成の一例を示すブロック図である。図14は、実施の形態4に係る入力装置の空中画像の動作の一例を示す図である。なお、図2と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図13に示す入力装置100Aは、実施の形態2における入力装置100に対して、センサ部10Aと制御部20Aとの構成が異なる。
センサ部10Aは、検出光源11と反射光検出部12とに加えて、座標算出部13を備える。
座標算出部13は、反射光検出部12で検出した反射光から、指示物体70が第1検出面41に達した位置であって指示物体70と第1検出面41との交点の位置である座標(第1座標)を算出する。なお、座標算出部13は、第1座標を算出した後、さらに、指示物体70が第1座標から移動したとき、指示物体70が移動中における第1検出面41と交差した座標を順次算出することで、指示物体70の座標を順次算出するとしてもよい。
制御部20Aは、センサ部10Aにより指示物体70が第1検出面41に達したことが検出され、移動部30により空中画像51が奥行き方向に移動された後、さらに、その指示物体70が当該空中画像51に沿って移動された場合、映像表示パネル50の画像を更新させることで、当該空中画像51を指示物体の移動に合わせて変化させる。
例えば、制御部20Aは、図14に示すように、指示物体70が当該空中画像に沿って移動された場合には、指示物体70の座標に基づいて、映像表示パネル50の画像を更新させることで、空中画像51bから空中画像51cのように画面(表示領域)を変更させる。
なお、制御部20Aは、座標算出部13が順次算出した、指示物体70の座標に基づいて、映像表示パネル50の画像を順次更新させるとしてもよい。
次に、以上のように構成された本実施の形態の入力装置100Aの動作の一例について説明する。図15は、実施の形態4に係る入力装置の動作の一例を示すフローチャートである。なお、図9、図12と同様の要素には同一の符号を付しており、詳細な説明は省略する。
S20において、移動部30は、映像表示パネル50を移動させて、空中画像51を奥に移動させる。
S70において、ユーザが、さらに、指示物体70を第2検出面42まで深く移動させた場合、センサ部10Aは、指示物体70が第2検出面42に達したことを検出し、制御部20は、空中画像51に関連づけられた操作の実行を決定し、操作を実行する(S60)。
なお、S60以降のS30およびS40は、上述したとおりであるので、説明を省略する。
また、S70において、ユーザがさらに指示物体70を奥に沈みこんだ空中画像51に沿って移動させた場合、センサ部10Aは、指示物体70が第1検出面41に達した位置であって指示物体70と第1検出面41との交点の位置である座標を算出する。そして、制御部20Aは、映像表示パネル50の画像を更新させることで、当該空中画像51を指示物体70の移動に合わせて変化させる(S80)。
また、S70において、ユーザが、空中画像51(奥に移動した空中画像)から、指示物体70を離した場合、センサ部10Aは、指示物体70が第1検出面41から離れたことを検出し、移動部30は、映像表示パネル50を移動させて、空中画像51を元の位置に戻す(S90)。
なお、S60以降の処理は、必須ではない。入力装置100Aは、S80およびS90の処理のみ行うとしてもかまわない。
以上のように、ユーザの操作する指示物体により空中画像が奥行き方向に移動した後、さらに、ユーザが操作する指示物体を空中画像に沿って移動させた場合、その指示物体の動きに沿って空中画像の表示領域を変化させる入力装置を実現することができる。
以上、実施の形態4によれば、ユーザの操作する指示物体により空中画像が3次元的に変化するので、ユーザにより高い操作感を得させることができる入力装置を実現できる。
なお、空中画像の一部にオブジェクトが表示され、ユーザの操作する指示物体70がそのオブジェクトに触れてそのオブジェクトを移動させるような動作で移動するとしてもよい。その場合には、空中画像は、オブジェクト部分のみが指示物体70に伴って移動する画面表示を行うとすればよい。
以上、本発明の入力装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施した形態や、異なる実施の形態における構成要素を組み合わせて構築される形態が、本発明の1つまたは複数の態様の範囲内に含まれてもよい。
本発明は、空中画像への仮想的な接触等の動作に基づいて情報機器とインタラクションするための入力装置として、広範な分野で利用できる。
10、10A センサ部
11 検出光源
12 反射光検出部
13 座標算出部
20、20A 制御部
21 CPU
22 RAM
23 ROM
30 移動部
31 ステッピングモータ
40 駆動回路
41 第1検出面
42 第2検出面
43、44 第3検出面
50 映像表示パネル
51、51a、51b、51c 空中画像
60 反射板
70 指示物体
100、100A 入力装置
111 レーザドライバ
112 赤外レーザ素子
113 コリメートレンズ
114 走査ドライバ
115 アクチュエータ
116 ミラー
117 検出光
121 集光レンズ
122 光電変換素子
128 反射光

Claims (7)

  1. 表示パネルと、
    前記表示パネルに表示された画像を反射することで、空間に前記画像の虚像である空中画像を結像させる反射板と、
    前記空間の定められた第1位置に第1検出面を設定し、指示物体が前記第1検出面に達したことを検出するセンサ部と、
    前記空中画像が前記第1検出面と同一平面に結像されており、前記センサ部で前記指示物体が前記第1検出面に達したことが検出された場合、前記表示パネルを移動させることで、前記指示物体の到達側とは反対側、かつ、前記第1検出面から離れる方向である奥行き方向に、前記空中画像を移動させる移動部と、を備える、
    入力装置。
  2. 前記入力装置は、さらに、前記空中画像に関連づけられた操作の実行を決定する制御部を備え、
    前記センサ部は、さらに、前記奥行き方向かつ前記空間の定められた第2位置に第2検出面を設定し、前記指示物体が前記第2検出面に達したことを検出し、
    前記制御部は、前記センサ部が、前記指示物体が前記第1検出面に達したことを検出した後に、前記指示物体が前記第2検出面にまで達したことを検出したとき、前記操作の実行を決定する、
    請求項1に記載の入力装置。
  3. 前記センサ部は、さらに、前記奥行き方向の定められた1以上の位置それぞれに第3検出面を設定し、前記指示物体が前記第3検出面のうちどの第3検出面にまで達したかを検出することで、前記指示物体の前記奥行き方向における前記第1検出面からの移動距離を検出する、
    請求項1または2に記載の入力装置。
  4. 前記移動部は、
    前記センサ部で検出された前記移動距離に応じて、前記空中画像を前記奥行き方向に移動させる、
    請求項3に記載の入力装置。
  5. 前記センサ部は、
    前記第1検出面を含む検出面を走査する検出光を出射する検出光源と、
    前記検出光の前記指示物体からの反射光を検出する反射光検出部と、を備え、
    前記反射光検出部は、前記反射光に基づき、前記指示物体が前記第1検出面を含む検出面に達したことを検出する、
    請求項1〜4のいずれか1項に記載の入力装置。
  6. 前記センサ部は、さらに、
    前記反射光検出部で検出した反射光から、前記指示物体が前記検出面に達した位置であって前記指示物体と前記検出面との交点の位置である座標を算出する座標算出部を備える、
    請求項5に記載の入力装置。
  7. 前記制御部は、前記センサ部により前記指示物体が前記第1検出面に達したことが検出され、前記移動部により前記空中画像が奥行き方向に移動された後、さらに、前記指示物体が当該空中画像に沿って移動された場合、前記表示パネルに前記画像を更新して表示させることで、当該空中画像を前記指示物体の移動に合わせて変化させる、
    請求項1〜6のいずれか1項に記載の入力装置。
JP2013192072A 2013-09-17 2013-09-17 入力装置 Pending JP2015060295A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013192072A JP2015060295A (ja) 2013-09-17 2013-09-17 入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013192072A JP2015060295A (ja) 2013-09-17 2013-09-17 入力装置

Publications (1)

Publication Number Publication Date
JP2015060295A true JP2015060295A (ja) 2015-03-30

Family

ID=52817798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013192072A Pending JP2015060295A (ja) 2013-09-17 2013-09-17 入力装置

Country Status (1)

Country Link
JP (1) JP2015060295A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170302A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置
US10887478B2 (en) 2018-02-06 2021-01-05 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for providing notification of a function selected using an aerial image
US11042963B2 (en) 2018-01-23 2021-06-22 Fujifilm Business Innovation Corp. Information processing device, information processing system, and non-transitory computer readable medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042963B2 (en) 2018-01-23 2021-06-22 Fujifilm Business Innovation Corp. Information processing device, information processing system, and non-transitory computer readable medium
US10887478B2 (en) 2018-02-06 2021-01-05 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for providing notification of a function selected using an aerial image
JP2020170302A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置

Similar Documents

Publication Publication Date Title
CN109564495B (zh) 显示装置、存储介质、显示方法及控制装置
JP5657293B2 (ja) ジェスチャ認識方法及び同方法を用いたタッチシステム
JP5241786B2 (ja) 対話システムのためのジェスチャ認識方法および対話システム
US20110205186A1 (en) Imaging Methods and Systems for Position Detection
US20140104240A1 (en) Light-based proximity detection system and user interface
BRPI0712245A2 (pt) método;produto de programa de computador; dispositivo eletrÈnico; e módulo de tecla multifuncional para rolagem
JP2015060296A (ja) 空間座標特定装置
US20060232563A1 (en) Touch-sense apparatus available for one-dimensional and two-dimensional modes and control method therefor
EP3163409B1 (en) Input device
JP4924164B2 (ja) タッチ式入力装置
JP2015060295A (ja) 入力装置
JP7335487B2 (ja) 入力装置
JP2007206935A (ja) 座標検知システム、座標検知装置、座標検知方法およびタッチペン
JP6183820B2 (ja) 端末、及び端末制御方法
JP6394135B2 (ja) 画像表示装置
TW201327324A (zh) 光學式觸控模組
JP6409919B2 (ja) 入力表示装置
EP2957998A1 (en) Input device
JP5780823B2 (ja) 表示装置、表示装置の制御方法及びプログラム
TWI573043B (zh) The virtual two - dimensional positioning module of the input device
JP6315127B2 (ja) 入力装置、空中像インタラクションシステム、及び入力方法
KR20140061007A (ko) 터치 패널 및 이의 입력 방법
JP2019128707A (ja) 表示入力装置
JP2012190261A (ja) 近接操作支援装置
JP2016151823A (ja) 入力装置、入力方法およびプログラム