JP7484123B2 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP7484123B2
JP7484123B2 JP2019188035A JP2019188035A JP7484123B2 JP 7484123 B2 JP7484123 B2 JP 7484123B2 JP 2019188035 A JP2019188035 A JP 2019188035A JP 2019188035 A JP2019188035 A JP 2019188035A JP 7484123 B2 JP7484123 B2 JP 7484123B2
Authority
JP
Japan
Prior art keywords
image
controller
input
input device
detection point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019188035A
Other languages
English (en)
Other versions
JP2020064631A (ja
Inventor
正幸 篠原
靖宏 田上
智和 北村
寛之 宮本
裕都 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JP2020064631A publication Critical patent/JP2020064631A/ja
Application granted granted Critical
Publication of JP7484123B2 publication Critical patent/JP7484123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Switches Operated By Changes In Physical Conditions (AREA)

Description

本発明は、入力装置に関する。
従来、導光板から光を出射させて空間に画像を結像するとともに、画像の結像位置を含む空間において物体を検出する入力装置が知られている(例えば、特許文献1参照)。このような装置によれば、ユーザーは、空間に表示されているボタン等の画像を空中で仮想的に触れることによって、入力動作を行うことができる。
特開2012-209076号公報
上述した特許文献1に係る入力装置では、オン/オフ操作などの単純な入力動作に対応することはできるが、複雑な入力動作に対応することは困難である。
本発明の目的は、複雑な入力動作に対応可能な入力装置を提供することにある。
一態様に係る入力装置は、光源と、導光板と、センサと、コントローラとを備える。導光板は、光源からの光を導いて空間に画像を結像させる。センサは、画像の結像位置を含む空間、又は画像の結像位置から所定距離だけ離れた空間における物体を検出する。コントローラは、センサからの出力に基づいて、物体が検出された複数の位置の軌跡と、物体が検出された継続時間と、物体の検出回数との少なくとも1つを入力パラメータとして取得する。コントローラは、入力パラメータに基づいて物体の動作に応じた入力パターンを識別し、識別された入力パターンに応じた信号を出力する。
本態様に係る入力装置では、コントローラは、物体が検出された複数の位置の軌跡と、物体が検出された継続時間と、物体の検出回数との少なくとも1つに基づいて物体の動作に応じた入力パターンを識別する。そのため、オン/オフ操作などの単純な入力動作に限らず、複雑な入力動作を識別することができる。
コントローラは、識別された入力パターンに応じて、画像を変更してもよい。この場合、ユーザーの入力動作に応じて画像が変化する。そのため、ユーザーは、自身の入力動作を入力装置が認識していることを、容易に把握することができる。
コントローラは、物体が検出された複数の位置の軌跡を入力パラメータとして取得してもよい。コントローラは、物体が検出された複数の位置の軌跡から、物体の移動方向を識別してもよい。入力パターンは、物体の移動方向を含んでもよい。この場合、コントローラは、例えばユーザーの指の移動方向に応じた入力パターンを識別することができる。
センサは、少なくとも、画像内の基準検出点と、基準検出点の上方に位置する第1検出点と、基準検出点の下方に位置する第2検出点において物体を検出してもよい。この場合、コントローラは、例えばユーザーの指の上下方向の動作を入力パターンとして識別することができる。
センサは、少なくとも、画像内の基準検出点と、基準検出点の左方に位置する第3検出点と、基準検出点の右方に位置する第4検出点において物体を検出してもよい。この場合、コントローラは、例えばユーザーの指の左右方向の動作を入力パターンとして識別することができる。
コントローラは、物体の移動方向に対応する方向に、画像を移動させてもよい。この場合、ユーザーの入力動作の方向に応じて画像が変化する。そのため、ユーザーは、自身の入力動作を入力装置が認識していることを、容易に把握することができる。
コントローラは、物体が検出された継続時間を入力パラメータとして取得してもよい。コントローラは、継続時間に応じた入力パターンを識別してもよい。コントローラは、継続時間に応じた信号を出力してもよい。この場合、コントローラは、ユーザーによる入力動作の継続時間に応じた入力パターンを識別することができる。
コントローラは、継続時間に応じて画像を変更してもよい。この場合、この場合、ユーザーの入力動作の継続時間に応じて画像が変化する。そのため、ユーザーは、自身の入力動作を入力装置が認識していることを、容易に把握することができる。
コントローラは、継続時間に応じて、通常押し操作と長押し操作とを識別してもよい。この場合、オン/オフ操作などの単純な入力動作に限らず、通常押し操作と長押し操作とを識別することができる
コントローラは、所定時間内における物体の検出回数を取得してもよい。コントローラは、検出回数に応じた信号を出力してもよい。この場合、コントローラは、ユーザーによる入力動作の回数に応じた入力パターンを識別することができる。
コントローラは、検出回数に応じて画像を変更してもよい。この場合、ユーザーの入力動作の回数に応じて画像が変化する。そのため、ユーザーは、自身の入力動作を入力装置が認識していることを、容易に把握することができる。
コントローラは、検出回数に応じて、シングルクリックとダブルクリックとを識別してもよい。この場合、オン/オフ操作などの単純な入力動作に限らず、シングルクリックとダブルクリックとを識別することができる。
センサは、光電センサを含んでもよい。この場合、空間において物体を容易に検出することができる。
コントローラは、入力パターンに応じて複数の指令値の信号を出力してもよい。この場合、入力装置は、ユーザーの入力動作に応じた複数の指令値の信号を外部の機器に出力することができる。
入力装置は、信号を入力装置の外部に出力するための複数の信号線をさらに備えてもよい。コントローラは、入力パターンに応じて複数の信号線から選択的に信号を出力してもよい。この場合、入力装置は、ユーザーの入力動作に応じて複数の信号線から選択的に信号を外部の機器に出力することができる。
本発明によれば、複雑な入力動作に対応可能な入力装置を提供することができる。
第1実施形態に係る入力装置の斜視図である。 入力装置の構成を示すブロック図である。 プリズムの一例を示す導光板の断面図である。 プリズムの形状の一例を示す斜視図である。 センサの構成及び配置を示す側面図である。 入力パターンに応じた画像の変化の一例を示す図である。 入力パターンに応じた画像の変化の一例を示す図である。 センサによる検出点の一例を示す図である。 センサの構成の一例を示す図である。 センサの構成の他の例を示す図である。 入力パターンに応じた画像の変化の一例を示す図である。 入力パターンに応じた画像の変化の他の例を示す図である。 画像の他の例を示す図である。 画像の他の例を示す図である。 画像の他の例を示す図である。 他の実施形態に係る入力装置の構成を示すブロック図である。 他の実施形態に係る画像を示す図である。 他の実施形態に係る画像を示す図である。 センサの検出空間の他の例を示す図である。 センサの検出空間の他の例を示す図である。
以下、図面を参照して実施形態にかかる入力装置1について説明する。図1は、第1実施形態に係る入力装置1の斜視図である。図2は、第1実施形態に係る入力装置1の構成を示すブロック図である。入力装置1は、導光板2と、光源3と、センサ4と、コントローラ5と、信号出力装置6とを含む。
導光板2は、光源3からの光を導いて空間に画像I1を結像させる。それにより、導光板2は、ユーザーにより視認される画像I1をスクリーンのない空間に投影する。導光板2は、透光性材料で形成されている。導光板2は、例えばポリメチルメタクリレート(PMMA)、ポリカーボネート、或いはシクロオレフィンポリマーなどの透明な樹脂、或いは、ガラスなどの材料で形成されている。
導光板2は、出射面21と背面22と端面23-26とを含む。出射面21は、光源3からの光を出射する。背面22は、出射面21の反対側に位置する。端面23には光源3からの光が入射される。光源3からの光は、他の端面24-26に入射されてもよい。光源3は、例えばLED(Light Emitting Diode)である。ただし、光源3は、LEDに限らず、OLED(Organic Light Emitting Diode)などの他の光源であってもよい。なお、図1では、出射面21が鉛直方向に平行になるように導光板2が配置されている。しかし、出射面21が鉛直方向に対して、0度を含まない所定の角度をなすように導光板2が設置されてもよい。
導光板2は、複数の導光部を含む。複数の導光部は、それぞれ画像I1に含まれる複数の定点に対応して設けられている。例えば、複数の導光部は、第1導光部27と第2導光部28と第3導光部29とを含む。第1導光部27は、画像I1に含まれる第1定点A1に対応している。第2導光部28は、画像I1に含まれる第2定点A2に対応している。第3導光部29は、画像I1に含まれる第3定点A3に対応している。
各導光部は、複数のプリズムを含む。図3は、プリズム200の一例を示す導光板2の断面図である。図4は、プリズム200の形状の一例を示す斜視図である。プリズム200は、導光板2の背面22に設けられている。プリズム200は、導光板2の背面22から凹んだディンプルによって形成されている。図4Aに示すように、プリズム200は、例えば三角錐の形状を有する。或いは、プリズム200は、図4Bに示すように、三角柱の形状を有してもよい。或いは、図4Cに示すように、プリズム200は曲面を有する形状であってもよい。複数のプリズム200は、光源3からの光を導光板2の出射面21に向けて反射し、光が各導光部に対応する定点で収束するように配列されている。
例えば、第1導光部27に入射した光は、第1定点A1に収束するように第1導光部27に含まれる複数のプリズム200で反射される。それにより、第1導光部27からの光の波面は、第1定点A1から発するような光の波面となる。同様に、第2導光部28に入射した光は、第2定点A2に収束するように第2導光部28に含まれる複数のプリズム200で反射される。第3導光部29に入射した光は、第3定点A3に収束するように第3導光部29に含まれる複数のプリズム200で反射される。
このように、光源3からの光は、複数の導光部によって反射されることで、複数の導光部のそれぞれに対応する複数の定点で収束する。これにより、複数の定点から光が発するような光の波面が形成される。これらの複数の定点で収束した光の集まりによって、空間上にユーザーにより認識される画像I1が結像される。
図1に示すように、第1実施形態において、画像I1は、オペレータによって操作される入力部材の形状を示す立体画像である。本実施形態において、画像I1は、押しボタン式のスイッチの形状を示す。画像I1は、台部I11とボタン部I12とを含む。台部I11は、導光板2の出射面21側に突出した形状を示す。ボタン部I12は、台部I11上に配置されており、台部I11から突出した形状を示す。
台部I11は、支持面I13を含む。支持面I13は、出射面21に対して傾斜している。ボタン部I12は、押圧面I14を含む。押圧面I14は、出射面21に対して傾斜している。ただし、支持面I13と押圧面I14とは、出射面21と平行であってもよい。或いは、支持面I13と押圧面I14とは、出射面21に対して垂直であってもよい。なお、後述するように、画像I1は、押しボタン式に限らず、他の方式のスイッチであってもよい。或いは、画像I1は、スイッチに限らず他の入力部材であってもよい。
センサ4は、非接触で物体を検出する近接センサである。センサ4は、画像I1の結像位置を含む空間における物体を検出する。図5は、センサ4の構成及び配置を示す側面図である。図5に示すように、センサ4は、導光板2の背面22側に配置される。センサ4は、例えば光電センサである。センサ4は、投光素子41と受光素子42とを含む。投光素子41は、導光板2の出射面21側に向かって光を照射する。受光素子42は、物体において反射された投光素子41からの光を受ける。センサ4は、検出結果を示す信号をコントローラ5に出力する。なお、投光素子41と受光素子42とは、互いに別体のユニットに分かれて設けられてもよい。
本実施形態において、センサ4は、限定反射センサである。限定反射センサは、所定の検出位置B1に物体があることを検出する。所定の検出位置B1は、画像I1の結像位置を含む。例えば、所定の検出位置B1は、画像I1のボタン部I12に含まれる。詳細には、所定の検出位置B1は、ボタン部I12の押圧面I14に含まれる。従って、センサ4は、ユーザーの指がボタン部I12の位置にあることを検出する。それにより、センサ4は、ユーザーの指によるボタン部I12への入力動作を検出する。
なお、センサ4は、限定反射センサに限らず、TOF(time of flight)方式などの他の光電センサであってもよい。或いは、センサ4は、光電センサに限らず、電波、磁界、或いは熱等の他の媒体を介して物体を検出するものであってもよい。
信号出力装置6は、信号線61を介して、コントローラ5からの指令に応じた信号を出力する。信号線61は、外部の機器に接続される。信号出力装置6は、例えばアナログ出力回路を含む。ただし、信号出力装置6は、デジタル出力回路を含んでもよい。信号出力装置6からの信号は、指令値を有する。指令値は、例えば電圧値である。ただし、指令値は電流値であってもよい。
コントローラ5は、CPU(Central Processing Unit)などのプロセッサ51と、RAM(Random Access Memory)及びROM(Read Only Memory)等のメモリ52とを含む。メモリ52は、プロセッサ51によって実行されるコンピュータ指令、及び、入力装置1を制御するためのデータを記憶している。コントローラ5は、光源3と信号出力装置6とを制御する。コントローラ5は、センサ4から検出信号を受信する。
本実施形態では、コントローラ5は、センサ4からの出力に基づいて、物体が検出された継続時間を入力パラメータとして取得する。コントローラ5は、入力パラメータに基づいて物体の動作に応じた入力パターンを識別する。すなわち、コントローラ5は、継続時間に応じて入力パターンを識別する。
詳細には、コントローラ5は、継続時間が閾値以上であるかに応じて、入力パターンを識別する。入力パターンは、通常押し操作と長押し操作とを含む。コントローラ5は、継続時間が閾値より小さいときには、入力パターンが通常押し操作であると識別する。コントローラ5は、継続時間が閾値以上であるときには、入力パターンが長押し操作であると識別する。
コントローラ5は、識別された入力パターンに応じた信号を出力する。例えば、コントローラ5は、物体が検出されていないときには、信号出力装置6からの信号をオフにする。コントローラ5は、入力パターンが通常押し操作であるときには、第1指令値の信号を信号出力装置6から出力する。コントローラ5は、入力パターンが長押し操作であるときには、第2指令値の信号を信号出力装置6から出力する。第1指令値は、通常押し操作に対応した値である。第2指令値は、長押し操作に対応した値であり、第1指令値と異なる。なお、コントローラ5は、継続時間の増大に応じて連続的に増加或いは減少する指令値の信号を出力してもよい。
図6に示すように、コントローラ5は、識別された入力パターンに応じて、画像I1を変更する。例えば、入力操作が行われていないときには、コントローラ5は、図6Aに示す第1画像I1aを表示する。第1画像I1aは、無操作に対応した画像である。通常押し操作が行われたときには、コントローラ5は、図6Bに示す第2画像I1bを表示する。第2画像I1bは、通常押し操作に対応した画像である。第2画像I1bでは、第1画像I1aよりも、台部I11からのボタン部I12の突出量が小さい。長押し操作が行われたときには、コントローラ5は、図6Cに示す第3画像I1cを表示する。第3画像I1cは、長押し操作に対応した画像である。第3画像I1cでは、第2画像I1bよりも、台部I11からのボタン部I12の突出量が小さい。
例えば、入力装置1は第1~第3画像I1a-I1cに対応する複数の光源を備えてもよい。或いは、入力装置1は、第1~第3画像I1a-I1cに対応する複数の光源と複数の導光板とを備えてもよい。コントローラ5は、複数の光源を選択的に点灯することで、第1~第3画像I1a-I1cの表示を切り換えてもよい。
以上説明した第1実施形態に係る入力装置1では、コントローラ5は、物体の検出の継続時間に基づいて、物体の動作に応じた入力パターンを識別する。そのため、オン/オフ操作などの単純な入力動作に限らず、通常押し操作と長押し操作とを識別することができる。また、センサ4は、画像I1の結像位置を含む空間において物体を検出するものであればよい。従って、低コストに入力装置1を実現することができる。
コントローラ5は、継続時間に応じて画像I1を変更する。従って、ユーザーの入力動作が通常押し操作と長押し操作とのいずれであるのかに応じて、画像I1が変化する。そのため、ユーザーは、入力装置1が自身の入力動作を通常押し操作として認識しているか、長押し操作として認識しているのかを、容易に把握することができる。
次に、第2実施形態に係る入力装置1について説明する。第2実施形態に係る入力装置1の構成は、第1実施形態に係る入力装置1と同様である。第2実施形態に係る入力装置1では、コントローラ5は、センサ4からの出力に基づいて、所定時間内での物体の検出回数を入力パラメータとして取得する。コントローラ5は、入力パラメータに基づいて物体の動作に応じた入力パターンを識別し、識別された入力パターンに応じた信号を出力する。
詳細には、コントローラ5は、ユーザーによる所定時間内のボタンの押圧回数を取得する。所定時間は、例えば1秒以下の短い時間である。ただし、所定時間は1秒以上であってもよい。入力パターンは、シングルクリックとダブルクリックとを含む。コントローラ5は、所定時間内のボタンの押圧回数に応じて、入力パターンを識別する。所定時間内のボタンの押圧回数が1回であるときには、コントローラ5は、入力パターンがシングルクリックであると識別する。所定時間内のボタンの押圧回数が2回であるときには、コントローラ5は、入力パターンがダブルクリックであると識別する。なお、所定時間内のボタンの押圧回数が2回以上であるときに、コントローラ5は、入力パターンがダブルクリックであると識別してもよい。或いは、所定時間内のボタンの押圧回数が3回以上であるときに、コントローラ5は、3回以上のクリック数の入力動作として入力パターンを識別してもよい。
コントローラ5は、識別された入力パターンに応じた信号を出力する。コントローラ5は、物体が検出されていないときには、信号出力装置6からの信号をオフにする。コントローラ5は、入力パターンがシングルクリックであるときには、第1指令値の信号を信号出力装置6から出力する。コントローラ5は、入力パターンがダブルクリックであるときには、第2指令値の信号を信号出力装置6から出力する。第1指令値は、シングルクリックに対応した値である。第2指令値は、ダブルクリックに対応した値であり、第1指令値と異なる。
コントローラ5は、入力パターンに応じて画像I1を変更する。すなわち、コントローラ5は、検出回数に応じて画像I1を変更する。例えば、入力操作が行われていないときには、コントローラ5は、図7Aに示す第1画像I2aを表示する。第1画像I2aは、無操作に対応した画像である。入力パターンがシングルクリックであるときには、コントローラ5は、図7Bに示す第2画像I2bを表示する。第2画像I2bは、シングルクリックに対応した画像である。入力パターンがダブルクリックであるときには、コントローラ5は、図7Cに示す第3画像I2cを表示する。第3画像I2cは、ダブルクリックに対応した画像である。第1~第3画像I2a-I2cは、例えばボタン部I12上に表示される。ただし、第1~第3画像I2a-I2cは、他の位置に表示されてもよい。
例えば、入力装置1は第1~第3画像I2a-I2cに対応する複数の光源を備えてもよい。或いは、入力装置1は、第1~第3画像I2a-I2cに対応する複数の光源と複数の導光板とを備えてもよい。コントローラ5は、複数の光源を選択的に点灯することで、第1~第3画像I2a-I2cの表示を切り換えてもよい。
以上説明した第2実施形態に係る入力装置1では、コントローラ5は、所定時間内における物体の検出回数を取得する。コントローラ5は、検出回数に応じた信号を出力する。そのため、コントローラ5は、ユーザーによるシングルクリック及びダブルクリックなどの入力動作を識別することができる。
コントローラ5は、検出回数に応じて画像I1を変更する。従って、ユーザーの入力動作の回数に応じて画像I1が変化する。そのため、ユーザーは、自身の入力動作を入力装置1が認識していることを、容易に把握することができる。
次に、第3実施形態に係る入力装置1について説明する。図8に示すように、第3実施形態に係る入力装置1では、センサ4は、画像が結像されている空間に含まれる複数の検出点において物体を検出する。詳細には、センサ4は、基準検出点B10と、第1検出点B11と、第2検出点B12と、第3検出点B13と、第4検出点B14とにおいて、物体を検出する。基準検出点B10は、導光板2によって表示される画像内に位置する。第1検出点B11は、基準検出点B10の上方に位置する。第2検出点B12は、基準検出点B10の下方に位置する。第3検出点B13は、基準検出点B10の左方に位置する。第4検出点B14は、基準検出点B10の右方に位置する。なお、上下の方向は、ユーザーにとっての前後の方向であってもよい。
図9に示すように、センサ4は、例えば複数の近接センサ4a-4eを含む。近接センサ4a-4eは、第1実施形態のセンサ4と同様の構成である。複数の近接センサ4a-4eは、上述した複数の検出点B10-B14に対応している。詳細には、複数の近接センサ4a-4eは、基準センサ4aと、第1センサ4bと、第2センサ4cと、第3センサ4dと、第4センサ4eとを含む。基準センサ4aは、基準検出点B10において物体を検出する。第1センサ4bは、第1検出点B11において物体を検出する。第2センサ4cは、第2検出点B12において物体を検出する。第3センサ4dは、第3検出点B13において物体を検出する。第4センサ4eは、第4検出点B14において物体を検出する。
ただし、センサ4において、複数の近接センサが複数の検出点B0-B4に対して1対1で設けられなくてもよい。例えば、1つの近接センサが、2つ以上の検出点において物体を検出してもよい。或いは、図10に示すように、センサ4は、1つの投光素子41aと、投光素子41aに対応する複数の受光素子42a,42b,42cとを含んでもよい。投光素子41aからの光は、光カプラ43によって複数の出射光に分岐される。複数の出射光は、複数の検出点に対応している。例えば、図10では、複数の出射光は、基準検出点B10と第1検出点B11と第2検出点B12とに対応している。図示を省略するが、光カプラ43は、投光素子41からの光を第3検出点B13と第4検出点B14とに対応する複数の出射光にさらに分岐させてもよい。或いは、センサ4は、第3検出点B13と第4検出点B14とに対応する投光素子と受光素子とをさらに含んでもよい。
コントローラ5は、センサ4からの出力に基づいて、物体が検出された複数の位置の軌跡を入力パラメータとして取得する。コントローラ5は、物体が検出された複数の位置の軌跡から、物体の移動方向を識別する。例えば、図8に示すように、入力パラメータは、上移動C11と、下移動C12と、右移動C13と、左移動C14とを含む。上移動C11は、物体の移動方向が上方であることを示す。下移動C12は、物体の移動方向が下方であることを示す。右移動C13は、物体の移動方向が右方であることを示す。左移動C14は、物体の移動方向が左方であることを示す。
なお、図8では、上移動C11として、基準検出点B10から第1検出点B11への移動が示されている。下移動C12として、基準検出点B10から第2検出点B12への移動が示されている。右移動C13として、基準検出点B10から第3検出点B13への移動が示されている。左移動C14として、基準検出点B10から第4検出点B14への移動が示されている。
しかし、上移動C11は、第2検出点B12から基準検出点B10、或いは第1検出点B11への移動であってもよい。下移動C12は、第1検出点B11から基準検出点B10、或いは第2検出点B12への移動であってもよい。右移動C13は、第4検出点B14から基準検出点B10、或いは第3検出点B13への移動であってもよい。左移動C14は、第3検出点B13から基準検出点B10、或いは第4検出点B14への移動であってもよい。
コントローラ5は、識別された入力パターンに応じた信号を出力する。コントローラ5は、物体が検出されていないときには、信号出力装置6からの信号をオフにする。コントローラ5は、入力パターンが上移動C11であるときには、第1指令値の信号を信号出力装置6から出力する。コントローラ5は、入力パターンが下移動C12であるときには、第2指令値の信号を信号出力装置6から出力する。入力パターンが右移動C13であるときには、第3指令値の信号を信号出力装置6から出力する。入力パターンが左移動C14であるときには、第4指令値の信号を信号出力装置6から出力する。
第1指令値は、上移動C11に対応した値である。第2指令値は、下移動C12に対応した値である。第3指令値は、右移動C13に対応した値である。第4指令値は、左移動C14に対応した値である。第1~第4指令値は互いに異なる。なお、コントローラ5は、上下左右の各方向への移動距離の増大に応じて連続的に増加或いは減少する指令値の信号を出力してもよい。
コントローラ5は、入力パターンに応じて、画像を移動させる。すなわち、コントローラ5は、物体の移動方向に対応する方向に、画像を移動させる。例えば、図11及び図12に示すように、導光板2によって表示される画像は、オペレータによって操作されるレバー状の入力部材を示す立体画像である。図11に示すように、コントローラ5は、入力パターンに応じて画像を第1画像I3aから第2画像I3b又は第3画像I3cに切り換える。入力操作が行われていないときには、コントローラ5は、図11Aに示す第1画像I3aを表示する。第1画像I3aは、無操作に対応した画像である。第1画像I3aは、ニュートラル位置での入力部材を示す。入力パターンが上移動C11であるときには、コントローラ5は、図11Bに示す第2画像I3bを表示する。第2画像I3bは、上移動C11に対応した画像である。第2画像I3bでは、入力部材は、第1画像I3aよりも上方に位置している。入力パターンが下移動C12であるときには、コントローラ5は、図11Cに示す第3画像I3cを表示する。第3画像I3cは、下移動C12に対応した画像である。第3画像I3cでは、入力部材は、第1画像I3aよりも下方に位置している。
図12に示すように、コントローラ5は、入力パターンに応じて画像を第1画像I3aから第4画像I3d又は第5画像I3eに切り換える。入力パターンが右移動C13であるときには、コントローラ5は、図12Bに示す第4画像I3dを表示する。第4画像I3dは、右移動C13に対応した画像である。第4画像I3dでは、入力部材は、第1画像I3aよりも右方に位置している。入力パターンが左移動C14であるときには、コントローラ5は、図12Cに示す第5画像I3eを表示する。第5画像I3eは、左移動C14に対応した画像である。第5画像I3eでは、入力部材は、第1画像I3aよりも左方に位置している。
例えば、入力装置1は第1~第5画像I3a-I3eに対応する複数の光源を備えてもよい。或いは、入力装置1は、第1~第5画像I3a-I3eに対応する複数の光源と複数の導光板とを備えてもよい。コントローラ5は、複数の光源を選択的に点灯することで、第1~第5画像I3a-I3eの表示を切り換えてもよい。
以上説明した第3実施形態に係る入力装置1では、コントローラ5は、ユーザーによる入力動作の方向に応じた入力パターンを識別することができる。例えば、コントローラ5は、ユーザーの指の移動方向に応じた入力パターンを識別することができる。
コントローラ5は、物体の移動方向に対応する方向に、画像を移動させる。従って、ユーザーの入力動作の方向に応じて画像が変化する。そのため、ユーザーは、自身の入力動作を入力装置1が認識していることを、容易に把握することができる。
なお、コントローラ5によって識別される物体の移動方向は、上下のみであってもよい。コントローラ5によって識別される物体の移動方向は、左右のみであってもよい。コントローラ5によって識別される物体の移動方向は、上下左右の4方向に限らず、上下左右の間も含めた8方向以上であってもよい。或いは、コントローラ5によって識別される物体の移動方向は、上下左右に限らず、他の方向であってもよい。例えば、図13及び図14に示すように、コントローラ5は、時計回り及び反時計周りなどの回転方向を移動方向として識別してもよい。コントローラ5は、回転角度を識別してもよい。コントローラ5は、回転方向、及び/又は、回転角度に応じた指令値を有する信号を出力してもよい。
導光板2によって表示される画像は、レバー状の形状に限らず、他の形状であってもよい。例えば、図13或いは図14に示すように、導光板2は、ノブ(knob)状の画像I4,I5を表示してもよい。或いは、図15に示すように、導光板2は、トグルスイッチ状の画像I6を表示してもよい。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
導光板2によって表示される画像は、上記の実施形態のものに限らず、変更されてもよい。或いは、導光板2は、上述した実施形態の画像を組み合わせて表示してもよい。コントローラ5は、入力パターンに応じて画像の色、或いは明るさを変更してもよい。入力装置1はスピーカー、或いはブザーなどの音声出力装置を備えてもよい。コントローラ5は、入力パターンに応じて音色、音階、音声、メロディなどを変更してもよい。コントローラ5は、入力パターンに応じて、画像、色、明るさ、音などの任意の組み合わせを変更してもよい。
図16に示すように、入力装置1は、信号を入力装置1の外部に出力するための複数の信号線61,62を備えてもよい。コントローラ5は、入力パターンに応じて複数の信号線61,62から選択的に信号を出力してもよい。例えば、複数の信号線61,62は、第1信号線61と第2信号線62とを含む。コントローラ5は、入力パターンが通常押し操作であるときに、第1信号線61から信号を出力してもよい。コントローラ5は、入力パターンが長押し操作であるときに、第2信号線62から信号を出力してもよい。或いは、コントローラ5は、入力パターンがシングルクリックであるときに、第1信号線61から信号を出力してもよい。コントローラ5は、入力パターンがダブルクリックであるときに、第2信号線62から信号を出力してもよい。
或いは、コントローラ5は、入力パターンが上移動C11であるときに、第1信号線61から信号を出力してもよい。コントローラ5は、入力パターンが下移動C12であるときに、第2信号線62から信号を出力してもよい。或いは、コントローラ5は、入力パターンが右移動C13であるときに、第1信号線61から信号を出力してもよい。コントローラ5は、入力パターンが左移動C14であるときに、第2信号線62から信号を出力してもよい。或いは、入力装置1は4つ以上の複数の信号線を備えてもよい。コントローラ5は、上移動C11、下移動C12、右移動C13、左移動C14の各入力パターンに応じて、複数の信号線から選択的に信号を出力してもよい。
導光板2は、入力部材を示す画像と共に、入力部材の操作方向、操作方法、或いは操作によって選択されているモードを示す画像を表示してもよい。例えば、図17に示すように、導光板2は、入力部材を示す画像I3と共に、入力部材の操作方向を示す画像I7を表示してもよい。図17に示す例では、画像I7は、上移動、下移動、右移動、左移動に相当する矢印を示している。或いは、図18A及び図18Bに示すように、導光板2は、入力部材を示す画像I1と共に、操作によって選択されているモードを示す画像I8a,I8bを表示してもよい。例えば、画像I8aは、シングルクリックによって選択されるモード(モードA)を示している。画像I8bは、ダブルクリックによって選択されるモード(モードB)を示している。
図19に示すように、センサ4は、画像I1の結像位置から所定距離L1だけ離れた検出空間S1における物体を検出してもよい。例えば、検出空間S1は、画像I1の押圧面I14から所定距離L1だけ離れている。検出空間S1は、導光板2から画像I1が突出する方向に、画像I1の結像位置から離れている。検出空間S1は、画像I1の操作方向に、画像I1の結像位置から離れている。所定距離L1は、例えば1cm以上、3cm以下であってもよい。ただし、所定距離L1は、これらの距離に限られず、変更されてもよい。
コントローラ5は、上記のセンサ4からの出力に基づいて、ユーザーの画像I1に対する入力動作を検出してもよい。ユーザーの画像I1に対する入力動作を検出したときのコントローラ5による処理は、上述した処理と同様である。それにより、ユーザーの入力動作に対して、わずかに早く、画像I1を変更することができる。その結果、操作感を向上させることができる。
図20に示すように、検出空間S1は、導光板2から所定距離L2までの範囲内に位置してもよい。所定距離L2は、例えば画像I1の高さL3の2倍であってもよい。画像I1の高さL3は、画像I1の操作方向における画像I1の大きさである。
導光板2の構成が変更されてもよい。例えば、複数の導光部は、線状、或いは面状の光を所定位置で集積させることで、空間に画像I1を結像させてもよい。
上述した入力装置1は、例えば、温水洗浄便座、洗面化粧台、蛇口、レンジフード、食器洗い機、冷蔵庫、電子レンジ、IHクッキングヒータ、電解水生成装置、エレベータ、インターホン、照明、ドアの開閉装置、テレビ、ステレオシステム、エアコン、洗濯機、発券機、或いは券売機などの機器に適用可能である。
これらの機器に上述した入力装置1を適用することで、入力装置1に凹凸がなくなるため掃除しやすい、必要時のみ立体画像を表示できるためデザイン性が向上する、入力装置1に接触せずに操作可能であるため衛生的である、可動部品がなくなるため壊れ難い、などの利点を得ることができる。或いは、上述した入力装置1は、例えば、ATM(automated teller machine)、或いはクレジットカードの読取機などの機器に適用可能である。これらの機器に上述した入力装置1を適用することで、手垢、指紋、或いは体温などの入力の痕跡が入力装置1に残らない。それにより、セキュリティ性を向上させることができる。
本発明によれば、複雑な入力動作に対応可能な入力装置を提供することができる。
3 光源
2 導光板
4 センサ
5 コントローラ
61 信号線

Claims (13)

  1. 入力装置であって、
    光源と、
    前記光源からの光を導いて空間に画像を結像させる導光板と、
    前記画像の結像位置を含む空間、又は前記画像の結像位置から所定距離だけ離れた空間における物体を検出するセンサと、
    前記センサからの出力に基づいて、前記物体が検出された複数の位置の軌跡と、前記物体が検出された継続時間と、前記物体の検出回数との少なくとも1つを入力パラメータとして取得し、前記入力パラメータに基づいて前記物体の動作に応じた入力パターンを識別し、識別された前記入力パターンに応じた信号を出力するコントローラと、
    前記信号を前記入力装置の外部に出力するための複数の信号線と、
    をさらに備え、
    前記コントローラは、複数の前記入力パターンのそれぞれに応じて前記複数の信号線のいずれかから選択的に前記信号を出力する、
    入力装置。
  2. 前記コントローラは、識別された前記入力パターンに応じて、前記画像を変更する、
    請求項1に記載の入力装置。
  3. 前記センサは、少なくとも、前記画像内の基準検出点と、前記基準検出点の上方に位置する第1検出点と、前記基準検出点の下方に位置する第2検出点において物体を検出する、
    請求項1又は2に記載の入力装置。
  4. 前記センサは、少なくとも、前記画像内の基準検出点と、前記基準検出点の左方に位置する第3検出点と、前記基準検出点の右方に位置する第4検出点において物体を検出する、
    請求項1から3のいずれかに記載の入力装置。
  5. 前記コントローラは、
    前記物体が検出された継続時間を前記入力パラメータとして取得し、
    前記継続時間に応じた入力パターンを識別し、
    前記継続時間に応じた信号を出力する
    請求項1から4のいずれかに記載の入力装置。
  6. 前記コントローラは、前記継続時間に応じて前記画像を変更する、
    請求項5に記載の入力装置。
  7. 前記コントローラは、前記継続時間に応じて、通常押し操作と長押し操作とを識別する、
    請求項5又は6に記載の入力装置。
  8. 前記コントローラは、
    所定時間内における前記物体の検出回数を取得し、
    前記検出回数に応じた信号を出力する
    請求項1から7のいずれかに記載の入力装置。
  9. 前記コントローラは、前記検出回数に応じて前記画像を変更する、
    請求項8に記載の入力装置。
  10. 前記コントローラは、前記検出回数に応じてシングルクリックとダブルクリックとを識別する、
    請求項8又は9に記載の入力装置。
  11. 前記センサは、光電センサを含む、
    請求項1から10のいずれかに記載の入力装置。
  12. 前記コントローラは、複数の前記入力パターンのそれぞれに応じて複数の指令値のいずれかの信号を出力する、
    請求項1から11のいずれかに記載の入力装置。
  13. 前記コントローラは、
    前記物体が検出された複数の位置の軌跡を前記入力パラメータとして取得し、
    前記物体が検出された複数の位置の軌跡から、前記物体の移動方向を識別し、
    前記入力パターンは、前記物体の移動方向を含み、
    前記物体の移動方向に対応する方向に、前記画像を移動させる、
    請求項1から12のいずれかに記載の入力装置。
JP2019188035A 2018-10-11 2019-10-11 入力装置 Active JP7484123B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018192777 2018-10-11
JP2018192777 2018-10-11

Publications (2)

Publication Number Publication Date
JP2020064631A JP2020064631A (ja) 2020-04-23
JP7484123B2 true JP7484123B2 (ja) 2024-05-16

Family

ID=70164317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188035A Active JP7484123B2 (ja) 2018-10-11 2019-10-11 入力装置

Country Status (5)

Country Link
US (1) US20210342030A1 (ja)
JP (1) JP7484123B2 (ja)
CN (1) CN112805800A (ja)
DE (1) DE112019005069T5 (ja)
WO (1) WO2020075456A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210121784A1 (en) * 2019-10-23 2021-04-29 Sony Interactive Entertainment Inc. Like button
JP2022177400A (ja) * 2021-05-18 2022-12-01 アルプスアルパイン株式会社 入力装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017146172A1 (ja) 2016-02-24 2017-08-31 オムロン株式会社 表示装置
WO2018003862A1 (ja) 2016-06-28 2018-01-04 株式会社ニコン 制御装置、表示装置、プログラムおよび検出方法
JP2018151556A (ja) 2017-03-14 2018-09-27 オムロン株式会社 光デバイスおよび表示装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US20090193361A1 (en) * 2008-01-30 2009-07-30 Research In Motion Limited Electronic device and method of controlling same
KR101114750B1 (ko) * 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
KR101777121B1 (ko) * 2010-07-28 2017-09-12 엘지디스플레이 주식회사 입체 영상 표시 장치
JP2013058037A (ja) * 2011-09-07 2013-03-28 Konami Digital Entertainment Co Ltd 項目選択装置、項目選択方法、ならびに、プログラム
US8539375B1 (en) * 2012-02-24 2013-09-17 Blackberry Limited Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
JP6264871B2 (ja) * 2013-12-16 2018-01-24 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JP6558166B2 (ja) * 2015-01-13 2019-08-14 オムロン株式会社 光デバイス及び操作入力装置
JP6350360B2 (ja) * 2015-03-26 2018-07-04 京セラドキュメントソリューションズ株式会社 可視像形成装置及び画像形成装置
JP2018097388A (ja) * 2015-04-21 2018-06-21 株式会社村田製作所 ユーザインタフェース装置及びユーザインタフェースシステム
US10275098B1 (en) * 2015-07-12 2019-04-30 sigmund lindsay clements Laser mid-air hologram touch input buttons for a device
JP2017027401A (ja) * 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置
DK201670728A1 (en) * 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
US10547776B2 (en) * 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
DK201870346A1 (en) * 2018-01-24 2019-09-12 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
US10908783B2 (en) * 2018-11-06 2021-02-02 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects and providing feedback

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017146172A1 (ja) 2016-02-24 2017-08-31 オムロン株式会社 表示装置
WO2018003862A1 (ja) 2016-06-28 2018-01-04 株式会社ニコン 制御装置、表示装置、プログラムおよび検出方法
JP2018151556A (ja) 2017-03-14 2018-09-27 オムロン株式会社 光デバイスおよび表示装置

Also Published As

Publication number Publication date
JP2020064631A (ja) 2020-04-23
DE112019005069T5 (de) 2021-08-19
CN112805800A (zh) 2021-05-14
WO2020075456A1 (ja) 2020-04-16
US20210342030A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
EP3105160B1 (en) Elevator operator interface
US8031186B2 (en) Optical touchpad system and waveguide for use therein
US8907894B2 (en) Touchless pointing device
US8730169B2 (en) Hybrid pointing device
JP7484123B2 (ja) 入力装置
CA2530987A1 (en) Holographic human-machine interfaces
US20230205369A1 (en) Input device
JP2011154389A5 (ja)
JP2013229009A (ja) 操作ジェスチャー認識のためのカメラモジュール及び家電製品
JP2011162307A (ja) エレベーターの行先階登録装置
CN108886362B (zh) 操作装置、特别是用于电子家用设备的操作装置
US20130155030A1 (en) Display system and detection method
US10042464B2 (en) Display apparatus including touchscreen device for detecting proximity touch and method for controlling the same
JP2014179032A (ja) 仮想キー入力装置
KR20150131399A (ko) 특히 차량에서 유저 인터페이스를 제공하기 위한 방법 및 장치
JP2020064632A (ja) 入力装置
JP2022130496A (ja) 入力装置
CA3183096A1 (en) Retrofit touchless interfaces for contact-based input devices
JP2020067668A (ja) 入力システム
US8581847B2 (en) Hybrid pointing device
KR20170000103A (ko) 지문 인식 장치
TW201901720A (zh) 鍵盤裝置
CN106716841B (zh) 用于电子的家用设备的操作装置
TWI573043B (zh) The virtual two - dimensional positioning module of the input device
JP2000181602A (ja) スイッチ付処理システムおよびスイッチ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7484123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150