JP7335487B2 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP7335487B2
JP7335487B2 JP2019070618A JP2019070618A JP7335487B2 JP 7335487 B2 JP7335487 B2 JP 7335487B2 JP 2019070618 A JP2019070618 A JP 2019070618A JP 2019070618 A JP2019070618 A JP 2019070618A JP 7335487 B2 JP7335487 B2 JP 7335487B2
Authority
JP
Japan
Prior art keywords
operation screen
sensing layer
display surface
partial operation
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019070618A
Other languages
English (en)
Other versions
JP2020170297A (ja
Inventor
学 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2019070618A priority Critical patent/JP7335487B2/ja
Priority to EP20156069.5A priority patent/EP3719626A1/en
Priority to CN202010089591.XA priority patent/CN111796664A/zh
Priority to US16/813,761 priority patent/US11199963B2/en
Publication of JP2020170297A publication Critical patent/JP2020170297A/ja
Application granted granted Critical
Publication of JP7335487B2 publication Critical patent/JP7335487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本発明は、物体による操作画面に対する特定の非接触操作を受け付けるための入力装置に関する。
衛生管理が厳しい食品加工分野及び医療分野等において、ユーザの手指が直接接触するタッチパネルディスプレイを用いることは、当該タッチパネルディスプレイが病原体の感染源となるおそれがあるため好ましくない。そのため、上述した各分野では、ユーザの手指による操作画面に対する特定の非接触操作を受け付けるための入力装置を用いることが提案されている(例えば、特許文献1参照)。
従来の入力装置は、空中の表示領域に操作画面を示す空中像(実像)を結像させ、この空中像に対向する検出領域におけるユーザの手指の動作を検出することにより、操作画面に対する特定の非接触操作が行われたと判定する。
特開2014-67071号公報
しかしながら、上述した従来の入力装置では、例えばユーザが操作画面上の特定のボタンを選択しようとする際に、別のボタンを誤って選択してしまうなど、誤操作が発生するおそれがある。
本発明は、上述した課題を解決しようとするものであり、その目的は、操作性を高めることができる入力装置を提供することである。
上記目的を達成するために、本発明の一態様に係る入力装置は、物体による操作画面に対する特定の非接触操作を受け付けるための入力装置であって、表示面上に前記操作画面を表示させる表示制御部と、前記表示面に対して略垂直な方向に並んで形成された空中の複数のセンシング層の各々における前記物体の位置を検出する検出部と、を備え、前記表示制御部は、前記検出部の検出結果に基づいて、前記物体が前記表示面に近付く方向に前記複数のセンシング層のうち特定のセンシング層を通過した際に、前記操作画面の一部である第1の部分操作画面であって、前記特定のセンシング層における前記物体の位置に対応する前記操作画面上の位置を含む第1の部分操作画面を決定し、決定した前記第1の部分操作画面を前記表示面上に拡大表示させる。
本態様によれば、表示制御部は、物体が通過した特定のセンシング層における物体の位置に対応する操作画面上の位置を含む第1の部分操作画面を、表示面上に拡大表示させる。これにより、ユーザは、拡大表示された第1の部分操作画面を目視で確認しながら、例えば第1の部分操作画面上の狙った位置に対して非接触のシングルタッチジェスチャ等の特定の非接触操作を確実に行うことができる。その結果、入力装置の操作性を高めることができる。
例えば、本発明の一態様に係る入力装置において、前記複数のセンシング層は、前記表示面から最も離れた位置に形成された第1のセンシング層を含み、前記表示制御部は、前記物体が前記表示面に近付く方向に前記第1のセンシング層を通過した際に、前記操作画面上にカーソルを表示させるように構成してもよい。
本態様によれば、表示制御部は、物体が表示面に近付く方向に第1のセンシング層を通過した際に操作画面上にカーソルを表示させるので、物体が第1のセンシング層を通過したことをユーザに容易に認識させることができる。
例えば、本発明の一態様に係る入力装置において、前記複数のセンシング層は、さらに、前記表示面と前記第1のセンシング層との間に形成された第2のセンシング層を含み、前記表示制御部は、前記物体が前記表示面に近付く方向に前記第1のセンシング層を通過した際に、前記第1の部分操作画面を前記表示面上に拡大表示させ、前記物体が前記表示面に近付く方向に前記第2のセンシング層を通過した際に、拡大表示された前記第1の部分操作画面の一部である第2の部分操作画面であって、前記第2のセンシング層における前記物体の位置に対応する前記第1の部分操作画面上の位置を含む第2の部分操作画面を決定し、決定した前記第2の部分操作画面を前記表示面上に拡大表示させるように構成してもよい。
本態様によれば、操作画面の一部を表示面上に段階的に拡大表示させるので、ユーザは、第1の部分操作画面の一部がさらに拡大表示された第2の部分操作画面を目視で確認しながら、例えば第2の部分操作画面上の狙った位置に対して非接触のシングルタッチジェスチャ等の特定の非接触操作をより確実に行うことができる。その結果、入力装置の操作性をより高めることができる。
例えば、本発明の一態様に係る入力装置において、前記入力装置は、さらに、前記物体が前記表示面に近付く方向に前記第2のセンシング層を通過した際に、前記特定の非接触操作が行われたと判定する判定部を備えるように構成してもよい。
本態様によれば、物体が表示面に近付く方向に第2のセンシング層を通過した際に、第2の部分操作画面を表示面上に拡大表示させるとともに、特定の非接触操作が行われたと判定することができる。
例えば、本発明の一態様に係る入力装置において、前記複数のセンシング層は、さらに、前記表示面と前記第1のセンシング層との間に形成された第2のセンシング層と、前記表示面と前記第2のセンシング層との間に形成された第3のセンシング層と、を含み、前記表示制御部は、前記物体が前記表示面に近付く方向に前記第2のセンシング層を通過した際に、前記第1の部分操作画面を前記表示面上に拡大表示させ、前記物体が前記表示面に近付く方向に前記第3のセンシング層を通過した際に、拡大表示された前記第1の部分操作画面の一部である第2の部分操作画面であって、前記第3のセンシング層における前記物体の位置に対応する前記第1の部分操作画面上の位置を含む第2の部分操作画面を決定し、決定した前記第2の部分操作画面を前記表示面上に拡大表示させるように構成してもよい。
本態様によれば、操作画面の一部を表示面上に段階的に拡大表示させるので、ユーザは、第1の部分操作画面の一部がさらに拡大表示された第2の部分操作画面を目視で確認しながら、例えば第2の部分操作画面上の狙った位置に対して非接触のシングルタッチジェスチャ等の特定の非接触操作をより確実に行うことができる。その結果、入力装置の操作性をより高めることができる。
例えば、本発明の一態様に係る入力装置において、前記入力装置は、さらに、前記物体が前記表示面に近付く方向に前記第3のセンシング層を通過した際に、前記特定の非接触操作が行われたと判定する判定部を備えるように構成してもよい。
本態様によれば、物体が表示面に近付く方向に第3のセンシング層を通過した際に、第2の部分操作画面を表示面上に拡大表示させるとともに、特定の非接触操作が行われたと判定することができる。
例えば、本発明の一態様に係る入力装置において、前記表示制御部は、前記第2の部分操作画面が前記表示面上に拡大表示された場合において、前記物体が前記表示面から離れる方向に前記第1のセンシング層を通過した際に、前記表示面における表示を拡大表示された前記第2の部分操作画面から元の前記操作画面に戻すように構成してもよい。
本態様によれば、物体が表示面から離れる方向に第1のセンシング層を通過した際に、表示面における表示が元の操作画面に戻るので、ユーザは、例えば特定の非接触操作を行った後に、他の特定の非接触操作を試みることができる。
例えば、本発明の一態様に係る入力装置において、前記表示制御部は、前記物体が前記表示面に近付く方向に前記特定のセンシング層に隣り合うセンシング層から前記特定のセンシング層まで移動する際の移動時間に基づいて、前記第1の部分操作画面の拡大倍率を決定するように構成してもよい。
本態様によれば、ユーザは、物体の移動時間を適宜調節することにより、第1の部分操作画面の拡大倍率を変更することができる。
例えば、本発明の一態様に係る入力装置において、前記表示制御部は、前記特定のセンシング層における前記物体の大きさに基づいて、前記第1の部分操作画面の拡大倍率を決定するように構成してもよい。
本態様によれば、ユーザは、特定のセンシング層における物体の大きさを適宜調節することにより、第1の部分操作画面の拡大倍率を変更することができる。
なお、本発明は、入力装置に含まれる特徴的な処理部としてコンピュータを機能させるためのプログラム又は空中像表示方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
本発明の一態様に係る入力装置によれば、操作性を高めることができる。
実施の形態1に係る入力装置を示す平面図である。 実施の形態1に係る入力装置を示す側面図である。 実施の形態1に係る入力装置の構成を示すブロック図である。 実施の形態1に係る入力装置の動作の流れを示すフローチャートである。 実施の形態1に係る入力装置において、物体が第1のセンシング層を通過した状態を説明するための図である。 実施の形態1に係る入力装置において、物体が第2のセンシング層を通過した状態を説明するための図である。 実施の形態2に係る入力装置を示す側面図である。 実施の形態2に係る入力装置の構成を示すブロック図である。 実施の形態2に係る入力装置の動作の流れを示すフローチャートである。 実施の形態2に係る入力装置において、物体が第2のセンシング層を通過した状態を説明するための図である。 実施の形態2に係る入力装置において、物体が第3のセンシング層を通過した状態を説明するための図である。 実施の形態3に係る入力装置の構成を示すブロック図である。 実施の形態3に係る入力装置の動作の流れを示すフローチャートである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
[1-1.入力装置の構成]
まず、図1~図3を参照しながら、実施の形態1に係る入力装置2の構成について説明する。図1は、実施の形態1に係る入力装置2を示す平面図である。図2は、実施の形態1に係る入力装置2を示す側面図である。図3は、実施の形態1に係る入力装置2の構成を示すブロック図である。
図1及び図2に示すように、入力装置2は、表示部4と、第1の検出部6(検出部の一例)と、第2の検出部8(検出部の一例)とを備えている。入力装置2は、例えば食品加工分野又は医療分野等で用いられる機器(図示せず)を、物体10(例えばユーザの手指)により非接触で操作するためのインターフェースとして適用される。
表示部4は、例えば液晶表示パネルである。表示部4は、操作画面12を表示するための表示面14を有している。操作画面12は、例えば機器の操作メニュー画面等である。図1に示す例では、操作画面12上には、機器を操作するための複数のボタン16,18が表示されている。
第1の検出部6は、表示部4の表示面14に対向して形成された空中の第1のセンシング層20における物体10の位置を検出する。なお、第1のセンシング層20は、表示部4の表示面14に略平行な空中の位置に形成された、仮想的な平面(XY平面)である。第1の検出部6は、例えばスキャンセンサで構成されており、図1に示すように、表示部4の角部に対向して配置されている。図2に示すように、第1の検出部6は、第1の発光部22と、第1の受光部24とを有している。第1の発光部22は、赤外線レーザを、第1のセンシング層20において2次元的に走査する。第1の受光部24は、第1のセンシング層20を通過した物体10で反射した光を受光し、検出する。
第2の検出部8は、表示部4の表示面14と第1のセンシング層20との間に形成された空中の第2のセンシング層26における物体10の位置を検出する。なお、第2のセンシング層26は、表示部4の表示面14に略平行な空中の位置に形成された、仮想的な平面(XY平面)である。すなわち、第1のセンシング層20及び第2のセンシング層26は、表示面14に対して略垂直な方向(Z軸方向)に並んで形成されている。第2の検出部8は、例えばスキャンセンサで構成されており、図1に示すように、表示部4の角部に対向して配置されている。図2に示すように、第2の検出部8は、第2の発光部28と、第2の受光部30とを有している。第2の発光部28は、赤外線レーザを、第2のセンシング層26において2次元的に走査する。第2の受光部30は、第2のセンシング層26を通過した物体10で反射した光を受光し、検出する。
なお、図2に示すように、第2のセンシング層26と表示部4の表示面14との間の距離Dは、物体10が第2のセンシング層26を通過した際に表示部4の表示面14に直接接触しない程度の大きさ(例えば1cm~数cm程度)である。
図3に示すように、入力装置2は、さらに、演算処理部32を備えている。演算処理部32は、検出処理部34と、判定部36と、動作処理部38と、表示制御部40とを有している。
検出処理部34は、第1の検出部6からの検出信号に基づいて、第1のセンシング層20における物体10の位置(2次元座標)を算出する。また、検出処理部34は、第2の検出部8からの検出信号に基づいて、第2のセンシング層26における物体10の位置(2次元座標)を算出する。
判定部36は、検出処理部34の算出結果に基づいて、物体10による操作画面12に対する特定の非接触操作の有無を判定する。なお、特定の非接触操作は、例えばユーザの手指による操作画面12に対する非接触のシングルタッチジェスチャ等である。シングルタッチジェスチャとは、ユーザの1本の手指(例えば人差し指)によるジェスチャであり、例えばタップ等のジェスチャである。
動作処理部38は、検出処理部34の算出結果及び判定部36の判定結果に基づいて、特定の非接触操作に対応する処理を実行する。例えば、ユーザが操作画面12上のボタン16に対して非接触でシングルタッチジェスチャを行った際には、動作処理部38は、ボタン16を選択する処理等を実行する。
表示制御部40は、検出処理部34の算出結果に基づいて、表示部4の表示面14における操作画面12の表示を制御する。表示制御部40による処理については後で詳述する。
[1-2.入力装置の動作]
次に、図4~図5Bを参照しながら、実施の形態1に係る入力装置2の動作について説明する。図4は、実施の形態1に係る入力装置2の動作の流れを示すフローチャートである。図5Aは、実施の形態1に係る入力装置2において、物体10が第1のセンシング層20を通過した状態を説明するための図である。図5Bは、実施の形態1に係る入力装置2において、物体10が第2のセンシング層26を通過した状態を説明するための図である。
以下、ユーザが操作画面12上のボタン16に対して、非接触でシングルタッチジェスチャを行う場合における入力装置2の動作について説明する。
図4に示すように、まず、表示制御部40は、表示部4の表示面14に操作画面12を表示させる(S101)。物体10(1本の手指)が表示面14に近付く方向(Z軸のマイナス方向)に第1のセンシング層20を通過せず、第1の検出部6が第1のセンシング層20における物体10を検出しない場合には(S102でNO)、表示部4の表示面14には操作画面12が表示され続ける。
図5Aの(a)に示すように、物体10が表示面14に近付く方向に第1のセンシング層20を通過することにより、第1の検出部6が第1のセンシング層20における物体10を検出した場合には(S102でYES)、表示制御部40は、検出処理部34の算出結果に基づいて、図5Aの(b)に示すように操作画面12上にカーソル42を表示させる(S103)。この時、カーソル42は、第1のセンシング層20における物体10の位置に対応する操作画面12上の位置に表示される。なお、操作画面12上にカーソル42を表示させると同時に、表示部4のスピーカ(図示せず)から音を出力させてもよい。
また、表示制御部40は、操作画面12を4分割した4つの第1の部分操作画面44a,44b,44c,44d(44a~44d)の中から、カーソル42の位置を含む第1の部分操作画面を決定する。第1の部分操作画面44a~44dは、操作画面12の一部であり、操作画面12を2行2列に4分割する。図5Aの(b)に示す例では、カーソル42は第1の部分操作画面44cに位置しているため、表示制御部40は、4つの第1の部分操作画面44a~44dの中から、カーソル42の位置を含む第1の部分操作画面44cを決定する。なお、第1の部分操作画面44cには、複数のボタン16,18が配置されている。
表示制御部40は、図5Aの(c)に示すように、決定した第1の部分操作画面44cを表示部4の表示面14上に拡大表示させる(S104)。この時、第1の部分操作画面44cは、例えば表示部4の表示面14上に全画面表示される。
この状態で、物体10が第1のセンシング層20に沿って(すなわち、XY平面内で)移動することにより、表示制御部40は、検出処理部34の算出結果に基づいて、カーソル42を物体10の動きに追従するように第1の部分操作画面44c上で移動させる(S105)。
物体10が表示面14に近付く方向に第2のセンシング層26を通過せず、第2の検出部8が第2のセンシング層26における物体10を検出しない場合には(S106でNO)、表示部4の表示面14には第1の部分操作画面44cが表示され続ける。
その後、図5Bの(a)及び(b)に示すように、カーソル42が第1の部分操作画面44c上のボタン16に重畳した状態で、物体10が表示面14に近付く方向に第2のセンシング層26を通過することにより、第2の検出部8が第2のセンシング層26における物体10を検出した場合には(S106でYES)、表示制御部40は、第1の部分操作画面44cをさらに4分割した4つの第2の部分操作画面46a,46b,46c,46d(46a~46d)の中から、カーソル42の位置を含む第2の部分操作画面を決定する。第2の部分操作画面46a~46dは、操作画面12の一部であり、第1の部分操作画面44cを2行2列に4分割する。図5Bの(b)に示す例では、カーソル42は第2の部分操作画面46bに位置しているため、表示制御部40は、4つの第2の部分操作画面46a~46dの中から、カーソル42の位置を含む第2の部分操作画面46bを決定する。なお、第2の部分操作画面46bには、ボタン16が配置されている。
表示制御部40は、図5Bの(c)に示すように、決定した第2の部分操作画面46bを表示部4の表示面14上に拡大表示させる(S107)。この時、第2の部分操作画面46bは、例えば表示部4の表示面14上に全画面表示される。
判定部36は、カーソル42がボタン16に重畳した状態で、物体10が第2のセンシング層26を通過した場合に、シングルタッチジェスチャが行われたと判定する(S108)。
なお、シングルタッチジェスチャが完了した際には、ユーザは、1本の手指を第1のセンシング層20から引き抜く。このように物体10が表示面14から離れる方向(Z軸のプラス方向)に第1のセンシング層20を通過した際には、表示制御部40は、表示面14における表示を、拡大表示された第2の部分操作画面46bから元の操作画面12に戻す。
[1-3.効果]
上述したように、表示制御部40は、4つの第1の部分操作画面44a~44dの中から、カーソル42の位置を含む第1の部分操作画面44cを表示部4の表示面14上に拡大表示させる。これにより、ユーザは、拡大表示された第1の部分操作画面44cを目視で確認しながら、第1の部分操作画面44c上の狙ったボタン16に対して非接触のシングルタッチジェスチャ等の特定の非接触操作を容易に行うことができる。その結果、入力装置2の操作性を高めることができる。
(実施の形態2)
[2-1.入力装置の構成]
次に、図6及び図7を参照しながら、実施の形態2に係る入力装置2Aの構成について説明する。図6は、実施の形態2に係る入力装置2Aを示す側面図である。図7は、実施の形態2に係る入力装置2Aの構成を示すブロック図である。なお、本実施の形態では、上記実施の形態1と同一の構成要素には同一の符号を付して、その説明を省略する。
図6に示すように、実施の形態2に係る入力装置2Aは、第1の検出部6及び第2の検出部8に加えて、第3の検出部48(検出部の一例)を備えている。
第3の検出部48は、表示部4の表示面14と第2のセンシング層26との間に形成された空中の第3のセンシング層50における物体10の位置を検出する。なお、第3のセンシング層50は、表示部4の表示面14に略平行な空中の位置に形成された、仮想的な平面(XY平面)である。第3の検出部48は、第1の検出部6及び第2の検出部8と同様に、例えばスキャンセンサで構成されている。
また、図7に示すように、実施の形態2に係る入力装置2Aでは、演算処理部32Aの検出処理部34A、判定部36A及び表示制御部40Aの各処理が上記実施の形態1と異なっている。
検出処理部34Aは、上記実施の形態1で説明した処理に加えて、第3の検出部48からの検出信号に基づいて、第3のセンシング層50における物体10の位置(2次元座標)を算出する。
判定部36Aは、検出処理部34Aの算出結果に基づいて、物体10による操作画面12に対する特定の非接触操作の有無を判定する。
表示制御部40Aは、検出処理部34Aの算出結果に基づいて、表示部4の表示面14における操作画面12の表示を制御する。表示制御部40Aによる処理については後で詳述する。
[2-2.入力装置の動作]
次に、図8~図9Bを参照しながら、実施の形態2に係る入力装置2Aの動作について説明する。図8は、実施の形態2に係る入力装置2Aの動作の流れを示すフローチャートである。図9Aは、実施の形態2に係る入力装置2Aにおいて、物体10が第2のセンシング層26を通過した状態を説明するための図である。図9Bは、実施の形態2に係る入力装置2Aにおいて、物体10が第3のセンシング層50を通過した状態を説明するための図である。
以下、ユーザが操作画面12上のボタン16に対して、非接触でシングルタッチジェスチャを行う場合における入力装置2Aの動作について説明する。
図8に示すように、まず、表示制御部40Aは、表示部4の表示面14に操作画面12を表示させる(S201)。物体10が表示面14に近付く方向に第1のセンシング層20を通過せず、第1の検出部6が第1のセンシング層20における物体10を検出しない場合には(S202でNO)、表示部4の表示面14には操作画面12が表示され続ける。
物体10が表示面14に近付く方向に第1のセンシング層20を通過することにより、第1の検出部6が第1のセンシング層20における物体10を検出した場合には(S202でYES)、表示制御部40Aは、検出処理部34Aの算出結果に基づいて、操作画面12上にカーソル42を表示させる(S203)。
物体10が表示面14に近付く方向に第2のセンシング層26を通過せず、第2の検出部8が第2のセンシング層26における物体10を検出しない場合には(S204でNO)、表示部4の表示面14には操作画面12及びカーソル42が表示され続ける。
図9Aの(a)に示すように、物体10が表示面14に近付く方向に第2のセンシング層26を通過することにより、第2の検出部8が第2のセンシング層26における物体10を検出した場合には(S204でYES)、表示制御部40Aは、検出処理部34Aの算出結果に基づいて、操作画面12を4分割した4つの第1の部分操作画面44a~44dの中から、カーソル42の位置を含む第1の部分操作画面を決定する。図9Aの(b)に示す例では、カーソル42は第1の部分操作画面44cに位置しているため、表示制御部40Aは、4つの第1の部分操作画面44a~44dの中から、カーソル42の位置を含む第1の部分操作画面44cを決定する。表示制御部40Aは、図9Aの(c)に示すように、決定した第1の部分操作画面44cを表示部4の表示面14上に拡大表示させる(S205)。
この状態で、物体10が第2のセンシング層26に沿って(すなわち、XY平面内で)移動することにより、表示制御部40Aは、検出処理部34Aの算出結果に基づいて、カーソル42を物体10の動きに追従するように第1の部分操作画面44c上で移動させる(S206)。
物体10が表示面14に近付く方向に第3のセンシング層50を通過せず、第3の検出部48が第3のセンシング層50における物体10を検出しない場合には(S207でNO)、表示部4の表示面14には第1の部分操作画面44cが表示され続ける。
その後、図9Bの(a)及び(b)に示すように、カーソル42が第1の部分操作画面44c上のボタン16に重畳した状態で、物体10が表示面14に近付く方向に第3のセンシング層50を通過することにより、第3の検出部48が第3のセンシング層50における物体10を検出した場合には(S207でYES)、表示制御部40Aは、第1の部分操作画面44cをさらに4分割した4つの第2の部分操作画面46a~46dの中から、カーソル42の位置を含む第2の部分操作画面を決定する。図9Bの(b)に示す例では、カーソル42は第2の部分操作画面46bに位置しているため、表示制御部40Aは、4つの第2の部分操作画面46a~46dの中から、カーソル42の位置を含む第2の部分操作画面46bを決定する。表示制御部40Aは、図9Bの(c)に示すように、決定した第3の部分操作画面46bを表示部4の表示面14上に拡大表示させる(S208)。
判定部36Aは、カーソル42がボタン16に重畳した状態で、物体10が第3のセンシング層50を通過した場合に、シングルタッチジェスチャが行われたと判定する(S209)。
[2-3.効果]
本実施の形態では、上記実施の形態1と同様に、入力装置2Aの操作性を高めることができる。
(実施の形態3)
[3-1.入力装置の構成]
次に、図10を参照しながら、実施の形態3に係る入力装置2Bの構成について説明する。図10は、実施の形態3に係る入力装置2Bの構成を示すブロック図である。なお、本実施の形態では、上記実施の形態2と同一の構成要素には同一の符号を付して、その説明を省略する。
図10に示すように、実施の形態3に係る入力装置2Bでは、演算処理部32Bの検出処理部34B及び表示制御部40Bの各処理が上記実施の形態2と異なっている。
検出処理部34Bは、第1の検出部6及び第2の検出部8からの各検出信号に基づいて、物体10(図6参照)が第1のセンシング層20(図6参照)から第2のセンシング層26(図6参照)まで移動する際の第1の移動時間を算出する。また、検出処理部34Bは、第2の検出部8及び第3の検出部48からの各検出信号に基づいて、物体10が第2のセンシング層26から第3のセンシング層50(図6参照)まで移動する際の第2の移動時間を算出する。
表示制御部40Bは、検出処理部34Bにより算出された第1の移動時間に基づいて、第1の部分操作画面44a~44dの拡大倍率を決定する。ここで、表示制御部40Bは、第1の移動時間が増大するに従って、第1の部分操作画面44a~44dの拡大倍率が減少するように決定する。例えばユーザが手指を素早く移動させた場合には、表示制御部40Bは拡大倍率を「4倍」に決定し、ユーザが手指をゆっくりと移動させた場合には、表示制御部40Bは拡大倍率を「1.5倍」に決定する。
また、表示制御部40Bは、検出処理部34Bにより算出された第2の移動時間に基づいて、第2の部分操作画面46a~46dの拡大倍率を決定する。上述と同様に、表示制御部40Bは、第2の移動時間が増大するに従って、第2の部分操作画面46a~46dの拡大倍率が減少するように決定する。
[3-2.入力装置の動作]
次に、図11を参照しながら、実施の形態3に係る入力装置2Bの動作について説明する。図11は、実施の形態3に係る入力装置2Bの動作の流れを示すフローチャートである。なお、図11のフローチャートにおいて、図8のフローチャートと同一の処理には同一のステップ番号を付して、その説明を省略する。
図11に示すように、上記実施の形態2と同様に、ステップS201~S204が実行される。ステップS204において、物体10が表示面14(図6参照)に近付く方向に第2のセンシング層26を通過することにより、第2の検出部8が第2のセンシング層26における物体10を検出した場合には(S204でYES)、表示制御部40Bは、検出処理部34Bにより算出された第1の移動時間に基づいて、カーソル42の位置を含む第1の部分操作画面(第1の部分操作画面44a~44dのいずれか)の拡大倍率を決定する(S301)。これにより、表示制御部40Bは、決定した拡大倍率で、カーソル42の位置を含む第1の部分操作画面を表示部4の表示面14上に拡大表示させる(S205)。
その後、上記実施の形態2と同様に、ステップS206及びS207が実行される。ステップS207において、物体10が表示面14に近付く方向に第3のセンシング層50を通過することにより、第3の検出部48が第3のセンシング層50における物体10を検出した場合には(S207でYES)、表示制御部40Bは、検出処理部34Bにより算出された第2の移動時間に基づいて、カーソル42の位置を含む第2の部分操作画面(第2の部分操作画面46a~46dのいずれか)の拡大倍率を決定する(S302)。これにより、表示制御部40Bは、決定した拡大倍率で、カーソル42の位置を含む第2の部分操作画面を表示部4の表示面14上に拡大表示させる(S208)。その後、上記実施の形態2と同様に、ステップS209が実行される。
[3-3.効果]
上述したように、物体10の第1の移動時間及び第2の移動時間を適宜調節することにより、第1の部分操作画面及び第2の部分操作画面の各拡大倍率をそれぞれ変更することができ、入力装置2Bの操作性をより高めることができる。
[3-4.変形例]
本実施の形態では、表示制御部40Bは、検出処理部34Bにより算出された第1の移動時間に基づいて、第1の部分操作画面44a~44dの拡大倍率を決定したが、これに限定されない。例えば、検出処理部34Bは、第2の検出部8からの検出信号に基づいて、第2のセンシング層26における物体10の大きさ(例えば手指の本数)を算出してもよい。この場合、表示制御部40Bは、検出処理部34Bにより算出された物体10の大きさに基づいて、第1の部分操作画面44a~44dの拡大倍率を決定してもよい。ここで、表示制御部40Bは、物体10の大きさが増大するに従って、第1の部分操作画面44a~44dの拡大倍率が増大するように決定する。例えば1本の手指が第2のセンシング層26を通過した場合には、表示制御部40Bは拡大倍率を「1.5倍」に決定し、3本の手指が第2のセンシング層26を通過した場合には、表示制御部40Bは拡大倍率を「4倍」に決定する。
同様に、本実施の形態では、表示制御部40Bは、検出処理部34Bにより算出された第2の移動時間に基づいて、第2の部分操作画面46a~46dの拡大倍率を決定したが、これに限定されない。例えば、検出処理部34Bは、第3の検出部48からの検出信号に基づいて、第3のセンシング層50における物体10の大きさを算出してもよい。この場合、表示制御部40Bは、検出処理部34Bにより算出された物体10の大きさに基づいて、第2の部分操作画面46a~46dの拡大倍率を決定してもよい。ここで、表示制御部40Bは、物体10の大きさが増大するに従って、第2の部分操作画面46a~46dの拡大倍率が増大するように決定する。
また、本実施の形態では、物体10が表示面14に近付く方向に第2のセンシング層26を通過した場合に、カーソル42の位置を含む第1の部分操作画面を表示部4の表示面14上に拡大表示させたが、これに限定されない。物体10が表示面14から離れる方向に第2のセンシング層26を通過した場合に、拡大表示された第1の部分操作画面を表示部4の表示面14上に縮小表示させてもよい。この時、表示制御部40Bは、検出処理部34Bにより算出された第3の移動時間(物体10が第2のセンシング層26から第1のセンシング層20まで移動する際の移動時間)に基づいて、第1の部分操作画面の縮小倍率を決定する。ここで、表示制御部40Bは、第3の移動時間が増大するに従って、第1の部分操作画面の縮小倍率が減少するように決定する。
同様に、物体10が表示面14から離れる方向に第3のセンシング層50を通過した場合に、拡大表示された第2の部分操作画面を表示部4の表示面14上に縮小表示させてもよい。この時、表示制御部40Bは、検出処理部34Bにより算出された第4の移動時間(物体10が第3のセンシング層50から第2のセンシング層26まで移動する際の移動時間)に基づいて、第2の部分操作画面の縮小倍率を決定する。ここで、表示制御部40Bは、第4の移動時間が増大するに従って、第2の部分操作画面の縮小倍率が減少するように決定する。
(他の変形例等)
以上、本発明の実施の形態1~3に係る入力装置について説明したが、本発明は、これらの実施の形態に限定されるものではない。例えば、上記各実施の形態をそれぞれ組み合わせてもよい。
上記各実施の形態では、液晶表示パネルで構成された表示部4の表示面14上に操作画面12を表示させたが、これに限定されない。操作画面は、例えば空中の表示領域である表示面に結像された空中像(実像)であってもよく、あるいは、プロジェクタによりスクリーン上の表示面に投影された投影画像であってもよい。
また、上記実施の形態1では、第1の検出部6及び第2の検出部8を別体に構成したが、これに限定されず、これらを一体に構成してもよい。すなわち、1つの検出部で第1の検出部6及び第2の検出部8の各機能を実現してもよい。同様に、上記実施の形態2及び3では、第1の検出部6、第2の検出部8及び第3の検出部48を別体に構成したが、これに限定されず、これらを一体に構成してもよい。
また、上記各実施の形態では、物体10をユーザの手指としたが、これに限定されず、例えば指示棒等であってもよい。
また、上記の各装置は、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、ディスプレイユニット、キーボード及びマウス等から構成されるコンピュータシステムとして構成されてもよい。RAM又はハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
さらに、上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM及びRAM等を含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM及びRAM等から構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
また、本発明は、上記に示す方法であるとしてもよい。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、上記コンピュータプログラムからなるデジタル信号であるとしてもよい。
さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD、半導体メモリ等に記録したものとしてもよい。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしてもよい。
また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサ及びメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。
また、上記プログラム又は上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、又は、上記プログラム又は上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
本発明の入力装置は、例えば機器を操作するためのインターフェース等として適用することができる。
2,2A,2B 入力装置
4 表示部
6 第1の検出部
8 第2の検出部
10 物体
12 操作画面
14 表示面
16,18 ボタン
20 第1のセンシング層
22 第1の発光部
24 第1の受光部
26 第2のセンシング層
28 第2の発光部
30 第2の受光部
32,32A,32B 演算処理部
34,34A,34B 検出処理部
36,36A 判定部
38 動作処理部
40,40A,40B 表示制御部
42 カーソル
44a,44b,44c,44d 第1の部分操作画面
46a,46b,46c,46d 第2の部分操作画面
48 第3の検出部
50 第3のセンシング層

Claims (5)

  1. 物体による操作画面に対する特定の非接触操作を受け付けるための入力装置であって、
    表示面上に前記操作画面を表示させる表示制御部と、
    前記表示面に対して略垂直な方向に並んで形成された空中の複数のセンシング層の各々における前記物体の位置を検出する検出部と、を備え、
    前記複数のセンシング層は、
    前記表示面から最も離れた位置に形成された第1のセンシング層と、
    前記表示面と前記第1のセンシング層との間に形成された第2のセンシング層と、を含み、
    前記表示制御部は、前記検出部の検出結果に基づいて、(i)前記物体が前記表示面に近付く方向に前記第1のセンシング層を通過した際に、前記操作画面上にカーソルを表示させ、且つ、前記操作画面の一部である第1の部分操作画面であって、前記第1のセンシング層における前記物体の位置に対応する前記操作画面上の位置を含む第1の部分操作画面を決定し、決定した前記第1の部分操作画面を前記表示面上に拡大表示させ、(ii)前記カーソルが前記第1の部分操作画面上のボタンに重畳した状態で、前記物体が前記表示面に近付く方向に前記第2のセンシング層を通過した際に、拡大表示された前記第1の部分操作画面の一部である第2の部分操作画面であって、前記第2のセンシング層における前記物体の位置に対応する前記第1の部分操作画面上の位置を含む第2の部分操作画面を決定し、決定した前記第2の部分操作画面を、前記カーソルが前記ボタンに重畳した状態を維持しながら前記表示面上に拡大表示させ、
    前記入力装置は、さらに、前記カーソルが前記ボタンに重畳した状態で、前記物体が前記表示面に近付く方向に前記第2のセンシング層を通過した際に、前記ボタンに対する前記特定の非接触操作が行われたと判定する判定部を備える
    入力装置。
  2. 物体による操作画面に対する特定の非接触操作を受け付けるための入力装置であって、
    表示面上に前記操作画面を表示させる表示制御部と、
    前記表示面に対して略垂直な方向に並んで形成された空中の複数のセンシング層の各々における前記物体の位置を検出する検出部と、を備え、
    前記複数のセンシング層は、
    前記表示面から最も離れた位置に形成された第1のセンシング層と、
    前記表示面と前記第1のセンシング層との間に形成された第2のセンシング層と、
    前記表示面と前記第2のセンシング層との間に形成された第3のセンシング層と、を含み、
    前記表示制御部は、前記検出部の検出結果に基づいて、(i)前記物体が前記表示面に近付く方向に前記第1のセンシング層を通過した際に、前記操作画面上にカーソルを表示させ、(ii)前記物体が前記表示面に近付く方向に前記第2のセンシング層を通過した際に、前記操作画面の一部である第1の部分操作画面であって、前記第1のセンシング層における前記物体の位置に対応する前記操作画面上の位置を含む第1の部分操作画面を決定し、決定した前記第1の部分操作画面を前記表示面上に拡大表示させ、(iii)前記カーソルが前記第1の部分操作画面上のボタンに重畳した状態で、前記物体が前記表示面に近付く方向に前記第3のセンシング層を通過した際に、拡大表示された前記第1の部分操作画面の一部である第2の部分操作画面であって、前記第3のセンシング層における前記物体の位置に対応する前記第1の部分操作画面上の位置を含む第2の部分操作画面を決定し、決定した前記第2の部分操作画面を、前記カーソルが前記ボタンに重畳した状態を維持しながら前記表示面上に拡大表示させ、
    前記入力装置は、さらに、前記カーソルが前記ボタンに重畳した状態で、前記物体が前記表示面に近付く方向に前記第3のセンシング層を通過した際に、前記ボタンに対する前記特定の非接触操作が行われたと判定する判定部を備える
    力装置。
  3. 前記表示制御部は、前記第2の部分操作画面が前記表示面上に拡大表示された場合において、前記物体が前記表示面から離れる方向に前記第1のセンシング層を通過した際に、前記表示面における表示を拡大表示された前記第2の部分操作画面から元の前記操作画面に戻す
    請求項1又は2に記載の入力装置。
  4. 前記表示制御部は、前記物体が前記表示面に近付く方向に前記特定のセンシング層に隣り合うセンシング層から前記特定のセンシング層まで移動する際の移動時間に基づいて、前記第1の部分操作画面の拡大倍率を決定する
    請求項1~のいずれか1項に記載の入力装置。
  5. 前記表示制御部は、前記特定のセンシング層における前記物体の大きさに基づいて、前記第1の部分操作画面の拡大倍率を決定する
    請求項1~のいずれか1項に記載の入力装置。
JP2019070618A 2019-04-02 2019-04-02 入力装置 Active JP7335487B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019070618A JP7335487B2 (ja) 2019-04-02 2019-04-02 入力装置
EP20156069.5A EP3719626A1 (en) 2019-04-02 2020-02-07 Input device
CN202010089591.XA CN111796664A (zh) 2019-04-02 2020-02-11 输入装置
US16/813,761 US11199963B2 (en) 2019-04-02 2020-03-10 Non-contact operation input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070618A JP7335487B2 (ja) 2019-04-02 2019-04-02 入力装置

Publications (2)

Publication Number Publication Date
JP2020170297A JP2020170297A (ja) 2020-10-15
JP7335487B2 true JP7335487B2 (ja) 2023-08-30

Family

ID=69526183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070618A Active JP7335487B2 (ja) 2019-04-02 2019-04-02 入力装置

Country Status (4)

Country Link
US (1) US11199963B2 (ja)
EP (1) EP3719626A1 (ja)
JP (1) JP7335487B2 (ja)
CN (1) CN111796664A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022113036A (ja) * 2021-01-22 2022-08-03 キヤノン株式会社 情報処理装置
JP7240766B1 (ja) 2021-11-11 2023-03-16 Trouvez合同会社 非接触入力装置
JP2023128474A (ja) 2022-03-03 2023-09-14 アルプスアルパイン株式会社 入力装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014024A (ja) 1999-06-30 2001-01-19 Toshiba Corp プラントの監視制御装置
JP2008009759A (ja) 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
JP2011141753A (ja) 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006047653A1 (de) * 2006-10-09 2008-04-10 Robert Bosch Gmbh Bedieneinheit und Verfahren zur Darstellung eines Tastenfeldes
JP2009116769A (ja) * 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
EP2256592A1 (en) * 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
US8466934B2 (en) * 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
US9699351B2 (en) 2010-09-29 2017-07-04 Apple Inc. Displaying image thumbnails in re-used screen real estate
JP5828800B2 (ja) * 2012-04-23 2015-12-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示装置、表示制御方法及びプログラム
JP2014067071A (ja) 2012-09-10 2014-04-17 Askanet:Kk 空中タッチパネル
US9747025B2 (en) * 2013-03-04 2017-08-29 International Business Machines Corporation Modifying key size on a touch screen based on fingertip location
US20150002475A1 (en) * 2013-06-27 2015-01-01 Industrial Technology Research Institute Mobile device and method for controlling graphical user interface thereof
US20150095816A1 (en) * 2013-09-29 2015-04-02 Yang Pan User Interface of an Electronic Apparatus for Adjusting Dynamically Sizes of Displayed Items
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
KR20160076857A (ko) * 2014-12-23 2016-07-01 엘지전자 주식회사 이동 단말기 및 그의 컨텐츠 제어방법
US9678642B2 (en) * 2015-05-29 2017-06-13 Lexmark International, Inc. Methods of content-based image area selection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014024A (ja) 1999-06-30 2001-01-19 Toshiba Corp プラントの監視制御装置
JP2008009759A (ja) 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
JP2011141753A (ja) 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム

Also Published As

Publication number Publication date
JP2020170297A (ja) 2020-10-15
US11199963B2 (en) 2021-12-14
US20200319791A1 (en) 2020-10-08
EP3719626A1 (en) 2020-10-07
CN111796664A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
JP6348211B2 (ja) コンピュータ装置の遠隔制御
US20170228138A1 (en) System and method for spatial interaction for viewing and manipulating off-screen content
JP7400205B2 (ja) 入力装置
JP7335487B2 (ja) 入力装置
US8466934B2 (en) Touchscreen interface
US8810509B2 (en) Interfacing with a computing application using a multi-digit sensor
KR101541928B1 (ko) 시각적 피드백 디스플레이
TWI496041B (zh) 二維觸碰感測器
TWI478010B (zh) 使用合作輸入來源及有效率的動態座標重對映之雙指標管理方法
JP4888165B2 (ja) 画像処理装置及びプログラム
JP6062416B2 (ja) 情報入力装置及び情報表示方法
TWI543018B (zh) An input device, an input method, and storage medium
EP2255730A1 (en) Ultrasonograph
KR20120104362A (ko) 적외선 터치 스크린
KR20090087270A (ko) 3차원 위치 입력 방법 및 장치
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2015029222A1 (ja) 情報処理装置,表示制御プログラム及び表示制御方法
JP5575027B2 (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法
JP2015060295A (ja) 入力装置
KR20190049349A (ko) 프로젝션 영상에서 사용자의 터치를 인식하는 방법 및 이러한 방법을 수행하는 장치
JP3970906B2 (ja) 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
Dupré et al. TriPad: Touch Input in AR on Ordinary Surfaces with Hand Tracking Only
JP2022009606A (ja) 情報処理装置、情報処理方法およびプログラム
Radhakrishnan Investigating a multi-touch user interface for three-dimensional CAD operations
JP6031962B2 (ja) 輪郭検出装置、輪郭検出方法および輪郭検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7335487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150