JP2017084003A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2017084003A
JP2017084003A JP2015209919A JP2015209919A JP2017084003A JP 2017084003 A JP2017084003 A JP 2017084003A JP 2015209919 A JP2015209919 A JP 2015209919A JP 2015209919 A JP2015209919 A JP 2015209919A JP 2017084003 A JP2017084003 A JP 2017084003A
Authority
JP
Japan
Prior art keywords
input device
operation screen
image
pointing object
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015209919A
Other languages
English (en)
Other versions
JP6536350B2 (ja
Inventor
謙 西岡
Ken Nishioka
謙 西岡
敏樹 羽鳥
Toshiki Hatori
敏樹 羽鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2015209919A priority Critical patent/JP6536350B2/ja
Priority to US15/332,324 priority patent/US10782789B2/en
Priority to EP16195307.0A priority patent/EP3163409B1/en
Priority to CN201610947483.5A priority patent/CN107025003B/zh
Publication of JP2017084003A publication Critical patent/JP2017084003A/ja
Application granted granted Critical
Publication of JP6536350B2 publication Critical patent/JP6536350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Abstract

【課題】操作性を高めることができる入力装置を提供する。【解決手段】入力装置2は、アイコン52を含む画像14を表示する表示パネル4と、空間18に結像された画像14の虚像である空間画像16の少なくとも一部を含む仮想面20上の第1の操作画面22上を指示物体48がスライドする第1の動作、及び、指示物体48が第1の操作画面22とは異なる仮想面20上の第2の操作画面24を押し込む第2の動作を検出する検出部49と、第1の動作が検出された際には、アイコン52を選択する操作である第1の操作を実行し、第2の動作が検出された際には、選択されたアイコン52を実行する操作である第2の操作を実行する表示制御部51と、を備える。【選択図】図1

Description

本発明は、VUI(Virtual User Interface)として用いられる入力装置に関する。
例えば機器等を動作させるためのVUIとして用いられる入力装置が知られている。このような入力装置の一つとして、空間に配置された仮想面上に空間画像(虚像)を結像させるとともに、この空間画像に対する指示物体(例えばユーザの手)の動作を検出する入力装置が存在する(例えば特許文献1参照)。
従来の入力装置では、例えば指示物体が空間画像上をスライドすることにより、空間画像に表示されたカーソルを指示物体の動きに追従して移動させる操作が実行される。指示物体が空間画像に表示されたアイコン上で移動を停止した際には、カーソルがこのアイコンに重畳される。
カーソルがアイコンに重畳された状態から、指示物体がアイコンを奥行き方向(仮想面を通過する方向)に押し込むように動作することにより、このアイコンを選択する操作が実行される。このとき、指示物体の空間座標の奥行き方向における変化量が検出され、検出された変化量に基づいてアイコンを選択する操作が実行される。
国際公開第2008/123500号
上述した従来の入力装置では、指示物体が空間画像上をスライドしている際に、例えばユーザの手が震えることにより指示物体が奥行き方向に動いてしまうことがある。この場合、ユーザの意図していないアイコンを選択する操作が実行されてしまうため、操作性が必ずしも高いとは言えない。
本発明は、上述した課題を解決しようとするものであり、その目的は、操作性を高めることができる入力装置を提供することである。
上記目的を達成するために、本発明の一態様に係る入力装置は、コンテンツを含む画像を表示する表示部と、空間に結像された前記画像の虚像である空間画像の少なくとも一部を含む仮想面上の第1の操作画面上を指示物体がスライドする第1の動作、及び、前記指示物体が前記第1の操作画面とは異なる前記仮想面上の第2の操作画面を押し込む第2の動作を検出する検出部と、前記第1の動作が検出された際には、前記コンテンツを選択する操作である第1の操作を実行し、前記第2の動作が検出された際には、選択された前記コンテンツを実行する操作である第2の操作を実行する制御部と、を備える。
本態様によれば、仮想面上の第1の操作画面と第2の操作画面とでは、検出される指示物体の動作が異なる。これにより、例えば指示物体が第1の操作画面上をスライドしている際に、指示物体が不意に奥行き方向(仮想面を通過する方向)に動いた場合であっても、ユーザの意図していない操作が実行されてしまうことがない。したがって、入力装置の操作性を高めることができる。
例えば、本発明の一態様に係る入力装置において、前記第2の操作画面は、前記第1の操作画面の全外周に亘って配置されているように構成してもよい。
本態様によれば、第2の操作画面は第1の操作画面の全外周に亘って配置されているので、第2の操作画面の面積を大きく確保することができる。これにより、第2の操作画面における第2の動作を容易に検出することができる。
例えば、本発明の一態様に係る入力装置において、前記第1の操作画面は前記空間画像の全体を含み、前記第2の操作画面は前記空間画像の外側に配置されているように構成してもよい。
本態様によれば、第2の操作画面は空間画像の外側に配置されているので、ユーザは、第2の動作を行う際に、空間画像の外側を狙って指示物体を押し込めばよい。
例えば、本発明の一態様に係る入力装置において、前記空間画像は、前記第1の操作画面に含まれ、前記コンテンツが表示される第1の画像領域と、前記第2の操作画面に含まれ、前記コンテンツが表示されない第2の画像領域と、を有するように構成してもよい。
本態様によれば、空間画像は第1の画像領域及び第2の画像領域を有するので、ユーザは、第2の動作を行う際に、空間画像のうちコンテンツが表示されない第2の画像領域を狙って指示物体を押し込めばよい。
例えば、本発明の一態様に係る入力装置において、前記検出部は、さらに、前記指示物体が前記第1の操作画面から離間する方向に移動する第3の動作を検出し、前記制御部は、前記第3の動作が検出された際には、前記コンテンツの選択を確定する操作である第3の操作を実行するように構成してもよい。
本態様によれば、指示物体が第1の操作画面から離間する方向に移動した際に、コンテンツの選択が確定されるので、その後、ユーザは、指示物体を用いて第1の操作画面及び第2の操作画面のうちいずれで操作するのかを選択することができる。
例えば、本発明の一態様に係る入力装置において、前記検出部は、さらに、前記指示物体が前記第1の操作画面と前記第2の操作画面とに跨った状態で所定方向に移動する第4の動作を検出し、前記制御部は、前記第4の動作が検出された際には、前記空間画像に関連付けられた第4の操作を実行するように構成してもよい。
本態様によれば、第4の動作は、指示物体が第1の操作画面と第2の操作画面とに跨った状態で所定方向に移動する動作である。これに対して、第1の動作は、指示物体が第1の操作画面上をスライドする動作であり、第2の動作は、指示物体が第2の操作画面を押し込む動作である。このように、第1の動作、第2の動作及び第4の動作がそれぞれ検出される領域が互いに異なるので、第4の動作が行われた際に、誤って第1の動作又は第2の動作が検出されてしまうのを抑制することができる。
例えば、本発明の一態様に係る入力装置において、前記制御部は、前記第4の動作が検出された際には、前記第4の操作として前記空間画像に表示された前記コンテンツのページを送るように構成してもよい。
本態様によれば、第4の動作を行うことにより、空間画像に表示されたコンテンツのページを送る操作を容易に実行することができる。
例えば、本発明の一態様に係る入力装置において、前記制御部は、前記指示物体の移動方向に応じて前記コンテンツのページの送り量を異ならせるように構成してもよい。
本態様によれば、指示物体の移動方向に応じてコンテンツのページの送り量が異なるので、コンテンツのページを送る際の利便性を高めることができる。
例えば、本発明の一態様に係る入力装置において、前記指示物体はユーザの手であり、前記検出部は、さらに、前記仮想面上に配置された前記ユーザの手の大きさを検出し、前記制御部は、検出された前記ユーザの手の大きさに基づいて前記第2の操作画面の幅を調整するように構成してもよい。
本態様によれば、ユーザの手の大きさに応じて第2の操作画面の幅を調整することができる。これにより、入力装置の誤操作を抑制することができる。
例えば、本発明の一態様に係る入力装置において、前記制御部は、前記第1の動作が検出された際には、前記第1の操作として前記空間画像上のカーソルを前記指示物体の動きに追従して移動させ、前記第2の動作が検出された際には、前記第2の操作として前記カーソルが重畳された前記空間画像上の前記コンテンツを実行するように構成してもよい。
本態様によれば、比較的簡単な動作で、カーソルの移動及びオブジェクトの選択を行うことができる。
なお、本発明は、このような特徴的な処理部を備える入力装置として実現することができるだけでなく、入力装置に含まれる特徴的な処理部が実行する処理をステップとする入力方法として実現することができる。また、入力装置に含まれる特徴的な処理部としてコンピュータを機能させるためのプログラムまたは入力方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD−ROM(Compact Disc−Read Only Memory)等のコンピュータ読み取り可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
本発明の一態様に係る入力装置によれば、操作性を高めることができる。
実施の形態1〜4に係る入力装置の構成を示す斜視図である。 実施の形態1〜4に係る入力装置の機能構成を示すブロック図である。 実施の形態1に係る入力装置の動作の流れを示すフローチャートである。 実施の形態1に係る入力装置の動作の流れを示す図である。 実施の形態2に係る入力装置における第3の動作を説明するための図である。 実施の形態2に係る入力装置の動作の流れを示すフローチャートである。 実施の形態2に係る入力装置の動作の流れを示す図である。 実施の形態3に係る入力装置におけるキャリブレーションモードを説明するための図である。 実施の形態3に係る入力装置の動作の流れを示すフローチャートである。 実施の形態4に係る入力装置における空間画像を示す図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
[1−1.入力装置の全体構成]
まず、図1及び図2を参照しながら、実施の形態1に係る入力装置2の全体構成について説明する。図1は、実施の形態1に係る入力装置2の構成を示す斜視図である。図2は、実施の形態1に係る入力装置2の機能構成を示すブロック図である。
図1及び図2に示すように、実施の形態1に係る入力装置2は、表示パネル4(表示部の一例)、反射板6、光源ユニット8、受光部10及びコントローラ12を備えている。この入力装置2は、例えば機器等を動作させるためのVUIとして用いられる装置である。
図1に示すように、表示パネル4は、画像14を表示するための矩形状のパネルであり、例えば液晶表示パネル等で構成されている。表示パネル4は、反射板6に対して略垂直な姿勢で配置されている。
図1に示すように、反射板6は、表示パネル4に表示された画像14を空間画像16として空中に浮かび上がらせるための光学素子であり、例えば反射素子集合基板(いわゆる2面コーナリフレクタアレイ)、レンズアレイ又は凹面鏡等で構成されている。具体的には、反射板6は、表示パネル4に表示された画像14を反射することにより、空間18に配置された仮想面20上に画像14の虚像である空間画像16を結像させる。このように空中に浮かび上がった空間画像16は、ユーザに対して表示されるようになる。
なお、仮想面20は、反射板6に対して表示パネル4と反対側の空間18に仮想的に配置された平面(X−Y平面)である。また、空間画像16は、表示パネル4に表示された画像14の奥行きが反転した画像であり、反射板6に対して表示パネル4と略対称な位置に結像される。
図1に示すように、仮想面20上には、第1の操作画面22及び第2の操作画面24が規定されている。第1の操作画面22は、空間画像16を表示し且つユーザによる第1の動作(後述する)を検出するための矩形状の領域であり、空間画像16の全体を含むように配置されている。図1に示す例では、第1の操作画面22と第2の操作画面24との境界は、空間画像16の輪郭と一致している。第2の操作画面24は、ユーザによる第2の動作(後述する)を検出するための矩形状の枠状の領域であり、第1の操作画面22の全外周に亘って(すなわち、空間画像16の外側に)配置されている。なお、第2の操作画面24の幅D(すなわち、第2の操作画面24の内周と外周との間の大きさ)は、ユーザの手の指一本分の太さよりも大きく、且つ、ユーザの手全体の大きさよりも小さく設定されている。
図1に示すように、光源ユニット8は、仮想面20上の第1の操作画面22及び第2の操作画面24の全体に対して検出光26(例えば赤外線レーザ光)をラスタ走査するためのユニットである。図2に示すように、光源ユニット8は、赤外線レーザ素子28、コリメートレンズ30、ビームスプリッタ32、受光素子34、レーザドライバ36、走査ミラー38、アクチュエータ40及び走査ドライバ42を有している。
赤外線レーザ素子28は、検出光26としての赤外線レーザ光を出射する。コリメートレンズ30は、赤外線レーザ素子28からの検出光26を発散光から平行光に変換する。ビームスプリッタ32は、コリメートレンズ30からの検出光26の一部を透過させ、且つ、コリメートレンズ30からの検出光26の他の一部を反射させる。
受光素子34は、ビームスプリッタ32で反射した検出光26を受光し、受光した検出光26の強度を示す受光信号を生成する。レーザドライバ36は、コントローラ12の制御下で、赤外線レーザ素子28を駆動する。具体的には、レーザドライバ36は、受光素子34で生成された受光信号に基づいて、赤外線レーザ素子28からの検出光26の強度が所定の強度となるように赤外線レーザ素子28を駆動する。
走査ミラー38は、例えばMEMS(Micro Electro Mechanical System)ミラーであり、ビームスプリッタ32を透過した検出光26を反射する。アクチュエータ40は、走査ミラー38をX軸方向及びY軸方向(図1参照)に揺動させる。走査ドライバ42は、コントローラ12の制御下で、アクチュエータ40を駆動する。具体的には、走査ドライバ42は、走査ミラー38の揺動周波数及び揺動振幅がそれぞれ所定の揺動周波数及び所定の揺動振幅となるようにアクチュエータ40を駆動する。図1に示すように、走査ミラー38が揺動することにより、走査ミラー38で反射した検出光26は、第1の操作画面22及び第2の操作画面24の全体に対してラスタ走査するようになる。なお、このラスタ走査は、例えば検出光26が仮想面20に対してX軸方向に走査する主走査と、検出光26が仮想面20に対してY軸方向に走査する副走査とで構成される。
受光部10は、集光レンズ44及び光電変換素子46を有している。集光レンズ44は、ラスタ走査された検出光26が指示物体48(図1参照)で反射した反射光50を光電変換素子46に集光する。光電変換素子46は、集光レンズ44からの反射光50を光信号から電気信号に変換する。光電変換素子46からの電気信号は、コントローラ12に出力される。なお、実施の形態1では、指示物体48は、ユーザの手(人差し指)であるが、これに限定されず、例えばユーザが手で持ちながら動かすペン等であってもよい。
コントローラ12は、表示パネル4、レーザドライバ36及び走査ドライバ42等を制御するためのものであり、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)及びROM(Read Only Memory)等から構成されたコンピュータシステムである。コントローラ12の一部又は全部の機能は、CPUがRAMを作業用のメモリとして用いてROMに記憶されたプログラムを実行することにより実現される。なお、コントローラ12の一部又は全部の機能は、専用のハードウェア回路により実現されてもよい。
コントローラ12は、検出部49及び表示制御部51(制御部の一例)を有している。検出部49は、赤外線レーザ素子28から検出光26が出射したタイミング及び受光部10で反射光50を受光したタイミングに基づいて、第1の操作画面22における指示物体48の位置情報(例えばX−Y平面座標値)を算出し、この算出した位置情報に基づいてユーザによる第1の動作を検出する。第1の動作は、指示物体48が仮想面20上の第1の操作画面22に接触又は挿入した状態で第1の操作画面22上をスライドする動作である。
さらに、検出部49は、赤外線レーザ素子28から検出光26が出射したタイミング及び受光部10で反射光50を受光したタイミングに基づいて、第2の操作画面24における指示物体48の位置情報(例えばX−Y平面座標値)を算出し、この算出した位置情報に基づいてユーザによる第2の動作を検出する。第2の動作は、指示物体48が仮想面20上の第2の操作画面24を奥行き方向(すなわち、仮想面20を通過する方向)に押し込む動作である。なお、本明細書において、「押し込む」には、指示物体48が第2の操作画面24を奥行き方向に通過するだけでなく、指示物体48が第2の操作画面24に接触することも含まられる。
さらに、検出部49は、赤外線レーザ素子28から検出光26が出射したタイミング及び受光部10で反射光50を受光したタイミングに基づいて、第2の操作画面24における指示物体48の位置情報(例えばX−Y平面座標値)を算出し、この算出した位置情報に基づいてユーザによる第3の動作を検出する。第3の動作は、指示物体48が仮想面20上の第1の操作画面22から離間する方向(すなわち、Z軸のマイナス方向)に移動する動作である。
表示制御部51は、検出部49による検出結果に基づいて、表示パネル4に表示される画像14の表示内容(すなわち、空間画像16の表示内容)を制御する。具体的には、検出部49が第1の動作を検出した際には、表示制御部51は、空間画像16に関連付けられた第1の操作を実行する。後述する図4の(b)に示すように、第1の操作は、空間画像16上のカーソル54を指示物体48の動きに追従して移動させることにより、空間画像16上のアイコン52(コンテンツの一例)を選択する操作である。
また、検出部49が第2の動作を検出した際には、表示制御部51は、空間画像16に関連付けられた第2の操作を実行する。後述する図4の(d)に示すように、第2の操作は、カーソル54が重畳された(すなわち、選択された)空間画像16上のアイコン52を実行する操作である。なお、コンテンツとは、例えばアイコン52等の空間画像16上の操作対象である。
また、検出部49が第3の動作を検出した際には、表示制御部51は、空間画像16に関連付けられた第3の操作を実行する。第3の操作は、カーソル54が重畳された空間画像16上のアイコン52の選択を確定する操作である。
[1−2.入力装置の動作]
次に、図3及び図4を参照しながら、実施の形態1に係る入力装置2の動作について説明する。図3は、実施の形態1に係る入力装置2の動作の流れを示すフローチャートである。図4は、実施の形態1に係る入力装置2の動作の流れを示す図である。
図4に示すように、空間画像16には、例えばアプリケーションを起動するためのアイコン52及びカーソル54等を含む画面(例えば機器の操作画面等)が表示されている。この状態から、図4の(a)に示すように、ユーザが指示物体48を仮想面20上の第1の操作画面22に対して奥行き方向に挿入することにより、検出部49が指示物体48の第1の操作画面22における位置を検出する。これにより、表示制御部51は、カーソル54を第1の操作画面22上の指示物体48の位置まで移動させる。
その後、図4の(b)に示すように、ユーザが指示物体48を第1の操作画面22に挿入した状態で第1の操作画面22上を上下左右にスライドさせることにより、検出部49は第1の操作画面22で第1の動作を検出する。これにより、表示制御部51は、第1の操作として、カーソル54を指示物体48の動きに追従して上下左右に移動させる。
その後、図4の(c)に示すように、ユーザが指示物体48の移動をアイコン52上で停止させることにより、カーソル54がアイコン52に重畳され、アイコン52が選択される。このとき、検出部49は、第1の操作画面22で第1の動作を検出する(S1でYES)。これにより、表示制御部51は、第1の操作として、アイコン52を選択する(S2)。
この状態で、ユーザが指示物体48を第1の操作画面22から引き抜くことにより、カーソル54がアイコン52に重畳された状態に保持される。このとき、検出部49は、第1の操作画面22で第3の操作を検出する(S3でYES)。これにより、表示制御部51は、アイコン52の選択を確定する(S4)。
その後、図4の(d)に示すように、ユーザが指示物体48を仮想面20上の第2の操作画面24に対して奥行き方向に押し込むことにより、検出部49は第2の操作画面24で第2の動作を検出する(S5でYES)。これにより、表示制御部51は、カーソル54の位置を保持した状態で、第2の操作として、カーソル54が重畳された(すなわち、選択された)アイコン52を実行する(S6)。このようにアイコン52が実行されることにより、アイコン52に対応するアプリケーションが起動する。
[1−3.効果]
次に、実施の形態1に係る入力装置2により得られる効果について説明する。上述したように、第1の操作画面22と第2の操作画面24とで、検出される指示物体48の動作が異なる。これにより、例えば指示物体48が第1の操作画面22上をスライドしている際に、指示物体48が不意に奥行き方向に動いた場合であっても、ユーザの意図していないアイコンが実行されてしまうことがない。したがって、入力装置2の操作性を高めることができる。
(実施の形態2)
[2−1.入力装置の構成]
次に、図1、図2及び図5を参照しながら、実施の形態2に係る入力装置2Aの構成について説明する。図5は、実施の形態2に係る入力装置2Aにおける第3の動作を説明するための図である。なお、以下に示す各実施の形態において、上記実施の形態1と同一の構成要素には同一の符号を付し、その説明を省略する。
図1及び図2に示すように、実施の形態2に係る入力装置2Aでは、コントローラ12Aの検出部49Aは、上記実施の形態1で説明した第1の動作及び第2の動作に加えて、第3の動作を検出する。すなわち、検出部49Aは、第1の操作画面22及び第2の操作画面24における指示物体48(例えばユーザの手全体)の位置情報を算出し、この算出した位置情報に基づいてユーザによる第4の動作を検出する。図5に示すように、第4の動作は、指示物体48が仮想面20上の第1の操作画面22と第2の操作画面24とに跨った状態で、上下方向(Y軸のプラス方向又はマイナス方向)、垂直方向(Z軸のプラス方向又はマイナス方向)又は水平方向(X軸のプラス方向又はマイナス方向)に移動する動作である。
コントローラ12Aの表示制御部51Aは、上記実施の形態1で説明した第1の操作、第2の操作及び第3の操作に加えて、検出部49Aが第4の動作を検出した際には、空間画像16に関連付けられた第4の操作を実行する。第4の操作は、空間画像16に表示されたコンテンツのアプリケーションを表すページを送る操作である。
さらに、表示制御部51Aは、第4の動作における指示物体48の移動方向に応じてコンテンツのページの送り量を異ならせる。具体的には、表示制御部51Aは、第4の動作における指示物体48の移動方向が垂直方向である場合には、コンテンツのページを比較的大きい送り量(例えば3ページずつ)で送る、いわゆるページの粗送りを実行する。また、表示制御部51Aは、第4の動作における指示物体48の移動方向が上下方向である場合には、コンテンツのページを比較的小さい送り量(例えば1ページずつ)で送る、いわゆるページの微送りを実行する。なお、表示制御部51Aは、第4の動作における指示物体48の移動方向が水平方向である(すなわち、指示物体48が水平方向に移動することにより第1の操作画面22及び第2の操作画面24から離れる)場合には、ページの粗送り及び微送りのいずれも実行することなく、現在表示されているコンテンツのページを保持する。
[2−2.入力装置の動作]
次に、図6及び図7を参照しながら、実施の形態2に係る入力装置2Aの動作について説明する。図6は、実施の形態2に係る入力装置2Aの動作の流れを示すフローチャートである。図7は、実施の形態2に係る入力装置2Aの動作の流れを示す図である。
図7に示すように、空間画像16には、例えば5つのページA〜Eを順次送ることができるコンテンツが表示されている。図7の(a)に示すように、空間画像16にページAが表示された状態で、ユーザが指示物体48を仮想面20上の第1の操作画面22と第2の操作画面24とに跨るように配置する。この状態から、ユーザが指示物体48を所定方向に移動させることにより、検出部49Aは第1の操作画面22及び第2の操作画面24で第4の動作を検出する(S11)。
ここで、第4の動作における指示物体48の移動方向が垂直方向である場合には(S12で垂直方向)、表示制御部51Aは、ページの粗送りを実行する(S13)。これにより、例えば図7の(b)及び(c)に示すように、空間画像16に表示されるページがページAからページDに3ページ分送られる。なお、このとき、ユーザは、指示物体48をZ軸のマイナス方向からプラス方向(又はZ軸のプラス方向からマイナス方向)に仮想面20を通過させるように移動させてもよい。
また、第4の動作における指示物体48の移動方向が上下方向である場合には(S12で上下方向)、表示制御部51Aは、ページの微送りを実行する(S14)。これにより、例えば図7の(c)及び(d)に示すように、空間画像16に表示されるページがページDからページEに1ページ分送られる。
さらに、第4の動作における指示物体48の移動方向が水平方向である場合には(S12で水平方向)、表示制御部51Aは、ページの粗送り及び微送りのいずれも実行しない(S15)。これにより、例えば図7の(d)及び(e)に示すように、空間画像16に表示されるページがページEに保持され、ページEに対応するアプリケーションが起動される。なお、第4の動作が検出された後に、指示物体48が第1の操作画面22を押し込むことにより、ページEに対応するアプリケーションが起動されるようにしてもよい。
[2−3.効果]
次に、実施の形態2に係る入力装置2Aにより得られる効果について説明する。上述したように、ユーザは、空間画像16に表示されるページが所望のページになるまで、指示物体48を垂直方向又は上下方向に移動させることにより、ページの粗送り又は微送りを行うことができる。その後、ユーザは、空間画像16に表示されるページが所望のページになった時点で、指示物体48を水平方向に移動させることにより、空間画像16に表示されるページを所望のページに保持させることができる。これにより、入力装置2Aの操作性をより一層高めることができる。
[2−4.変形例]
実施の形態2では、表示制御部51Aは、第4の動作における指示物体48の移動方向に応じてコンテンツのページの送り量を異ならせたが、これとともに、ページを送る順を異ならせてもよい。例えば、表示制御部51Aは、第4の動作における指示物体48の移動方向がY軸のプラス方向である場合には、コンテンツのページをページA→ページB→ページC→ページD→ページEの順に送る。一方、表示制御部51Aは、第3の動作における指示物体48の移動方向がY軸のマイナス方向である場合には、コンテンツのページを上記の順とは逆の順、すなわちページE→ページD→ページC→ページB→ページAの順に送る。
なお、表示制御部51Aは、検出部49Aが第4の動作を検出した際に、第4の操作として、空間画像16に表示されたコンテンツのページを送る操作を実行したが、これに限定されない。例えば、表示制御部51Aは、検出部49Aが第4の動作を検出した際に、第4の操作として、空間画像16に表示されたコンテンツのページをズームする操作を実行してもよい。
(実施の形態3)
[3−1.入力装置の構成]
次に、図1、図2及び図8を参照しながら、実施の形態3に係る入力装置2Bの構成について説明する。図8は、実施の形態3に係る入力装置2Bにおけるキャリブレーションモードを説明するための図である。
図1及び図2に示すように、実施の形態3に係る入力装置2Bでは、上記実施の形態1及び2で説明した機能に加えて、第2の操作画面24の幅Dを調整するためのキャリブレーションモードが実行される。図8に示すように、このキャリブレーションモードでは、コントローラ12Bの表示制御部51Bは、空間画像16にキャリブレーション用画像56を表示させる。なお、キャリブレーション用画像56は、例えば開いた状態の手の形状を有する画像である。
ユーザが手58を開いた状態でキャリブレーション用画像56上に配置することにより、コントローラ12Bの検出部49Bは、この手58の大きさを検出する。これにより、表示制御部51Bは、検出された手58の大きさに基づいて、第2の操作画面24の幅Dを調整する。具体的には、表示制御部51Bは、第2の操作画面24の幅Dが手58の指一本分の太さW1よりも大きく、且つ、手58全体の大きさW2よりも小さくなるように(W1<D<W2)調整する。
なお、第2の操作画面24の幅Dが手58の指一本分の太さW1よりも小さい場合には、上記実施の形態1で説明したようにユーザが手58の指で第2の操作画面24を押し込もうとした際に、手58の指が第1の操作画面22と第2の操作画面24とに跨るように配置されてしまうおそれがある。この場合、検出部49は、第2の動作を検出することができず、第3の動作を誤検出してしまうようになる。
また、第2の操作画面24の幅Dが手58全体の大きさW2よりも大きい場合には、実施の形態3で説明したようにユーザが手58を第1の操作画面22と第2の操作画面24とに跨るように配置することが難しくなる。
[3−2.入力装置の動作]
次に、図9を参照しながら、実施の形態3に係る入力装置2Bの動作について説明する。図9は、実施の形態3に係る入力装置2Bの動作の流れを示すフローチャートである。
キャリブレーションモードが開始することにより(S21)、キャリブレーション用画像56が空間画像16に表示される(S22)。その後、ユーザが手58を開いた状態でキャリブレーション用画像56上に配置することにより(S23)、検出部49Bは、この手58の大きさを検出する(S24)。
このとき、検出された手58の大きさが所定の範囲内である場合には(S25でYES)、表示制御部51Bは、検出された手58の大きさに基づいて、第2の操作画面24の幅Dを調整する(S26)。その後、キャリブレーションモードが終了する(S27)。
一方、検出された手58の大きさが所定の範囲内にない場合には(S25でNO)、表示制御部51Bは、再試行をユーザに促すためのメッセージ(例えば、「もう一度手をかざしてください」等のメッセージ)を空間画像16に表示させる(S28)。これにより、ユーザは、キャリブレーション用画像56上に再度配置するようになる(S23)。なお、検出された手58の大きさが所定の範囲内にない場合とは、例えばユーザが手58を握った状態でキャリブレーション用画像56上に配置した場合や、手58以外の物体がキャリブレーション用画像56上に配置した場合等である。
[3−3.効果]
次に、実施の形態3に係る入力装置2Bにより得られる効果について説明する。ユーザによって手58の大きさが異なるため、上述したキャリブレーションモードを実行することにより、ユーザの手58の大きさに応じて第2の操作画面24の幅Dを調整することができる。これにより、入力装置2Bの誤操作を抑制することができる。
(実施の形態4)
次に、図1、図2及び図10を参照しながら、実施の形態4に係る入力装置2Cの構成について説明する。図10は、実施の形態4に係る入力装置2Cにおける空間画像16Cを示す図である。
図10に示すように、実施の形態4に係る入力装置2C(図1及び図2参照)では、空間画像16Cは、第1の操作画面22Cに含まれる第1の画像領域60aと、第2の操作画面24Cに含まれる第2の画像領域60bとを有している。第1の画像領域60aは、例えばアイコン52及びカーソル54等を含むコンテンツ(例えば機器の操作画面等)が表示される画像領域である。一方、第2の画像領域60bは、コンテンツが表示されない領域であり、例えば黒色の背景のみが表示される画像領域である。
なお、図10に示す例では、第2の操作画面24Cの輪郭は空間画像16Cの輪郭と一致し、且つ、第1の操作画面22Cと第2の操作画面24Cとの境界は、第1の画像領域60aと第2の画像領域60bとの境界と一致している。
このような構成であっても、上記実施の形態1と同様の効果を得ることができる。
(変形例)
以上、本発明の実施の形態1〜4に係る入力装置について説明したが、本発明は、これらの実施の形態1〜4に限定されるものではない。例えば、上記実施の形態1〜4をそれぞれ組み合わせてもよい。
上記各実施の形態では、赤外線レーザ素子28から検出光26が出射したタイミング及び受光部10で反射光50を受光したタイミングに基づいて第1の動作等を検出したが、これに限定されず、例えばカメラによる指示物体48の撮影結果に基づいて第1の動作等を検出してもよい。
上記各実施の形態では、第2の操作画面24を第1の操作画面22の全外周に亘って配置したが、これに限定されず、第1の操作画面22の全外周の一部(例えば第1の操作画面22の上側のみ)に配置してもよい。
また、上記の入力装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、入力装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
さらに、上記の入力装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、例えば、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムを含む。この場合、ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の入力装置を構成する構成要素の一部または全部は、入力装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。
また、本発明は、上記に示す方法であるとしても良い。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、上記コンピュータプログラムからなるデジタル信号であるとしても良い。
さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしても良い。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしても良い。
また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。
また、上記プログラムまたは上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。
本発明は、例えば機器等を動作させるためのVUIとして用いられる入力装置として適用することができる。
2,2A,2B,2C 入力装置
4 表示パネル
6 反射板
8 光源ユニット
10 受光部
12,12A,12B コントローラ
14 画像
16,16C 空間画像
18 空間
20 仮想面
22,22C 第1の操作画面
24,24C 第2の操作画面
26 検出光
28 赤外線レーザ素子
30 コリメートレンズ
32 ビームスプリッタ
34 受光素子
36 レーザドライバ
38 走査ミラー
40 アクチュエータ
42 走査ドライバ
44 集光レンズ
46 光電変換素子
48 指示物体
49,49A,49B 検出部
50 反射光
51,51A,51B 表示制御部
52 アイコン
54 カーソル
56 キャリブレーション用画像
58 手
60a 第1の画像領域
60b 第2の画像領域

Claims (10)

  1. コンテンツを含む画像を表示する表示部と、
    空間に結像された前記画像の虚像である空間画像の少なくとも一部を含む仮想面上の第1の操作画面上を指示物体がスライドする第1の動作、及び、前記指示物体が前記第1の操作画面とは異なる前記仮想面上の第2の操作画面を押し込む第2の動作を検出する検出部と、
    前記第1の動作が検出された際には、前記コンテンツを選択する操作である第1の操作を実行し、前記第2の動作が検出された際には、選択された前記コンテンツを実行する操作である第2の操作を実行する制御部と、を備える
    入力装置。
  2. 前記第2の操作画面は、前記第1の操作画面の全外周に亘って配置されている
    請求項1に記載の入力装置。
  3. 前記第1の操作画面は前記空間画像の全体を含み、
    前記第2の操作画面は前記空間画像の外側に配置されている
    請求項1又は2に記載の入力装置。
  4. 前記空間画像は、
    前記第1の操作画面に含まれ、前記コンテンツが表示される第1の画像領域と、
    前記第2の操作画面に含まれ、前記コンテンツが表示されない第2の画像領域と、を有する
    請求項1又は2に記載の入力装置。
  5. 前記検出部は、さらに、前記指示物体が前記第1の操作画面から離間する方向に移動する第3の動作を検出し、
    前記制御部は、前記第3の動作が検出された際には、前記コンテンツの選択を確定する操作である第3の操作を実行する
    請求項1〜4のいずれか1項に記載の入力装置。
  6. 前記検出部は、さらに、前記指示物体が前記第1の操作画面と前記第2の操作画面とに跨った状態で所定方向に移動する第4の動作を検出し、
    前記制御部は、前記第4の動作が検出された際には、前記空間画像に関連付けられた第4の操作を実行する
    請求項1〜5のいずれか1項に記載の入力装置。
  7. 前記制御部は、前記第4の動作が検出された際には、前記第4の操作として前記空間画像に表示された前記コンテンツのページを送る
    請求項6に記載の入力装置。
  8. 前記制御部は、前記指示物体の移動方向に応じて前記コンテンツのページの送り量を異ならせる
    請求項7に記載の入力装置。
  9. 前記指示物体はユーザの手であり、
    前記検出部は、さらに、前記仮想面上に配置された前記ユーザの手の大きさを検出し、
    前記制御部は、検出された前記ユーザの手の大きさに基づいて前記第2の操作画面の幅を調整する
    請求項1〜8のいずれか1項に記載の入力装置。
  10. 前記制御部は、
    前記第1の動作が検出された際には、前記第1の操作として前記空間画像上のカーソルを前記指示物体の動きに追従して移動させ、
    前記第2の動作が検出された際には、前記第2の操作として前記カーソルが重畳された前記空間画像上の前記コンテンツを実行する
    請求項1〜9のいずれか1項に記載の入力装置。
JP2015209919A 2015-10-26 2015-10-26 入力装置 Active JP6536350B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015209919A JP6536350B2 (ja) 2015-10-26 2015-10-26 入力装置
US15/332,324 US10782789B2 (en) 2015-10-26 2016-10-24 Input device
EP16195307.0A EP3163409B1 (en) 2015-10-26 2016-10-24 Input device
CN201610947483.5A CN107025003B (zh) 2015-10-26 2016-10-26 输入装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209919A JP6536350B2 (ja) 2015-10-26 2015-10-26 入力装置

Publications (2)

Publication Number Publication Date
JP2017084003A true JP2017084003A (ja) 2017-05-18
JP6536350B2 JP6536350B2 (ja) 2019-07-03

Family

ID=57189942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209919A Active JP6536350B2 (ja) 2015-10-26 2015-10-26 入力装置

Country Status (4)

Country Link
US (1) US10782789B2 (ja)
EP (1) EP3163409B1 (ja)
JP (1) JP6536350B2 (ja)
CN (1) CN107025003B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105744A (ja) * 2017-12-13 2019-06-27 船井電機株式会社 空中像表示装置
JP2019207574A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP2022146114A (ja) * 2021-03-22 2022-10-05 カシオ計算機株式会社 投影装置及び投影方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109591033A (zh) * 2018-09-28 2019-04-09 广州智伴人工智能科技有限公司 一种非接触式人机交互系统
JP2022063376A (ja) * 2020-10-12 2022-04-22 凸版印刷株式会社 空中表示装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101874A (ja) * 1995-10-06 1997-04-15 Fujitsu Ltd 表示制御方法
JP2011170866A (ja) * 1998-10-13 2011-09-01 Sony Electronics Inc 動作検知インターフェース
JP2012514811A (ja) * 2009-01-07 2012-06-28 マイクロソフト コーポレーション 仮想ページめくり
WO2013099412A1 (ja) * 2011-12-28 2013-07-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置、表示方法、プログラム
JP2013191112A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示制御装置、その制御方法およびプログラム
JP2013257762A (ja) * 2012-06-13 2013-12-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2014203323A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
KR20070113018A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 그 실행방법
JP5178127B2 (ja) 2006-10-17 2013-04-10 株式会社半導体エネルギー研究所 半導体装置
US8985774B2 (en) 2007-03-30 2015-03-24 National Institute Of Information And Communication Technology Floating image interaction device and its program
EP2188737A4 (en) * 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc PROCESSING BREAKFAST USER INTERACTIONS
US20090282332A1 (en) * 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
US8381118B2 (en) * 2009-10-05 2013-02-19 Sony Ericsson Mobile Communications Ab Methods and devices that resize touch selection zones while selected on a touch sensitive display
WO2013029257A1 (en) * 2011-08-31 2013-03-07 Ooros Automotive Co., Ltd. Vehicle's interactive system
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9274608B2 (en) * 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
EP2767896B1 (en) * 2013-02-14 2019-01-16 LG Electronics Inc. Mobile terminal and method of controlling the mobile terminal
CN103488296B (zh) * 2013-09-25 2016-11-23 华为软件技术有限公司 体感交互手势控制方法及装置
CN103500057A (zh) * 2013-10-08 2014-01-08 百度在线网络技术(北京)有限公司 移动终端及其操控方法和装置
CN104216517A (zh) * 2014-08-25 2014-12-17 联想(北京)有限公司 一种信息处理方法及电子设备
JP5933093B1 (ja) * 2015-11-04 2016-06-08 株式会社Cygames プログラム及び携帯端末

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101874A (ja) * 1995-10-06 1997-04-15 Fujitsu Ltd 表示制御方法
JP2011170866A (ja) * 1998-10-13 2011-09-01 Sony Electronics Inc 動作検知インターフェース
JP2012514811A (ja) * 2009-01-07 2012-06-28 マイクロソフト コーポレーション 仮想ページめくり
WO2013099412A1 (ja) * 2011-12-28 2013-07-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置、表示方法、プログラム
JP2013191112A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示制御装置、その制御方法およびプログラム
JP2013257762A (ja) * 2012-06-13 2013-12-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2014203323A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105744A (ja) * 2017-12-13 2019-06-27 船井電機株式会社 空中像表示装置
JP7087368B2 (ja) 2017-12-13 2022-06-21 船井電機株式会社 空中像表示装置
JP2019207574A (ja) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
CN110543232A (zh) * 2018-05-29 2019-12-06 富士施乐株式会社 信息处理装置、信息处理系统和非暂时性计算机可读介质
JP2022146114A (ja) * 2021-03-22 2022-10-05 カシオ計算機株式会社 投影装置及び投影方法
JP7279728B2 (ja) 2021-03-22 2023-05-23 カシオ計算機株式会社 投影装置及び投影方法

Also Published As

Publication number Publication date
JP6536350B2 (ja) 2019-07-03
CN107025003A (zh) 2017-08-08
EP3163409B1 (en) 2023-09-20
US10782789B2 (en) 2020-09-22
EP3163409A1 (en) 2017-05-03
US20170115741A1 (en) 2017-04-27
CN107025003B (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
JP6536350B2 (ja) 入力装置
JP6822473B2 (ja) 表示装置
US8690337B2 (en) Device and method for displaying an image on a VUI screen and also a main projection screen
CN106716318B (zh) 投影显示单元和功能控制方法
JP6689559B2 (ja) 画像投影装置、システム、画像投影方法およびプログラム
JP2013065061A (ja) プロジェクタ
JP2010244484A (ja) 画像表示装置、画像表示方法および画像表示プログラム
TWI545463B (zh) 投影系統及管理投影系統之方法
JP2007537510A (ja) 光学入力及び/又は制御装置
US20150054792A1 (en) Projector
TW201617820A (zh) 物件指示符顯示技術
JP6314688B2 (ja) 入力装置
JP2014202951A (ja) 画像投影装置、及び操作物検出方法
JP2020170297A (ja) 入力装置
WO2015029222A1 (ja) 情報処理装置,表示制御プログラム及び表示制御方法
JP6411067B2 (ja) 情報処理装置及び入力方法
JP6098386B2 (ja) プロジェクタ
JP2015060295A (ja) 入力装置
JP6315127B2 (ja) 入力装置、空中像インタラクションシステム、及び入力方法
JP2010157976A (ja) 原稿読み取り装置
JP4637927B2 (ja) 入力装置のスキャン制御方法、その装置及び記録媒体
JP2015088050A (ja) プロジェクタ装置
JP2010060845A (ja) 表示システム、操作装置、画像表示装置、レイアウト設定プログラム及び記録媒体
JP7473832B1 (ja) 電子機器及びプログラム
US20160146592A1 (en) Spatial motion sensing device and spatial motion sensing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190520

R150 Certificate of patent or registration of utility model

Ref document number: 6536350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150