JP6724987B2 - 制御装置および検出方法 - Google Patents
制御装置および検出方法 Download PDFInfo
- Publication number
- JP6724987B2 JP6724987B2 JP2018525216A JP2018525216A JP6724987B2 JP 6724987 B2 JP6724987 B2 JP 6724987B2 JP 2018525216 A JP2018525216 A JP 2018525216A JP 2018525216 A JP2018525216 A JP 2018525216A JP 6724987 B2 JP6724987 B2 JP 6724987B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- icon
- image
- user
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 420
- 238000009826 distribution Methods 0.000 claims description 54
- 230000033001 locomotion Effects 0.000 description 135
- 238000000034 method Methods 0.000 description 126
- 238000012986 modification Methods 0.000 description 124
- 230000004048 modification Effects 0.000 description 124
- 238000012545 processing Methods 0.000 description 107
- 238000003384 imaging method Methods 0.000 description 91
- 230000003287 optical effect Effects 0.000 description 90
- 239000013643 reference control Substances 0.000 description 74
- 238000010586 diagram Methods 0.000 description 30
- 230000001133 acceleration Effects 0.000 description 24
- 230000007423 decrease Effects 0.000 description 21
- 238000003825 pressing Methods 0.000 description 20
- 230000005484 gravity Effects 0.000 description 19
- 238000009792 diffusion process Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000010191 image analysis Methods 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 241001422033 Thestylus Species 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010422 painting Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010016322 Feeling abnormal Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000005338 frosted glass Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/047—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using sets of wires, e.g. crossed wires
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Description
第2の態様によれば、空中に表示される第1表示への使用者の操作を検出する検出方法であって、前記操作を検出するための検出基準位置と前記操作が検出された位置との位置関係を取得し、取得された前記位置関係と、前記第1表示とは異なる位置に表示される第2表示の表示態様とに基づいて、前記検出基準位置を調整する。
図面を参照しながら、第1の実施の形態による表示装置について説明する。第1の実施の形態においては、本実施の形態の表示装置が操作パネルに組み込まれた場合を一例に挙げて説明を行う。なお、本実施の形態の表示装置は、操作パネルに限らず、携帯電話、テレビ、タブレット端末、腕時計型端末等の携帯型情報端末装置、パーソナルコンピュータ、音楽プレイヤ、固定電話機、ウエアラブル装置等の電子機器に組み込むことが可能である。また、本実施の形態の表示装置は、デジタルサイネージ(電子看板)等の電子機器にも組み込むことができる。デジタルサイネージとしては、たとえば自動販売機等に内蔵される小型のディスプレイであっても良いし、たとえば建築物の壁面等に設けられるような一般的な成人の大きさよりも大きなディスプレイであっても良い。また、本実施の形態の表示装置は、例えば現金自動預払機(ATM装置)においてユーザが暗証番号や金額等を入力するためのパネルや、鉄道やバスの乗車券・定期券等の自動券売機や、図書館や美術館等の各種の情報検索端末装置等のパネルに組み込むことが可能である。また、本実施の形態の表示装置は、各種のロボット(たとえば自走可能なロボットや、自走式の掃除機のような電子機器)に搭載しても良い。
また、表示装置1は、後述する第1の実施の形態の変形例2にて説明するように公知のライトフィールド方式を用いて空中像30を表示させてもよい。
なお、結像光学系9の種類によっては、上記と逆になる場合がある。すなわち、表示器11を結像光学系9に近づく方向に移動すると、空中像30はユーザ12に近づく方向(Z方向+側)に移動して表示される。逆に、表示器11と結像光学系9との間の距離を大きくすると、すなわち、表示器11を結像光学系9から遠ざける方向に移動すると、空中像30はユーザ12から遠ざかって(Z方向−側)に移動して表示される。したがって、結像光学系9の種類によって、適宜表示器11を移動させる方向を変更して使用するのがよい。
なお、操作検出器13は、ステージ14上にZX平面に平行に設けても良い。
プロジェクタ15は、ステージ14の上方(Y方向+側)に設けられ、制御部20による制御に従って、表示素子上に形成された画像データをY方向−側に向けて投影することにより、ステージ14上に投影画像を投影する。プロジェクタ15は、空中像30の位置に対して所定の位置に投影画像を投影する。
また、検出基準の位置(初期位置や、変更または修正された位置)は、操作検出器13のステージ14の平面上(X軸、Y軸上)全体に設定されていてもよいし、平面上の一部に設定されてもよい。更には、検出基準の初期位置は、前回の表示装置1の使用時に設定された検出基準を記憶部205に記憶しておき、それを読み出して使用してもよい。なお、検出基準制御部204は、操作検出器13によって検出された静電容量の値に対応する指位置が検出基準の位置に一致した場合に限らず、指位置が検出基準の位置に略一致した場合にユーザ12がアイコン30Aの表示位置を操作したと判定してもよい。この略一致したと判定する範囲は、予め設定してもよい。
なお、キャリブレーション処理モードにおいて、表示装置1は、空中像30と検出基準40との位置関係を変更せずに補助画像31の表示態様を変更するものに限定されず、空中像30と検出基準40との位置関係を変更しつつ、補助画像31の表示態様を変更してもよい。
投影領域140は、プロジェクタ15が表示素子の全領域からの投影光を投影したときに、ステージ14上に補助画像31が投影される領域である。本実施の形態では、投影領域140は、ステージ14上において、操作検出器13からZ方向+側の距離H1の位置を中心とした所定の範囲であるものとする。なお、ステージ14上に投影領域140が予め設定され、プロジェクタ15は、表示素子の全領域のうち投影領域140に対応する範囲から投影光を投影して補助画像31を投影してもよい。図4に示す例では、操作検出器13からZ方向+側の距離H1の位置を基準として、前後方向(Z方向の+側と−側)にそれぞれ距離h1(<H1)の範囲、に投影領域140が設定された場合を示す。すなわち、図4に示す例では、投影領域140がステージ14上の一部の範囲に設定されている。なお、投影領域140は、図4に示す例に限定されず、ステージ14上の全領域でもよい。
なお、プロジェクタ15の内部にプロジェクタ15の動作を制御する制御部と、補助画像データを生成する生成部とを有しても良い。この場合、生成部は、上述した画像生成部201と同様にして、補助画像データを生成してもよい。また、プロジェクタ15の動作を制御する制御部は、制御部20のプロジェクタ制御部200から入力した制御信号に基づいて、プロジェクタ15の動作を制御して、補助画像31を投影してもよい。
なお、以上の説明では、プロジェクタ15が第1範囲311に対応する範囲が変更された補助画像データを投影することにより、第1範囲311のステージ14上でのZ方向の位置を移動させる例を挙げたが、これに限定されない。たとえば、プロジェクタ15は、Z方向に沿って移動可能に配置され、プロジェクタ15の複数の表示画素上では、予め第1範囲311に対応する範囲と第2範囲312に対応する範囲が定められている。プロジェクタ15が、後述するようにして算出された移動量に従ってZ方向に移動することにより、第1範囲311の位置を移動してもよい。
検出基準制御部204は、図5(a)に示すように、検出基準40を空中像300の近傍位置、例えば、空中像300よりも僅かにZ方向+側の位置に設定する。勿論、検出基準制御部204は、検出基準40を、空中像300に一致させてもよいし、空中像300よりも僅かにZ方向−側の位置に設定してもよい。この場合、表示制御部202は、たとえば図4(a)に示す空中像300を表示させる。
このようにして、画像生成部201は、ユーザ12がアイコン300Aを押下する操作に基づく方向にアイコン300Aの表示位置が変更したとユーザ12に知覚されるように、補助画像31の範囲を変更せずに第1範囲311の投影位置を変更する。換言すると、画像生成部201は、操作検出器13により検出された操作により、第2の像(第2表示像)の表示形態を変更することにより、相対的に第1範囲311の投影位置を変更させる。なお、ユーザ12が押下する操作は厳密にZ方向に沿った方向に移動した場合に限られない。ユーザ12が押下する操作がZ軸に対して傾きを有して行われた場合であっても、すなわちユーザ12の押下する操作の移動方向にZ方向成分が含まれている場合に、制御部20はユーザ12によって押下する操作が行われたと判断してもよい。そして、画像生成部201は、アイコン300Aの表示位置が押下する操作に基づく方向であるZ方向に変更したとユーザ12に知覚されるように、第1範囲311の投影位置を移動させてもよい。
なお、画像生成部201は、ユーザ12の押下する操作に基づいて、押下する操作に基づく方向である、ユーザ12による押下する操作と同じ方向にアイコン300Aの表示位置が変更したとユーザ12に知覚されるように、第1範囲311の投影位置、すなわち後述する輝度分布の重心位置を移動してもよい。
上記の式(1)において、表示画素はk行×k列に配列され、各表示画素の座標を(xi、yj)とし、f(xi、yj)は座標(xi、yj)の表示画素の輝度を表す。
なお、k行×k列の表示画素は、第1範囲311の全範囲と第2範囲312の全範囲とを合わせた範囲に相当するものでもよいし、第1範囲311の全範囲と第2範囲312の一部の範囲とを合わせた範囲に相当するものでもよい。また、k行×k列の表示画素は、第1範囲311のうちの一部を除外した範囲と、第2範囲312の一部の範囲とを合わせた範囲に相当するものでもよい。
また、画像生成部201は、上記の式(1)を用いて算出した輝度分布の重心位置を移動させるものに限定されない。たとえば、画像生成部201は、第1範囲311の中心を算出し、検出基準40と到達位置50との間のずれ量に基づいて、第1範囲311の中心の移動量を算出してもよい。
なお、画像生成部201は、ユーザ12の押下する操作に基づいて、押下する操作に基づく方向である、ユーザ12による押下する操作とは反対の方向にアイコン300Aの表示位置が変更したとユーザ12に知覚されるように、第1範囲311の投影位置、すなわち輝度分布の重心位置Gを移動してよい。
なお、画像生成部201は、補助画像データの輝度分布の重心位置を変更するため、初期表示の第1範囲311と、図4(c)、(e)における第1範囲311との間で形状が異なってもよい。
また、到達位置50が検出基準40に一致する場合にも検出基準制御部204は上述と同様に到達位置50を判定する。しかし、到達位置50が検出基準40に一致しているので、画像生成部201は、ユーザ12がアイコン300Aの奥行き位置が変更したと知覚するような、第1範囲311の投影位置の変更を行わない。
また、所定の非接触操作として、ユーザ12が指Fを距離L1だけZ方向−側(奥側)へ移動した後にUターンして、距離L1だけZ方向+側(手前側)に移動する操作である。即ち、この所定の非接触操作は、奥側への移動距離と手前側への移動距離とが等しいUターン軌跡である。また、この所定の非接触操作は、Uターン、即ちU字の軌跡ではなく、V字の軌跡を描くものでも良く、また、指Fが距離L1だけ奥側へ移動した後にその奥側への移動軌跡に沿って距離L1だけ手前側に移動する操作であってもよい。更には、この所定の非接触操作は、奥側への移動距離L1と手前側への移動距離L1とが等しくなく異なっていても良い。すなわち、所定の非接触操作とは、指の奥側への移動に引き続き指の手前側への移動がなされる操作であれば良い。
また、所定の非接触操作として、ユーザ12が指Fを距離L1だけ奥側へ移動した後、所定時間指Fを停止する操作でもよいし、ユーザ12が指Fを距離L1だけ奥側へ移動した後、指Fを横方向に少なくとも所定距離L2移動させる操作でもよい。
所定の非接触操作は、上述した種々の指Fの移動軌跡で表されるものに限られず、その移動軌跡(指Fや手の移動軌跡)が操作検出器13で検出できるものであれば、その他の移動軌跡を描くものであってよい。なお、操作検出器13によって所定の非接触操作が検出された位置は、それぞれの操作によって適宜設定してもよい。たとえば、上記した所定の非接触操作として、ユーザ12が指Fを距離L1だけ奥側へ移動した後にUターンして、距離L1だけ手前側に移動する操作の場合、Uターンを行った最もZ方向−側の位置を非接触操作が検出された位置としてよい。この所定の非接触操作が検出された位置の別の例としては、距離L1の半分の位置を非接触操作が検出された位置としてよい。
図6に、上述した第1のキャリブレーション処理モードによるキャリブレーション処理の結果が反映された空中像操作モードにおける空中像30と補助画像31とを示す。図6(a)は、図3(a)と同様に、初期表示の空中像30と補助画像31とを示す。図6(a)では、1行×3列に配列されたアイコン30Aに対して、紙面に向かって左側から符号30Aa、30Ab、30Acを付与する。また、アイコン30Aa、30Ab、30Acのそれぞれに対応する第1範囲311に対して、符号311a、311b、311cを付与する。
なお、図6に示す例では、画像生成部201は、複数のアイコン30Aa、30Ab、30Acの全てに対して、キャリブレーション処理の結果に基づいて、その第1範囲311a、311b、311cの表示位置を変更したが、これに限定されない。画像生成部201は、複数のアイコン30Aa〜30Acに対応する第1範囲311a〜311cのうちの少なくとも1つの第1範囲311の表示位置を変更してもよい。または、画像生成部201は、各アイコン30Aa、30Ab、30Acのそれぞれに対して、個別にキャリブレーション処理の結果を反映させて第1範囲311a、311b、311cの表示位置を変更してもよい。
ステップS1において、ユーザ12によりキャリブレーション処理モード選択用の操作ボタンによって第1のキャリブレーション処理モードが選択されていることを認識すると、ステップS2に進む。ステップS2において、図2に示したキャリブレーション部203が第1のキャリブレーション処理モードを開始して、ステップS3に進む。ステップS3では、画像生成部201がキャリブレーション用の表示用画像データを生成し、表示制御部202は、表示用画像データに基づくキャリブレーション用の画像を表示器11に表示させると共に、検出基準制御部204は、検出基準40を所定の初期位置に設定する。同時に、画像生成部201が補助画像31用の画像データを生成し、プロジェクタ15が図4(a)に示したように、補助画像31をその第1範囲311がアイコン300Aの下に位置するように、投影領域140に投影する。表示器11の表示画像は、結像光学系9によって生成される図4(a)に示すキャリブレーション用の空中像300であり、空中像300は、アイコン300Aとメッセージ「キャリブレーションを行います。このアイコンにタッチして下さい」を含む。ステップS4において、操作検出器13は、ユーザ12の指先FのZ方向−側への移動を検出し、ステップS5に進む。
図8は空中像操作モード用の空中像30と検出基準40と指先Fの到達位置50とを示した図である。図9は、第2のキャリブレーション処理モードの動作を表したフローチャートである。図9のフローチャートに示す各処理は、表示装置1の起動後、制御部20によってプログラムを実行して行われる。
なお、ステップS28においては、検出基準制御部204が到達位置50と検出基準40と位置関係を比較して、到達位置50が検出基準40から所定の範囲よりもZ方向−側に位置しないことを検出した場合、画像生成部201は補助画像31の投影位置を変更しなくてもよい。または、画像生成部201は、補助画像31の投影位置の変更量(補助画像31の移動量)をゼロに設定してもよい(すなわち、実質的に補助画像31の投影位置を変更しない)。
なお、検出基準制御部204は、到達位置50と検出基準40とが完全に一致しない場合、たとえば検出基準40から所定の範囲内に到達位置50を検出した場合であっても、到達位置50が検出基準40に一致したと判定してもよい。この場合、図9のステップS25においては、検出基準制御部204は、到達位置50が検出基準40から所定の範囲よりも下方に位置しているか否かを判定してよい。到達位置50が検出基準40から所定の範囲よりも下方に位置する場合には、ステップS25が肯定判定されてステップS26へ進む。また、ステップS30では、検出基準制御部204は、到達位置50が検出基準40から所定の範囲内に位置するか否かを判定してよい。到達位置50が検出基準40から所定の範囲内に位置する場合には、ステップS30が肯定判定されてステップS31へ進む。
また、第1の実施の形態では、Z軸方向に沿ってアイコン30Aの表示位置が変更したとユーザに知覚させるように、画像生成部201は、補助画像31の表示態様の変更をしたが、これに限定されない。たとえば、画像生成部201は、アイコン30Aの表示位置の移動方向として知覚される方向が結像光学系9の光軸方向に移動したと知覚されるように、補助画像31の表示態様を変更してよい。すなわち、本実施の形態では、画像生成部201は、結像光学系9の光軸と直交する方向以外の方向に移動したとユーザ12に知覚されるように、補助画像31の表示態様を変更してもよい。したがって、画像生成部201は、第1範囲311の移動方向に結像光学系9の光軸に沿った成分が含まれるように移動させてよい。
また、上述した第1の実施の形態では、補助画像31が投影領域140内の一部の固定領域に投影されるものとして説明したが、補助画像31が投影される領域を固定しなくてもよい。補助画像31が投影領域140内を移動して投影されてもよいし、大きさが変更されて投影されてもよい。
なお、プロジェクタ15の投影光の輝度が周囲輝度に基づいて制御されるものに限定されない。たとえば、ユーザ12の操作によりプロジェクタ15の投影光の輝度が設定され、この設定に従って、プロジェクタ制御部200が投影光の輝度を制御してもよい。この場合、ユーザ12は、表示装置1の本体10に設けられた操作ボタンを操作してプロジェクタ15の投影光の輝度を設定できる。なお、表示装置1は、この操作ボタンを空中像として表示してもよい。
なお、上述したようにプロジェクタ15の投影光の輝度がユーザ12の操作に基づいて設定された場合も、表示制御部202は、設定された輝度に基づいて、表示器11の表示画像の輝度を制御できる。
なお、後述する第3の実施の形態の変形例2に記載されているように、補助画像31は、空中像30に関連性が高い物を表示した方がユーザ12は、補助画像31のうち第1範囲311の位置に空中像30が表示されていると知覚する可能性が高くなる。後に詳しく説明するが、補助画像31と空中像30との間の関連性が高いものとは、補助画像31と空中像30とを表示させる対象同士が、現実世界で近くにあるもの、接して設置されるもの、対象同士が一体的になって構成されているもの等である。
また、第1の実施の形態では、画像生成部201は、第2の表示領域内の補助画像31の第1範囲311を制御する。これにより、ユーザ12は、アイコン30Aの影に相当する画像に基づいて、検出基準40の位置を知覚することができる。
また、第1の実施の形態では、画像生成部201は、第2の表示領域内の補助画像31の第1範囲311を制御する。これにより、ユーザ12は、アイコン30Aの影に相当する画像の表示態様を視認することにより、検出基準40の位置を知覚しやすくなる。
なお、ユーザ12が押下する操作を行う場合には、画像生成部201は、ユーザ12が押下する操作に基づく方向または押下する操作に基づく方向とは反対の方向に補助画像31の第1範囲311を移動させる。これにより、ユーザ12は、押下する操作の位置を変更させて、ユーザ操作を検出基準40で検出可能にすることができる。
なお、ユーザ12が押下する操作を行う場合には、画像生成部201は、ユーザ12が押下する操作に基づく方向または押下する操作に基づく方向とは反対の方向に補助画像31の輝度分布の輝度の重心の位置を移動させる。これにより、ユーザ12は、押下する操作の位置を変更させて、ユーザ操作を検出基準40で検出可能にすることができる。
第1の実施の形態においては、キャリブレーション処理の結果に基づいてステージ14上で投影される第1範囲311の位置が変更される場合を説明した。変形例1においては、補助画像31の表示態様として適用可能な例について説明する。
画像生成部201は、アイコン30Aの大きさに基づいて第1範囲311の大きさを異ならせてよい。たとえば、図10(a)に示すように、空中像操作モードに対応する空中像30として2つのアイコン30A1、30A2が表示されるものとする。図10(a)では、アイコン30A1と比較して、アイコン30A2の大きさが大きい。この場合、画像生成部201は、アイコン30A1に対応する第1範囲311A1よりもアイコン30A2に対応する第1範囲311A2の方が大きい、すなわち面積が大きくなるように、輝度分布を設定して補助画像データを生成する。
なお、画像生成部201は、上述した第1範囲311の大きさの変更と、第1の実施の形態にて説明した第1範囲311との表示位置の移動とを組み合わせて表示用画像データを生成してよい。
画像生成部201は、アイコン30AのY方向の表示位置に基づいて、第1範囲311の明るさが異なるように補助画像データを生成してよい。一般に、実物とその影ができる面との鉛直方向の距離が大きいほど影は薄く、近づくほど影は濃くなる。このような現象を、画像生成部201は、第1範囲311の濃さ、すなわち明るさを制御することにより空中像30と第1範囲311との間で再現する。この場合、画像生成部201は、補助画像データの全領域の輝度分布の平均値を制御する。輝度分布の平均値Avは、以下の式(2)により表される。
なお、式(2)においては、上述した式(1)の場合と同様に、k行×k列に配列された表示画素の座標を(xi、yj)とし、f(xi、yj)は座標(xi、yj)の表示画素の輝度を表す。ここでの説明は、k行×k列の範囲を、第1範囲311の全範囲と第2範囲312の全範囲とを合わせた範囲で説明を行う。
また、k行×k列の表示画素は、必ずしも第1範囲311の全範囲と第2範囲312の全範囲とを合わせた範囲にする必要はなく、第1範囲311の全範囲と第2範囲312の一部の範囲とを合わせた範囲に相当するものでもよい。また、k行×k列の表示画素は、第1範囲311のうちの一部を除外した範囲と、第2範囲312の一部の範囲とを合わせた範囲に相当するものでもよい。
なお、以上の説明では、画像生成部201は、第1範囲311の明るさを変更する例について説明した。画像生成部201は、第1範囲311の明るさの変更と、上述した第1範囲311の大きさの変更と、第1の実施の形態にて説明した第1範囲311との表示位置の移動とを適宜組み合わせて表示用画像データを生成してよい。
アイコン30Aの表示位置が移動する場合に、画像生成部201は、アイコン30Aの移動に追従して第1範囲311もステージ14上を移動するように補助画像データを生成してもよい。この場合、表示装置1は、ユーザ12が所定のジェスチャーを行った場合、そのジェスチャーに従って空中像30を移動させる。この場合、表示装置1は、図12の主要部構成のブロック図に示す構成を有する。即ち、表示装置1は、制御部20と、制御部20によって制御される撮像装置18と、表示器11と、結像光学系9と、操作検出器13と、プロジェクタ15とを有している。撮像装置18は、詳細を後述する変形例8の表示装置1が備える撮像装置と同様の構成が適用できる。制御部20は、図2に示す第1の実施の形態の表示装置1の制御部20が有する構成に加えて、検出部212と決定部213とを備える。検出部212は、撮像装置18により生成された複数の撮像データを用いて、ユーザ12により行われたジェスチャーを検出する。決定部213は、検出されたジェスチャーに基づいて、空中像30の移動方向や移動量を決定する。
なお、以上の説明では、画像生成部201は、空中像30の移動に追従して第1範囲311を移動する例について説明した。画像生成部201は、第1範囲311の移動に加えて、上述した第1範囲311の明るさの変更と、上述した第1範囲311の大きさの変更と、第1の実施の形態にて説明した第1範囲311との表示位置の移動とを適宜組み合わせて表示用画像データを生成してよい。
画像生成部201は、アイコン30AのY方向の表示位置に基づいて、第1範囲311の大きさや形状が異なるように補助画像データを生成してよい。一般に、実物とその影ができる面との鉛直方向の距離が大きいほど影は大きくなりエッジはぼけ、近づくほど影は小さくなりエッジは明瞭になる。このような現象を、画像生成部201は、第1範囲311の大きさとボケ量を制御することにより空中像30と第1範囲311との間で再現する。
なお、上述した説明では、画像生成部201は、第1範囲311の大きさとボケ量とをアイコン30AのY方向の位置に基づいて変更したが、第1範囲311の大きさとボケ量の何れか一方を変更するものでもよい。
また、画像生成部201は、影領域の大きさとエッジ部のボケ量とを変更する際に、上述した第1範囲311の移動と、上述した第1範囲311の明るさの変更と、上述した第1範囲311の大きさの変更と、第1の実施の形態にて説明した第1範囲311との表示位置の移動とを適宜組み合わせて表示用画像データを生成してよい。
検出基準制御部204は、ステージ14の上方(Y方向+側)の操作検出器13の検出範囲13A内にZX平面に平行に検出基準40を設定する。この場合、ユーザ12は、指をY方向+側から−側へ移動させる押下する操作を行い、再びY方向+側へ戻すように移動させる。すなわち、操作検出器13は、空中像30に対して行われたユーザ12の押下する操作の結像光学系9の光軸方向の到達位置を検出する。プロジェクタ15は、空中像30のアイコンの下方(Y方向−側)に配置されたステージ14上に、第1の実施の形態と同様にして補助画像31を投影する。なお、プロジェクタ15からの投影光により、ステージ14上にユーザ12が操作する指等が影として映らないように、投影方向が調整されている。
空中像30がXY平面に平行な面内に表示されない場合、すなわち空中像30がZX平面に対して所定の傾き角度θ0(<90°)となるように傾斜して表示させるような場合、すなわち垂直方向(Y方向)よりも傾いて表示させる場合におけるアイコン30Aの補助画像31について説明する。
図15に、この場合のアイコン30Aと、補助画像31とを模式的に示す。図15(a)は初期表示を示し、図15(b)は、アイコン30Aがユーザ12から離れる場合の表示を示し、図15(c)は、アイコン30Aがユーザ12に接近する場合の表示を示す。
上述したように、一般に、実物とその影ができる面との鉛直方向の距離が大きいほど影は大きくなりエッジはぼけ、近づくほど影は小さくなりエッジは明瞭になる。また、実物の移動が鉛直方向ではない場合には、形成される影の形状は歪み、鉛直方向の距離が大きくなるほど歪みの程度が大きくなる。
また、画像生成部201は、第1範囲311の形状を歪ませる際に、上述した輝度分布の平均値の、すなわち明るさの変更も行ってよい。この場合、図15(b)に示す第1範囲311を投影させるためには、画像生成部201は、輝度分布の平均値を低くして、第1範囲311の輝度を低くすればよい。図15(c)に示す第1範囲311を投影させるためには、画像生成部201は、輝度分布の平均値を高くして、第1範囲311の輝度を高くする。
また、以上の説明では、画像生成部201は、影の領域の形状を歪ませる場合に、上述した第1範囲311の空中像30に追従した移動と、第1範囲311の明るさの変更と、上述した第1範囲311の大きさの変更と、第1の実施の形態にて説明した第1範囲311との表示位置の移動とを適宜組み合わせて表示用画像データを生成してよい。
図16(b)にこの場合の空中像30と補助画像31とを模式的に示す。画像生成部201は、アイコン30Aを含んだY方向に延びる領域Rに白色等を重畳して表示用画像データを生成する。これにより、ユーザ12には、空中像30において、アイコン30Aをステージ14から照明する光がY方向+側に向けて伸びる光の筋のように視認される。
なお、図16に示す例においては、プロジェクタ15をステージ14の下部(Y方向−側)に配置して、Y方向+側に向けて投影光を投影してもよい。この場合、ステージ14は透明な材料を用いて製造されるとよい。
上述した第1の実施の形態とその変形例1の表示装置1は、ユーザ12の指先がアイコンの表示位置への操作のために奥側(Z方向−側)へ向けて操作を行った後に所定距離手前(Z方向+側)に移動した場合に、最も奥側に移動した位置を到達位置とした。そして、表示装置1は、到達位置と検出基準との間の距離に基づいて、第1範囲の表示位置を変更した。これに対して、変形例2の表示装置1は、操作検出器13の検出出力に基づき、ユーザ12の指先Fの速度あるいは加速度を算出し、算出した速度または加速度に基づき指先Fの到達位置を予測してもよい。そして、表示装置1は、その予測到達位置と検出基準との間の距離に基づいて第1範囲の表示位置を変更するものであってもよい。図17は、本変形例2の表示装置1の構成のうち、制御部20と、制御部20によって制御される表示器11及び操作検出器13とを示したブロック図である。
本変形例2を第2のキャリブレーション処理モードに適用した場合、空中像操作中のユーザ12の指先Fが検出基準40に達する前に指先Fの到達位置を事前に予測し、予測した到達位置に基づいて空中像30の表示態様を変更することが可能になる。そのため、ユーザ12の指先Fが検出基準40に達せずアイコン表示の切り替えが生じなかったなどの誤操作を未然に防ぎ、ユーザ12に快適な操作を行わせることができる。
第1の実施の形態及び変形例1、2に係る表示装置1は、一回のキャリブレーション処理において、到達位置を検出、または予測し、その到達位置50と検出基準40との間の距離に基づき画像生成部201は第1範囲311の表示位置を変更するものであった。これに代えて、変形例3に係る表示装置1は、複数回のキャリブレーション処理においてそれぞれ検出された到達位置と検出基準との間の距離に基づいて、画像生成部201は、空中像操作モードにおける第1範囲311の表示位置を変更するものである。
更に、キャリブレーション処理において、キャリブレーション処理毎に、画像生成部201は第1範囲311の表示位置の変更を行わなくてもよい。複数回のキャリブレーション処理において、到達位置50を判定した回数と、実際に到達位置50が検出基準40に達したことを判定した回数と、から、制御部20は、アイコンの表示位置への操作が失敗した回数を算出する。所定の回数以上、失敗したと判定された時に、画像生成部201は、第1範囲311の表示位置を変更するようにしてもよい。
第1の実施の形態においては、操作検出器13は、ユーザ12の指の空中像30の表示位置に対する操作を検出して到達位置50を判定し、画像生成部201は、到達位置50に基づいて第1範囲311の表示位置の変更を行った。しかし、ユーザ12は、空中像のアイコンの表示位置を操作したと感じた指の位置を指定して、その指定位置を検出基準制御部204が判定し、指定位置に基づいて画像生成部201が第1範囲311の表示位置を変更してもよい。以下に、ユーザ12が空中像30の表示位置を操作する位置を指定位置として指定する変形例を説明する。なお、以下の説明は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜4にも適用できる。
なお、以上の説明では第1のキャリブレーション処理モードにおける処理を説明したが、第2のキャリブレーション処理モードの場合には、第1の実施の形態において説明した図9に示すフローチャートの処理を行う。ただし、図9のフローチャートにおいてステップS24においてユーザ12のアイコン30Aに対する操作を検出し、検出基準制御部204が、指Fが押し込む方向への移動から横方向移動に変化したことを検出した場合に、ステップS27およびステップS29において到達位置の判定に代えて、指定位置50Aを判定する。ステップS29にて指定位置50Aが判定された場合には、ステップS29にて検出基準制御部204は指定位置50Aが検出基準40と一致するか否かを判定する。
変形例4の表示装置1においては、ユーザ12は、指先でアイコンの表示位置を操作したと思った位置を指定位置として、指のZ方向−側へ押し込む方向への移動から横方向への移動に変化させることによって指定した。変形例5の表示装置1は、ユーザ12が、指先でアイコンの表示位置を操作したと思った位置を別のアイコンを操作することによって、指定するものである。このキャリブレーション処理について次に説明する。なお、説明は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜4にも適用できる。
なお、以上の説明では第1のキャリブレーション処理モードにおける処理を説明したが、第2のキャリブレーション処理モードの場合には、第1の実施の形態において説明した図9に示すフローチャートの処理を行う。ただし、図9のフローチャートにおいてステップS24において、検出基準制御部204は、ユーザ12の右手によるアイコン30Aに対する操作を検出している状態で、検出基準制御部204が、左手による別のアイコンの表示位置への操作を検出したとする。この場合に、検出基準制御部204は、ステップS27およびステップS29において到達位置の判定に代えて、ユーザ12の右手の指先の位置を指定位置50Aと判定する。ステップS30では、ステップS29で判定された指定位置50Aが検出基準40と一致するか否かを判定する。
変形例6の表示装置は、ユーザ12が指先でアイコンの表示位置を操作したと思ったら、ユーザ12が指を所定時間停止させることにより指定位置を指定するものである。なお、この本変形例は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜5にも適用できる。
変形例7の表示装置は、ユーザ12が、指先でアイコンの表示位置を操作したと思った指定位置を発声によって指定するものである。なお、この変形例は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜6にも適用できる。
なお、以上の説明では第1のキャリブレーション処理モードにおける処理を説明したが、第2のキャリブレーション処理モードの場合には、第1の実施の形態において説明した図9に示すフローチャートの処理を行う。ただし、図9のフローチャートにおいてステップS24においてユーザ12のアイコン30Aに対する操作を検出し、音声検出部208が音声「ハイ」を判定した場合に、検出基準制御部204はステップS27およびステップS29において到達位置の判定に代えて、指定位置50Aと判定する。ステップS30では、ステップS29で判定された指定位置50Aが検出基準40と一致するか否かを判定する。
なお、表示装置1が集音器19を備えず、外部の集音装置によって取得された音声データを無線や有線を介して入力し、外部の集音装置から入力した音声データを用いて音声検出部208が音声検出をしても良い。
上記説明において、ユーザ12の指先の下方への移動を、静電容量パネルにより構成される操作検出器13によって検出したが、撮像装置によりユーザ12の指先の位置を検出してもよい。変形例8の表示装置1は、図24(a)に示すように、操作検出器として撮像装置(例えばデジタルカメラ)18を備え、この撮像装置18は表示装置1の上面に配置される。このような表示装置1のブロック図を図24(b)に示す。
また、制御部20のみで構成された検出装置や、制御部20と操作検出器13とで構成される検出装置であってもよい。また、制御部20は、少なくともキャリブレーション部203と画像生成部201とを備えればよい。このような検出装置に対して、上述の第1の実施の形態、または変形例1〜8に記載された各効果を得るために、上述した構成から必要に応じて構成を適宜追加してよい。
図面を参照しながら、第2の実施の形態に係る表示装置1について説明する。第2の実施の形態においては、本実施の形態の表示装置1が操作パネルに組み込まれた場合を一例に挙げて説明を行う。なお、本実施の形態の表示装置1は、操作パネルに限らず、上述の第1の実施の形態とその変形例で説明した各電子機器に組み込むことが可能である。
第2の実施の形態の表示装置1は、第1の実施の形態の表示装置1と同様に、アイコンの空中像の下方に影に相当する画像を表示するものであるが、表示装置1の装置構成が第1の実施の形態の表示装置1とは異なる。したがって、第1の実施の形態に係る表示装置1の代わりに第2の実施の形態に係る表示装置1を、第1の実施の形態に適用してもよい。以下、詳細に説明する。
第2の実施の形態では、画像生成部201が第1部分であるアイコン30Aとは異なる第2部分である第1範囲311と第2範囲312とを有する補助画像31を表示するための補助画像データを生成し、表示制御部202が生成された補助画像データを表示器11に表示させる。これにより、補助画像31、すなわち第2の表示の基礎となる画像が表示器11に表示され、補助画像31が表示器11によって第4の表示として図26(a)の領域R1に表示される。領域R1の第4の表示は、結像光学系9により、第2の表示である補助画像31として空中に表示される。なお、画像生成部201は、第1の実施の形態の変形例1で示した各種の態様の第1範囲311(図10、図11、図13、図15)に対応するように、輝度分布の重心位置や輝度分布の平均値を制御して補助画像データを生成してよい。
ただし、補助画像データを表示するべき表示画素Pと表示用画像データを表示するべき表示画素Pとが同一の表示画素Pの場合、補助画像データと表示用画像データとを同時に表示させることができなくなる。このため、表示器11によりアイコン30Aと補助画像31との表示を行う場合、表示制御部202は、表示画素Pによる補助画像データの表示と、表示画素Pによる表示用画像データの表示とを、所定の周期ごとに切り替えて行う。これにより、ユーザ12は、アイコン30Aとその下方の補助画像31とを空中像として視認する。
または、補助画像31として、第1の実施の形態において説明したように、空中像30の位置を示し、物を載置するような台、テーブル、机等を表示させてもよい。また、表示装置1によって、立体的な補助画像31を表示させてもよい。すなわち、補助画像31として表示させる台、テーブル、机等の載置する物を立体的に表示させてもよい。また、立体的に補助画像31を表示させる場合は、空中像30を支持するような棒を表示させてもよい。棒の先端部分を空中像30に接続するように表示し、あたかも補助画像31の棒によって空中像30が支持されているように表示してもよい。なお、第1の実施の形態や後述する第3の実施の形態の変形例2に記載しているように、補助画像31は空中像30に関連性が深いものを表示させた方がよい。
また、第2の実施の形態の表示装置1が結像光学系9を備えていなくてもよい。すなわち、表示器11からの光をマイクロレンズアレイ112で結像させて空中像30を表示させてよい。この場合、図26(a)の断面図で結像光学系9が配置された位置に、光を透過可能な光透過板を設けてもよい。表示装置1は、補助画像31をこの光透過板の近傍に空中像として表示させ、アイコン30Aを表示させる光は光透過板を通過して、補助画像31の上方(Y方向+側)の空中に表示させる。これにより、補助画像31が実物である表示装置1の本体10の表面近傍に表示させるので、ユーザ12は、補助画像31を介して本体10を基準として空中像30の位置を知覚することができる。
また、表示装置1の装置を小型化できる。
また、結像光学系9は、空中像30を補助画像31よりも表示器11からの距離が遠い位置に表示するため、表示器11からの光が直接ユーザ12の眼に入りづらくなり、空中像30が見やすくなる。表示器11からの光がユーザ12の眼に入る場合、表示器11にユーザ12の眼のピントが合ってしまい、空中像30の浮遊感が失われてしまう場合があるが、上記のような構成にすることによって、このような問題を低減することができる。
第2の実施の形態の変形例1による表示装置1は、第2の実施の形態の表示装置1とは異なる構成を有し、補助画像31を空中像とは異なる方法にて表示する。本変形例1の表示装置1では、液晶表示器を用いて補助画像31を表示する。以下、詳細に説明する。
また、第2表示器91は、液晶モニタ以外でもよく、たとえば有機ELディスプレイでもよい。
図27(c)に別の例の表示装置1のZX平面に平行な面での断面を模式的に示す。第2表示器91は、結像光学系9の上方(Y方向+側)に配置される。この場合、第2表示器91の下面と結像光学系9の上面とが接するように配置されてもよいし、間隔を有して配置されてもよい。第2表示器91は、光を透過する光透過可能な材料を用いて製造された液晶モニタである。
また、表示装置1の小型化が可能になる。
第2の実施の形態の変形例2による表示装置1は、第2の実施の形態とその変形例1の表示装置1とは異なる構成を有し、補助画像31を空中像とは異なる方法にて表示する。本変形例2の表示装置1では、プロジェクタを用いて補助画像31を拡散板等に投影する。以下、詳細に説明する。
キャリブレーション処理を行う場合には、第1の実施の形態とその変形例にて説明したように、到達位置や指定位置と検出基準40との間の距離に基づいて、第1範囲311が表示される位置を変更する。この場合、画像生成部201が、第1の実施の形態とその変形例の場合と同様にして表示画像用データと補助画像データとを生成する。表示制御部202は表示用画像データの表示用画像を表示器11に表示させ、プロジェクタ制御部200がプロジェクタ15に補助画像データに対応する投影光を拡散板92に投影させて、補助画像31を投影させる。すなわち、第1の実施の形態において、図7のフローチャートにおける各処理や、図9のフローチャートにおける各処理と同様の処理を行う。
この場合、プロジェクタ15の投影光の各色成分(R成分、G成分、B成分)の周波数帯と、表示器11が出射する光の各色成分(R’成分、G’成分、B’成分)の周波数帯とを異ならせる。これにより、表示器11からの光がホログラムにより回折されず、透過して、空中像30を形成する。これにより、ユーザ12は、空中像30の下方に補助画像31を視認することができる。
なお、プロジェクタ15の投影光の各色成分(R成分、G成分、B成分)の周波数帯と、表示器11が出射する光の各色成分(R’成分、G’成分、B’成分)の周波数帯とを異ならせるものに限定されない。たとえば、プロジェクタ15からの投影光がホログラムに入射する際の入射角と、表示器11からの光がホログラムに入射する際の入射角とが異なるように、プロジェクタ15および表示器11を配置してもよい。この場合、表示器11からの光がホログラムに入射する角度が、ホログラムに記憶する際の参照光の入射角と異なる入射角となるように配置してよい。これにより、表示器11からの光がホログラムにより回折される効率が低下することになり、表示器11の光はホログラムを通過して空中像30を形成できる。そのため、プロジェクタ15からの投影光のみがホログラムによって回折され、表示器11からの光はホログラムによって回折されず、好適に空中像30を表示することができる。
また、制御部20のみで構成された検出装置や、制御部20と操作検出器13とで構成される検出装置であってもよい。
図面を参照しながら、第3の実施の形態に係る表示装置1について説明する。第3の実施の形態においては、本実施の形態の表示装置1が操作パネルに組み込まれた場合を一例に挙げて説明を行う。なお、本実施の形態の表示装置1は、操作パネルに限らず、上述の第1の実施の形態とその変形例で説明した各電子機器に組み込むことが可能である。
第1の実施の形態とその変形例や第2の実施の形態では、表示装置1は、第1の表示である空中像30と第2の表示である補助画像31とにより、空中像30のZ方向の表示位置をユーザ12に知覚させるものであった。すなわち、補助画像31の位置が空中像30の表示位置を示す位置として用いられるものであった。これに対して、第3の実施の形態の表示装置は、空中像のうちユーザ12の操作の態様となる空中像の第1部分とは異なる空中像の第2部分の表示態様を制御することにより、ユーザ12が空中像の第1部分の表示位置を知覚できるようにするものである。以下、詳細に説明する。
図29(b)に示すように、第3の実施の形態の制御部20は、図2に示す第1の実施の形態の制御部20が有する画像生成部201と、表示制御部202と、キャリブレーション部203と、検出基準制御部204と、記憶部205とを備える構成が適用される。本実施の形態では、制御部20は、到達位置や指定位置を、第1の実施の形態とその変形例で説明した各種の方法を適用して取得する。
なお、第3の実施の形態の表示装置1が第1の実施の形態の変形例8に示す撮像装置18(図24、25参照)を備えても良い。
ここで、奥行手がかりについて説明をする。我々人間等の網膜に投影される像は2次元の平面画像である。しかし、人間等は3次元の世界を知覚することができる。これは、実空間での奥行を知覚するために様々な手がかりを用いているからである。奥行を判断する手がかりを大別すると、単眼性の奥行手がかりと両眼性の奥行手がかりとに分けることができる。単眼性の奥行手がかりとは、奥行き位置を知りたい物体とは異なる別の物体の大きさや、物体間の重なり等である。このような手がかりを利用して、人間等は、対象の奥行きを知覚する。一方、両眼性の奥行手がかりとは、両眼視差などがある。ここで両眼視差について説明すると、一つの対象を両目で見ると、左右の目の網膜には少しずれて投影される。このずれが両眼視差である。人間等は、このずれ量に基づいて、対象の奥行きを知覚することができる。
このような奥行手がかりを利用して人間等は、対象の奥行き位置を判断している。言い換えれば、対象自体を変化させる、または奥行手がかりを変化させることによって、人間等は実際にある位置とは異なる位置に対象の奥行き位置があると知覚するようになる。以下では、対象(第1アイコン300A1)に対して単眼または両眼の奥行手がかり(たとえば第2アイコン300A2)を変化させることにより、対象(第1アイコン300A1)の奥行き位置が変化したようにユーザ12に知覚させる方法について説明を行う。
なお、単眼の奥行手がかりを変化させる方法については、第3の実施の形態および第3の実施の形態の変形例に詳しく記載している。なお、第1の実施の形態および、第2の実施の形態に記載されている影を示す補助画像についても、第1の表示であるアイコン300Aの奥行手がかりであるとも言える。
なお、到達位置や指定位置と検出基準40との距離と、第2アイコン300A2の大きさとの関係は、試験等の結果に基づいて予め関連付けされた関連データとして記憶部205に記憶されている。画像生成部201は、この関連データを参照して第2アイコン300A2の大きさを変更する。
なお、第2のキャリブレーション処理モードの場合には、第1の実施の形態において示した図9のフローチャートの処理を行う。ただし、図9におけるステップS28およびステップS32の処理に代えて、画像生成部201は、第2アイコンの大きさの変更量を算出し、算出された変更量に基づいて第2アイコンの大きさを変更させて表示させる。
また、第3の実施の形態では、画像生成部201は、第2の表示領域、すなわち第2アイコン300A2の表示態様を制御する。これにより、ユーザ12は、第2アイコン300A2の表示態様を視認することにより、空中像の表示位置を知覚しやすくなる。
ここで、第2アイコン300A2と第1アイコン300A1との間の関連性が高いものとは、第1の表示である第1アイコン300A1と、第2の表示である第2アイコン300A2同士が、現実世界で近くにあるもの、接して設置されるもの、対象同士が一体的になって構成されているもの等である。一般的な例として、空中像のアイコンに限らない例を一つ挙げると、表示装置1が、第1の表示として絵画を表示し、第2の表示として額縁を表示する場合がある。実物の絵画は額縁に収納されているため、一般的に実物の場合は、額縁の位置と絵画の位置とは同じ位置に存在する。そのため、空中像で表示された、第1の表示の絵画と第2の表示の額縁との位置がZ方向に対してずれていたとしても、ユーザ12は、空中像として表示された、第2の表示の額縁の位置に第1の表示の絵があるように感じる場合がある。同様に、第1の実施の形態や第2の実施の形態等で説明した、補助画像である第2の表示に第1の表示の影を表示した例も、第1の表示と第2の表示との関連性が深い例である。逆に、このような現象は、第1の表示と第2の表示との間の関連性が低い場合は起こりづらい。例えば、第2の表示が音楽のアイコンの空中像であり、第1の表示がペットボトルを示す空中像である場合、ユーザ12は、上記のように第1の表示が第2の表示の位置にあるように知覚しづらくなる。これは、第1の表示であるペットボトルと、第2の表示である音楽のアイコンとは関連性が低く、現実世界で音楽のアイコンの近くにペットボトルがあることが少なく、また音楽のアイコンとペットボトルとが一体的に構成されていることがほとんどないからである。
このように、第2の表示(第2アイコン300A2)の表示態様を変化した場合、第1の表示(第1アイコン300A1)と第2の表示(第2アイコン300A2)との関係によって、ユーザが知覚する第1の表示(第1アイコン300A1)が変化する奥行き位置の方向が変更する。
なお、上述した説明では、画像生成部201は、表示態様の変更として第2アイコン300A2の大きさを変更する場合を例に挙げたが、この例に限定されない。以下に第1アイコン300A1の周囲にある、他の空中像の表示態様の変更について例示する。以下の例では、他の空中像は、単眼性の奥行手がかりとなる。
画像生成部201は、第2の表示である第2アイコン300A2の空中像300上での表示位置を移動することにより表示態様を変更してもよい。図31にこの場合の空中像300の表示の一例を模式的に示す。図31(a)は、図30(a)と同様に初期表示を示す。図31(b)は、第1アイコン300A1がユーザ12に接近したように知覚させるために、第2アイコン300A2の表示位置を変更した場合を示す。図31(c)は、第1アイコン300A1がユーザ12から離れたように知覚させるために、第2アイコン300A2の表示位置を変更した場合を示す。すなわち、第2アイコン300A2は、第1アイコン300A1の奥行手がかりである。なお、図31(b)、(c)においては、初期表示の第2アイコン300A2を破線で示すが、実際には表示されない。また、図31(b)、(c)では、説明の都合上、矩形の空中像300の中心位置(すなわち対角線の交点)を点P1として示すが、点P1は空中像300に表示されてもよいし、表示されなくてもよい。
なお、図31(d)、(e)に示す基準線320は、外周301の相似の関係にある例を示すが、相似の関係になくてもよい。また、基準線320が矩形であるものに限定されず、円形や他の多角形でもよい。また、基準線320が設けられていなくてもよい。
画像生成部201は、第2アイコン300A2の表示態様の変更として、鮮鋭度を変更してもよい。画像生成部201は、図30(a)や、図31(a)に示す第2アイコン300A2の鮮鋭度を上げることにより、第2アイコン300A2があたかもユーザ12に接近する方向に移動したように知覚させる。すなわち、相対的に第1アイコン300A1がユーザ12から離れる方向に移動したように知覚させる。画像生成部201は、第2アイコン300A2の鮮鋭度を下げることにより、第2アイコン300A2があたかもユーザ12から離れる方向に移動したように知覚させる。すなわち、相対的に第1アイコン300A1がユーザ12に接近する方向に移動したように知覚させる。画像生成部201は、鮮鋭度として、たとえば第2アイコン300A2のボケ度合いを変更したり、空気透視(空気遠近法)の考え方に従って第2アイコン300A2に付与する白みのかかり度合い(霞のかかり度合い)を変更する。
画像生成部201は、到達位置や指定位置と検出基準40との距離に基づいて、画像生成部201は第2アイコン300A2の鮮鋭度の変更量を決定し、この変更量に基づいて、第2アイコン300A2の鮮鋭度を変更する。これにより、ユーザ12に、あたかも第1アイコン300A1の空中での表示の位置が移動したように知覚させ、空中像30に対する操作の位置を変更させることができる。
なお、以上の説明では、第2アイコン300A2の表示態様の変更として鮮鋭度の変更を説明した。画像生成部201は、第2アイコン300A2の表示態様の変更として、鮮鋭度の変更と、大きさの変更と、表示位置の変更とを適宜組み合わせてよい。
画像生成部201は、表示態様の変更として、図30(a)や図31(a)に示す第2アイコン300A2の色を変更する。一般に、寒色系の色が付されているものは、同一の大きさを有し暖色系の色が付されているものよりも離れた位置に知覚される。画像生成部201は、第2アイコン300A2に寒色系の青などの後退色を付すことにより、第2アイコン300A2がユーザ12から離れる方向に移動したように知覚させる。すなわち、ユーザ12は、第1アイコン300A1がユーザ12に近づくように知覚して、操作位置(到達位置や指定位置)が変更されることが期待される。
反対に、画像生成部201は、第2アイコン300A2に暖色系の赤や黄などの進出色を付すことにより、第2アイコン300A2がユーザ12に接近する方向に移動したように知覚させることができる。
なお、以上の説明では、第2アイコン300A2の表示態様の変更として色の変更を説明した。画像生成部201は、第2アイコン300A2の表示態様の変更として、色の変更と、鮮鋭度の変更と、大きさの変更と、表示位置の変更とを適宜組み合わせてよい。
画像生成部201は、表示態様の変更として、図30(a)や図31(a)の第2アイコン300A2の輝度を変更する。画像生成部201は、第2アイコン300A2の輝度を下げ暗くする程、第2アイコン300A2がユーザ12から離れる方向に移動したように知覚させる。画像生成部201は、第2アイコン300A2の輝度を上げ明るくする程、第2アイコン300A2がユーザ12に接近する方向に移動したように知覚させる。
これにより、第2アイコン300A2の輝度を上げ明るさが増大することにより、ユーザ12は第2アイコン300A2がユーザ12に近い側に位置するように知覚する場合がある。すなわち、ユーザ12は、第1アイコン300A1がユーザ12から離れた側に位置するように知覚して、操作位置(到達位置や指定位置)が変更されることが期待される。
なお、以上の説明では、第2アイコン300A2の表示態様の変更として輝度の変更を説明した。画像生成部201は、第2アイコン300A2の表示態様の変更として、輝度の変更と、色の変更と、鮮鋭度の変更と、大きさの変更と、表示位置の変更とを適宜組み合わせてよい。
画像生成部201は、表示態様の変更として、第1アイコン300A1と第2アイコン300A2との重なりを変更する。図32は、この場合の空中像300を模式的に示す図である。図32(a)は、初期表示の第1アイコン300A1と第2アイコン300A2とを示す。図32(b)は、画像生成部201が、第1アイコン300A1と第2アイコン300A2とが重なって、第1アイコン300A1の一部が第2アイコン300A2により隠れるように第2アイコン300A2の表示態様を変更した場合を示す。この場合、ユーザ12は、第2アイコン300A2を基準として、相対的に第1アイコン300A1がユーザ12から離れた側に位置しているように知覚する。すなわち、到達位置や指定位置が検出基準40より手前(Z方向+側)に位置する場合(図5(b)参照)、画像生成部201は、図32(b)に示すように第2アイコン300A2の表示態様を変更する。
画像生成部201は、第1アイコン300A1と第2アイコン300A2とが重なる量を、到達位置や指定位置と検出基準40との間の距離に基づいて算出し、第1アイコン300A1と第2アイコン300A2との重なり量を変更する。れにより、ユーザ12に、あたかも第1アイコン300A1の空中での表示の位置が移動したように知覚させ、空中像30に対する操作の位置を変更させることができる。
また、画像生成部201は、運動視差による効果を付加してもよい。画像生成部201は、図32(a)に示す初期表示の状態から、第2アイコン300A2を移動させるとき、第1アイコン300A1と第2アイコン300A2との重なり量を時間の経過とともに変化させてもよい。これにより、第2アイコン300A2の見かけ上の奥行方向への移動を強調させることができる。
なお、以上の説明では、第2アイコン300A2の表示態様の変更として、第1アイコン300A1との重なりの変更を説明した。画像生成部201は、第2アイコン300A2の表示態様の変更として、第1アイコン300A1との重なりの変更と、輝度の変更と、色の変更と、鮮鋭度の変更と、大きさの変更と、表示位置の変更とを適宜組み合わせてよい。
画像生成部201は、第1アイコン300A1に陰影を付加した表示用画像データを生成する。画像生成部201は、この第1アイコン300A1に付加した陰影を変更する。図33は、第1アイコン300A1に上方から光を当てたと仮定した場合に形成される影画像315との一例を模式的に示す図である。図33(a)と、図33(b)と、図33(c)とでは、第1アイコン300A1が形成する影画像315の面積が異なる。なお、図33(a)〜図33(c)において、第1アイコン300A1の大きさと、空中像300における表示位置とは同一とする。
画像生成部201は、ユーザの操作と検出基準40との位置関係に基づいて、アイコン300A1に陰影を施す処理を行う。これにより、ユーザに、あたかもアイコン300A1の表示の位置が移動したように知覚させ、ユーザの操作の位置を変更させることができる。
また、上述した説明では、ユーザ12が単眼にて第1アイコン300A1の奥行方向の変化を知覚することが可能な表示態様の変更の例を挙げたが、これに限定されない。すなわち、両眼視差によって奥行手がかりである第2アイコン300A2の奥行き位置を変化させ、第1アイコン300A1の奥行き位置が変化したようにユーザ12に知覚させてもよい。たとえば、表示装置1において、空中像を生成する構成の例としては、表示装置1の表示器11に視差画像を表示する方法がある。すなわち、画像生成部201は、右目で視認する画像と、右目で視認する画像とは視差を有する左目で視認する画像とを表示させることにより、ユーザ12には表示器によって表示されている画像と異なる奥行に感じられる画像を生成する方法がある。このような方法によって、第2アイコン300A2を異なる奥行に表示させてもよい。具体的には、画像生成部201は、視差画像の視差量を変更させ、ユーザ12に第2アイコン300A2の奥行感が変更したように知覚させればよい。この場合、結像光学系9として、たとえば公知のレンチキュラーレンズを用いることができる。このように、両眼性の奥行手がかりである第2アイコン300A2の奥行き位置を変化させることによって、第1アイコン300A1の奥行き位置が変化したとユーザ12に知覚させてもよい。
上述したように、空中像は透過性を有するものであるため、同一のユーザ12であっても空中像の表示位置が異なって感じることがある。このため、ユーザ12が空中像の位置を正しく知覚できず、ユーザ12の操作が検出基準で検出されない虞がある。すなわち、ユーザ12は空中像の位置を不安定なものとして知覚する虞がある。
上述した第3の実施の形態とその変形例1、2では、空中像30、300に表示された第1の表示の空中像の周囲の第2の表示の空中像の表示態様を変更する場合を例に挙げたが、この例に限定されない。たとえば、表示装置1は、空中像30の表示される位置の周囲に実際の物体として枠等を有し、この枠に第1アイコン300A1の奥行きの位置を知覚させるために指標等の表示を行う。表示装置1は、この指標等の表示態様を変更することにより、第1アイコン300A1の奥行方向の位置があたかも移動したようにユーザ12に知覚させる。ここで、指標等が、第1アイコン300A1に対する奥行手がかりになる。以下、詳細に説明する。
なお、第3表示器103が、第3表示器103による表示を制御する制御部を備えていてもよい。この場合、指標表示制御部210からの制御信号に基づいて、制御部は第3表示器103の表示を制御すればよい。
また、上述した説明において、指標表示制御部210による指標104の表示態様の変更として、大きさの変更を例に挙げたが、これに限定されない。指標表示制御部210は、変形例1の各例にて説明した、鮮鋭度の変更や、色の変更や、輝度の変更を表示態様の変更として実行することができる。
また、以上の説明では、指標表示制御部210が指標104の表示態様を変更する場合を例に挙げたが、これに限定されない。たとえば、第3表示器103が制御部を備える場合には、この制御部が、指標表示制御部210と同様にして指標104の表示態様を変更してよい。
なお、第2のキャリブレーション処理モードの場合には、第1の実施の形態において示した図9のフローチャートの処理を行う。ただし、図9のフローチャートにおけるステップS28およびステップS32の処理に代えて、指標表示制御部210は、指標104の表示態様の変更量を算出し、変更量に基づいて表示態様が変更された指標104を第3表示器103に表示させる。
また、制御部20のみで構成された検出装置や、制御部20と操作検出器13とで構成される検出装置であってもよい。また、制御部20は、少なくともキャリブレーション部203と画像生成部201とを備えればよい。このような検出装置に対して、上述の第3の実施の形態、または変形例1〜3に記載された各効果を得るために、上述した構成から必要に応じて構成を適宜追加してよい。
日本国特許出願2016年第128211号(2016年6月28日出願)
15…プロジェクタ、18…撮像装置、19…集音器、20…制御部、
91…第2表示器、103…第3表示器、
200…プロジェクタ制御部、201…画像生成部、
202…表示制御部、203…キャリブレーション部、204…検出基準制御部、
206…速度・加速度検出部、207…到達位置予測部、208…音声検出部、
209…画像解析部、210…指標表示制御部、
212…検出部、213…決定部
Claims (8)
- 空中に表示される第1表示への使用者の操作を検出する検出部を制御する制御装置であって、
前記操作を検出するための検出基準位置と前記操作が検出された位置との位置関係を取得する取得部を備え、
前記制御装置は、前記取得部によって取得された前記位置関係と、前記第1表示とは異なる位置に表示される第2表示の表示態様とに基づいて、前記検出基準位置を調整する制御装置。 - 請求項1に記載の制御装置であって、
前記検出部は、前記操作を検出開始してから所定の期間内に前記操作を検出しない場合、前記検出基準位置を調整する制御装置。 - 請求項1に記載の制御装置であって、
前記位置関係に基づいて、前記第2表示の表示態様を制御する表示制御部を備える制御装置。 - 請求項3に記載の制御装置であって、
前記表示制御部は、前記検出部が前記操作を検出開始してから所定の期間内に前記操作を検出しない場合、前記第2表示の表示態様を変化させる制御装置。 - 請求項4に記載の制御装置であって、
前記表示制御部は、前記使用者の操作を前記検出基準位置に導くように、前記第2表示の表示態様を変化させる制御装置。 - 請求項1から5までのいずれか一項に記載の制御装置であって、
前記表示態様とは、表示位置、大きさ、表示画像、輝度分布、表示濃度の少なくとも一つである制御装置。 - 請求項1から6までのいずれか一項に記載の制御装置において、
前記検出基準位置は、3次元領域であり、
前記3次元領域に前記使用者の一部または前記使用者により操作される部材が到達すると、前記使用者の操作として検出する制御装置。 - 空中に表示される第1表示への使用者の操作を検出する検出方法であって、
前記操作を検出するための検出基準位置と前記操作が検出された位置との位置関係を取得し、
取得された前記位置関係と、前記第1表示とは異なる位置に表示される第2表示の表示態様とに基づいて、前記検出基準位置を調整する検出方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016128211 | 2016-06-28 | ||
JP2016128211 | 2016-06-28 | ||
PCT/JP2017/023761 WO2018003861A1 (ja) | 2016-06-28 | 2017-06-28 | 表示装置および制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018003861A1 JPWO2018003861A1 (ja) | 2019-04-18 |
JP6724987B2 true JP6724987B2 (ja) | 2020-07-15 |
Family
ID=60785132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018525216A Active JP6724987B2 (ja) | 2016-06-28 | 2017-06-28 | 制御装置および検出方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190243469A1 (ja) |
JP (1) | JP6724987B2 (ja) |
CN (2) | CN109643173A (ja) |
WO (1) | WO2018003861A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018003860A1 (ja) * | 2016-06-28 | 2018-01-04 | 株式会社ニコン | 表示装置、プログラム、表示方法および制御装置 |
US11074747B2 (en) * | 2017-10-13 | 2021-07-27 | Autodesk, Inc. | Computer-aided techniques for designing detailed three-dimensional objects |
JP7119398B2 (ja) * | 2018-02-06 | 2022-08-17 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7017675B2 (ja) * | 2018-02-15 | 2022-02-09 | 有限会社ワタナベエレクトロニクス | 非接触入力システム、方法およびプログラム |
JP7456583B2 (ja) * | 2018-09-28 | 2024-03-27 | ライト フィールド ラボ、インコーポレイテッド | ライトフィールドディスプレイ用ホログラフィック対象物中継部 |
JP2020064632A (ja) * | 2018-10-11 | 2020-04-23 | オムロン株式会社 | 入力装置 |
JP7097335B2 (ja) * | 2019-07-31 | 2022-07-07 | コイト電工株式会社 | 非接触入力装置 |
JP2022554404A (ja) | 2019-11-12 | 2022-12-28 | ライト フィールド ラボ、インコーポレイテッド | 中継システム |
CN110991273B (zh) * | 2019-11-18 | 2021-03-19 | 支付宝(杭州)信息技术有限公司 | 层板调控设备、方法及装置 |
EP4071701A4 (en) * | 2019-12-04 | 2022-12-07 | NEC Corporation | INFORMATION PRESENTATION SYSTEM, INFORMATION PRESENTATION METHOD, COMPUTER PROGRAM AND AUTHENTICATION SYSTEM |
CN111246012B (zh) * | 2020-01-06 | 2022-09-16 | 北京小米移动软件有限公司 | 应用界面显示方法、装置及存储介质 |
WO2022046340A1 (en) * | 2020-08-31 | 2022-03-03 | Sterling Labs Llc | Object engagement based on finger manipulation data and untethered inputs |
US11630556B2 (en) * | 2020-09-16 | 2023-04-18 | Kyndryl, Inc. | Finger control of wearable devices |
JP2022063542A (ja) * | 2020-10-12 | 2022-04-22 | マクセル株式会社 | 空間浮遊映像情報表示システムおよび光源装置 |
CN114660918B (zh) * | 2020-12-24 | 2023-05-23 | 腾讯科技(深圳)有限公司 | 全息立体影像的显示设备、方法、装置及介质 |
CN112756281B (zh) * | 2021-01-15 | 2023-12-12 | 镇江润茂钢球有限公司 | 一种钢球表面粗糙度筛选装置及其使用方法 |
JP2022132259A (ja) * | 2021-02-27 | 2022-09-08 | 株式会社アーティフィス | 生体反応物質付着防止部を有する情報入力装置 |
JP7402265B2 (ja) * | 2021-06-28 | 2023-12-20 | 日立チャネルソリューションズ株式会社 | 情報処理システム |
WO2024070437A1 (ja) * | 2022-09-26 | 2024-04-04 | マクセル株式会社 | 空中浮遊映像表示装置 |
WO2024070986A1 (ja) * | 2022-09-29 | 2024-04-04 | 京セラ株式会社 | 空中像表示装置 |
WO2024079832A1 (ja) * | 2022-10-13 | 2024-04-18 | 三菱電機株式会社 | インタフェース装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4576131B2 (ja) * | 2004-02-19 | 2010-11-04 | パイオニア株式会社 | 立体的二次元画像表示装置及び立体的二次元画像表示方法 |
JP4804122B2 (ja) * | 2005-11-21 | 2011-11-02 | 株式会社バンダイナムコゲームス | プログラム、テクスチャデータ構造、情報記憶媒体及び画像生成システム |
JP5350612B2 (ja) * | 2007-07-04 | 2013-11-27 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法 |
US8416268B2 (en) * | 2007-10-01 | 2013-04-09 | Pioneer Corporation | Image display device |
KR20110069526A (ko) * | 2009-12-17 | 2011-06-23 | 삼성전자주식회사 | 휴대단말의 외부 출력 제어 방법 및 장치 |
JP5785753B2 (ja) * | 2011-03-25 | 2015-09-30 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
JP2013168120A (ja) * | 2012-01-19 | 2013-08-29 | Panasonic Corp | 立体画像処理装置、立体画像処理方法、及びプログラム |
-
2017
- 2017-06-28 CN CN201780050219.4A patent/CN109643173A/zh active Pending
- 2017-06-28 CN CN202310220837.6A patent/CN116126170A/zh active Pending
- 2017-06-28 WO PCT/JP2017/023761 patent/WO2018003861A1/ja active Application Filing
- 2017-06-28 US US16/313,995 patent/US20190243469A1/en active Pending
- 2017-06-28 JP JP2018525216A patent/JP6724987B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20190243469A1 (en) | 2019-08-08 |
CN109643173A (zh) | 2019-04-16 |
JPWO2018003861A1 (ja) | 2019-04-18 |
CN116126170A (zh) | 2023-05-16 |
WO2018003861A1 (ja) | 2018-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724987B2 (ja) | 制御装置および検出方法 | |
JP6822473B2 (ja) | 表示装置 | |
US10860139B2 (en) | Detection device, electronic apparatus, detection method and program | |
JP6822472B2 (ja) | 表示装置、プログラム、表示方法および制御装置 | |
US10748509B2 (en) | Control device, electronic apparatus, control method and program | |
JP6733731B2 (ja) | 制御装置、プログラムおよび制御方法 | |
US20220011900A1 (en) | Detection device and program | |
JP6658809B2 (ja) | 検出装置、電子機器、検出方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190917 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6724987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |