JPWO2016103522A1 - 制御装置、電子機器、制御方法およびプログラム - Google Patents
制御装置、電子機器、制御方法およびプログラム Download PDFInfo
- Publication number
- JPWO2016103522A1 JPWO2016103522A1 JP2016509809A JP2016509809A JPWO2016103522A1 JP WO2016103522 A1 JPWO2016103522 A1 JP WO2016103522A1 JP 2016509809 A JP2016509809 A JP 2016509809A JP 2016509809 A JP2016509809 A JP 2016509809A JP WO2016103522 A1 JPWO2016103522 A1 JP WO2016103522A1
- Authority
- JP
- Japan
- Prior art keywords
- display
- detection reference
- user
- aerial image
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 247
- 238000001514 detection method Methods 0.000 claims abstract description 1105
- 230000008859 change Effects 0.000 claims abstract description 163
- 230000008569 process Effects 0.000 claims description 210
- 238000012986 modification Methods 0.000 description 181
- 230000004048 modification Effects 0.000 description 181
- 238000012545 processing Methods 0.000 description 130
- 239000013643 reference control Substances 0.000 description 120
- 238000003384 imaging method Methods 0.000 description 86
- 230000003287 optical effect Effects 0.000 description 60
- 230000001133 acceleration Effects 0.000 description 56
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 20
- 238000004458 analytical method Methods 0.000 description 17
- 238000003825 pressing Methods 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000010191 image analysis Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 241001422033 Thestylus Species 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000005057 finger movement Effects 0.000 description 3
- 230000004304 visual acuity Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000003595 mist Substances 0.000 description 2
- 230000000149 penetrating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04164—Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0444—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single conductive element covering the whole sensing surface, e.g. by sensing the electrical current flowing at the corners
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/066—Adjustment of display parameters for control of contrast
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0693—Calibration of display systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明の第2の態様によると、制御方法であって、空中の表示を制御し、使用者の操作を検出する検出基準と表示との位置関係を使用者によって変更する。
本発明の第3の態様によると、コンピュータに実行させるプログラムであって、空中の表示を制御し、使用者の操作を検出する検出基準と表示との位置関係を使用者によって変更する処理をコンピュータに実行させる。
図面を参照しながら、第1の実施の形態による表示装置について説明する。第1の実施の形態においては、本実施の形態の表示装置が携帯電話に組み込まれた場合を一例に挙げて説明を行う。なお、本実施の形態の表示装置は、携帯電話に限らず、タブレット端末、腕時計型端末等の携帯型情報端末装置、パーソナルコンピュータ、音楽プレイヤ、固定電話機、ウエアラブル装置等の電子機器に組み込むことが可能である。
図1(a)は表示装置1の分解斜視図であり、図1(b)は表示装置1の一部を拡大して示す側面図である。なお、説明の都合上、表示装置1について、X軸、Y軸およびZ軸からなる座標系を図示の通りに設定する。なお、座標系はX軸、Y軸およびZ軸からなる直交座標系に限らず、極座標系や円筒座標系を採用してもよい。即ち、X軸は、表示装置1の矩形表示面の短辺方向に設定され、Y軸は、表示装置1の矩形表示面の長辺方向に設定され、Z軸は、表示面に垂直な方向に設定されている。
なお、到達位置50が検出基準40よりも下方に位置する場合には、指は、到達位置50に到達する前に、検出基準40を通過するので、検出基準制御部204は、操作検出器13の検出出力に基づき、指が検出基準40に達したことを判定するが、第1のキャリブレーション処理モードでは、表示器13の表示の切り替えを行わない。到達位置50が検出基準40に一致する場合も同様に、表示器13の表示の切り替えを行わない。勿論、指が検出基準40に達した時に、例えば、アイコン300Aを点滅させるなどのハイライト表示をして、指が検出基準に到達したことをユーザに告知してもよい。
なお、以上の説明では、アイコン300Aの表示位置への操作の例としてユーザによるアイコン300Aを押し下げる操作を例に挙げたがこれに限られない。ユーザによるアイコン300Aに対する所定の非接触操作が操作検出器13によって検出された場合、所定の非接触操作が行われた場所に基づいて、検出基準40を変更してもよい。所定の非接触操作とは、例えば、アイコン300Aをタッチするようなジェスチャー操作である。アイコン300Aをタッチするような操作を行った位置に基づいて検出基準40を変更してもよい。タッチするような操作とは、例えば、アイコン300Aをユーザの手で振り払うようなジェスチャーなどが挙げられる。また、タッチするような操作を行った位置として、ユーザの手で振り払うようなジェスチャーが終了し、ユーザの手が停止したと判定された位置やユーザの手で振り払うようなジェスチャーが開始された位置に基づいて決定してもよい。
を停止する。検出基準制御部204は、操作検出器13が検出する静電容量の値が殆ど変化しなくなったことをもって、指の押下げの停止を判定し、この押下げの停止位置を到達位置50と判定、即ち決定する。なお、下方移動の停止は、操作検出器13が検出する静電容量の値が短時間、例えば0.1秒〜1秒程度の間、変化しないことをもって、判定される。更に別の方法としては、ユーザの指の移動の速度ベクトル、即ち、指の移動速度と移動方向とを、静電容量の変化から検出し、指の速度ベクトルの向きが下方向から逆方向に変化したこと及び逆方向の速度ベクトルが所定の大きさになったことに基づき、逆方向の所定の大きさの速度ベクトルを検出した時の指の位置を到達位置と判定してもよい。この方法の場合には、上記の速度ベクトルの所定の大きさを略ゼロに設定すると、速度ベクトルの向きが下向きから逆向きに変化する時点の指の位置、即ち最も下方の位置が到達位置として判定され、所定の大きさをゼロ以外の値に設定すると、指が上述の最も下方の位置から所定距離だけ上方の位置が、到達位置として判定される。以上のように、到達位置は、検出基準制御部405によって指がアイコンの表示位置を操作したと判定された時の指の最下方位置またはその近傍の位置に決定される。
(第1の実施の形態の変形例1)
変形例1の表示装置1は、操作検出器13の検出出力に基づき、ユーザの指先の速度あるいは加速度を算出し、算出した速度または加速度に基づき指の到達位置を予測し、その予測到達位置に基づいて検出基準を変更するものであってもよい。図9は、本変形例1の表示装置1の構成のうち、制御部20と、制御部20によって制御される表示器11及び操作検出器13とを示したブロック図である。
なお、上述の説明では、速度・加速度検出部206は、操作検出器13によって検出される静電容量値を所定の時間毎に読み出し、所定の時間当たりの静電容量値の変化から指の移動速度を算出すると共に、算出した速度から指の移動加速度を算出したが、この方法に限られず、速度・加速度検出部206として撮像装置を用いてもよい。また、上述の説明では、ユーザの指の移動速度または加速度を算出したが、そのほかに、ユーザの足や肘、ユーザが所持しているスタイラスペンであってもよい。
なお、算出したユーザの指の移動速度及び加速度に基づきユーザの指の予測到達位置60を算出し、ユーザの指の予測到達位置60に基づいて検出基準40を変更していたが、操作毎にユーザの指の予測到達位置60を決定する必要はない。ユーザが操作を行う前に意図せず動いてしまった場合、その動きに基づいて予測到達位置60を算出してしまうと、極端に上の位置に検出基準40が設定しまうなど、適切な位置に検出基準を設定することができなくなってしまう。上述のような場合を防ぐため、ユーザの指の移動速度及び加速度を検出した場合に、所定の閾値以上のユーザの指の移動速度及び加速度を検出した場合のみ予測到達位置60を算出し、予測到達位置60に基づいて検出基準40の位置を変更してもよい。
第1の実施の形態及び変形例1に係る表示装置1は、一回のキャリブレーション処理において、到達位置を検出、または予測し、その到達位置に基づき検出基準を変更し、その検出基準の位置データを記憶部205に記憶し、空中像操作モード時に空中像操作モードの検出基準を記憶部205に記憶された検出基準の位置に設定、または変更するものであったが、その代わりに、変形例2に係る表示装置は、複数回のキャリブレーション処理においてそれぞれ設定された複数の検出基準の位置をそれぞれ記憶部205に記憶し、その記憶された複数の検出基準位置に基づき、空中像操作モードにおける検出基準を変更するものである。第一回目のキャリブレーション処理において検出基準制御部204は、操作検出器13の検出出力に基づき指の到達位置50を判定し、この到達位置50に基づき検出基準40を変更し、その検出基準40の位置データを記憶部205に記憶する。引き続き第2回目のキャリブレーション処理を行い、同様に変更された検出基準の位置データを記憶部205に記憶する。更に、引き続き第三回のキャリブレーション処理を行ってもよい。このようにして連続的に行われた複数回のキャリブレーション処理によって、記憶部205に記憶された複数の検出基準の位置データから一つの検出基準を算出し、その算出された検出基準の位置データを記憶部205に記憶する。その後に実行される空中像操作モードでは検出基準を、記憶部205に記憶された算出検出基準の位置に設定する。
更に、キャリブレーション処理において、キャリブレーション処理毎に、検出基準の変更を行うのではなく、複数回のキャリブレーション処理において、到達位置を判定した回数と、実際に到達位置が検出基準に達したことを判定した回数と、から、アイコンの表示位置への操作が失敗した回数を算出して、所定の回数以上、失敗したと判定された時に、検出基準を変更するようにしてもよい。
第1の実施の形態においては、ユーザの指の空中像の表示位置に対する操作を検出して到達位置を判定して、到達位置に基づいて検出基準の変更を行った。しかし、ユーザは、空中像のアイコンの表示位置を操作したと感じた指の位置を指定して、その指定位置を検出基準制御部が判定し、指定位置に基づいて検出基準を変更して、検出基準と空中像との位置関係を変更してもよい。以下に、ユーザが空中像の表示位置を操作する位置を指定位置として指定する変形例を説明する。なお、以下の説明は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1、2にも適用できる。
指が下降移動から横方向の移動に変化し、その横方向移動が終了した時の指の高さを指定位置50Aとして判定してもよい。また、検出基準制御部204は、指の横方向の移動開始から横方向の移動終了までの指の高さの平均値や中央値などを指定位置50Aとしてもよい。
変形例3の表示装置1においては、ユーザは、指先でアイコンの表示位置を操作したと思った位置を指定位置として、指の下降移動から横方向への移動に変化させることによって指定した。変形例4の表示装置1は、ユーザが、指先でアイコンの表示位置を操作したと思った位置を別のアイコンを操作することによって、指定するものである。このキャリブレーション処理について次に説明する。なお、説明は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜3にも適用できる。
なお、右側のアイコン300Cの表示位置を操作する右手の指は、その操作したと感じた時の位置が指定位置と判定されるので、空中像に接近する下降移動が必要である。しかしながら、左側のアイコン300Dの表示位置への操作をする左側の指は、指をアイコン300Dの上または下に位置付ければよいので、必ずしも左手の指を下降移動させる必要はなく、左手の指は、例えば空中像300の平面に平行な方向、即ち横方向に移動してアイコン300Dの上または下の位置まで横方向移動してもよい。
また、必ずしも左手の指と右手の指とを用いる必要はなく、キャリブレーション用空中像300のアイコン300C上とアイコン300D上との両方において上記の動作が検出されればよい。例えば、一方の手の2本の指を用いてもよい。また、この変形例4は、アイコン300Dの表示位置への操作をする代わりに、表示装置1に設けた不図示の決定ボタンを押すように構成することもできる。
さらに、ユーザがアイコン300Dの表示位置への操作をしたり、不図示の決定ボタンを押したりした時点における右手の指先の位置を指定位置と判定するものに代えて、ユーザがたとえば左手で所定のジェスチャーを行ったことを検出したときにおける右手の指先の位置を指定位置と判定しても良い。この場合、表示装置1は、後述する変形例8の撮像装置18(図22参照)を備え、この撮像装置18により取得された画像を用いてユーザのジェスチャー(たとえば手をグーからパーに変える)が行われたことを検出する。
変形例5の表示装置は、ユーザが指先でアイコンの表示位置を操作したと思ったら、ユーザが指を所定時間停止させることにより指定位置を指定するものである。なお、この本変形例は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜4にも適用できる。
この場合には、キャリブレーション用の空中像に含まれるアイコンに、メッセージ「キャリブレーションを行います。このアイコンの位置を指し示して下さい。指し示した状態をしばらくキープして下さい。」が重畳表示される。ユーザがアイコンの表示位置を操作したと感じて、しばらくの間、指の移動を停止すると、操作検出器13は指の下降移動が所定時間停止したことを検出する。検出基準制御部204は、このときの操作検出器13の検出出力に基づき、指の停止位置を指定位置として判定する。
この指定位置の判定は、次のように行われる。即ち、下方に移動している指先Fが停止して上下方向の比較的小さい所定の停止範囲内に所定の時間以上、滞在したことをもって、アイコン300Aの表示位置への操作が行われたと判定する。このように、指先Fが所定の時間以上、所定の停止範囲内に留まることをもって、指先Fのアイコン300Aの表示位置への操作と判定する理由は、操作が空中像300のアイコン300Aの表示位置への操作であるため、タッチパネルへの操作とは異なり、指先Fがアイコン300Aの表示位置で完全には停止しない可能性があるからである。なお、指定位置判定のための所定の停止範囲は、操作検出器13の静電容量の検出範囲13Aに比べて十分に小さい値、例えば5mmに設定され、また、所定の時間は、例えば2秒程度に設定される。
変形例6の表示装置は、ユーザが、指先でアイコンの表示位置を操作したと思った指定位置を発声によって指定するものである。なお、この変形例は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜5にも適用できる。
なお、表示装置1が集音器14を備えず、外部の集音装置によって取得された音声データを無線や有線を介して入力し、外部の集音装置から入力した音声データを用いて音声検出部208が音声検出をしても良い。
上記においては、検出基準を単一の平面または段差を持った平面として説明した。しかし、検出基準は面ではなく、厚みを持った領域であってもよい。このような領域を持った検出基準のキャリブレーション処理について説明する。なお、説明は、第1の実施の形態における第1のキャリブレーション処理モードに適用した場合について説明するが、第2のキャリブレーション処理モードや上述した変形例1〜6にも適用できる。また、上述した変形例1〜6に適用してもよい。
また、指先がキャリブレーション処理用のアイコンの上方に位置している限り、ユーザの指が斜めに、すなわちZ方向に対して角度を有して下降移動した場合であっても、到達位置または指定位置を判定することができる。
上記説明において、ユーザの指先の下方への移動を、静電容量パネルにより構成される操作検出器13によって検出したが、撮像装置によりユーザの指先の位置を検出してもよい。変形例8の表示装置1は、図22に示すように、操作検出器として撮像装置(例えばデジタルカメラ)18を備え、この撮像装置18は表示装置1の上面に配置される。このような表示装置1のブロック図を図23に示す。
変形例8の表示装置1においても、図24に示すように、空中像30が表示装置1の結像光学系12の上方に距離H1だけ離れた位置に形成され、検出基準40は、結像光学系12の上方に距離H2(H1<H2)だけ離れた位置に設定される。撮像装置18は、結像光学系12の表面から上方にユーザの指先の位置を検出するための検出範囲13Aを有する。図24では、撮像装置18の上方に撮像可能な範囲の限界を破線13aで示し、この検出限界13aと結像光学系12の表面との間隔が検出範囲13Aとして示される。変形例8においても、上記の第1の実施の形態や変形例1〜7の場合と同様に、空中像30と検出基準40とが検出範囲13A内に位置するように設定される。なお、検出基準24は、図24では空中像30の上方に設定されているが、検出範囲13A内であれば、空中像30の下方でも、または空中像30の位置に一致させてもよい。また、変形例8においても、検出範囲13A内のうち検出基準40に設定された領域以外の範囲は検出基準外41である。なお、検出範囲13Aは、撮像装置18の撮像可能な範囲の限界として設定されるものに限定されず、撮像可能な範囲のうち一部の範囲(たとえば図24中の左右方向の端部の所定範囲)を除いた範囲として設定されてもよい。
図面を参照しながら、第2の実施の形態に係る表示装置1について説明する。第2の実施の形態においては、本実施の形態の表示装置1が携帯電話に組み込まれた場合を一例に挙げて説明を行う。なお、本実施の形態の表示装置は、携帯電話に限らず、タブレット端末、腕時計型端末等の携帯型情報端末装置、パーソナルコンピュータ、音楽プレイヤ、固定電話、ウエアラブル装置等の電子機器に組み込むことが可能である。
なお、図26のフローチャートのステップS201において、ユーザによりユーザ情報入力モードの操作ボタンが操作されたかどうかを判定していたが、この処理を必ずしも行う必要はなく、装置がユーザ情報を取得した段階でステップS204に移行してもよい。
第2の実施の形態は次のように変形できる。ユーザによるユーザ情報は、表示装置1に対して行う代わりに、表示装置1とは別の情報入力装置に対して行い、その情報を、インターフェースを介して表示装置1に転送してもよい。また、ユーザ情報は、ICカードに予め記録されていてもよく、その場合には、表示装置1または情報入力装置には、カード情報読み取り機能が備えられることが好ましい。
図面を参照しながら、第3の実施の形態に係る表示装置1について説明する。第3の実施の形態においては、本実施の形態の表示装置1が携帯電話に組み込まれた場合を一例に挙げて説明を行う。なお、本実施の形態の表示装置は、携帯電話に限らず、タブレット端末、腕時計型端末等の携帯型情報端末装置、パーソナルコンピュータ、音楽プレイヤ、固定電話機、ウエアラブル装置等の電子機器に組み込むことが可能である。
本実施の形態の表示装置1は、図1に示した表示装置1と同様であり、その主要部の構成は、図27に示すブロック図で表される。本実施の形態の表示装置1は、制御部20と、制御部20によって制御される表示器11と操作検出器13と環境検出部19とを備える。環境検出部19は、表示装置1の周囲の使用環境を検出する。制御部20は、画像生成部201と、表示制御部202と、キャリブレーション部203と、検出基準制御部204と、記憶部205と、環境解析部211とを備える。
図面を参照しながら、第4の実施の形態に係る表示装置100について説明する。本実施の形態における表示装置100は、操作検出器の構成が第1の実施における操作検出器13とは異なる。図29は、本実施の形態に係る表示装置を示す図であり、図29(a)は、第4の実施の形態による表示装置100の操作検出器100の概略構成を説明する断面図である。また、図19(b)は表示装置100が組み込まれた電子機器の一例として、現金自動預払機(ATM装置)200の斜視図である。表示装置100は、現金自動預払機200において、ユーザが暗証番号や金額等を入力するための前面パネル上に装備されている。なお、表示装置100は、現金自動預払機に限らず、鉄道やバスの乗車券・定期券等の各種の自動券売機や、図書館や美術館等の各種の情報検索端末装置等に広く組み込むことが可能である。説明の都合上、表示装置100について、X軸、Y軸およびZ軸からなる座標系を図示の通りに設定する。
更には、検出基準は、図21(c)に示したように、幅d2を持つ検出基準に変更することもできる。たとえば到達位置50に対して上方の投光素子116aと受光素子117aとが選択され、投光素子116aと受光素子117aとを含む面を上面401とし、到達位置50に対して下方の投光素子116cと受光素子117cとが選択され、投光素子116cと受光素子117cとを含む面を下面402とする、すなわち複数の投光素子116と受光素子117との組のうち、一組の投光素子116と受光素子117とを含む面で上面401を設定し、他の一組の投光素子116と受光素子117とを含む面で下面402を設定すればよい。
上述したように、本実施の形態は、複数設置された投光素子116と受光素子117により設定可能な複数の検出基準の中から、到達位置に基づいて一組あるいは複数組の投光素子116と受光素子117とを選択することにより検出基準を選択して、検出基準の位置を変更するものである。
なお、表示装置100はアクチュエータとエンコーダとを備え、投光素子116と受光素子117とをZ方向に微小距離移動させてもよい。たとえば、到達位置50から距離d1の位置に検出基準42を変更する場合、到達位置50から距離d1の位置に最も近い位置の投光素子116と受光素子117とが選択される。この選択された投光素子116と受光素子117とが配置された位置と到達位置50から距離d1との差分に基づいて、投光素子116と受光素子117とがアクチュエータにより移動されて、投光素子116と受光素子117との位置が微調整される。すなわち、投光素子116と受光素子117との位置が微調整されることにより、検出基準42を到達位置50から距離d1により接近した位置に変更することができる。
第4の実施の形態は次のように変形できる。第4の実施の形態の表示装置100においては、操作検出器113がZ方向に複数段の二次元状に配列された投光素子116、受光素子117を有する構成として説明した。しかし、二次元状に配列された投光素子116、受光素子117は1段のみでもよい。このような操作検出器113’を装備した構成の表示装置100を図33に示す。操作検出器113’は枠状のハウジング115’を備え、枠状のハウジング115’の内面、を構成する4面にうち、隣接する2面にはXY平面に平行な一列に複数の投光素子116が配置され、残る隣接する2面にはXY平面に平行な一列に複数の受光素子117が配置されている。すなわち、操作検出器113’は、図32にて説明した6段構成の操作検出器113のうちの1段のみで構成したものである。ハウジング115’にはアクチュエータ119が接続され、Z方向に所定の周期(たとえば、毎秒10サイクル)で往復移動させる。ハウジング115’の位置はアクチェータ119に組み込まれた位置を検出するセンサ、例えばエンコーダ(不図示)、により検出される。この場合、ハウジング115’を往復移動可能な範囲に含まれる所定の位置を検出基準40と設定する。
以上の実施の形態及びその変形例は、キャリブレーション処理によって検出基準を制御または変更して、検出基準と空中像の表示位置との位置関係を変更するものであったが、次に、キャリブレーション処理によって空中像の表示位置を変更して、検出基準と空中像の表示位置との位置関係を変更する第5の実施の形態を説明する。
図35及び図36は、第5の実施の形態の表示装置を示すものである。第5の実施の形態の表示装置1は、第1の実施の形態の表示装置と同様に、図35に示すように制御部20を内蔵する本体10と、表示器11と、結像光学系12と、操作検出器13とを備えると共に、図36に示すように画像生成部201と、表示制御部202と、キャリブレーション部203と、検出基準制御部204と、記憶部205とを備える。第5の実施の形態の表示装置1は、上述の構成に加えて更に、表示位置変更部500と、表示位置制御部220とを備える。
表示器11と結像光学系12と操作検出器13とは、図1に示した第1の実施の形態の表示器11と結像光学系12と操作検出器13の各々と同一の構成のものを使用することができるが、本実施の形態の結像光学系12または表示器11は、上述のように結像光学系12の光軸方向に移動可能に構成されている。
なお、以下の説明では、モーターまたはアクチュエータなどの駆動部を有し、結像光学系12を矢印で示すように結像光学系12の光軸方向に移動して、結像光学系12によって形成される空中像30の表示位置をZ軸方向、すなわち光軸方向に移動して変更する例で説明を行うが、これに限定されず、表示位置制御部220は、表示器11を制御し、右目で視認するための表示画像と、右目で視認する画像とは視差を有する左目で視認するための表示画像とを表示させ、空中像30の奥行の表示位置を変更してもよい。
また、表示位置制御部220及び表示位置変更部500は、指の到達位置50または指定位置50Aが図37(b)に示したように、検出基準40よりも下方に位置する場合には、到達位置50または指定位置50Aと検出基準40との間隔ΔHを算出して、空中像300の表示位置を例えば間隔ΔHだけ上方である点線の表示位置300に移動させる。
更に、表示位置制御部220及び表示位置変更部500は、指の到達位置50または指定位置50Aが、検出基準40に一致した場合、または検出基準40の近傍位置に存在した場合には、空中像300の表示位置を移動しない。
なお、表示位置制御部220及び表示位置変更部500は、到達位置50または指定位置50Aが検出基準40よりも上方に位置する場合には、空中像300の表示位置を下方向に移動させ、到達位置50または指定位置50Aが検出基準40よりも下方に位置する場合には、空中像300の表示位置を上方向に移動させるが、その移動量は、上述のように到達位置50または指定位置50Aと検出基準40との間隔ΔHに一致させる必要はなく、第1の実施の形態において説明したように、間隔ΔHよりも大きくしてもまたは小さくしてもよい。
このような統計的処理による空中像の移動量は、例えば、全てのユーザに共通の値であってもよいし、ユーザの年齢層毎に異なった値であってもよいし、性別毎に異なった値であってもよい。なお、この統計的な処理による空中像の移動量の決定方法は、上述の第1の実施の形態において、到達位置または指定位置に基づいて検出基準を変更する際の検出基準の移動量を決定する場合にも適用することができる。
なお、キャリブレーション処理の説明として第1のキャリブレーション処理モードを例として説明したが、第2のキャリブレーション処理モードにも適用できる。
また、キャリブレーション処理において空中像を移動することは、キャリブレーション処理において検出基準を変更する場合に変更後の検出基準が図3に示した操作検出器13の検出範囲13Aの外に出てしまったり、検出範囲13Aの上限または下限付近に位置するといった事態になりそうな場合には、検出基準の変更の代わりに、空中像の移動を行えば、上記の事態を避けることができる。
次に、第5の実施の形態の表示装置の変形例1を説明する。
第5の実施の形態の表示装置は、キャリブレーション処理において、到達位置または指定位置に基づき空中像の表示位置を変更したが、第5の実施の形態の表示装置の変形例1は、キャリブレーション処理において、到達位置または指定位置に基づき、表示位置制御部220及び表示位置変更部500が空中像の表示位置を変更すると共に、検出基準制御部204が検出基準の位置を変更する。この空中像の表示位置の変更および検出基準の位置の変更によって、ユーザの操作特性に適した空中像の表示位置と検出基準との位置関係をうることができる。表示位置変更部500が、到達位置または指定位置に基づいて決定される適正な表示位置に高精度に空中像を移動することが難しい場合には、表示位置変更部500が空中像の表示位置を粗調整し、検出基準制御部204が検出基準を微調整することによって、空中像の表示位置と検出基準との位置関係を適正に設定することができる。
第5の実施の形態の表示装置の変形例2を以下に説明する。変形例2の表示装置は、表示位置制御部220及び表示位置変更部500が空中像の表示位置を移動する際に、移動開始から移動終了の間に空中像の表示をフェードアウトしそれからフェードインする。即ち、空中像の移動開始に伴い表示の輝度を徐々に小さくし、その後、空中像の移動終了に向けて表示輝度を徐々に大きくする。キャリブレーション処理として空中像を移動させているが、ユーザが視認可能な空中像が移動すると、ユーザに違和感が生じる場合がある。そこで、空中像の移動開始に伴い表示の輝度を徐々に小さくすることにより、空中像の移動がユーザに視認されづらくなり、ユーザの違和感を軽減できる。
また、表示制御部202は、空中像の移動中、空中像の表示輝度やコントラストを下げたり、輝度やコントラストを下げた状態で空中像の表示を点滅させたり、更には空中像の表示を消したりすることができる。このように、表示位置変更部500による空中像の移動を目立たなくする、即ち視認し難くすることで、ユーザの違和感を軽減できる。
また、逆に、空中像の移動に伴って空中像自体を目立たせるような表示態様を行っても良い。空中像を目立たせるような表示態様とは、空中像の移動中、空中像の表示輝度やコントラストを上げたり、空中像の表示を点滅させたりすること等である。このように、空中像自体を目立たせるような表示態様を行うことによって、空中像の移動を目立たさなくすることができ、ユーザは空中像の移動よりも空中像自体を注目するようになる。そのためユーザは、空中像の移動が気にならなくなり、ユーザの違和感を軽減できる。
上記のように空中像の移動時における空中像の表示態様の変更は、図38のフローチャートにおけるステップS306の処理の最中に行われる。
このような空中像の移動中における空中像の表示を目立たなくしたり、目立つようにしたりすることは、空中像の全体に対して行うのではなく、空中像の一部、例えば、キャリブレーション処理用のアイコンに対して行うようにしてもよい。また、このような空中像の移動を目立たせるか否かは、ユーザの好みに応じて、選択することができるようにしてもよい。
なお上記のように空中像の移動時における空中像の表示輝度の変更は、図38のフローチャートにおけるステップS306の処理の最中に行われる。
第5の実施の形態の表示装置1の変形例3を以下に説明する。変形例3の表示装置1は、キャリブレーション処理の際にユーザの操作によって空中像の表示位置の変更を開始する。この場合、ユーザの操作が終了した後、表示位置制御部220は表示位置変更部500を制御して、空中像の表示位置の変更を開始させる。
なお、キャリブレーション処理の説明として第1のキャリブレーション処理モードを例として説明したが、第2のキャリブレーション処理モードにも適用できる。
第5の実施の形態の表示装置1の変形例4を以下に説明する。変形例4の表示装置1は、キャリブレーション処理の際にユーザが空中像の表示位置の変更を開始するタイミングを発声により指定するものである。図40は、変形例4における表示装置1の構成のうち、制御部20によって制御される表示器11および操作検出器13を示したブロック図である。この表示装置1は、図17に示す第1の実施の形態の変形例6における集音器14を含み、制御部20には音声検出部208が備えられる。
なお、キャリブレーション処理の説明として第1のキャリブレーション処理モードを例として説明したが、第2のキャリブレーション処理モードにも適用できる。
また、表示装置1が集音器14を備えず、外部の集音装置によって取得された音声データを無線や有線を介して入力し、外部の集音装置から入力した音声データを用いて音声検出部208が音声検出をしてもよい。
なお、以上のように、検出基準制御部204が指の到達位置または指定位置を判定したにも拘わらず、ユーザが「ハイ」と発声するまでは空中像を移動せずに、ユーザが「ハイ」と発声したことを検出して空中像を移動するようにすると、ユーザが「ハイ」と発声するまでの間に、空中像の表示位置に対する操作を複数回繰り返す場合がありうる。このような場合には、ユーザが「ハイ」と発声した時に、例えば、複数回の到達位置または指定位置の相加平均や相乗平均などの平均的な値に基づき、または複数の到達位置50の中央値(メジアン)に基づいて、または複数の到達位置または指定位置のうち、最後の到達位置または指定位置に基づいて、空中像を移動する。
第5の実施の形態の表示装置の変形例5を以下に説明する。変形例5の表示装置1は、ユーザが空中像を視認している場合には、空中像の移動を中止し、ユーザが空中像から目をそらした場合に、空中像の移動を行う。このために、表示装置1は、第1の実施の形態の変形例8のようにカメラなどの撮像装置を備え、撮像装置がキャリブレーション処理を実行中のユーザを撮影し、制御部20が撮影された画像データを解析して、この解析結果に基づきユーザの顔の向き、またはユーザの身体の向きを判定して、ユーザが空中像を視認しているか否かを判定する。表示位置制御部220および表示位置変更部500は、ユーザが空中像を視認していないときに、空中像を移動する。キャリブレーション処理として空中像を移動させているが、ユーザが視認可能な空中像が移動すると、ユーザに違和感が生じる場合がある。そこで、ユーザが空中像から目をそらした場合に、空中像の移動を行うことにより、空中像の移動がユーザに視認されず、ユーザの違和感を軽減できる。
なお、キャリブレーション処理の説明として第1のキャリブレーション処理モードを例として説明したが、第2のキャリブレーション処理モードにも適用できる。
なお、上述の視線検出器または撮像装置は、表示装置1に設けられてなくてもよい。視線線検出器は、表示装置1の外部に設置されていて、視線検出結果を無線通信またはケーブルを介して表示装置1に送信してもよい。また、撮像装置は、表示装置1の外部に設置されていて、撮像データを無線通信またはケーブルを介して表示装置1に送信してもよい。
なお、上述の説明では、ユーザが空中像を視認していると判定した場合に空中像の表示位置の変更をしたが、反対に、ユーザが空中像を視認している場合に、表示位置制御部220および表示位置変更部500は、空中像の表示位置の変更をさせるような制御を行ってもよい。この場合には、ユーザが確実に空中像を視認しているため、どの程度空中像が移動したかをユーザは知覚できるため、ユーザに対して操作する位置の変更を促すことができる。
なお、上述の説明では、ユーザが空中像を視認していない場合に、空中像の表示位置の変更をさせるような制御を行ったが、ユーザの生体情報を取得し、生体情報の値に基づいて空中像の表示位置を変更させるような制御を行ってもよい。例えば、ユーザの生体情報としてユーザの脈拍数を取得する。ユーザの脈拍を取得する方法として、例えば、装置を利用する前にユーザの脈拍数を取得するための装置をユーザに取り付けさせる。そして、表示位置制御部220および表示位置変更部500は、ユーザの脈拍数が大きくなった場合、空中像の表示位置の変更をさせるような制御を行ってもよい。ユーザの脈拍数が大きくなった場合、ユーザは操作がうまくいかずイライラしている場合がある。このような場合に、空中像の表示位置を変更することにより、ユーザに装置を快適に利用させることができる。
第5の実施の形態の表示装置の変形例6を以下に説明する。変形例6の表示装置1は、キャリブレーション処理において、空中像の移動速度を変更することができる。表示装置1は、空中像を極めて高速度で移動させるか、または空中像を低速で移動させることができる。表示位置制御部220と表示位置変更部500は、空中像を第1の所定値以上の極めて高速度で移動させるか、または空中像を第1の所定値よりも小さい第2の所定値以下の低速度で移動させる。このように、空中像を極めて高速度または低速度で移動させることによって、ユーザは、空中像の移動を視認し難くなる。また、空中像を極めて高速で移動させるか、低速度で移動させるかをユーザが選択スイッチなどによって選択することができるようにしてよい。表示位置制御部220と表示位置変更部500とがこのような制御を行うことにより、ユーザは空中像の表示位置の移動を視認しづらくなる。そのため、空中像の移動がユーザに視認されづらくなり、ユーザの違和感を軽減することができる。また、空中像の表示位置を変更する距離が大きい場合、空中像の表示位置の変更がユーザに目立つ場合があるため、変更する距離に基づいて第1の所定値と第2の所定値とを変更してもよい。たとえば、空中像の表示位置を所定距離以上移動させる場合は、空中像の表示位置を所定距離以下移動させる場合と比較して、第1の所定値の速度を速くし、第2の所定値の速度を遅くしてもよい。
次に第6の実施の形態の表示装置を、図42を参照して説明する。説明する表示装置としては、図35および図36に示した第5の実施の形態の表示装置と同一の構成を備える。上述した第5の実施の形態の表示装置との差異は、図42に示したように、空中像30を挟んで、第1の検出基準40aと第2の検出基準40bとが初期に設定されている点である。なお、図42では、空中像30が、第1および第2の検出基準40a、40bの間の中間に位置するように、即ち空中像30と第1の検出基準40aとの距離が空中像30と第2の検出基準40bとの距離とが等しくなるように定められている。しかし、必ずしも空中像30と第1の検出基準40aとの距離と、空中像30と第2の検出基準40bとの距離とを等しく設定しなくてもよい。また、空中像30にはアイコン30Aが表示されている。
空中像操作モードで、指Fをアイコン30Aの方へ下降移動させると、操作検出器13が指Fの下降移動を検出する。指Fが第1の検出基準40aに達すると、検出基準制御部204は操作検出器13の検出出力に基づき、指Fが第1の検出基準40aに達したことを判定し、この判定に応じて、表示制御部202がアイコン30Aの表示態様を変化させる。この表示態様の変化は、表示の高輝度化や点滅表示などのハイライト表示でもよいし、表示の色を変えてもよい。このようなアイコン30Aの表示態様の変化によって、ユーザは、指がアイコン30Aを選択していることを確認することができる。
到達位置50または指定位置50Aが第1の検出基準40aよりも距離ΔHだけ、上方の位置に位置しているので、表示位置制御部220は、空中像30の表示位置を距離ΔHだけ下方の位置に、即ち点線で示した位置30に移動する。
第2のキャリブレーション処理モードの説明は、以上の通りであるが、第1のキャリブレーション処理モードも同様である。
上述した第6の実施の形態の表示装置は、第1の検出基準40aと空中像30との位置関係を空中像30の移動によって変更し、この空中像30の移動に伴い、第2の検出基準40bを、空中像30と第2の検出基準40bとの距離が空中像30と第1の検出基準40aとの距離にほぼ等しくなるように、移動するものであった。次に、この変形例1を説明する。この変形例1では、第1の検出基準40aと空中像30との位置関係は、第6の実施の形態の表示装置と同様に空中像30の移動によって変更するが、空中像30と第2の検出基準40bとの位置関係は、第2の検出基準に対する指の到達位置または指定位置に基づく第2の検出基準40bの移動によって、変更するものである。
図45(a)において、例えば、ユーザは、指Fを空中像30の第1のアイコン30Aの方に下降移動させて、アイコン30Aに対する選択操作をしたと感じると、すなわち指Fが第1の検出基準40aに達しているとユーザが判断した場合、ユーザの指Fの下降が停止するなどが生じる。検出基準制御部204は、操作検出器13の検出出力に基づき、指の到達位置50または指定位置50Aを判定する。到達位置50または指定位置50Aが第1の検出基準40aよりも距離ΔHだけ上方に位置しているので、表示位置制御部220は、空中像30の表示位置を、例えば略距離ΔHだけ下方の位置に、即ち点線で示した位置30に移動する。この空中像30の下方移動によって、空中像30と第1の検出基準40aとの位置関係が変更、即ちキャリブレーション処理される。
また、第2の検出基準40bに対する指の到達位置50または指定位置50Aが、第2の検出基準40bよりも下方の位置である場合には、検出基準制御部204は指の到達位置50または指定位置50Aに基づき、第2の検出基準40bを下方向に移動する。この第2の検出基準40bの下方向移動によって、空中像30と第2の検出基準40bとの位置関係が変更、キャリブレーションされる。このように、空中像30の移動によって空中像30と第1の検出基準40aとの位置関係を変更した後、第2の検出基準40bの移動によって空中像30と第2の検出基準40bとの位置関係を変更することにより、空中像30と第1の検出基準40aとの位置関係、空中像30と第2の検出基準40bとの位置関係の両方をともに適切な位置関係に変更することができる。
次に、第6の実施の形態の表示装置の変形例2を説明する。上述の第6の実施の形態および変形例1との差異としては、空中像30の移動のさせ方が異なる。即ち、ユーザの指の下降移動に合わせて、空中像30の表示位置を移動させる。
変形例2は、空中像操作モードにおいてユーザの指がアイコン30Aの方に下降移動され、指が第1の検出基準40aに達し、これによって、アイコン30Aの表示態様が変化した後に、指が更に下降移動させ、空中像30の表示位置に達すると、表示位置制御部220は、操作検出器13の検出出力に基づき、指が空中像30の表示位置に達したことを判定し、指の下降移動に合わせて空中像30の表示位置を移動させる。表示位置制御部220は、空中像の表示位置と下降移動する指の位置とが所定の範囲に含まれるように空中像30の表示位置を制御する。このように制御することによって、下降する指に追随しているように空中像30の表示位置を下降移動させることができる。また、さらに下降する指よりも常に下方に位置するように空中像30の表示位置を設定し、下降する指に合わせて空中像30の表示位置を下降移動するように、表示位置制御部220が空中像30の表示位置を制御することによって、ユーザの指が空中像30を貫通することがなくなる。
指の下降移動およびそれに追随する空中像30の下降移動によって、指と空中像30とが第2の検出基準40bに達すると、検出基準制御部204が指が第2の検出基準40bに達したことを判定し、表示制御部202が再生画像の表示を行う。
このように、指が空中像30に到達すると、空中像30が指の下降移動に追随して下降移動するので、ユーザは、指の下降移動が空中像30によって第2の検出基準40bまで、案内されるように感じられ、第2の検出基準40bに確実に達することができる。
第7の実施の形態の表示装置について説明する。本実施の形態に係る表示装置は、図29、図31、図32に示す第4の実施の形態の表示装置100や、図33、図34に示す第4の実施の形態の変形例1の表示装置100と同様の構成を有している。第7の実施の形態の表示装置100においても、第5の実施の形態やその変形例1〜4や第6の実施の形態やその変形例1の表示装置1と同様に、空中像の表示位置を変更可能に構成される。
図46に示す通り、本実施の形態に係る表示装置100は、図29に示す第4の実施の形態の表示装置100の構成に加えて、表示位置変更部500と表示位置制御部220とを備える。検出基準制御部204は、第5の実施の形態やその変形例1〜4や第6の実施の形態やその変形例1の場合と同様にして、操作検出器13の検出出力に基づき、指の到達位置50を判定する。表示位置制御部206は、指の到達位置50に基づき、表示位置変更部500に空中像300の位置を結像光学系12の光軸方向に移動させる。この場合、表示位置変更部500は、表示器111をX方向に移動させることで、空中像30をZ方向に移動させる。すなわち表示器111をX方向+側へ移動させることで空中像30をZ方向+側へ移動させ、表示器111をX方向−側へ移動させることで空中像30をZ方向−側へ移動させることができる。勿論、表示位置変更部500は、表示器111を移動させず、結像光学系112を平行移動させても良いし、結像光学系112と表示器111とを共に移動させても良い。
以上の実施の形態及びその変形例は、キャリブレーション処理における指先の到達位置や指定位置に基づいて検出基準およびまたは空中像を制御または変更して、検出基準と空中像の表示位置との位置関係を変更するものであった。次に、キャリブレーション処理における所定の非接触操作が検出基準で検出されない場合に検出基準を変更する第8の実施の形態を説明する。
本実施の形態の表示装置1は、図1、図2に示す第1の実施の形態の表示装置1と同様の構成を備える。第8の実施の形態の表示装置1は、空中像操作モードにおいて、表示制御部202と表示器11と結像光学系12が図47(a)および(b)に示す空中像操作モード用の空中像30を空中に表示する。図47(a)において、空中像30は、たとえば2個の矩形状のアイコン30D、30Eを含む。
直方体状の検出基準42について、その上面を上部基準面42aとし、下面を下部基準面42bとし、長さW2とD1とで生成される側面を側部基準面42cとし、長さW1とD1とで生成される側面を側部基準面42dと称する。検出基準42の外部を検出基準外41と称する。
また、本実施の形態では、検出基準42を直方体形状として説明するが、これに限定されるものではない。球状、円柱状や角柱状等でもよいし、それ以外の形状でもよい。
なお、アイコン30Eに対応する検出基準42も、アイコン30Dに対応する検出基準42と同様に、横断面がアイコン30Eの形状に対応し所定の高さを有する直方体形状であるとする。
所定の非接触操作600は、上述した種々の指Fの移動軌跡で表されるものに限られず、その移動軌跡(指Fや手の移動軌跡)が操作検出器13で検出することができるものであれば、その他の移動軌跡を描くものであっても良い。
図49は、検出基準制御部204によって、前述の所定の非接触操作600のうち非接触操作600Aが検出基準42で行われたと判定される場合を例示する。所定の非接触操作600A1は、指Fが上部基準面42aから下方に距離L1移動し、引き続きUターンし上方に距離L1移動して、指Fが上部基準面42aに達した場合を示す。所定の非接触操作600A2は、指Fが上部基準面42aと下部基準面42bとの中間で指Fが下方に距離L1移動し、引き続きUターンし上方に距離L1移動した場合を示す。所定の非接触処理600A3は指Fが下方に距離L1移動して下部基準面42bにおいてUターンし上方に距離L1移動した場合を示す。
以上のように、検出基準制御部204は、図49に示されたように、所定の非接触操作600Aの距離L1の下降移動と、Uターンと、距離L1の上昇移動との全てが検出基準42内で行われた場合に、所定の非接触操作600Aが検出基準42で行われたと判定する。即ち、検出基準制御部204は、所定の非接触操作600Aを検出基準42で検出する。
なお、図49において検出基準外41とは、検出基準42の外側の外部空間である。詳述すると、図47(c)において、検出基準42の上部基準面42aと、下部基準面42bと、側部基準面42cと、側部基準面42dとで囲まれた空間以外の外側空間である。
以降、本実施の形態および変形例の説明においては、代表的に所定の非接触操作600Aを用いて説明するが、他の非接触操作600B、600C等においても同等の技術が適用されるものとする。
図50は、所定の非接触操作600Aの全体が検出基準外41で検出される場合の例を示したものである。図50(a)において、指Fによる所定の非接触操作600Aの全体が検出基準42の上部基準面42aの上方の位置で行われている。この場合には、所定の非接触操作600Aの全体が操作検出器13と検出基準制御部204とによって、検出基準外41で検出される。
図50(b)は、指Fによる所定の非接触操作600Aaの全体が検出基準42の下部基準面42bの下方の位置で行われ、また、指Fによる所定の非接触操作600Abの全体が検出基準42の側部基準面42cよりも外側の位置で行われている。これらの場合にも、所定の非接触操作600Aaの全体、600Abの全体が操作検出器13と検出基準制御部204とによって、それぞれ検出基準外41で検出される。操作検出器13と検出基準制御部204とによって、検出基準外41で所定の非接触操作600を検出する方法を説明する。まず、操作検出器13が指Fの移動を逐次検出する。次に、検出基準制御部204は操作検出器13の検出出力に基づき、指Fの移動軌跡が所定の非接触操作600に対応するか否かと、指Fの移動軌跡の位置(検出基準42又は検出基準外41又は検出基準42と検出基準外41との両方)を判定する。この判定結果に基づき、検出基準外41で所定の非接触操作600を検出できる。
図51(a)において、ユーザが空中像30のアイコン30Dの表示位置を操作するために、指Fを下降移動させ、その指Fが操作検出器13の検出範囲13Aの上限13aに達すると、操作検出器13が指の下降移動を逐次検出し、その指の移動に伴う検出出力を順次、記憶部205に記憶する。検出基準制御部204は、記憶部205に記憶された操作検出器13の検出出力に基づき、指Fの移動軌跡が所定の非接触操作600Aに対応するか否かを判定するとともに、その指Fの移動軌跡の全てが検出基準42に存在するか否かを判定する。
図54は、所定の非接触操作600Aの一部が検出基準外41で検出される場合の例を示したものである。図54(a)において、指Fによる所定の非接触操作600Aの一部、即ち距離ΔH10に対応する部分が、検出基準42の上部基準面42aよりも上方の位置で行われ、その残部が検出基準42内で行われている。言い換えると、検出基準42で検出された所定の非接触操作600Aの一部と、検出基準外41で検出された所定の非接触操作600Aの一部とを合わせると、所定の非接触操作600Aになる。
この場合、所定の非接触操作600Aの一部が操作検出器13と検出基準制御部204とによって、検出基準外41で検出される。
図54(b)において、指Fによる所定の非接触操作600Aaの一部、即ち距離ΔH10に対応する部分が、検出基準42の下部基準面42bよりも下方の位置で行われ、その残部が検出基準42内で行われている。言い換えると、検出基準42で検出された所定の非接触操作600Aaの一部と、検出基準外41で検出された所定の非接触操作600AのAaの一部とを合わせると、所定の非接触操作600Aaになる。
また、指Fによる所定の非接触操作600Abの一部、即ち距離ΔH10に対応する部分が、検出基準42の側部基準面42cの外側で行われ、その残部が検出基準42内で行われている。言い換えると、検出基準42で検出された所定の非接触操作600Abの一部と、検出基準外41で検出された所定の非接触操作600Abの一部とを合わせると、所定の非接触操作600Abになる。
これらの場合にも、所定の非接触操作600Aaの一部、またはAbの一部が操作検出器13と検出基準制御部204とによって検出基準外41で検出される。
図54(a)に示す所定の非接触操作600Aのように、所定の非接触操作600Aの一部が検出基準42で行われ、その残部が上部基準面42aよりも上方の位置で行われた場合に関するキャリブレーション処理は、図51の場合と同様である。即ち、距離ΔH10に基づき、検出基準42の全体を図中上方に移動する。
図54(b)に示す所定の非接触操作600Aaのように、所定の非接触操作600Aaの一部が検出基準42で行われ、その残部が下部基準面42bよりも下方の位置で行われた場合に関するキャリブレーション処理は、図52の場合と同様である。即ち、距離ΔH10に基づき、検出基準42の全体を図中下方に移動する。
図54(b)に示す所定の非接触操作600Abのように、所定の非接触操作600Abの一部が検出基準42で行われ、その残部が側部基準面42cの外側の位置で行われた場合に関するキャリブレーション処理は、図53の場合と同様である。即ち、距離ΔH10に基づき、検出基準42の全体を横に移動する。
なお、キャリブレーション処理の説明として第1のキャリブレーション処理モードを例として説明したが、図55のフローチャートは第2のキャリブレーション処理モードにも適用できる。
第8の実施の形態では、所定の非接触操作600が検出された空間上での位置と検出基準42との位置関係に基づいて、検出基準42を上下方向および/または左右方向に変更した。すなわち検出基準42の上下方向の中心位置および/または左右方向の中心位置を変更するものとして説明した。変形例1の表示装置1は、検出基準42と所定の非接触操作600との空間上における位置関係を変更する際に、検出基準42の幅D1の大きさを変更してもよい。たとえば、図50(a)に示すように、所定の非接触操作600Aが検出基準42の上方の検出基準外41で検出された場合には、下部基準面42bの位置を変更することなく、上部基準面42aのみを変更量ΔH10だけ上方に変更してもよい。すなわち、検出基準42の幅D1を変更することにより、検出基準42の上下方向の中心位置を変更しても良い。または、上部基準面42aを変更量ΔH10だけ上方に変更し、下部基準面42bを変更量ΔH10だけ下方に変更してもよい。すなわち、検出基準42の幅D1を上下方向に同一の変更量ΔH10にて変更することにより、検出基準42の上下方向の中心位置を変更することなく検出基準42を変更しても良い。なお、図50(b)に示すように、検出基準42の下方に所定の非接触操作600Aaが検出された場合には、下部基準面42bの位置を変更量ΔH10だけ下方に変更しても良いし、下部基準面42bの位置を変更量ΔH10だけ下方に変更するとともに上部基準面42aの位置を変更量ΔH10だけ上方に変更しても良い。なお、検出基準42の右側に所定の非接触操作600Abが検出された場合にも、同様に左右方向に側部基準面42cの位置を変更しても良い。すなわち、検出基準42の左右方向の中心位置を変更して検出基準42を変更しても良いし、中心位置を変更することなく検出基準42の幅を変更するようにしても良い。
変形例2の表示装置1について説明する。変形例2の表示装置1は、キャリブレーション処理のときに行われた所定の非接触操作600が検出基準外41で検出された場合、所定の非接触操作600と検出基準42との距離が所定の値以下の場合に、検出基準42を変更する。図50(a)に示すように所定の非接触操作600Aが検出基準42の上方の検出基準外41で検出された場合を例に挙げる。この場合、間隔ΔH10が所定の値以下であると判定されると、すなわち所定の非接触操作600Aが検出基準42の近傍にて行われたと判定されると、表示装置1はユーザが空中像の表示位置への操作を行う意図を有していたものと見なし、検出基準42を変更する。間隔ΔH10が所定の値より大きいと判定されると、すなわち所定の非接触操作600Aが検出基準42から遠く離れた位置にて行われたと判定されると、表示装置1はユーザが空中像の表示位置への操作を行う意図を有していなかった、誤操作であった、または操作を途中で中断したものと見なし、検出基準42を変更しない。
第8の実施の形態の変形例3は、第1の実施の形態の変形例1のように、操作検出器13の検出出力に基づき、ユーザの指先の速度あるいは加速度を算出し、算出した速度または加速度に基づき検出基準42の位置を変更するものであってもよい。すなわち、所定の非接触操作600の少なくとも一部の速さに基づいて、特に、所定の非接触操作600の一部の速さが所定値よりも小さい場合に検出基準42を変更する。図57は変形例3の表示装置1のうち、制御部20と、制御部20によって制御される表示器11および操作検出器13とを示したブロック図である。
ここで所定の非接触操作600の少なくとも一部の速さ、とは、所定の非接触操作600のうち少なくとも一部の操作の速さ、を示すものである。所定の非接触操作600のうちの少なくとも一部の操作、とは、例えば、所定の非接触操作600が検出基準外41の位置から検出基準42に向けて操作された後、引き続き引き返す操作(所定の非接触操作600A)である場合において、その操作が検出基準外41から検出基準42に向かう際の少なくとも一部区間の操作を示す。あるいは、所定の非接触操作600が検出基準42のある位置から検出基準42の一端に向けて操作された後、引き続き引き返す操作(所定の非接触操作600A)である場合において、その一端に向かう際の少なくとも一部区間を示す。
なお、所定の非接触操作600の全操作(例えば所定の非接触操作600Aにおける下降開始してから引き続き上昇し終えるまでの操作)における速度(加速度)をモニターし、その速度(加速度)の平均値を算出して、その平均値に基づいて操作の強弱を判断し、次回以降の操作検出の際に検出基準42を変更するようにしてもよい。例えば、操作速度が平均的に速い場合には検出基準42を突き抜ける可能性があるので、次回以降の検出基準42の幅を広げるよう制御してもよい。
また、操作予測部211は、速度・加速度検出部206により算出された移動速度および/または移動加速度が所定値以上の場合に、指Fの移動軌跡を予測し、検出基準42を変更してもよい。即ち、指Fの移動速度および/または移動加速度が所定値以上の場合に予測された指Fの移動軌跡が、検出基準42にない場合、所定の非接触操作600は検出基準42で検出されないと判断する。その場合、第8の実施の形態の場合と同様にして、算出した変更量ΔH10にて検出基準42を変更する。
なお、キャリブレーション処理の説明として第1のキャリブレーション処理モードを例として説明したが、第2のキャリブレーション処理モードにも適用できる。
また、なお、上述の説明では、速度・加速度検出部206は、操作検出器13によって検出される静電容量値を所定の時間毎に読み出し、所定の時間当たりの静電容量値の変化から指の移動速度を算出すると共に、算出した速度から指の移動加速度を算出したが、この方法に限られず、速度・加速度検出部206として撮像装置を用いてもよい。また、上述の説明では、ユーザの指の移動速度または加速度を算出したが、そのほかに、ユーザの足や肘、ユーザが所持しているスタイラスペンであってもよい。
第8の実施の形態およびその変形例1〜3に係る表示装置1は、一回のキャリブレーション処理において、所定の非接触操作600Aの空間上の位置と検出基準42との位置関係に基づいて、検出基準42の位置を変更した。即ち、1回のユーザ操作で、1回のキャリブレーション処理を行った。変形例4に係る表示装置1は、複数回のユーザ操作で、1回のキャリブレーション処理を行う。つまり、所定の非接触操作600Aが検出基準外41で検出された回数又は所定の非接触操作600Aが検出基準42で検出された回数に基づいて検出基準42を変更する。
なお、複数回のユーザ操作の結果に基づいて検出基準42を変更する場合、それぞれのユーザ操作にて算出された変更量ΔH10の相加平均や相乗平均の値が所定の閾値を超える場合や、それぞれのユーザ操作にて算出された変更量ΔH10が増加傾向にある場合に、検出基準42を変更しても良い。
上述の第8の実施の形態では、所定の非接触操作600は、ユーザが表示位置1に向けて指Fを押し込む操作であった。例えば、図48(a)に示すような指FがUターンする操作であったが、これに限られない。所定の非接触操作600は、表示位置において三本の指を出すことでもよいし、身体の前において指Fの表示位置1への移動動作であってもよい。また、所定の非接触操作600は指Fの移動が所定の時間、例えば20秒間停止する動作であってもよい。
上述の実施の形態では、検出基準制御部204が、所定の非接触操作600が行われたか否かを、操作検出器13の検出出力に基づき判定した。ところが、ユーザによっては、所定の非接触操作600を正確に行わない場合、または上手く行うことができない場合がある。例えば、所定の非接触操作600が、指の10cmの下降移動とそれに引き続く10cmの上昇移動である場合に、ユーザによっては、非接触操作として、指の5cmの下降移動とそれに引き続く5cmの上昇移動と、を行う場合がある。また、所定の非接触操作600が表示位置1において三本の指を出すことである場合に、ユーザによっては三本目の指が上手く開かず、二本の指を出すことがある。また、所定の非接触操作600が身体の前において指Fの表示位置への移動動作である場合に、ユーザによっては身体の横で指Fの表示位置への移動を行う場合がある。また、所定の非接触操作600は指Fの移動が所定の時間、例えば20秒間停止するである場合に、ユーザによっては20秒に達する前に、例えば15秒程度で指を動かしてしまう場合がある。
このような場合、例えば検出基準42の中心位置や検出幅を変更することによって、ユーザ操作の全てを検出基準42で検出できるようにしていたとしても、ユーザの実行している操作自体(ユーザの操作として検出される検出値自体)が「所定の非接触操作600」(所定の非接触操作600を示す基準値)と一致しなければ、たとえ検出基準42(上述のような位置や幅)を設定(変更)したとしても、ユーザ操作を認識できない。このような場合、検出基準42の変更として、所定の非接触操作600を示す基準値を変更することによって、ユーザの操作を所定の非接触操作600である、と認識することができる。
なお、ユーザの複数の操作に基づいて検出基準42(所定の非接触操作600を示す基準値)を変更してもよい。つまり、所定の非接触操作600とは異なるが、類似した非接触操作が複数回行われた場合に、上記の所定の非接触操作600を示す基準値を変更してもよい。
このように、所定の非接触操作600を示す基準値を変更することが検出基準42の変更に含まれる。
第8の実施の形態のおよびその変形例1〜5に係る表示装置1は、所定の非接触操作600や所定の非接触操作600の一部が検出基準外41で検出された場合等に、検出基準42を変更した。
検出基準42の変更を指示する操作が検出基準42で検出された場合に、検出基準42を変更してもよい。この場合の検出基準42の変更には、検出基準42の位置や幅の変更、所定の非接触操作600を示す基準値の変更が含まれる。例えば、変形例6では、キャリブレーションを指示するジェスチャーが表示装置1に記憶されており、ユーザが検出基準42でキャリブレーションを指示するジェスチャーを行った場合、検出基準42を変更してもよい。また、検出基準外41でキャリブレーションを指示するジェスチャーを検出した場合にも、上述と同様にして検出基準42を変更してもよい。
(第8の実施の形態の変形例7)
検出基準制御部204は、音に基づいて、検出基準42を変更してもよい。この場合の検出基準42の変更には、検出基準42の位置や幅の変更、所定の非接触操作600を示す基準値の変更が含まれる。例えば、表示装置1は、第1の実施の形態の変形例6と同様の集音器14を有し、制御部20は、集音器14から入力した音声データを検出する音声検出部208を備える。なお、この場合において、音声検出部208は、「ハイ」以外も音声認識可能な周知の音声認識機能を備えるものである。ユーザが、「実行することができない」旨の発言や会話をした場合や、キャリブレーションして欲しい旨を発言した場合等に、変形例7の表示装置1は、音声認識機能を用いてこの会話や発言を検出して検出基準42を変更する。具体的には、音(発言)を検出したときのユーザの指の位置が含まれるように、検出基準42を移動してもよいし、検出基準42の幅を変更してもよい。あるいは、音(発言)を検出したら、所定量、例えば1cm、ユーザに近づく方向に検出基準42を移動してもよいし、検出基準42の幅を変更してもよい。また、音(発言)を検出したときにユーザの操作として検出された検出値になるよう、所定の非接触操作600を示す基準値を変更してもよい。また、音(発言)を検出したら、所定量だけ所定の非接触操作600を示す基準値を変更してもよい。例えば、所定の非接触操作600を示す基準値として、「10cm下降する」操作を示す値が記憶されていた場合、音(発言)を検出したら「9cm下降する」という操作を示す値を、所定の非接触操作600を示す基準値として変更(更新)してもよい。
なお、表示装置1が集音器14を備えず、外部の集音装置によって取得された音声データを無線や有線を介して入力し、外部の集音装置から入力した音声データを用いて音声検出部208が音声検出をしても良い。
検出基準制御部204は、時間に基づいて、検出基準42を変更してもよい。この場合の検出基準42の変更には、検出基準42の位置や幅の変更、所定の非接触操作600を示す基準値の変更が含まれる。例えば、所定の非接触操作600が検出基準42で所定の時間内に検出されなかった場合に、変形例8の表示装置1は検出基準42を所定量だけ変更する。このために、制御部20は、計時部を備え、表示装置1の電源スイッチがオンされて、所定の時間、アイコンなどに対する操作がない場合に、所定時間を計時した計時部の出力に基づき検出基準制御部204は検出基準42を所定量だけ変更する。また、或るアイコンなどに対する操作が行われた後に、所定の時間経っても次のアイコンなどに対する操作が行われない場合には、所定の時間を計時した計時部の出力に基づき検出基準制御部204は検出基準42を所定量だけ変更する。
変形例8において所定の時間の計時に基づき検出基準42を変更する場合は、検出基準42をユーザの方に近づく方向に所定量移動するように変更することが望ましい。例えば、所定時間にユーザの操作が検出されなかった場合、所定量、例えば1cm、ユーザに近づく方向に検出基準42の中心位置(全体位置)を移動しても良いし、検出基準42の幅を変更しても良い。また、所定時間経過時のユーザの指の位置が含まれるように検出基準42の中心位置を移動しても良いし、検出基準42の幅を変更しても良い。また、所定時間経過時にユーザの操作として検出された検出値になるよう、所定の非接触操作600を示す基準値を変更しても良い。所定時間経過したら、所定量だけ所定の非接触操作600を示す基準値を変更してもよい。例えば、所定の非接触操作600を示す基準値として「10cm下降する」という操作を示す値が記憶されていた場合、所定時間経過したら「9cm下降する」という操作を示す値を、所定の非接触操作600を示す基準値として変更(更新)しても良い。
検出基準制御部204は、ユーザの顔に基づいて、検出基準42を変更してもよい。この場合の検出基準42の変更には、検出基準42の位置や幅の変更、所定の非接触操作600を示す基準値の変更が含まれる。例えば、変形例9の表示装置1に設けられたカメラによって、ユーザの顔を撮像し、制御部20においてその撮像画像を解析して、ユーザの顔の所定の表情を検出(いわゆる顔認識機能による所定表情の認識)すると、検出基準42を変更する。なお、所定の表情は、例えばユーザが上手く操作を行うことができない場合の困った顔などであり、ユーザの困った顔を検出した場合、検出基準42を変更する。
例えば、表示装置1の顔認識機能を用いて、ユーザが困っていることを検出すると、所定量(例えば1cm)ユーザに近づく方向に検出基準42を移動しても良いし、検出基準42の幅を変更しても良い。また、困っている顔を認識する直前にユーザが行っていた操作を示す検出値を記憶しておき、その記憶しておいた検出値に基づいて、所定の非接触操作600を示す基準値を変更しても良い。
検出基準制御部204は、ユーザによるジェスチャー操作が検出基準42で検出されない場合に、検出基準42(検出基準42の位置や幅、所定の非接触操作を示す基準値)を変更してもよい。例えば、所定の非接触操作600としてのユーザによるジェスチャー操作が、例えば、手によるグー、チョキ、パーなどの動作、または指Fの下降移動に引き続く横方向移動の動作の何れかであった場合に、変形例10の表示装置1は、それら各動作の特徴情報(特徴を示す基準値)をそれぞれ記憶部205に予め記憶しておく。そして、表示装置1は、ユーザのジェスチャー操作を検出し、その検出されたジェスチャー操作と、記憶部205に記憶されている複数の特徴情報の中から選択された何れか一つの特徴情報とを比較して、そのジェスチャー操作が上記何れか一つの所定の非接触操作に相当するか否かを判定する。表示装置1は、ユーザのジェスチャー操作が検出基準42で検出されなかった場合に、検出基準42を変更する。この場合の検出基準42の変更は、所定の非接触操作600を示す基準値の選択の変更である。すなわち、例えば表示装置1が、最初はグーを示す特徴情報を検出基準42での検出の際に使用する基準値として選択しているとする。表示装置1は、その検出基準42ではユーザ操作を検出できなかった場合に、基準値を、グーを示す特徴情報から、グーとは別の操作(上述の複数のジェスチャー操作における別の操作、例えばチョキ)を示す特徴情報に選択変更する。
所定の非接触操作600が指Fの位置が所定の位置に一致する動作である場合には、その所定の位置が検出基準42の中にある場合や、所定の位置が検出基準外41にある場合や、所定の位置がアイコンの表示位置に一致する場合や、所定の位置が検出基準42の位置である場合等がある。所定の位置が検出基準42の中にある場合には、指が検出基準42に存在するときに所定の非接触操作600が行われたと判定する。所定の位置が検出基準外41にある場合には、指が検出基準外41にあるときに所定の非接触操作600が行われたと判定する。所定の位置がアイコンの表示位置に一致する場合には、指Fが空中像のアイコンの表示位置に一致したとき、またはアイコンの表示位置を操作したときに所定の非接触操作600が行われたと判定する。所定の位置が検出基準42の位置である場合には、指Fが検出基準42と検出基準外41との境界を通過するときに、または、指が上記の境界を通過し、再度境界を通過するときに、所定の非接触操作600が行われたと判定する。
第8の実施の形態およびその変形例1〜11では、検出基準42は上下方向に幅D1を有するものとして説明したが、第1の実施の形態の検出基準40のように面で構成されても良い。図60(a)、(b)に示すように、検出基準40から下方に向かって距離L1または距離L1以上の位置にてUターンを行う所定の非接触操作600Aが行われた場合に、検出基準40にて所定の非接触操作600Aが行われたことが検出される。図61(a)に示すように検出基準40の上方(静電容量検出範囲13A内)にて所定の非接触操作600Aが行われた場合には、検出基準外41にて、操作検出器13を用いて所定の非接触操作600Aが検出され、図61(b)に示すように、検出基準40を通過して所定の非接触操作600Aが行われた場合に、所定の非接触操作600Aの一部が検出基準外41にて操作検出器13を用いて検出される。図61(a)、(b)の場合には、検出基準40からの距離に基づいて変位量ΔH10を算出し、この変位量ΔH10にて検出基準40の位置(図61中のZ方向の位置)を変更すれば良い。
また、第8の実施の形態およびその変形例1〜12では、空中像の表示位置への操作に対する所定の非接触操作600を行う場合について説明したが、この例に限定されない。例えば、第8の実施の形態およびその変形例1〜12の表示装置の表示器11に表示された画像に対して空間上で所定の非接触操作600を行う場合にも、所定の非接触操作600の空間上の位置と検出基準42との位置関係に基づいて、検出基準42の位置を変更して良い。
11、111 表示器
12、112 結像光学系
13、113 操作検出器
14 集音器
18、118 撮像装置
19 環境検出部
20 制御部
116 投光素子
117 受光素子
119 アクチュエータ
201 画像生成部
202 表示制御部
203 キャリブレーション部
204 検出基準制御部
205 記憶部
206 速度・加速度検出部
207 停止位置予測部
208 音声検出部
209 画像解析部
210 ユーザ情報解析部
220 表示位置制御部
500 表示位置変更部
Claims (19)
- 空中の表示に対する使用者の操作を検出する検出装置と前記表示との位置関係を前記表示を制御し変更する制御部を備え、
前記制御部は、前記位置関係を使用者によって変更可能である制御装置。 - 請求項1に記載の制御装置であって、
前記検出基準または前記検出基準とは異なる検出基準で検出された前記使用者の操作に基づいて前記位置関係を変更する制御装置。 - 請求項1または請求項2に記載の制御装置であって、
前記制御部は、前記使用者によって前記位置関係を変更するタイミングを制御する制御装置。 - 請求項3に記載の制御装置であって、
前記制御部は、前記使用者の操作が終了した後、前記位置関係を変更する制御装置。 - 請求項4に記載の制御装置であって、
前記使用者の操作は、前記使用者の指による操作であり、
前記制御部は、検出された前記指の位置の変化が所定の範囲内である場合、前記使用者の操作が終了したと判定する制御装置。 - 請求項3に記載の制御装置であって、
前記制御部は、前記使用者の発する音声が検出された場合、前記位置関係を変更する制御装置。 - 請求項3に記載の制御装置であって、
前記制御部は、前記表示を前記使用者が視認していない場合、前記位置関係を変更する制御装置。 - 請求項7に記載の制御装置であって、
前記制御部は、検出された前記使用者の視線に関する情報、前記使用者の顔の向きに関する情報、および前記使用者の体の向きに関する情報の少なくとも一つに基づいて、前記使用者が前記表示を視認しているか否かを判定する制御装置。 - 請求項1から請求項8の何れか一項に記載の制御装置であって、
前記制御部は、前記表示を第1所定値以下の速度、または前記第1所定値より速い第2所定値以上の速度で移動させ前記位置関係を変更する制御装置。 - 請求項1から請求項9の何れか一項に記載の制御装置であって、
前記制御部は、前記位置関係を変更する場合、前記表示の表示態様を前記位置関係を変更する前の前記表示の表示態様から異なる表示態様に変更する制御装置。 - 請求項10に記載の制御装置であって、
前記制御部は、前記表示の輝度および前記表示のコントラストのうち少なくとも一方を変更する制御装置。 - 請求項10または請求項11に記載の制御装置であって、
前記制御部は、前記表示の一部の表示態様を変更する制御装置。 - 請求項1から請求項12の何れか一項に記載の制御装置であって、
前記検出基準は、第1検出基準と第2検出基準とを含み、
前記制御部は、前記第1検出基準で検出された前記使用者の操作に基づいて前記表示を制御し、前記第1検出基準と前記表示との第1位置関係を変更し、前記第2検出基準で検出された前記使用者の操作に基づいて前記第2検出基準を制御し、前記第2検出基準と前記表示との第2位置関係を変更する制御装置。 - 請求項1から請求項13のいずれか一項に記載の制御装置であって、
空中に前記表示を表示する表示部を備えた制御装置。 - 請求項14に記載の制御装置であって、
前記表示部を移動させる移動部を備え、
前記制御部は、前記移動部を制御して前記表示部を移動させ、前記位置関係を変更する制御装置。 - 請求項14に記載の制御装置であって、
前記表示部は、視差による立体画像を空中に前記表示させ、
前記制御部は、前記表示部によって表示された前記立体画像の視差を制御して前記位置関係を変更する制御装置。 - 請求項1から請求項16のいずれか一項に記載の制御装置を備えた電子機器。
- 空中の表示を制御し、使用者の操作を検出する検出基準と前記表示との位置関係を使用者によって変更する制御方法。
- 空中の表示を制御し、使用者の操作を検出する検出基準と前記表示との位置関係を使用者によって変更する処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/084716 WO2016103522A1 (ja) | 2014-12-26 | 2014-12-26 | 制御装置、電子機器、制御方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016103522A1 true JPWO2016103522A1 (ja) | 2017-09-14 |
JP6520918B2 JP6520918B2 (ja) | 2019-05-29 |
Family
ID=56149604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016509809A Active JP6520918B2 (ja) | 2014-12-26 | 2014-12-26 | 制御装置、電子機器、制御方法およびプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US10748509B2 (ja) |
EP (1) | EP3239818A4 (ja) |
JP (1) | JP6520918B2 (ja) |
KR (1) | KR20170105404A (ja) |
CN (2) | CN105934732B (ja) |
TW (1) | TW201636796A (ja) |
WO (1) | WO2016103522A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10503392B2 (en) * | 2015-06-25 | 2019-12-10 | Oath Inc. | User interface adjustment methods and systems |
US10722800B2 (en) | 2016-05-16 | 2020-07-28 | Google Llc | Co-presence handling in virtual reality |
US10592048B2 (en) * | 2016-05-17 | 2020-03-17 | Google Llc | Auto-aligner for virtual reality display |
US10459522B2 (en) * | 2016-06-15 | 2019-10-29 | Konkuk University Glocal Industry-Academic Collaboration Foundation | System and method for inducing somatic sense using air plasma and interface device using them |
EP3582093A1 (en) * | 2017-02-09 | 2019-12-18 | Sony Corporation | Information processing device and information processing method |
JP2019185169A (ja) * | 2018-04-03 | 2019-10-24 | 富士通コンポーネント株式会社 | 入力装置 |
JP2019197190A (ja) * | 2018-05-11 | 2019-11-14 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
KR102101565B1 (ko) * | 2018-08-21 | 2020-04-16 | 박주현 | 미디어 안내장치 |
EP3651003B1 (en) * | 2018-11-07 | 2022-04-06 | Vestel Elektronik Sanayi ve Ticaret A.S. | Touch-sensitive input device, screen and method |
US11481069B2 (en) * | 2020-09-15 | 2022-10-25 | International Business Machines Corporation | Physical cursor control in microfluidic display devices |
JP2022100561A (ja) * | 2020-12-24 | 2022-07-06 | マクセル株式会社 | 空間浮遊映像表示装置 |
JP6916568B1 (ja) * | 2021-01-29 | 2021-08-11 | 株式会社ツガワ | 端末処理装置 |
JP7349200B1 (ja) | 2022-12-19 | 2023-09-22 | 株式会社ソリトンウェーブ | 非接触入力装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011108152A (ja) * | 2009-11-20 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | 3次元入力表示装置 |
JP2011175617A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2012098959A (ja) * | 2010-11-02 | 2012-05-24 | Sony Corp | 表示装置、位置補正方法およびプログラム |
JP2012203736A (ja) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
JP2012216095A (ja) * | 2011-03-31 | 2012-11-08 | Sharp Corp | 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 |
JP2015125765A (ja) * | 2013-12-27 | 2015-07-06 | 船井電機株式会社 | 画像表示装置 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060176294A1 (en) * | 2002-10-07 | 2006-08-10 | Johannes Vaananen | Cursor for electronic devices |
US7893920B2 (en) | 2004-05-06 | 2011-02-22 | Alpine Electronics, Inc. | Operation input device and method of operation input |
JP4274997B2 (ja) | 2004-05-06 | 2009-06-10 | アルパイン株式会社 | 操作入力装置および操作入力方法 |
CN101042621A (zh) * | 2006-03-20 | 2007-09-26 | 南京Lg同创彩色显示系统有限责任公司 | 写字板显示器的误差校正装置及其方法 |
JP4318056B1 (ja) | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
JP4793422B2 (ja) | 2008-10-10 | 2011-10-12 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム |
TW201020901A (en) * | 2008-11-20 | 2010-06-01 | Ibm | Visual feedback for drag-and-drop operation with gravitational force model |
JP4701424B2 (ja) | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
US8514255B2 (en) * | 2009-08-31 | 2013-08-20 | Namco Bandai Games Inc. | Information storage medium, image control device, and image control method |
WO2011158475A1 (ja) * | 2010-06-16 | 2011-12-22 | パナソニック株式会社 | 情報入力装置、情報入力方法及びプログラム |
CN101866243A (zh) | 2010-07-09 | 2010-10-20 | 苏州瀚瑞微电子有限公司 | 三维空间触控操作的方法及其手势 |
US20120056989A1 (en) * | 2010-09-06 | 2012-03-08 | Shimane Prefectural Government | Image recognition apparatus, operation determining method and program |
EP2620849B1 (en) | 2010-09-22 | 2019-08-28 | Shimane Prefectural Government | Operation input apparatus, operation input method, and program |
JP5785753B2 (ja) | 2011-03-25 | 2015-09-30 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
TW201248452A (en) * | 2011-05-30 | 2012-12-01 | Era Optoelectronics Inc | Floating virtual image touch sensing apparatus |
CN102566822A (zh) * | 2012-01-17 | 2012-07-11 | 苏州瀚瑞微电子有限公司 | 一种触摸屏的自动校准方法 |
CN108469899B (zh) * | 2012-03-13 | 2021-08-10 | 视力移动技术有限公司 | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 |
KR20130109389A (ko) * | 2012-03-27 | 2013-10-08 | 박승배 | 개인화 가상키보드 제공방법 |
CN103376891A (zh) * | 2012-04-23 | 2013-10-30 | 凹凸电子(武汉)有限公司 | 多媒体系统,显示装置的控制方法及控制器 |
US9524098B2 (en) * | 2012-05-08 | 2016-12-20 | Sonos, Inc. | Methods and systems for subwoofer calibration |
JP6040564B2 (ja) * | 2012-05-08 | 2016-12-07 | ソニー株式会社 | 画像処理装置、投影制御方法及びプログラム |
JP2014067071A (ja) | 2012-09-10 | 2014-04-17 | Askanet:Kk | 空中タッチパネル |
US20140191927A1 (en) * | 2013-01-09 | 2014-07-10 | Lg Electronics Inc. | Head mount display device providing eye gaze calibration and control method thereof |
CN103731526A (zh) * | 2014-01-21 | 2014-04-16 | 唐景华 | 一种能将三维画面悬浮在空中虚拟成像的智能手机 |
JP6378781B2 (ja) * | 2014-12-19 | 2018-08-22 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着型表示装置、及び映像表示システム |
-
2014
- 2014-12-26 CN CN201480046601.4A patent/CN105934732B/zh active Active
- 2014-12-26 CN CN202110375065.4A patent/CN112965636A/zh active Pending
- 2014-12-26 WO PCT/JP2014/084716 patent/WO2016103522A1/ja active Application Filing
- 2014-12-26 US US15/123,893 patent/US10748509B2/en active Active
- 2014-12-26 KR KR1020167004326A patent/KR20170105404A/ko not_active Application Discontinuation
- 2014-12-26 EP EP14909123.3A patent/EP3239818A4/en not_active Withdrawn
- 2014-12-26 JP JP2016509809A patent/JP6520918B2/ja active Active
-
2015
- 2015-12-24 TW TW104143546A patent/TW201636796A/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011108152A (ja) * | 2009-11-20 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | 3次元入力表示装置 |
JP2011175617A (ja) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2012098959A (ja) * | 2010-11-02 | 2012-05-24 | Sony Corp | 表示装置、位置補正方法およびプログラム |
JP2012203736A (ja) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
JP2012216095A (ja) * | 2011-03-31 | 2012-11-08 | Sharp Corp | 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 |
JP2015125765A (ja) * | 2013-12-27 | 2015-07-06 | 船井電機株式会社 | 画像表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US20170025097A1 (en) | 2017-01-26 |
EP3239818A1 (en) | 2017-11-01 |
CN105934732A (zh) | 2016-09-07 |
CN105934732B (zh) | 2021-04-27 |
CN112965636A (zh) | 2021-06-15 |
TW201636796A (zh) | 2016-10-16 |
JP6520918B2 (ja) | 2019-05-29 |
KR20170105404A (ko) | 2017-09-19 |
WO2016103522A1 (ja) | 2016-06-30 |
EP3239818A4 (en) | 2018-07-11 |
US10748509B2 (en) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6365660B2 (ja) | 検出装置、電子機器、検出方法およびプログラム | |
WO2016103522A1 (ja) | 制御装置、電子機器、制御方法およびプログラム | |
JP6724987B2 (ja) | 制御装置および検出方法 | |
JP6822472B2 (ja) | 表示装置、プログラム、表示方法および制御装置 | |
JP6733731B2 (ja) | 制御装置、プログラムおよび制御方法 | |
US20220011900A1 (en) | Detection device and program | |
JP6658809B2 (ja) | 検出装置、電子機器、検出方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180907 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181009 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20181210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6520918 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |