CN105786170A - 移动终端及其控制方法 - Google Patents
移动终端及其控制方法 Download PDFInfo
- Publication number
- CN105786170A CN105786170A CN201510977701.5A CN201510977701A CN105786170A CN 105786170 A CN105786170 A CN 105786170A CN 201510977701 A CN201510977701 A CN 201510977701A CN 105786170 A CN105786170 A CN 105786170A
- Authority
- CN
- China
- Prior art keywords
- mobile terminal
- hologram image
- image
- gesture
- touch screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000001093 holography Methods 0.000 claims abstract description 60
- 238000004891 communication Methods 0.000 claims abstract description 49
- 230000004044 response Effects 0.000 claims abstract description 15
- 230000008859 change Effects 0.000 claims description 10
- 230000033228 biological regulation Effects 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000007599 discharging Methods 0.000 claims 2
- 230000036410 touch Effects 0.000 description 117
- 230000006870 function Effects 0.000 description 23
- 239000000463 material Substances 0.000 description 21
- 210000000707 wrist Anatomy 0.000 description 17
- 230000001276 controlling effect Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 12
- 210000003811 finger Anatomy 0.000 description 11
- 210000004247 hand Anatomy 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 108090000565 Capsid Proteins Proteins 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000000712 assembly Effects 0.000 description 6
- 238000000429 assembly Methods 0.000 description 6
- 239000011469 building brick Substances 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 239000012528 membrane Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001105 regulatory effect Effects 0.000 description 5
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 239000010408 film Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006698 induction Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- 229920003002 synthetic resin Polymers 0.000 description 3
- 239000000057 synthetic resin Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 210000005224 forefinger Anatomy 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 239000010936 titanium Substances 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 206010016326 Feeling cold Diseases 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000009351 contact transmission Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000000178 monomer Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/04—Processes or apparatus for producing holograms
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
- G03H1/2294—Addressing the hologram to an active spatial light modulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/12—Synchronisation between the display unit and other units, e.g. other display units, video-disc players
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
- G03H2001/0061—Adaptation of holography to specific applications in haptic applications when the observer interacts with the holobject
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H2227/00—Mechanical components or mechanical aspects not otherwise provided for
- G03H2227/02—Handheld portable device, e.g. holographic camera, mobile holographic display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/06—Consumer Electronics Control, i.e. control of another device by a display or vice versa
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
移动终端及其控制方法。一种移动终端,该移动终端包括:触摸屏;无线通信单元,该无线通信单元被配置为与具有布置在手表终端的表带中的全息模块并且被用户穿戴的外部手表终端进行无线通信;感测单元,该感测单元被配置为感测所述用户的手势;以及控制器,该控制器被配置为:在所述触摸屏上显示规定应用的启动画面,接收通过所述感测单元感测到的规定手势,并且响应于所接收到的规定手势来控制所述无线通信单元向所述外部终端发送控制命令以输出与所述启动画面对应的全息图像。
Description
技术领域
本发明涉及移动终端,并且更具体地,涉及一种移动终端及其控制方法。尽管本发明适合于宽范围的应用,但是它特别地适合于方便进一步考虑到用户的方便的终端的使用。
背景技术
终端通常可以被分类为移动/便携终端或固定终端。移动终端还可以被分类为手持终端或车载终端。移动终端已经变得越来越多功能。这些功能的示例包括数据和语音通信、经由相机拍摄图像和视频、记录音频、经由扬声器系统播放音乐文件、以及在显示器上显示图像和视频。
一些移动终端包括支持玩游戏的附加功能,而其它终端被配置为多媒体播放器。最近,移动终端已经被配置为接收广播和多播信号,其使得能够观看诸如视频和电视节目的内容。正在进行努力以支持并且增加移动终端的功能性。这些努力包括软件和硬件改进以及结构组件方面的改变和改进。
近来,可穿戴装置的应用领域已经变得广泛。做出了许多正在进行的努力以研究和发展各种类型的可穿戴装置,并且存在作为可穿戴装置的代表性形式的手表型移动终端。可穿戴装置能够通过互连至不同的移动终端以改进用户的方便来使用。例如,通过可穿戴装置输出的规定应用的启动画面还能够通过互连至可穿戴装置的不同移动终端来输出。
然而,这种启动画面的互连仅是输出的复制或扩展。因此,需要用于通过启动画面的互连提供更有效的输出的控制方法。
发明内容
因此,本发明的目的是解决以上指出的和其它问题。
本发明的另一目的是提供一种用于通过所述移动终端的触摸屏的前表面上方的空白空间输出全息图像的移动终端及其控制方法。
可从本发明获得的技术任务不受上述技术任务限制。并且,其它未提及的技术任务能够从以下描述由本发明所属的技术领域内的普通技术人员清楚地理解。
本发明的附加的优点、目的和特征在本文的公开以及附图中将被阐述。这些方面还可以由本领域技术人员基于本文的公开来理解。
为了实现这些目的和其它优点并且根据本发明的目的,如本文具体实现和广义描述的,根据本发明的实施方式的移动终端可以包括:感测单元,该感测单元被配置为感测用户的手势;触摸屏;无线通信单元,该无线通信单元被配置为向具有全息模块的外部终端发送针对全息图像的控制命令;以及控制器,该控制器用于控制所述触摸屏输出规定应用的启动画面,所述控制器,如果通过所述感测单元感测到规定手势,则将所述控制命令发送到所述外部终端以输出与所述启动画面对应的所述全息图像。
在本发明的另一方面中,根据本发明的实施方式的控制向具有全息模块的外部终端发送针对全息图像的控制命令的移动终端的方法可以包括以下步骤:通过感测单元来感测用户的手势;通过触摸屏来输出规定应用的启动画面;以及,如果通过所述感测步骤感测到规定手势,则将所述控制命令发送到所述外部终端以输出与所述启动画面对应的所述全息图像。
根据本发明的实施方式的移动终端及其控制方法提供了以下效果和/或特征。
根据本发明的实施方式中的至少一个,本发明具有容易地输出全息图像的优点。
根据本发明的实施方式中的至少一个,本发明具有输出与通过触摸屏输出的图像同步的全息图像的优点。
可从本发明获得的效果可以不受上文提及的效果限制。并且,其它未提及的效果能够由本发明所属的技术领域的普通技术人员从以下描述清楚地理解。
应当理解,本发明的以上总体描述和以下具体描述这二者是示例性和说明性的,并且旨在提供对要求保护的本发明的进一步说明。
附图说明
本发明将从本文下面给出的详细描述和附图而变得更充分地理解,其仅例示性地给出,因此不限制本发明,附图中:
图1A是根据本公开的移动终端的框图;
图1B和图1C是从不同方向看时移动终端的一个示例的概念图;
图2是与本发明的另一实施方式有关的手表型移动终端300的一个示例的立体图;
图3是通过如图2所示的全息模块实现的全息图像的概念图;
图4是根据本发明的一个实施方式的用于控制从全息模块156投影的光束的方向的方法的图;
图5A和图5B是用于描述全息照相的原理的概念图;
图6A至图6C是用于描述透射型全息照相的概念图,图7A至图7C是用于描述反射型全息照相的概念图;
图8是根据本发明的一个实施方式的用于调节全息图像的输出位置的控制方法的图;
图9是根据本发明的一个实施方式的用于控制输出的全息图像的大小的控制方法的图;
图10是根据本发明的一个实施方式的用于使全息图像311旋转的控制方法的图;
图11是根据本发明的一个实施方式的用于基于显示单元上的触摸输入来控制全息图像311的控制方法的图;
图12是根据本发明的一个实施方式的用于输出用于控制全息图像的子板的控制方法的图;
图13是根据本发明的一个实施方式的用于利用子板来输出规定信息的控制方法的图;
图14是根据本发明的一个实施方式的关于能够被输出的建筑物的各个楼层的信息的示例的图;
图15是根据本发明的一个实施方式的用于使全息图像311旋转的控制方法的图;
图16是用于描述用于消除全息图像的手势的图;
图17是用于从全息图像中选择特定物体并仅对该特定物体进行放大的控制方法的图;
图18、图19和图20是本发明的一个实施方式中的可用手势的示例的图;
图21和图22是根据本发明的一个实施方式的用于基于向上或向下扫掠腕部的手势来控制移动终端的控制方法的图;以及
图23是根据本发明的一个实施方式的用于输出全息图像的控制方法的流程图。
具体实施方式
现在将参照附图根据本文所公开的示例性实施方式详细地给出描述。为了参照附图简要描述,可以为相同或等同的组件提供相同的标号,其描述将不再重复。一般而言,诸如“模块”和“单元”的后缀可以用于指代元件或组件。本文使用这种后缀仅是为了方便说明书的描述,后缀本身并非旨在给予任何特殊含义或功能。在本公开中,已经总体上省略了对相关领域的普通技术人员众所周知的内容。使用附图来帮助容易地理解各种技术特征,应该理解,本文呈现的实施方式不受附图的限制。因此,本公开应该被解释为扩展至附图中具体示出的更改形式、等同形式和替代形式以外的任何更改形式、等同形式和替代形式。
尽管本文中可能使用术语第一、第二等来描述各种元件,但是这些元件不应受这些术语的限制。这些术语通常仅用于将一个元件与另一元件相区分。当元件被称为“与”另一元件“连接”时,该元件能够与所述另一元件连接或者还可以存在中间元件。相比之下,当元件被称为“与”另一元件“直接连接”时,不存在中间元件。
除非从上下文看出表示明确不同的含义,否则单数表示形式可以包括多数表示形式。本文中使用诸如“包括”或“具有”的术语,应该理解它们旨在指示存在说明书中公开的多个组件、功能或步骤,还将理解同样可以利用更多或更少的组件、功能或步骤。
本文呈现的移动终端可以利用各种不同类型的终端来实现。这些终端的示例包括蜂窝电话、智能电话、用户设备、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、石板PC、平板PC、超极本、可穿戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等。仅作为非限制性示例,参照特定类型的移动终端进行进一步的描述。然而,这些教导同样适用于其它类型的终端,例如上述那些类型。另外,这些教导也可以适用于诸如数字TV、台式计算机等的固定终端。
现在参照图1A至图1C,其中图1A是根据本公开的移动终端的框图,图1B和图1C是从不同方向看时移动终端的一个示例的概念图。移动终端100被示出为具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180和电源单元190的组件。不要求实现所例示的所有组件,可以另选地实现更多或更少的组件。
现在参照图1A,移动终端100被示出为具有无线通信单元110,该无线通信单元110配置有多个通常实现的组件。无线通信单元110通常包括允许通信(例如,移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端之间的通信、移动终端100与外部服务器之间的通信)的一个或更多个模块。另外,无线通信单元110通常包括将移动终端100连接到一个或更多个网络的一个或更多个模块。为了方便这些通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线互联网模块113、短距离通信模块114和位置信息模块115中的一个或更多个。
输入单元120包括用于获得图像或视频的相机121、麦克风122(是用于输入音频信号的一种音频输入装置)以及用于使得用户能够输入信息的用户输入单元123(例如,触摸键、按键、机械键、软键等)。数据(例如,音频、视频、图像等)通过输入单元120来获得,并且可以由控制器180根据装置参数、用户命令及其组合来分析和处理。
感测单元140通常利用被配置为感测移动终端的内部信息、移动终端的周围环境、用户信息等的一个或更多个传感器来实现。例如,在图1A中,感测单元140被示出为具有接近传感器141和照明传感器142。如果需要,感测单元140可以另选地或另外地包括其它类型的传感器或装置,例如触摸传感器、加速度传感器、磁传感器、重力传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池电量计、环境传感器(例如,气压计、湿度计、温度计、辐射检测传感器、热传感器和气体传感器等)和化学传感器(例如,电子鼻、保健传感器、生物传感器等)等。移动终端100可以被配置为利用从感测单元140获得的信息,具体地讲,从感测单元140的一个或更多个传感器获得的信息,及其组合。
输出单元150通常被配置为输出各种类型的信息,例如音频、视频、触觉输出等。输出单元150被示出为具有显示单元151、音频输出模块152、触觉模块153和光学输出模块154。显示单元151可以具有与触摸传感器的中间层结构或集成结构,以便方便触摸屏。触摸屏可以在移动终端100与用户之间提供输出接口,并且用作在移动终端100与用户之间提供输入接口的用户输入单元123。
接口单元160用作与能够连接到移动终端100的各种类型的外部装置的接口。例如,接口单元160可以包括任何有线或无线端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。在一些情况下,移动终端100可以响应于外部装置连接到接口单元160而执行与连接的外部装置关联的各种配套控制功能。
存储器170通常被实现为存储用于支持移动终端100的各种功能或特征的数据。例如,存储器170可以被配置为存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或指令等。这些应用程序中的一些应用程序可以经由无线通信从外部服务器下载。其它应用程序可以在制造或出厂时安装在移动终端100内,针对移动终端100的基本功能(例如,接电话、打电话、接收消息、发送消息等),通常是这种情况。常见的是,应用程序被存储在存储器170中,被安装在移动终端100中,并由控制器180执行以执行移动终端100的操作(或功能)。
除了与应用程序关联的操作以外,控制器180通常还用于控制移动终端100的总体操作。控制器180处理通过上述组件输入或输出的信号、数据、信息等和/或运行保存在存储器170中的应用程序,从而处理或者给用户提供适当的信息和/或功能。
控制器180能够通过对由图1A所描绘的各种组件输入或输出的信号、数据、信息等进行处理、或者激活存储在存储器170中的应用程序,来提供或处理适合于用户的信息或功能。作为一个示例,控制器180根据已经存储在存储器170中的应用程序的执行来控制图1A-图1C所例示的一些或全部组件。
电源单元190能够被配置为接收外部电力或提供内部电力,以便供应对包括在移动终端100中的元件和组件进行操作所需的适当电力。电源单元190可以包括电池,所述电池可以被配置为嵌入终端主体中,或者被配置为可从终端主体拆卸。
在以上描述中提及的相应的组件中的至少一部分能够协作地操作以具体实现根据在以下描述中提及的本发明的各种实施方式的移动终端的操作、控制或控制方法。而且,移动终端的操作、控制或控制方法能够通过运行保存在存储器170中的至少一个或更多个应用程序具体实现在移动终端中。
仍参照图1A,现在将更详细地描述该图中描绘的各种组件。关于无线通信单元110,广播接收模块111通常被配置为经由广播频道从外部广播管理实体接收广播信号和/或广播相关信息。广播频道可以包括卫星频道、地面频道或这二者。在一些实施方式中,可以使用两个或更多个广播接收模块111以方便同时接收两个或更多个广播频道或支持在广播频道之间切换。
广播管理实体可以利用生成并发送广播信号和/或广播相关信息的服务器或系统或者接收预先生成的广播信号和/或广播相关信息并将这些项目发送给移动终端的服务器来实现。除了别的以外,广播信号可以利用TV广播信号、无线电广播信号、数据广播信号及其组合中的任一个来实现。在一些情况下,广播信号还可以包括与TV或无线电广播信号组合的数据广播信号。
广播信号可以根据用于数字广播信号的发送和接收的各种技术标准或广播方法(例如,国际标准化组织(ISO)、国际电工委员会(IEC)、数字视频广播(DVB)、高级电视系统委员会(ATSC)等)中的任一种来编码。广播接收模块111能够利用适合于使用的发送方法的方法来接收数字广播信号。
广播相关信息的示例可以包括与广播信道、广播节目、广播事件、广播服务提供商等关联的信息。广播相关信息还可以经由移动通信网络来提供,并且在这种情况下由移动通信模块112来接收。
广播相关信息可以按照各种格式来实现。例如,广播相关信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)、手持数字视频广播(DVB-H)的电子服务指南(ESG)等。经由广播接收模块111接收的广播信号和/或广播相关信息可以被存储在诸如存储器170的合适的装置中。
移动通信模块112能够向一个或更多个网络实体发送无线信号和/或从其接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等。这些网络实体形成移动通信网络的一部分,所述移动通信网络根据移动通信的技术标准或通信方法(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA2000(码分多址2000)、EV-DO(增强型优化语音数据或增强型仅语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等)来构建。经由移动通信模块112发送和/或接收的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号或者支持文本和多媒体消息的通信的各种格式的数据。
无线互联网模块113被配置为方便无线互联网接入。此模块可以从内部或外部连接到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络发送和/或接收无线信号。这种无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(WiBro)、全球微波接入互操作性(WiMAX)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等。无线互联网模块113可以根据这些无线互联网技术以及其它互联网技术中的一个或更多个来发送/接收数据。
在一些实施方式中,当根据(例如)WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LET、LTE-A等实现无线互联网接入时,作为移动通信网络的一部分,无线互联网模块113执行这种无线互联网接入。因此,互联网模块113可以与移动通信模块112协作或用作移动通信模块112。
短距离通信模块114被配置为方便短距离通信。用于实现这些短距离通信的合适的技术包括BLUETOOTH、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、ZigBee、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等。短距离通信模块114通常经由无线局域网支持移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端100之间的通信或者移动终端与另一移动终端100(或外部服务器)所在的网络之间的通信。无线局域网的一个示例是无线个域网。
在一些实施方式中,另一移动终端(可以类似于移动终端100来配置)可以是能够与移动终端100交换数据(或者与移动终端100协作)的可穿戴装置(例如,智能手表、智能眼镜或头戴式显示器(HMD))。短距离通信模块114可以感测或识别可穿戴装置,并允许可穿戴装置与移动终端100之间的通信。另外,当所感测到的可穿戴装置是被验证与移动终端100进行通信的装置时,例如,控制器180可以经由短距离通信模块114将在移动终端100中处理的数据发送给可穿戴装置。因此,可穿戴装置的用户可以在可穿戴装置上使用在移动终端100中处理的数据。例如,当在移动终端100中接到电话时,用户能够利用可穿戴装置来应答电话。另外,当在移动终端100中接收到消息时,用户能够利用可穿戴装置来查看所接收到的消息。
位置信息模块115通常被配置为检测、计算、推导或者标识移动终端的位置。例如,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块或这二者。如果需要,位置信息模块115可以另选地或另外地与无线通信单元110的任何其它模块一起工作,以获得与移动终端的位置有关的数据。
作为一个示例,当移动终端使用GPS模块时,可以利用从GPS卫星发送的信号来获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,能够基于与无线接入点(AP)有关的信息来获取移动终端的位置,所述无线接入点(AP)向Wi-Fi模块发送无线信号或从Wi-Fi模块接收无线信号。
输入单元120可以被配置为允许向移动终端120的各种类型的输入。这种输入的示例包括音频、图像、视频、数据和用户输入。图像和视频输入常常利用一个或更多个相机121来获得。这些相机121可以对在视频或图像拍摄模式下通过图像传感器获得的静止画面或视频的图像帧进行处理。经处理的图像帧能够被显示在显示单元151上或存储在存储器170中。在一些情况下,相机121可以按照矩阵配置布置,以使得具有各种角度或焦点的多个图像能够被输入至移动终端100。作为另一示例,相机121可以按照立体布置方式来设置,以获取用于实现立体图像的左图像和右图像。
麦克风122通常被实现为允许向移动终端100输入音频。能够根据移动终端100中执行的功能来按照各种方式处理音频输入。如果需要,麦克风122可以包括配套噪声去除算法以去除在接收外部音频的过程中生成的不期望的噪声。
用户输入单元123是允许用户输入的组件。这种用户输入可以使得控制器180能够控制移动终端100的操作。用户输入单元123可以包括机械输入元件(例如,位于移动终端100的正面和/或背面或侧面的键、按钮、薄膜开关、滚轮、触合式开关等)或者触敏输入装置等中的一个或更多个。作为一个示例,触敏输入装置可以是通过软件处理显示在触摸屏上的虚拟键或软键、或者设置在移动终端上的触摸屏以外的位置处的触摸键。此外,虚拟键或视觉键可以按照各种形状(例如,图形、文本、图标、视频或其组合)显示在触摸屏上。
感测单元140通常被配置为感测移动终端的内部信息、移动终端的周围环境信息、用户信息等中的一个或更多个。控制器180通常与感测单元140协作以基于感测单元140所提供的感测来控制移动终端100的操作或者执行与安装在移动终端中的应用程序关联的数据处理、功能或操作。可以利用各种传感器中的任何传感器来实现感测单元140,现在将更详细地描述其中一些传感器。
接近传感器141可以包括在没有机械接触的情况下,利用电磁场、红外线等来感测是否存在靠近表面的物体或者位于表面附近的物体的传感器。接近传感器141可以布置在移动终端被触摸屏覆盖的内侧区域处或触摸屏附近。
例如,接近传感器141可以包括透射型光电传感器、直接反射型光电传感器、反射镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等中的任何传感器。当触摸屏被实现为电容型时,接近传感器141能够通过电磁场响应于导电物体的靠近而发生的变化来感测指点器相对于触摸屏的接近。在这种情况下,触摸屏(触摸传感器)也可以被归类为接近传感器。
本文中常常将提及术语“接近触摸”以表示指点器被设置成在没有接触触摸屏的情况下接近触摸屏的情景。本文中常常将提及术语“接触触摸”以表示指点器与触摸屏进行物理接触的情景。对于与指点器相对于触摸屏的接近触摸对应的位置,这种位置将对应于指点器垂直于触摸屏的位置。接近传感器141可以感测接近触摸以及接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等)。
通常,控制器180对与接近传感器141所感测的接近触摸和接近触摸模式对应的数据进行处理,并在触摸屏上输出视觉信息。另外,控制器180能够根据对触摸屏上的点的触摸是接近触摸还是接触触摸来控制移动终端100执行不同的操作或处理不同的数据。
触摸传感器能够利用各种触摸方法中的任何触摸方法来感测施加到触摸屏(例如,显示单元151)的触摸。这些触摸方法的示例包括电阻型、电容型、红外型和磁场型等。作为一个示例,触摸传感器可以被配置为将施加到显示单元151的特定部分的压力的变化或者在显示单元151的特定部分处发生的电容的变化转换为电输入信号。触摸传感器还可以被配置为不仅感测触摸位置和触摸面积,而且感测触摸压力和/或触摸电容。通常使用触摸物体来对触摸传感器施加触摸输入。典型的触摸物体的示例包括手指、触摸笔、手写笔、指点器等。
当通过触摸传感器感测到触摸输入时,可以将对应信号发送给触摸控制器。触摸控制器可以对所接收到的信号进行处理,然后将对应数据发送给控制器180。因此,控制器180能够感测显示单元151的哪一区域被触摸。这里,触摸控制器可以是独立于控制器180的组件、控制器180及其组合。
在一些实施方式中,控制器180能够根据对触摸屏或者除触摸屏以外设置的触摸键进行触摸的触摸物体的类型来执行相同或不同的控制。例如,根据提供触摸输入的物体是执行相同的控制还是不同的控制可以基于移动终端100的当前操作状态或者当前执行的应用程序来决定。
触摸传感器和接近传感器可以单独实现或者组合实现,以感测各种类型的触摸。这些触摸包括短(或轻敲)触摸、长触摸、多触摸、拖曳触摸、轻拂触摸、缩小触摸、放大触摸、轻扫触摸、悬停触摸等。
如果需要,可以实现超声传感器以利用超声波来识别与触摸物体有关的位置信息。例如,控制器180可以基于由照明传感器和多个超声传感器感测的信息来计算波生成源的位置。由于光远比超声波快,所以光到达光学传感器的时间远比超声波到达超声传感器的时间短。可以利用这一事实来计算波生成源的位置。例如,可以基于光作为参考信号利用相对于超声波到达传感器的时间的时间差来计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等)、光电传感器(或图像传感器)和激光传感器。利用激光传感器实现相机121可以允许检测物理对象相对于3D立体图像的触摸。光电传感器可以被层合在显示装置上或者与显示装置交叠。光电传感器可以被配置为对接近触摸屏的物理对象的移动进行扫描。更详细地讲,光电传感器可以包括成行和列的光电二极管和晶体管,以利用根据施加的光的量而变化的电信号来对光电传感器处接收的内容进行扫描。即,光电传感器可以根据光的变化来计算物理对象的坐标,从而获得物理对象的位置信息。
显示单元151通常被配置为输出在移动终端100中处理的信息。例如,显示单元151可以显示在移动终端100处执行的应用程序的执行画面信息或者响应于执行画面信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施方式中,显示单元151可以被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可以采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等的立体显示方案。
通常,3D立体图像可以包括左图像(例如,左眼图像)和右图像(例如,右眼图像)。根据左图像和右图像如何组合成3D立体图像,3D立体成像方法能够分为左图像和右图像在帧中上下布置的上下方法、左图像和右图像在帧中左右布置的L至R(左至右或并排)方法、左图像和右图像的片段以拼块形式布置的棋盘格方法、左图像和右图像按照列或行交替布置的交织方法以及左图像和右图像基于时间交替显示的时间顺序(逐帧)方法。
并且,对于3D缩略图图像,能够分别从原始图像帧的左图像和右图像生成左图像缩略图和右图像缩略图,然后将其组合以生成单个3D缩略图图像。通常,术语“缩略图”可以用于表示缩小的图像或者缩小的静止图像。生成的左图像缩略图和右图像缩略图可以按照与左图像和右图像之间的视差对应的深度利用二者间的水平距离差来显示在屏幕上,从而提供立体空间感。
实现3D立体图像所需的左图像和右图像可以利用立体处理单元来显示在立体显示单元上。立体处理单元可接收3D图像并提取左图像和右图像,或者可接收2D图像并将其改变为左图像和右图像。
音频输出模块152通常被配置为输出音频数据。这些音频数据可以从多种不同的源中的任何源获得,使得所述音频数据可以从无线通信单元110接收或者可以存储在存储器170中。所述音频数据可以在诸如信号接收模式、呼叫模式、录制模式、语音识别模式、广播接收模式等的模式下输出。音频输出模块152能够提供与移动终端100所执行的特定功能有关的可听输出(例如,呼叫信号接收音、消息接收音等)。音频输出模块152还可以被实现为受话器、扬声器、蜂鸣器等。
触觉模块153能够被配置为产生用户感觉、感知或者体验的各种触觉效果。由触觉模块153产生的触觉效果的典型示例是振动。由触觉模块153产生的振动的强度、模式等能够通过用户选择或控制器的设定来控制。例如,触觉模块153可以按照组合方式或顺序方式输出不同的振动。
除了振动以外,触觉模块153能够产生各种其它触觉效果,包括诸如插针排列向接触皮肤垂直移动、通过喷射孔或抽吸开口的空气的喷射力或抽吸力、对皮肤的触摸、电极的接触、静电力等的刺激效果、利用能够吸热或发热的元件再现冷和热的感觉的效果等。
除了通过直接接触传递触觉效果以外,触觉模块153还能够被实现为使得用户能够通过诸如用户的手指或手臂的肌肉觉来感觉到触觉效果。可以根据移动终端100的特定配置设置两个或更多个触觉模块153。
光学输出模块154能够输出用于利用光源的光指示事件的发生的信号。移动终端100中发生的事件的示例可以包括消息接收、呼叫信号接收、未接呼叫、闹钟、日程提醒、电子邮件接收、通过应用的信息接收等。
由光学输出模块154输出的信号可以被实现为使得移动终端发射单色光或多种颜色的光。例如,随着移动终端感测到用户已查看所发生的事件,信号输出可以被终止。图1A还例示了稍后将更详细地描述的投影器模块155和全息模块156。
接口单元160用作要与移动终端100连接的外部装置的接口。例如,接口单元160能够接收从外部装置发送来的数据,接收电力以输送给移动终端100内的元件和组件,或者将移动终端100的内部数据发送给这种外部装置。接口单元160可以包括有线或无线头戴式耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
所述标识模块可以是存储用于验证移动终端100的使用权限的各种信息的芯片,并且可以包括用户标识模块(UIM)、订户标识模块(SIM)、全球订户标识模块(USIM)等。另外,具有标识模块的装置(本文中也称作“标识装置”)可以采取智能卡的形式。因此,标识装置能够经由接口单元160与终端100连接。
当移动终端100与外部托架连接时,接口单元160能够用作使得能够将来自托架的电力供应给移动终端100的通道,或者可以用作使得能够用来将由用户从托架输入的各种命令信号输送给移动终端的通道。从托架输入的各种命令信号或电力可以用作用于识别出移动终端被正确安装在托架上的信号。
存储器170能够存储用于支持控制器180的操作的程序,并存储输入/输出数据(例如,电话簿、消息、静止图像、视频等)。存储器170可以存储与响应于触摸屏上的触摸输入而输出的各种模式的振动和音频有关的数据。
存储器170可以包括一种或更多种类型的存储介质,包括闪存、硬盘、固态盘、硅磁盘、微型多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等。移动终端100还可以与在诸如互联网的网络上执行存储器170的存储功能的网络存储装置有关地操作。
控制器180通常能够控制移动终端100的总体操作。例如,当移动终端的状态满足预设条件时,控制器180能够设定或解除用于限制用户相对于应用输入控制命令的锁定状态。
控制器180还能够执行与语音呼叫、数据通信、视频呼叫等关联的控制和处理,或者执行模式识别处理以将触摸屏上进行的手写输入或绘画输入分别识别为字符或图像。另外,控制器180能够控制那些组件中的一个或其组合,以便实现本文所公开的各种示例性实施方式。
电源单元190接收外部电力或提供内部电力,并且供应对包括在移动终端100中的各个元件和组件进行操作所需的适当电力。电源单元190可以包括电池,该电池通常是可再充电的或者以可拆卸的方式连接到终端主体以便于充电。
电源单元190可以包括连接端口。该连接端口可以被配置为接口单元160的一个示例,用于供应电力以对电池进行再充电的外部充电器可电连接到该连接端口。作为另一示例,电源单元190可以被配置为以无线方式对电池进行再充电,而不使用连接端口。在此示例中,电源单元190可利用基于磁感应的电感耦合方法或基于电磁共振的磁共振耦合方法中的至少一种来接收从外部无线电力发射器输送的电力。本文所述的各种实施方式可以利用(例如)软件、硬件或其任何组合来在计算机可读介质、机器可读介质或类似介质中实现。
现在参照图1B和图1C,参照直板型终端主体描述移动终端100。然而,另选地,移动终端100可以按照各种不同的配置中的任何配置来实现。这些配置的示例包括手表型、夹子型、眼镜型或者折叠型、翻盖型、滑盖型、旋转型和摆动型(其中两个和更多个主体按照能够相对移动的方式彼此组合)或其组合。本文的讨论将常常涉及特定类型的移动终端(例如,直板型、手表型、眼镜型等)。然而,关于特定类型的移动终端的这些教导将通常也适用于其它类型的移动终端。
移动终端100将通常包括形成终端的外观的壳体(例如,框架、外壳、盖等)。在此实施方式中,壳体利用前壳体101和后壳体102形成。各种电子组件被包含在前壳体101与后壳体102之间所形成的空间中。另外,可以在前壳体101与后壳体102之间设置至少一个中间壳体。
显示单元151被示出为在终端主体的前侧以输出信息。如图所示,显示单元151的窗口151a可以被安装到前壳体101以与前壳体101一起形成终端主体的前表面。
在一些实施方式中,电子组件也可以被安装到后壳体102。这些电子组件的示例包括可拆卸电池191、标识模块、存储卡等。后盖103被示出为盖住电子组件,该盖可以可拆卸地连接到后壳体102。因此,当将后盖103从后壳体102拆卸时,安装到后壳体102的电子组件暴露于外。
如图所例示,当后盖103连接到后壳体102时,后壳体102的侧表面部分地暴露。在一些情况下,在连接时,后壳体102也可以被后盖103完全遮蔽。在一些实施方式中,后盖103可以包括开口以用于将相机121b或音频输出模块152b暴露于外。
壳体101、102、103可以通过合成树脂的注塑成型来形成,或者可以由例如不锈钢(STS)、铝(Al)、钛(Ti)等的金属形成。作为多个壳体形成用于容纳组件的内部空间的示例的另选方式,移动终端100可以被配置为使得一个壳体形成该内部空间。在此示例中,具有单一体的移动终端100被形成为使得合成树脂或金属从侧表面延伸至后表面。
如果需要,移动终端100可以包括用于防止水进入终端主体中的防水单元。例如,防水单元可以包括位于窗口151a与前壳体101之间、前壳体101与后壳体102之间、或者后壳体102与后盖103之间的防水构件,以在那些壳体连接时将内部空间密封。
移动终端100可以被设置有显示单元151、第一音频输出单元152a、第二音频输出单元152b、接近传感器141、照明传感器142、光学输出模块154、第一相机121a、第二相机121b、第一操纵单元123a、第二操纵单元123b、麦克风122、接口单元160等。
图1B和图1C描绘了布置在移动终端上的特定组件。然而,另选布置方式也是可能的并且在本公开的教导内。一些组件可以被省略或重新布置。例如,第一操纵单元123a可以设置在终端主体的另一表面上,第二音频输出模块152b可以设置在终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。显示单元151可以利用一个或更多个合适的显示装置来实现。这些合适的显示装置的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、电子墨水显示器及其组合。可以利用两个显示装置(能够实现相同或不同的显示技术)来实现显示单元151。例如,多个显示单元151可以被布置在一侧,彼此间隔开或者这些装置可以被集成,或者这些装置可以被布置在不同的表面上。
显示单元151还可以包括触摸传感器,其感测在显示单元处接收的触摸输入。当触摸被输入到显示单元151时,触摸传感器可以被配置为感测该触摸,并且控制器180(例如)可以生成与该触摸对应的控制命令或其它信号。以触摸方式输入的内容可以是文本或数值或者是可以按照各种模式指示或指定的菜单项。
触摸传感器可以按照设置在窗口151a与窗口151a的后表面上的显示器之间的具有触摸图案的膜或者直接图案化在窗口151a的后表面上的金属丝的形式来配置。另选地,触摸传感器可以与显示器一体地形成。例如,触摸传感器可以设置在显示器的基板上或者显示器内。
显示单元151还以可与触摸传感器一起形成触摸屏。这里,触摸屏可以用作用户输入单元123(参见图1A)。因此,触摸屏可以代替第一操纵单元123a的至少一些功能。第一音频输出模块152a可以按照扬声器的形式来实现以输出语音音频、报警音、多媒体音频再现等。显示单元151的窗口151a通常将包括孔径以允许由第一音频输出模块152a生成的音频通过。一个另选方式是允许音频沿着结构体之间的装配间隙(例如,窗口151a与前壳体101之间的间隙)来释放。在这种情况下,从外观上看,独立地形成以输出音频音的孔不可见或者被隐藏,从而进一步简化移动终端100的外观和制造。
光学输出模块154能够被配置为输出用于指示事件发生的光。这些事件的示例包括消息接收、呼叫信号接收、未接呼叫、闹钟、日程提醒、电子邮件接收、通过应用的信息接收等。当用户已查看发生的事件时,控制器能够控制光学输出模块154停止光输出。第一相机121a能够处理由图像传感器在拍摄模式或者视频呼叫模式下获得的图像帧(例如,静止或运动图像)。然后,经处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。
第一操纵单元123a和第二操纵单元123b是用户输入单元123的示例,其可以由用户操纵以提供对移动终端100的输入。第一操纵单元123a和第二操纵单元123b还可以被共同称作操纵部分,并且可以采用允许用户执行诸如触摸、推按、滚动等的操纵的任何触觉方法。第一操纵单元123a和第二操纵单元123b还可以采用允许用户执行诸如接近触摸、悬停等的操纵的任何非触觉方法。
图1B将第一操纵单元123a例示为触摸键,但可能的另选方式包括机械键、按键、触摸键及其组合。在第一操纵单元123a和第二操纵单元123b处接收的输入可以按照各种方式来使用。例如,用户可以使用第一操纵单元123a来提供对菜单、主屏键、取消、搜索等的输入,用户可以使用第二操纵单元123b来提供输入以控制从第一音频输出模块152a或第二音频输出模块152b输出的音量、切换为显示单元151的触摸识别模式等。
作为用户输入单元123的另一示例,后输入单元可以被设置在终端主体的后表面上。用户能够操纵后输入单元以提供对移动终端100的输入。所述输入可以按照各种不同的方式来使用。例如,用户可以使用后输入单元来提供输入以进行电源开/关、开始、结束、滚动、控制从第一音频输出模块152a或第二音频输出模块152b输出的音量、切换为显示单元151的触摸识别模式等。后输入单元可以被配置为允许触摸输入、推按输入或其组合。
后输入单元可以被设置为在终端主体的厚度方向上与前侧的显示单元151交叠。作为一个示例,后输入单元可以被设置在终端主体的后侧的上端部,使得当用户用一只手抓握终端主体时用户能够利用食指容易地操纵后输入单元。另选地,后输入单元能够至多被设置在终端主体的后侧的任何位置。
包括后输入单元的实施方式可以将第一操纵单元123a的一些或全部功能实现在后输入单元中。因此,在从前侧省略第一操纵单元123a的情况下,显示单元151能够具有更大的屏幕。作为另一另选方式,移动终端100可以包括扫描用户的指纹的手指扫描传感器。然后控制器180能够使用由手指扫描传感器感测到的指纹信息作为验证程序的一部分。手指扫描传感器也可以被安装在显示单元151中或实现在用户输入单元123中。
麦克风122被示出为设置在移动终端100的端部,但其它位置也是可能的。如果需要,可以实现多个麦克风,这种布置方式允许接收立体声。接口单元160可以用作允许移动终端100与外部装置进行接口的路径。例如,接口单元160可以包括用于连接到另一装置(例如,耳机、外部扬声器等)的连接端子、用于近场通信的端口(例如,红外数据联盟(IrDA)端口、蓝牙端口、无线LAN端口等)、或者用于向移动终端100供电的电源端子中的一个或更多个。接口单元160可以按照用于容纳外部卡(例如,订户标识模块(SIM)、用户标识模块(UIM)、或者用于信息存储的存储卡)的插槽的形式来实现。
第二相机121b被示出为设置在终端主体的后侧,并且其图像拍摄方向基本上与第一相机单元121a的图像拍摄方向相反。如果需要,可以另选地将第二相机121b设置在其它位置或者使其能够移动,以便具有不同于所示图像拍摄方向的图像拍摄方向。
第二相机121b能够包括沿着至少一条线布置的多个镜头。所述多个镜头还可以按照矩阵配置来布置。这些相机可以被称为“阵列相机”。当第二相机121b被实现为阵列相机时,可以利用多个镜头以各种方式拍摄图像,并且图像具有更好的质量。
如图1C所示,闪光灯124被示出为与第二相机121b相邻。当利用相机121b拍摄目标的图像时,闪光灯124可以对目标进行照明。如图1C所示,能够在终端主体上设置第二音频输出模块152b。第二音频输出模块152b可以结合第一音频输出模块152a实现立体声功能,并且还可以用于实现呼叫通信的免提模式。
用于无线通信的至少一个天线可以设置在终端主体上。所述天线可以安装在终端主体中或者可以由壳体形成。例如,构成广播接收模块111的一部分的天线可以收缩到终端主体中。另选地,天线可以利用附着到后盖103的内表面的膜或者包含导电材料的壳体来形成。
用于向移动终端100供电的电源单元190可以包括电池191,该电池191被安装在终端主体中或者可拆卸地连接到终端主体的外部。电池191可以经由连接到接口单元160的电源线来接收电力。并且,电池191能够利用无线充电器以无线方式再充电。无线充电可以通过磁感应或电磁共振来实现。
后盖103被示出为连接到后壳体102以用于遮蔽电池191,以防止电池191分离并保护电池191免受外部冲击或异物的影响。当电池191能够从终端主体拆卸时,后壳体103可以可拆卸地连接到后壳体102。
还能够在移动终端100上设置用于保护外观或者辅助或扩展移动终端100的功能的附件。作为附件的一个示例,可以设置用于覆盖或容纳移动终端100的至少一个表面的盖或袋。所述盖或袋可以与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于辅助或扩展对触摸屏的触摸输入的触摸笔。
此外,移动终端能够通过超过手持装置的水平被扩展到被穿戴在用户的身体上可穿戴装置。这种可穿戴装置可以包括智能手表、智能眼镜、头戴式显示器(HMD)等。在以下描述中说明了扩展到可穿戴装置的移动终端的示例。
可穿戴装置可以被配置为与另一移动终端100交换数据(或与另一移动终端100互连)。短距离通信模块114可以在移动终端100的附近感测(或识别)能够与移动终端100进行通信的可穿戴装置。而且,当所感测到的可穿戴装置是被认证为与移动终端100进行通信的装置时,控制器180能够经由短距离通信模块114将由移动终端100处理的数据的至少一部分发送到可穿戴装置。因此,可穿戴装置的用户可以在可穿戴装置上使用由移动终端100处理的数据。例如,当在移动终端100中接收到呼叫时,用户能够利用可穿戴装置来应答该呼叫。并且,当在移动终端100中接收到消息时,用户能够利用可穿戴装置来检查所接收到的消息。
图2是与本发明的另一实施方式有关的手表型移动终端300的一个示例的立体图。参照图2,手表型移动终端300可以包括具有显示单元351的主体301以及连接至主体301的表带302,所述表带302被配置为可穿戴在腕部上。一般而言,手表型移动终端300可以被配置为包括与图1A至图1C所示的移动终端100的特征相同或相似的特征。
主体301可以包括形成终端的外观的壳体。如图所示,壳体利用限定用于容纳各种电子组件的内部空间的第一壳体301a和第二壳体301b形成,本发明不限于此。具有单体的移动终端100可以按照单个壳体被配置为限定内部空间的方式来实现。
手表型移动终端300被配置为执行无线通信,并且用于无线通信的天线能够被安装在主体301中。天线的性能可以利用壳体来改进。例如,包括导电材料的壳体可以被电连接至天线以延伸接地面积或辐射面积。
显示单元351设置在主体301的前侧,以便输出信息。在一些情况下,显示单元351包括触摸传感器,使得显示单元351能够被实现为触摸屏。如图所示,显示单元351的窗口351a被设置在第一壳体301a上,以与第一壳体301a一起形成终端主体的前表面。
主体301可以包括音频输出模块352、相机321、麦克风322和用户输入单元323。当显示单元351被实现为触摸屏时,显示单元可以用作用户输入单元323,从而可以从主体301省略附加的功能键。
表带302通常穿戴在用户的腕部上,并且可以由柔性材料制成以方便装置的穿戴。作为一个示例,表带302可以由毛皮、橡胶、硅、合成树脂等制成。表带302还可以被配置为可从主体301拆卸。因此,可以根据用户的偏好用各种类型的表带替换表带302。
在一些情况下,表带302可以用于扩展天线的性能。例如,表带中可以包括接地延伸部分,该接地延伸部分电连接到天线以延伸接地面积。表带302可以包括系紧件302a。系紧件302a可以被实现为扣环型、按扣钩结构、型等,并且包括柔性部分或材料。附图例示了利用扣环实现系紧件302a的示例。
此外,根据本发明的一个实施方式的手表型移动终端300还可以包括投影器模块155和/或全息模块156。投影器模块155可以利用移动终端100来执行图像投影器功能。投影器模块155可以根据控制器180的控制信号将与显示在显示器151上的图像相同或部分地不同的图像显示在外部屏幕或墙壁上。
例如,投影器模块155可以包括用于生成光(例如,激光)以在外部输出图像的光源、用于基于从光源生成的光产生要在外部输出的图像的图像产生装置以及用于以预定的焦距来对要在外部输出的图像进行放大的透镜。而且,投影器模块155可以包括用于通过以机械方式移动透镜或整个模块来调节图像投影方向的装置。
投影器模块155可以根据显示装置类型被分类为阴极射线管(CRT)模块、液晶显示器(LCD)模块和数字光处理(DLP)模块。具体地,DLP模块可以使得通过反射在数字微镜器件(DMD)芯片上的光源生成的光而生成的图像能够被放大和投影。在减小投影器模块151的大小时可能是有利的。
优选地,如图2所示,投影器模块155能够被设置有移动终端100的表带302以朝向规定方向201投影图像。如以上描述中所提及的,可以调节图像投影方向。显而易见的是,如果必要,投影器模块155可以被布置在移动终端100的任何位置处。全息模块156能够包括全息照相存储单元、全息照相输出单元和(如果必要)全息照相反射单元。全息模块156能够被配置为在预设空间上输出全息图像。
在下文中,将参照图4至图7详细地描述全息模块156的结构以及对全息图像进行投影的方法。全息模块156的位置和图像投影方向能够与上面提及的投影器模块155的位置和图像投影方向相同。将在以下描述中说明全息模块156的图像投影方向的细节。
参照附图描述了与能够被实现在上文提及的移动终端中的控制方法有关的实施方式。对本领域的技术人员来说将显而易见的是在不脱离本发明的精神和本质特性的情况下可以以其它特定形式来具体实现本发明。根据本发明的实施方式,提供了用于在至少两个移动终端之间使启动画面互连的控制方法。本发明的实施方式主要地集中于与手表型移动终端的启动画面的互连的示例,本发明不限于此。
根据本发明的实施方式,如图3所示,全息图像311被投影到移动终端100的显示单元151的前表面上方的空白空间上。具体地,全息图像311通过与移动终端100互连的手表型移动终端300的全息模块156被投影到移动终端100的显示单元151的前表面上方的空白空间上。在这种情况下,全息图像311可以是与通过显示单元151输出的启动画面关联的图像。例如,如果通过显示单元151输出地图,则全息图像311能够对应于地图的3维图像。将参照图3描述细节。
在参照附图描述的本发明的实施方式中描述了与地图有关的全息图像311的示例,本发明不限于此。例如,病人的形态的全息图像可以被用在医学的领域,或者3维内容可以被用在多媒体的领域中。而且,本发明可以被扩展到3维建筑模型在建筑领域中被输出为全息图像的情况。
具体地,图3是通过如图2所示的全息模块156实现的全息图像301的概念图。在参照包括图3的以下图描述的实施方式中,假定移动终端100和手表型移动终端300彼此互连。参照图3的(a),移动终端100的控制器180通过显示单元151输出地图应用的启动画面310。全息模块156被设置有手表型移动终端300的表带302,并朝向用户的手投影图像。全息模块156能够与通过移动终端100的显示单元151输出的视觉信息一起通过显示单元151的前表面上方的空白空间输出全息图像311。
能够通过全息模块156实现的全息图像311可以包括3维(3D)立体图像。分别给两只眼睛提供不同的图像的立体成像使用人类在利用两只眼睛观看物体时感觉立体的原理。具体地,人类的两只眼睛由于两只眼睛之间的距离而在观看同一物体时观看不同的单视场图像。不同的单视场图像通过视网膜被传送到大脑并且统一(组合)在大脑中,使得立体图像的深度和真实性能够被感觉到。因此,尽管在个人方面略微不同,但是由于两只眼睛之间的距离而导致的双目视差带来立体感觉。立体成像是利用双眼视差来显示图像的方法。
如果正通过显示单元151输出启动画面310,则虽然满足规定条件,但是控制器180能够控制全息模块156自动地输出全息图像311。作为规定条件,关于移动终端100的显示单元151是否如图3的(b)所示面对天空的感测被提供在本发明的实施方式中。具体地,如果显示单元151的前表面被旋转为面对天空,则控制器180能够控制全息图像311通过经互连的手表型移动终端300输出。
在这种情况下,如以上描述中所提及的,布置在手表型移动终端300的表带302处的全息模块156能够通过显示单元151的前表面上方的空白空间输出全息图像311。此外,从布置在表带302处的全息模块156投影的光束的方向可能是不正确的。对于这种情况,参照图4描述了用于正确地调节光束的方向的控制方法。
具体地,图4是根据本发明的一个实施方式的用于控制从全息模块156投影的光束的方向的方法的图。在图4的(a)中假定从全息模块156投影的光束不面对显示单元151的前表面上方的空白空间。如果从全息模块156投影的光束的方向如上述假定不是正确的,则能够由控制器180或用户来调节光束的方向。
具体地,控制器180能够感测显示单元151的位置,并且然后自动地调节全息模块156的投影方向以使投影方向与感测到的显示单元151的位置匹配。在这种情况下,如图4的(b)所示,能够通过显示单元151来输出用于指示光束的位置被自动地调节的弹出窗口411-1。
此外,如果光束的方向无法被自动地调节,则控制器180能够如图4的(c)所示输出用于请求调节光束的位置的弹出窗口411-2。在这种情况下,可以与弹出窗口411-2一起提供用于旋转用户的腕部上的手表型移动终端300的指示符或具有方向的振动输出。在这种情况下,基于包括在移动终端100和手表型移动终端300中的每一个中的陀螺仪传感器来确定姿势,并且可以提供适合于所确定的姿势的指示符或振动输出。
在下文中,将详细地给出创建可以被应用于本发明的实施方式的全息图像311的方法以及用于实现该方法的结构的描述。通过显示单元151输出的图像仅记录物体的亮表面和暗表面的分布,然而全息图像311能够被理解为同时累积和再现所有信息(即,光波包含的振幅和相位)的图像。
图5A和图5B是用于描述全息照相的原理的概念图。参照图5A,从激光源501发射的相干光束(光)可以通过分束器502被分离为两个部分。光束的该两个部分中的一个部分可以照射物体507,并且被散射和反射在物体507的表面上的光束能够到达全息光敏材料505。在下文中,光束被称为物体波。镜503和504可以被用来转动(改变)光的路径。
其它光束可以被转动到朝向镜508的路径,通过透镜506漫射,并直接到达全息光敏材料505的整个表面。在下文中,这个光束被称为基准波。物体波和基准波在全息光敏材料505上带来干扰,从而出现非常精密的、复杂的干扰条纹,其每1mm在数量上是500至1500。用于记录这种干扰条纹的全息存储介质被称为全息图。
此后,如图5B所示,如果诸如基准波(即,重构波)的光束被投影到全息光敏材料505,则干扰条纹能够用作衍射光栅,使得光束能够在不同的位置处从基准波的入射方向衍射。经衍射的光束可以被会聚以便形成与从物体最初反射的光束相同的光束,从而投影全息图像509。具体地,初始物体波可以通过全息图来重构以便实现全息图像509。
在这种情况下,如果从重构的波前的内部观看,则原始物体被观看但是看起来像物体位于内部一样。另外,如果视点被移动,则观看到物体的位置也被改变。感觉好像观看立体图像一样。而且,因为原始物体的波前被重构,所以可能造成对来自非常轻微地变形的物体的波前的干扰。
创建全息图像509的方法可以被分类为透射型全息照相和反射型全息照相。具体地,图6A至图6C是用于描述透射型全息照相的概念图,图7A至图7C是用于描述反射型全息照相的概念图。
透射型全息照相是在全息图的前面观察图像的技术,所述图像通过被从全息图的后侧照射并且透射通过全息图的光实现。透射型全息照相具有在产生全息图像时物体波和基准波在同一方向上被暴露给全息光敏材料并且所生成的全息图像在颜色方面是生动且明亮的特点。
参照图6A,从激光源601发射的光束可以通过空间滤波器602透射,然后被扩展为平滑的球面波。球面波可以通过分束器605被分离为波的两个部分。该两个分离的球面波中的一个可以被照射在物体608上以生成物体波,并且另一个可以被照射在全息光敏材料607上,以便生成基准波。照射在物体608上的物体波还可以被照射在全息光敏材料607上。镜604、606和609可以被用于转动/改变光束的路径。
在这种实例中,被照射在全息光敏材料607上的物体波和基准波可以彼此对接以生成干涉条纹。干涉条纹然后可以被记录在全息光敏材料607中。具体地,如图6B所例示,物体波和基准波可以被一起投影在全息光敏材料607的同一表面上,然后生成干涉条纹。
此后,参照图6C,如果与基准波相同的重构波被投影到全息光敏材料607上,则物体波可以在相反的方向上被透射到上面已经入射有物体波和基准波的表面,从而产生全息图像。
接下来,反射型全息照相是在全息图的前面观察图像的技术,所述图像通过被照射到全息图的前面并且反射在全息图上的光实现。反射型全息照相可以被制造为使得物体波和基准波在彼此相反的方向上入射到全息光敏材料上。根据反射型全息照相技术产生的全息图像展示了提供优秀的3D效果的特点。
参照图7A,如与图6A类似,从激光源701发射的光束可以透射通过空间滤波器702,并被扩展为平滑的球面波。球面波可以通过分束器705被分离为波的两个部分。该两个分离的球面波中的一个可以被照射在物体708上以生成物体波,并且另一个被照射在全息光敏材料(膜)707上以便生成基准波。镜704、706和709可以被用于转动光束的路径。在这种情况下,与图6A不同,基准波和物体波可以在彼此相反的位置处被照射在全息光敏材料707上。
具体地,参照图7B,基准波可以通过全息光敏材料707的左表面来投影,并且物体波可通过全息光敏材料707的右上表面来投影。此后,如图7C所示,如果与基准波相同的重构波通过全息光敏材料707被投影,则物体波可以在相反的方向上透射,从而产生全息图像。
在本说明书中,全息光敏材料307和707被表达为被包括在全息存储单元中的全息存储介质,并能够通过将光投影到全息光敏材料307和707上产生全息图像的另一组件可以被表达为全息输出单元。
为了清楚,这个说明书例示了全息存储单元和全息输出单元被全包括在全息模块156中。然而,它仅仅是示例性的,并且它们可以被包括在移动终端100中作为独立的组件。此外,与本发明的一个实施方式有关,可以根据设定全息图案来显示全息图像。全息图案意指通过全息模块156投影的全息图像根据时间的流逝被改变为预设图案以被提供给用户。
可以根据以下方法不同地设定全息图案。首先,可以通过根据时间的流逝改变全息输出单元与全息图像之间的距离差来设定全息图案。利用该配置,通过全息模块156投影的全息图像能够上下移动,这可以使得实现设定预定的全息图案。
并且,可以通过根据时间的流逝改变通过全息模块156投影的全息图像的形状来设定全息图案。例如,控制器180能够控制通过全息模块156投影的全息图像最初具有圆形形状然后根据时间的流逝控制圆形形状改变为矩形形状。
而且,可以通过应用向左或向右移动通过全息模块156投影的全息图像或者使通过全息模块156投影的全息图像旋转的方法来设定全息图案。具体地,可以通过在维持全息模块156与全息图像之间的距离差的同时向左或向右移动投影的全息图像、使经投影的全息图像旋转或者根据时间的流逝在向左或向右移动经投影的全息图像的情况下使经投影的全息图像旋转来设定全息图案。
此外,全息图案可以通过根据时间的流逝改变经投影的全息图像的颜色或大小、或者控制全息图像被闪烁来设定。另外,全息图案还可以通过投影亮度、再现频率、照明、振动反馈、声音插入、图像插入、重复投影等来设定。
在全息图案通过单独的因素来设定的假定下给出以上描述,但是全息图案还可以通过多个因素来设定。例如,全息图案可以根据时间的流逝通过在改变全息模块156与全息图像之间的距离差的同时向左或向右移动经投影的全息图像或者使经投影的全息图像旋转来设定。
而且,在全息图案相对于整个全息图像被设定的假定下给出以上描述,但是这仅仅是示例性的。全息图案还可以仅适用于全息图像的部分区域。
接下来,图8是根据本发明的一个实施方式的用于调节全息图像的输出位置的控制方法的图。根据参照图8描述的本发明的实施方式,全息图像311-1根据通过全息模块156投影的光束到达的位置被输出。在图8中假定了对应于不是通过移动终端100的显示单元151输出的整个启动画面而是对应于启动画面的一部分的全息图像被输出。
参照图8的(a),全息模块156将光束投影到显示单元151的第一区域801-1上,并输出第一全息图像311-1。当用户利用腕部调节光束的投影方向时,光束可以从第一区域801-1移动到第二区域801-2。因此,全息模块156能够输出与第二区域801-2对应的第二全息图像311-2(图8的(b))。具体地,与光标类似,用户能够通过移动光束到达的位置来控制全息图像被输出。
图9是根据本发明的一个实施方式的用于控制输出全息图像的大小的控制方法的图。参照图9的(a),全息模块156输出第一大小的全息图像311。全息图像311可以是与如在以上描述中提及的应用的启动画面310对应的图像。
如果接收到用于改变全息图像311的大小的命令,则全息模块156能够将全息图像311的大小从第一大小改变为第二大小,然后输出第二大小的全息图像(图9的(b))。
根据参照图9描述的本发明的实施方式,提出了作为用于改变全息图像的大小的命令的向下移动移动终端的手势。如果控制器180基于通过感测单元140获得的感测结果确定移动终端100按照预定距离或更远距离向下移动,则控制器能够将通过全息模块156输出的全息图像311的大小从第一大小调节为第二大小。
在下文中,参照图10描述了用于使全息图像311旋转的控制方法。具体地,图10是根据本发明的一个实施方式的用于使全息图像311旋转的控制方法的图。参照图10的(a),全息模块156输出全息图像311。全息图像311可以是与如在以上描述中提及的应用的启动画面310对应的图像。
如果接收到用于使全息图像311旋转的命令,则控制器180控制通过全息模块156输出的全息图像311被旋转(图10的(b))。根据参照图10描述的本发明的实施方式,作为用于旋转的命令,提供了利用两只手指来捏经输出的3D全息图像311并使两只手指旋转的手势10a,本发明不限于此。
此外,接近传感器和相机121的使用被提供在本发明的实施方式中,以便感测在空白空间中做出的手势。如果控制器180通过接近传感器感测到用户的手靠近显示单元151的前表面上方的空白空间,则控制器180能够激活相机121。并且,控制器180能够通过经激活的相机121来分析手的形状,然后通过经分析的手形状来感测手势。在这种情况下,相机121的激活可以包括对通过预激活的相机121接收到的图像的分析以及相机模块的激活。
另外,接近手势感测模块的使用被提供在本发明的另一实施方式中,以便感测在空白空间中做出的手势。与如在以上描述中提及的相机121的激活类似,如果控制器180感测到用户的手靠近,则可以激活接入手势感测模块。
根据本发明的实施方式,可以通过以下方法来感测在通过空白空间输出的全息图像311上做出的手势。在参照图10描述的本发明的实施方式中,全息图像311的输出基于被输入在通过空白空间输出的全息图像311上的用户的手势来控制。根据以下图,提出了全息图像311基于显示单元151上的触摸输入来控制。
接下来,图11是根据本发明的一个实施方式的用于基于显示单元151上的触摸输入来控制全息图像311的控制方法的图。参照图11的(a),全息模块156输出全息图像311。全息图像311可以是与如在以上描述中提及的应用的启动画面310对应的图像。
如果通过显示单元151接收到用于对应用启动画面310进行放大的命令,则控制器180能够控制应用启动画面310被放大。另外,控制器180能够控制与如图11的(b)所示的应用启动画面310对应的全息图像311的大小。
具体地,全息图像311的大小能够响应于应用启动画面310的放大而被改变。此外,用于更有效地控制全息图像311的控制方法被提供在本发明的实施方式中。将参照图12至图14对这种实施方式进行描述。
图12是根据本发明的一个实施方式的用于输出用于控制全息图像311的子板的控制方法的图。根据本发明的实施方式,假定了全息图像包括至少一个物体。另外,如果控制器180接收到用户的物体选择命令则控制附加的信息被进一步输出。
例如,根据本发明的实施方式,关于显示的地图区域的三维(3D)地图与地图应用的启动画面一起被输出为全息图像。3D地图可以包括关于地图区域中的地带或建筑物形状的3D图像。在这种情况下,特定地带或建筑物被分别区分为单独的物体,并且可以进一步输出关于单独的物体中的每一个的附加的信息。
参照图12的(a)和图12的(b),输出了针对特定物体的全息照相图像311-b。在这个示例中,特定物体被假定为特定建筑物。用户在观看全息图像311-b的同时,可能想要获得关于对应建筑物的信息(例如,楼层的数量、区域、关于各个楼层的信息等)。因此,根据本发明的实施方式,提出了子板901被进一步输出为全息图像311-b并且信息基于针对子板901的控制操作被输出。
参照图12的(a),如果接收到用于呼叫子板901的命令,则全息模块156能够将子板901输出到全息图像311。作为被表示为全息图像的虚拟3D物体的子板901可以被用作根据本发明的实施方式的用于输出物体的信息的辅助方法。
在图12的(a)和图12的(b)所示的示例中,用于呼叫子板901的命令对应于触摸显示单元151上的两个点10c并在空中举起的手势,本发明不限于此。子板901可以是具有两个经触摸的点作为顶点的矩形形状。在这种情况下,显示单元151可以是触摸屏。在下文中,将参照图13和图14详细地描述利用经输出的子板901来显示与对应的物体有关的信息的方法。
图13是根据本发明的一个实施方式的用于利用子板来输出规定信息的控制方法的图。在关于建筑物的信息的情况下,信息可以根据楼层来分类。在本发明的实施方式中,利用子板901来显示关于各个楼层的信息。
参照图13的(a),利用全息图像来输出用于规定建筑物的3D物体。另外,参照图12提及的子板901与用于规定建筑物的3D物体一起被输出。如果感测到朝向建筑物的顶部移动子板901的手势10d(即,利用手保持虚拟子板901并举起手的手势),则控制器180能够调节子板901的位置,然后通过控制全息模块156来输出子板901(图13的(b))。
控制器180还能够显示建筑物的设置有子板901的楼层数量1300。如果接收到信息请求命令10e,则控制器180能够输出关于建筑物的设置有子板901的楼层的信息1301(图13的(c))。在这种情况下,信息请求命令10e可以对应于像如图13的(b)所示揭开一样翻转子板901的手势。响应于信息请求命令10e,控制器180能够翻转子板901然后将楼层信息1301显示在经翻转的子板901的底部上。
在下文中,将参照图14描述关于输出到子板901的底部的信息的细节。具体地,图14是根据本发明的一个实施方式的关于可被输出的建筑物的各个楼层的信息的示例的图。
参照图14的(a),如参照图13在以上描述中提及,楼层信息1301被输出到子板901的底部。楼层信息1301可以包括用于对应楼层的内部地图1401。内部地图1401可以包括关于位于对应楼层上的商店的信息。
如果商店被从包括在内部地图1401(10f)中的商店中选择,则控制器180还能够将商店信息1402输出在经选择的商店上。在图14的(a)所示的示例中,商店信息1402包括商店的电话号码。如果在经输出的电话号码上接收到预定的触摸手势10g,则控制器180能够自动地发送用于呼叫对应的电话号码的呼叫信号(图14的(b))。
在下文中,参照图15和图16描述了用于控制全息图像311的附加的方法。具体地,图15是根据本发明的一个实施方式的用于使全息图像311旋转的控制方法的图。参照图15的(a),全息模块156输出全息图像311。全息图像311可以是与如在以上描述中提及的应用启动画面310对应的图像,并输出参照图12至图14提及的子板901。
根据参照图15描述的本发明的实施方式,保持并旋转子板901的手势或者摇动手指的手势10h被提供为使全息图像311旋转的手势。在摇动手指的手势的情况下,如果食指被摇动,则全息图像311能够被控制在逆时针方向上旋转。另选地,如果拇指被摇动,则全息图像311能够被控制在顺时针方向上旋转(图15的(b))。
参照图16描述了消除全息图像311的手势。具体地,图16是用于描述用于消除全息图像的手势的图。参照图16,全息模块156输出全息图像311。全息图像可以是与如以上描述中提及的应用启动画面310对应的图像。如果接收到在输出有全息图像311的位置处打开和闭合手的手势10j,则控制器180能够控制如图16的(a)所示的全息图像311的输出和如图16的(b)所示的全息图像311被消除。
在下文中,参照图17描述了用于从全息图像中选择特定物体并对该特定物体进行放大的控制方法。具体地,图17是用于从全息图像中选择特定物体并仅对该特定物体进行放大的控制方法的图。
参照图17的(a),全息模块156输出全息图像311。全息图像311可以是与如以上描述中提及的应用启动画面310对应的图像。并且,全息图像311包括特定物体。
如果全息图像311对应于建筑物,则该建筑物的特定部分可以被选择并且然后被放大。另选地,如果全息图像311对应于人身体的结构,则特定器官可以被选择并且然后被放大。因此,在本发明的实施方式中提出了用于从全息图像311中选择特定物体并仅对该特定物体进行放大的控制方法。
参照图17的(a),如果利用两只手指来捏特定物体1701然后使该特定物体1701出现的手势10i被感测到,则全息模块156能够对特定物体1701进行放大然后输出经放大的特定物体1701(图17的(b))。此外,可以使用各种类型的手势以便控制全息图像。在以下描述中,将参照图18来说明这些手势的示例。显而易见的是,以下手势被用于控制投影模块155以及全息模块156。
图18至图20是本发明的一个实施方式中的可用手势的示例的图。图18的(a)示出了用户向下移动上面穿戴有手表型移动终端300的手的手势10j。如参照图9在以上描述中提及的,如果在全息图像311被输出的同时感测到手势10j,则全息模块156能够将全息图像311的大小从第一大小改变为第二大小,然后输出第二大小的全息图像311。
图18的(b)示出了用户向下使上面穿戴有手表型移动终端300的手的腕部弯曲的手势10k。在图18的(c)中,如果手表型移动终端300的屏幕对应于触摸屏1801,则例示了使触摸屏1801在顺时针/逆时针方向上旋转的触摸手势10m。
图18的(d)示出了打开和闭合手的手势10n。图18的(e)示出了向下扫掠上面穿戴有手表型移动终端300的腕部的手势10p。将参照图21和图22描述可以响应于这种手势而被执行的功能的细节。仅仅是示例性的参照图18描述的手势可以被用于控制投影模块155或全息模块156。
图19是例示了根据本发明的一个实施方式的使腕部旋转的手势的示例的图。参照图19的(a),手表型移动终端300接收呼叫信号并通过触摸屏1801来输出针对所接收到的呼叫信号的通知画面。响应于呼叫信号的接收,如果感测到使腕部旋转的手势,则全息模块156或投影器模块155许可所接收到的呼叫信号然后可以输出针对经连接的呼叫的图像1901。
与图19对比,在图20的(a)中示出了用于结束呼叫的手势。在针对经连接的呼叫的图像1901如图19的(b)所示被输出的情况下,如果接收到使腕部在相反方向上旋转的手势10q,则控制器180能够结束呼叫然后停止图像1901的输出。
参照图20的(b),虽然针对呼叫的图像1901被输出,但是如果接收到朝向地面降低上面穿戴有手表型移动终端300的手的手势10r,则控制器180能够结束呼叫然后停止图像1901的输出。
图21和图22是根据本发明的一个实施方式的用于基于向上或向下扫掠腕部的手势来控制移动终端的控制方法的图。参照图21的(a),用户穿戴手表型移动终端300并且输出了针对通过手表型移动终端300接收到的电子邮件的通知画面2101。
如果接收到向下扫掠腕部的手势10s,则控制器180能够控制投影器模块155或全息模块156输出针对所接收到的电子邮件的画面2102。具体地,在图21的(b)所示的示例中,投影器模块155被布置在手表型移动终端300的侧面处并在用户的腕部的方向上投影画面2102。因此,用户能够响应于向下扫掠腕部的手势10s在用户的腕部处检查针对电子邮件的输出画面2102。
虽然画面2102被输出,但是如果接收到向上扫掠腕部的手势10t,则控制器180能够停止画面2102的输出。并且,控制器180还能够将其切换到手表画面2103(图21的(c))。此外,参照图21描述了单个画面的输出,本发明不限于此。在下文中,将参照图22来描述多个画面的输出。
参照图22的(a),控制器180能够控制投影器模块155或全息模块156输出针对所接收到的电子邮件的第一画面2102-1。如果接收到多封电子邮件,则可以输出针对多封所接收到的电子邮件中的每一封的画面。
控制器180能够以与向下扫掠腕部的手势10s的长度成比例的方式控制输出画面2102的数量。如果接收到第一长度的手势10s,则控制器180仅输出第一画面2102-1。然而,如果连续地接收到第二长度的手势10s,则控制器能够控制投影器模块155或全息模块156进一步输出第二画面和第三画面2102-2(图22的(b))。
图23是根据本发明的一个实施方式的用于输出全息图像的控制方法的流程图。首先,移动终端和手表型移动终端300彼此互连(S2301)。在这种情况下,互连意指能够在移动终端100与手表型移动终端300之间交换数据的状态被维持。具体地,移动终端100可以向手表型移动终端300发送控制命令,并且反之亦然。
控制器180能够控制显示单元150通过移动终端100的屏幕来输出预定应用的启动画面(S2302)。控制器180能够感测用户的手势(S2303)。例如,移动终端100的控制器180可以基于被包括在从手表型移动终端300接收到的数据中的、关于手表型移动终端300的移动的信息以及通过移动终端100的感测单元140获得的、关于移动终端100的移动的信息中的至少一个来感测用户的手势。
控制器180能够识别预设手势是否被感测到(S2304)。例如,预设手势可以是使移动终端100的触摸屏的前表面倾斜以面对天空的手势。在另一示例中,预设手势可以是用户在触摸移动终端100的触摸屏的同时保持移动终端100与地面平行的手势。
在另一示例中,预设手势可以是用户在触摸移动终端100的触摸屏的同时在顺时针(或逆时针)方向上使手表型移动终端300的边缘区域旋转的手势。在另一示例中,预设手势可以是用户在触摸移动终端100的触摸屏的同时使移动终端100倾斜的手势。
如果预设手势未被感测到(S2304,否),则控制器180能够感测用户的手势。具体地,控制器180能够连续地感测预设手势是否被实时感测到。此外,如果预设手势被感测到(S2304,是),则控制器180能够通过经互连的手表型移动终端300输出与启动画面对应的全息图像(S2305)。在这种情况下,被布置在手表型移动终端300的表带处的全息模块156可以通过移动终端100的画面的前表面上方的空白空间输出全息图像(S2306)。
各种实施方式可以利用存储有指令的机器可读介质来实现,所述指令由处理器执行以执行本文呈现的各种方法。可能的机器可读介质的示例包括HDD(硬盘驱动器)、SSD(固态盘)、SDD(硅磁盘驱动器)、ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置、本文呈现的其它类型的存储介质及其组合。如果需要,机器可读介质可以按照载波的形式实现(例如,经由互联网的传输)。所述处理器可以包括移动终端的控制器180。
上述实施方式仅是示例性的,不应被视为限制本公开。本教导能够容易地应用于其它类型的方法和设备。此说明书旨在为例示性的,而非限制权利要求的范围。对于本领域技术人员而言,许多另选形式、修改形式和变化形式将是显而易见的。本文所述的示例性实施方式的特征、结构、方法和其它特性可以按照各种方式来组合以获得附加和/或另选的示例性实施方式。
由于本发明的特征可以在不脱离其特性的情况下按照多种形式具体实现,所以还应该理解,除非另外指明,否则上述实施方式不受以上描述的任何细节的限制,而是应该在所附权利要求书中限定的范围内广义地理解,因此,落入权利要求书的范围或其等同范围内的所有变化和修改旨在被所附权利要求书涵盖。
本申请要求2015年1月8日提交的韩国申请第10-2015-0002828号的较早提交日期的权益和优先权的权利,在此通过引用将其内容整体地并入本文。
Claims (20)
1.一种移动终端,该移动终端包括:
触摸屏;
无线通信单元,该无线通信单元被配置为与具有布置在手表终端的表带中的全息模块并且被用户穿戴的外部手表终端进行无线通信;
感测单元,该感测单元被配置为感测所述用户的手势;以及
控制器,该控制器被配置为:
在所述触摸屏上显示规定应用的启动画面,
接收通过所述感测单元感测到的规定手势,并且
响应于接收到的所述规定手势来控制所述无线通信单元向所述外部终端发送控制命令,以输出与所述启动画面对应的全息图像。
2.根据权利要求1所述的移动终端,其中,所述规定手势包括使所述触摸屏的前表面面向上倾斜的手势。
3.根据权利要求1所述的移动终端,其中,包括在所述外部终端的所述表带中的所述全息模块被配置为面对所述移动终端的所述触摸屏的前表面。
4.根据权利要求1所述的移动终端,其中,所述感测单元还被配置为感测在所述触摸屏的前表面上方的空白空间中接收到的空中手势,并且
其中,所述控制器还被配置为基于感测到的所述空中手势向所述外部手表终端发送用以使所述全息图像旋转或者调节所述全息图像的大小的控制命令。
5.根据权利要求4所述的移动终端,其中,所述感测单元包括相机模块,并且
其中,所述感测单元还被配置为通过分析由所述相机模块接收到的图像来感测所述空中手势。
6.根据权利要求5所述的移动终端,其中,所述感测单元还包括用于感测所述用户的手的接近的接近传感器,并且
其中,所述控制器还被配置为响应于所述接近传感器感测到所述手的所述接近来激活所述相机模块。
7.根据权利要求4所述的移动终端,其中,所述控制器还被配置为感测对所述触摸屏上的两个点的触摸,并且
其中,如果所述感测单元感测到释放所述触摸并在空中举起的手势,则所述控制器还被配置为将所述控制命令发送到所述外部终端以进一步输出与全息物体对应的子板,用以控制经输出的全息图像。
8.根据权利要求7所述的移动终端,其中,如果所述感测单元感测到拾起并翻转所输出的所述子板的手势,则所述控制器还被配置为发送所述控制命令以进一步输出关于所述全息图像的详细信息。
9.根据权利要求8所述的移动终端,其中,所述全息图像包括规定建筑物的图像,并且
其中,所述详细信息包括关于所述规定建筑物的各个楼层的信息。
10.根据权利要求1所述的移动终端,其中,所述全息图像包括显示在所述触摸屏上的所述启动画面的至少一部分的3D图像,并且
其中,所述全息图像能够基于在所述触摸屏上接收到的触摸输入而改变。
11.一种控制移动终端的方法,该方法包括以下步骤:
经由无线通信单元与具有布置在手表终端上的表带中的全息模块并且被用户穿戴的外部手表终端进行无线通信;
在所述移动终端的触摸屏上显示规定应用的启动画面;
经由感测单元感测所述用户的手势;以及
响应于所接收到的规定手势经由所述无线通信单元向所述外部终端发送控制命令以输出与所述启动画面对应的全息图像。
12.根据权利要求11所述的方法,其中,所述规定手势包括使所述触摸屏的前表面面向上倾斜的手势。
13.根据权利要求11所述的方法,其中,包括在所述外部终端的所述表带中的所述全息模块被配置为面对所述移动终端的所述触摸屏的前表面。
14.根据权利要求11所述的方法,该方法还包括以下步骤:
经由所述感测单元感测在所述触摸屏的前表面上方的空白空间中接收到的空中手势;以及
基于感测到的所述空中手势经由所述无线通信单元向所述外部手表终端发送用以使所述全息图像旋转或者调节所述全息图像的大小的控制命令。
15.根据权利要求14所述的方法,该方法还包括以下步骤:
经由所述移动终端的相机模块通过分析由所述相机模块接收到的图像来感测所述空中手势。
16.根据权利要求15所述的方法,该方法还包括以下步骤:
经由所述移动终端的接近传感器来感测所述用户的手的接近;以及
经由控制器响应于所述接近传感器感测到所述手的所述接近来激活所述相机模块。
17.根据权利要求14所述的方法,该方法还包括以下步骤:
感测对所述触摸屏上的两个点的触摸;以及
如果所述感测的步骤感测到释放所述触摸并在空中举起的手势,则向所述外部终端发送所述控制命令以进一步输出与全息物体对应的子板,用以控制所述全息图像。
18.根据权利要求17所述的方法,该方法还包括以下步骤:
如果所述感测单元感测到拾起并翻转所输出的所述子板的手势,则发送所述控制命令以进一步输出关于所述全息图像的详细信息。
19.根据权利要求18所述的方法,其中,所述全息图像包括规定建筑物的图像,并且
其中,所述详细信息包括关于所述规定建筑物的各个楼层的信息。
20.根据权利要求11所述的方法,其中,所述全息图像包括显示在所述触摸屏上的所述启动画面的至少一部分的3D图像,并且
其中,所述全息图像能够基于在所述触摸屏上接收到的触摸输入而改变。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150002828A KR20160085613A (ko) | 2015-01-08 | 2015-01-08 | 이동단말기 및 그 제어방법 |
KR10-2015-0002828 | 2015-01-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105786170A true CN105786170A (zh) | 2016-07-20 |
Family
ID=54337615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510977701.5A Pending CN105786170A (zh) | 2015-01-08 | 2015-12-23 | 移动终端及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9766775B2 (zh) |
EP (1) | EP3043239A1 (zh) |
KR (1) | KR20160085613A (zh) |
CN (1) | CN105786170A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106231288A (zh) * | 2016-07-25 | 2016-12-14 | 西南科技大学 | 一种基于移动端控制的全息投影图像生成及展示方法 |
CN110069103A (zh) * | 2019-04-29 | 2019-07-30 | 努比亚技术有限公司 | 一种交互操作方法、设备及计算机可读存储介质 |
CN110502106A (zh) * | 2019-07-26 | 2019-11-26 | 昆明理工大学 | 一种基于3d动态触摸的交互式全息显示系统及方法 |
CN113574847A (zh) * | 2019-08-13 | 2021-10-29 | Lg 电子株式会社 | 移动终端 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106034212B (zh) * | 2015-03-10 | 2019-02-26 | 深圳富泰宏精密工业有限公司 | 投影装置、控制装置及穿戴式投影系统 |
US10845693B2 (en) * | 2016-12-20 | 2020-11-24 | Dennis FRIMPONG | Vehicle information device and a method of providing information pertaining to a vehicle |
US11494986B2 (en) * | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
DE102017007856A1 (de) * | 2017-07-06 | 2019-01-10 | Davide Giusti | Gerät zur Wiedergabe von Inhalte Aus Endgeräte Mittels ein berührbare und beweglicher Freischwebender 3D Projektion |
US20190187875A1 (en) * | 2017-12-15 | 2019-06-20 | International Business Machines Corporation | Remote control incorporating holographic displays |
US11188154B2 (en) * | 2018-05-30 | 2021-11-30 | International Business Machines Corporation | Context dependent projection of holographic objects |
US20200218198A1 (en) * | 2019-01-04 | 2020-07-09 | International Business Machines Corporation | Movement control of holographic objects with crown movement of a watch device |
WO2020257827A1 (en) * | 2019-06-21 | 2020-12-24 | Mindgam3 Institute | Distributed personal security video recording system with dual-use facewear |
US11144194B2 (en) * | 2019-09-19 | 2021-10-12 | Lixel Inc. | Interactive stereoscopic display and interactive sensing method for the same |
US20220335698A1 (en) * | 2019-12-17 | 2022-10-20 | Ashley SinHee Kim | System and method for transforming mapping information to an illustrated map |
US11256413B2 (en) | 2020-02-10 | 2022-02-22 | Synaptics Incorporated | Non-contact gesture commands for touch screens |
KR102342536B1 (ko) | 2021-06-02 | 2021-12-22 | 양창준 | 홀로그램 터치 디스플레이 장치 및 홀로그램 터치 동작 제어 방법 |
CN113592392A (zh) * | 2021-07-20 | 2021-11-02 | 深圳市德邦物流有限公司 | 一种基于大数据分析的物流智能管理系统 |
KR102636329B1 (ko) | 2021-07-30 | 2024-02-15 | 마케톤 주식회사 | 스크린리스 엘리베이터 작동 제어 장치 및 방법 |
CN113778799B (zh) * | 2021-09-10 | 2024-10-18 | 平安科技(深圳)有限公司 | 基于流程节点的埋点配置方法、装置、设备及介质 |
US11822941B2 (en) | 2023-08-28 | 2023-11-21 | International Business Machines Corporation | Mobile computing device projected visualization interaction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110191707A1 (en) * | 2010-01-29 | 2011-08-04 | Pantech Co., Ltd. | User interface using hologram and method thereof |
EP2800280A1 (en) * | 2011-12-28 | 2014-11-05 | LG Electronics Inc. | Mobile terminal |
CN203930682U (zh) * | 2014-04-11 | 2014-11-05 | 周光磊 | 三维空间中多点触控与捕捉手势运动的识别系统 |
US20140347295A1 (en) * | 2013-05-22 | 2014-11-27 | Lg Electronics Inc. | Mobile terminal and control method thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7738151B2 (en) * | 2004-04-13 | 2010-06-15 | Board Of Regents, The University Of Texas System | Holographic projector |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
US20090109215A1 (en) * | 2007-10-31 | 2009-04-30 | Fein Gene S | Method and apparatus for user interface communication with an image manipulator |
KR102065687B1 (ko) * | 2012-11-01 | 2020-02-11 | 아이캠, 엘엘씨 | 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법 |
-
2015
- 2015-01-08 KR KR1020150002828A patent/KR20160085613A/ko active IP Right Grant
- 2015-10-13 US US14/881,947 patent/US9766775B2/en active Active
- 2015-10-19 EP EP15002963.5A patent/EP3043239A1/en not_active Ceased
- 2015-12-23 CN CN201510977701.5A patent/CN105786170A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110191707A1 (en) * | 2010-01-29 | 2011-08-04 | Pantech Co., Ltd. | User interface using hologram and method thereof |
EP2800280A1 (en) * | 2011-12-28 | 2014-11-05 | LG Electronics Inc. | Mobile terminal |
US20140347295A1 (en) * | 2013-05-22 | 2014-11-27 | Lg Electronics Inc. | Mobile terminal and control method thereof |
CN203930682U (zh) * | 2014-04-11 | 2014-11-05 | 周光磊 | 三维空间中多点触控与捕捉手势运动的识别系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106231288A (zh) * | 2016-07-25 | 2016-12-14 | 西南科技大学 | 一种基于移动端控制的全息投影图像生成及展示方法 |
CN110069103A (zh) * | 2019-04-29 | 2019-07-30 | 努比亚技术有限公司 | 一种交互操作方法、设备及计算机可读存储介质 |
CN110069103B (zh) * | 2019-04-29 | 2022-06-21 | 努比亚技术有限公司 | 一种交互操作方法、设备及计算机可读存储介质 |
CN110502106A (zh) * | 2019-07-26 | 2019-11-26 | 昆明理工大学 | 一种基于3d动态触摸的交互式全息显示系统及方法 |
CN113574847A (zh) * | 2019-08-13 | 2021-10-29 | Lg 电子株式会社 | 移动终端 |
CN113574847B (zh) * | 2019-08-13 | 2024-05-14 | Lg电子株式会社 | 移动终端 |
Also Published As
Publication number | Publication date |
---|---|
US9766775B2 (en) | 2017-09-19 |
KR20160085613A (ko) | 2016-07-18 |
EP3043239A1 (en) | 2016-07-13 |
US20160202873A1 (en) | 2016-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105786170A (zh) | 移动终端及其控制方法 | |
EP3246916B1 (en) | Mobile terminal and controlling method thereof | |
CN106303406B (zh) | 移动终端 | |
CN105282316B (zh) | 移动终端及其控制方法 | |
KR102317526B1 (ko) | 헤드셋 및 그 제어 방법 | |
CN104811511B (zh) | 移动终端 | |
EP3367648B1 (en) | Automatic photographing dependent on positioning on preview screen | |
US10261671B2 (en) | Mobile terminal and method for controlling the same | |
CN106406688B (zh) | 移动终端及其控制方法 | |
CN106162035A (zh) | 移动终端 | |
US9939642B2 (en) | Glass type terminal and control method thereof | |
KR20150125529A (ko) | 이동단말기 및 그 제어방법 | |
CN107637058A (zh) | 移动终端及其控制方法 | |
EP3285154B1 (en) | Mobile terminal | |
EP3128391B1 (en) | Mobile terminal and watch-type mobile terminal | |
EP3264760B1 (en) | Glasses-type mobile terminal and method of operating the same | |
US10057463B2 (en) | Mobile terminal and control method therefor | |
CN108141542A (zh) | 移动终端及其控制方法 | |
KR20150070874A (ko) | 안경형 단말기 및 이의 제어방법 | |
US20180217809A1 (en) | Earphones, mobile terminal connectable thereto, and control method | |
US9906773B2 (en) | Mobile terminal and method for controlling the same | |
CN106341521B (zh) | 移动终端 | |
KR102154528B1 (ko) | 이동 단말기 및 그 제어 방법 | |
KR20170060473A (ko) | 이동 단말기 및 그 이동 단말기의 제어 방법 | |
US20180048815A1 (en) | Mobile terminal and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160720 |