CN105259654A - 眼镜式终端及其控制方法 - Google Patents
眼镜式终端及其控制方法 Download PDFInfo
- Publication number
- CN105259654A CN105259654A CN201510397348.3A CN201510397348A CN105259654A CN 105259654 A CN105259654 A CN 105259654A CN 201510397348 A CN201510397348 A CN 201510397348A CN 105259654 A CN105259654 A CN 105259654A
- Authority
- CN
- China
- Prior art keywords
- image
- touch
- mobile terminal
- controller
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000004044 response Effects 0.000 claims abstract description 63
- 230000006870 function Effects 0.000 claims description 139
- 230000033001 locomotion Effects 0.000 claims description 60
- 230000008859 change Effects 0.000 claims description 12
- 210000003128 head Anatomy 0.000 description 63
- 230000000875 corresponding effect Effects 0.000 description 57
- 238000005096 rolling process Methods 0.000 description 42
- 238000004891 communication Methods 0.000 description 38
- 210000003811 finger Anatomy 0.000 description 26
- 230000003287 optical effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 239000000203 mixture Substances 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000010295 mobile communication Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 108090000565 Capsid Proteins Proteins 0.000 description 7
- 230000000712 assembly Effects 0.000 description 7
- 238000000429 assembly Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000001276 controlling effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 239000012528 membrane Substances 0.000 description 5
- 230000005012 migration Effects 0.000 description 5
- 238000013508 migration Methods 0.000 description 5
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000007599 discharging Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000010408 film Substances 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 229920003002 synthetic resin Polymers 0.000 description 2
- 239000000057 synthetic resin Substances 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 239000010936 titanium Substances 0.000 description 2
- 241000256844 Apis mellifera Species 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 239000004411 aluminium Substances 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000009351 contact transmission Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
本发明涉及眼镜式终端及其控制方法。本发明的实施例包括眼睛佩戴式移动终端,包括:相机,该相机被配置成捕获图像;框架,该框架被形成为被佩戴在用户的头部;传感器,该传感器被配置成检测框架上的触摸;显示器,该显示器被耦合到框架并且被配置成显示信息;以及控制器,该控制器被配置成响应于在框架上检测到的预定的第一触摸使显示器显示经由相机捕获到的第一图像,并且当第一触摸被释放时终止第一图像的显示。
Description
技术领域
本公开涉及一种被配置成被使用并且被佩戴在用户的头部的终端。
背景技术
最近的移动终端被扩展到可以被佩戴或者戴在用户的身体上而不是仅携带的可佩戴设备。这样的可佩戴设备的示例是被佩戴在用户的面部或者头部的眼镜式终端。
眼镜式终端可以经由相机提供成像功能。在可佩戴设备的特性方面,为了给用户提供通过眼镜式终端捕获的图像可以考虑UX(用户体验)/UI(用户界面)。
发明内容
本发明的各种实施例的目的是为了提供一种眼镜式移动终端及其控制方法,该眼镜式移动终端允许用户容易地访问捕获到的图像。在此描述关于眼镜式移动终端的各种实施例,但是这样的教导同等地应用于其它类型的终端(例如眼睛佩戴式终端)。
本发明的实施例的另一目的是为了提供一种眼镜式移动终端及其控制方法,该眼镜式移动终端允许使用眼镜式移动终端的结构特性直观控制捕获到的图像。
为了实现上面的目的,一种眼镜式移动终端,包括:相机,该相机被配置成捕获图像;框架,该框架被形成为通过用户的耳朵支撑;感测单元,该感测单元被配置成感测在框架上的触摸;显示单元,该显示单元被配置成与框架耦合,该显示单元是HMD(头戴式显示器)类型;以及控制器,该控制器被配置成控制显示单元输出通过相机捕获到的图像,其中控制器被配置成,当感测到在框架上的预定类型的触摸时,将就在感测到触摸之前通过相机捕获的图像输出到显示单元,并且当在框架上的触摸被释放时,终止捕获到的图像的输出。
在实施例中,就在感测到触摸之前通过相机捕获的图像是第一图像,并且在终端戴用户头部的同时,控制器被配置成基于用户在一个方向中旋转他的头部的运动在显示单元上输出不同于第一图像的第二图像。
在实施例中,第一图像被显示在显示单元上的预定区域中,其中第一图像根据运动在预定区域中在该方向中移动,并且其中随着第一图像移动在预定区域中逐渐地显示第二图像。
在实施例中,第二图像是比第一图像更早通过相机捕获到的图像,并且控制器被配置成在运动被保持的同时顺序地移动比第一图像更早捕获到的图像。
在实施例中,图像与运动相对应在预定区域中移动的速度取决于用户头部的旋转速度而变化。
在实施例中,在头部旋转的距离满足参考值的情况下,即使当终端终止时,控制器被配置成持续移动通过相机捕获的图像。
在实施例中,响应于预定类型的触摸输出的图像是通过相机捕获的多个图像中的任意一个,并且其中当在响应于预定类型的触摸输出图像的情况下感测到在框架上的拖动触摸时,控制器被配置成执行允许多个图像被顺序输出的滚动功能。
在实施例中,当终端被放置在用户头部的同时用户的头部在该方向中移动时,控制器被配置成在显示单元的区域中显示与捕获到的图像相关的功能的列表。
在实施例中,列表包括对应于与捕获到的图像相关的功能的可选择的项目,并且响应于在框架上的触摸可选择的项目中的至少一个被选择。
在实施例中,框架包括:第一框架部分,该第一框架部分与显示单元的第一侧耦合;和第二框架部分,该第二框架部分与显示单元的第二侧耦合,其中第二框架部分被定位为与第一侧相对,并且其中控制器被配置成当在预定类型的触摸被施加到第一框架部分的同时感测到在第二框架部分上的第一触摸时,允许指南图像重叠可选择的项目中的任意一个,并且控制器进一步被配置成当感测到在第二框架部分上的第二触摸时执行与重叠指南图像的可选择的项目相对应的功能,第二触摸不同于第一触摸。
在实施例中,控制器被配置成根据在第二框架部分上的拖动触摸移动指南图像,拖动触摸与第一触摸相连续。
在实施例中,列表被配置成随着用户的头部在与先前的移动方向相对的另一方向中移动而从显示单元消失。
在实施例中,控制器被配置成响应于与预定类型的触摸相连续的拖动触摸调节捕获到的图像的显示大小。
在实施例中,控制器被配置成随着在第三方向中施加拖动触摸放大被捕获的图像,并且随着在与第三方向相对的第四方向中施加拖动触摸收缩捕获到的图像。
在实施例中,当在第四方向中施加的拖动触摸的长度比参考值大时,控制器被配置成在收缩和显示捕获到的图像的同时输出通过相机捕获到的其它的图像。
在实施例中,显示单元被形成以透明的。显示单元包括:图像投射单元,该图像投射单元被配置成投射图像;和光路径变化部分,该光路径变化部分被配置成改变从图像投射部分投射的图像的路径。
在实施例中,控制器被配置成当感测到触摸时输出通过相机最近捕获到的图像。
在实施例中,伴随着就在触摸被施加之前捕获到的图像,控制器被配置成控制相机使得当接收用于捕获图像时通过相机捕获图像。
在实施例中,控制器被配置成将响应于用于捕获图像的请求捕获到的图像,而不是就在触摸被施加之前捕获到的图像,输出到显示单元。
一种控制包括HMD(头戴式显示器)型显示器的眼镜式移动终端的方法,该眼镜式移动终端,包括:通过相机捕获图像并且存储捕获到的图像;感测在框架上的触摸,该框架被配置成与显示单元耦合;响应于触摸将存储的图像当中的最近存储的图像输出到显示单元;以及当在框架上的触摸被释放时终止在显示单元上输出最近存储的图像。
根据本发明的实施例,眼镜式的终端可以响应于在框架上的触摸将捕获到的图像提供给用户。因此,用户可以通过简单地触摸框架识别捕获到的图像。
此外,根据本发明的其它的实施例,当在通过相机捕获图像之后感测到在框架上的触摸时,眼镜式终端可以输出最近捕获到的图像。换言之,仅通过触摸框架的简单操纵,用户可以立即识别被捕获的图像。
此外,根据本发明的其它的实施例,当感测到在框架上的触摸时眼镜式终端可以提供捕获到的图像,并且当触摸被释放时可以终止图像的输出。
可以利用在框架上的触摸控制输出图像和结束图像的输出。因此,用户可以直观地被提供有与捕获到的图像相关联的功能。
此外,响应于在其中框架部分可以被用作输入控制命令的输入装置的框架上的用户的触摸,眼镜式终端可以提供关于被捕获的图像的附加功能,并且因此,眼镜式终端可以被有效地利用。
附图说明
图1A是根据本发明的实施例的移动终端的框图;
图1B和图1C是图示根据本发明的实施例的移动终端的透视图;
图2A和图2B是图示根据本发明的另一实施例的眼镜式移动终端400的示例的透视图;
图3是图示根据本发明的实施例的示例控制方法的流程图;
图4是图示如结合图3描述的控制方法的概念视图;
图5A-图5D是图示用于在根据本发明的实施例的眼镜式移动终端中基于用户的运动提供图像的方法的概念视图;
图6A-图6C是图示用于基于在根据本发明的实施例的眼镜式移动终端的框架上的触摸提供图像的方法的概念视图;
图7A和图7B是图示用于基于根据本发明的实施例的眼镜式移动终端的框架部分上的触摸提供图像的方法的概念视图;
图8-图12是图示利用在根据本发明的实施例的眼镜式移动终端中的框架上的触摸提供与捕获到的图像相关的功能的方法的概念视图;以及
图13A-图13E是图示用于在根据本发明的实施例的眼镜式移动终端中选择图像的方法的概念视图。
具体实施方式
参考附图,根据在此公开的示例性实施例现在详细地给出描述。为了参考附图简要描述,相同的或者等效的组件可以被设有相同或者相似的附图标记,并且其描述将不会被重复。通常,诸如“模块”和“单元”的后缀可以被用于指代元件或者组件。这样的后缀的使用在此旨在仅有助于说明书的描述,并且后缀本身不给予任何特定的意义或者功能。在本公开中,为了简要描述通常已经省略了在相关领域中对于普通技术人员来说公知的部分。附图被用于以帮助容易地理解各种技术特征并且应理解附图没有限制在此提出的实施例。正因如此,本公开应被解释为除了在附图中特别地陈述的之外还延伸到任何变更、等同物以及替代。
将会理解的是,尽管在此可以使用术语第一、第二等等以描述各种元件,但这些元件不应受到这些术语的限制。这些术语通常仅被用于区分一个元件与另一元件。
将会理解的是,当元件被称为“被连接到”另一元件时,元件能够被连接到另一元件或者也可以存在中间元件。相反地,当元件被称为“被直接地连接到”另一元件时,不存在中间元件。
单数表示可以包括复数表示,除非根据上下文其明确表示不同的意义。本文使用诸如“包括”或者“具有”的术语并且应理解它们旨在指示在本说明书中公开的数个组件、功能或者步骤的存在,并且也理解可以同样地利用更多或者更少的组件、功能、或者步骤。
可以使用各种不同类型的终端实现本文提出的移动终端。这样的终端的示例包括蜂窝电话、智能电话、用户设备、笔记本计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、板式PC、平板PC、超级本、可佩戴设备(例如,智能手表、智能眼镜、头戴式显示器(HMD))等等。
仅通过非限制性的示例,将会参考特定类型的移动终端进行进一步的描述。然而,这样的教导同等地应用于其它类型的终端,诸如在上面注明的那些类型。另外,这样的教导也可以被应用于诸如数字TV、台式计算机等等的固定终端。在此将会关于眼镜式终端描述各种实施例,但是这样的教导同等地应用于其它类型的终端(眼睛佩戴式终端)。
现在参考图1A-1C,其中图1A是根据本公开的移动终端的框图,并且图1B和图1C是从不同的方向看到的移动终端的一个示例的概念视图。
示出的移动终端100具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180、以及电源单元190的组件。要理解的是,不要求实施所有图示的组件,并且可以可替选地实现更多或者更少的组件。
现在参考图1A,移动终端100被示出具有无线通信单元110,该无线通信单元110被配置有数个通常实施的组件。例如,无线通信单元110通常包括允许在移动终端100和移动终端位于其中的无线通信系统或者网络之间的无线通信的一个或者多个组件。
无线通信单元110通常包括一个或者多个允许通信的模块,诸如在移动终端100和无线通信系统之间的无线通信、在移动终端100和另一移动终端之间的通信、在移动终端100与外部服务器之间通信。此外,无线通信单元110通常包括将移动终端100连接到一个或者多个网络的一个或者多个模块。为了有助于这样的通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、以及位置信息模块115中的一个或者多个。
输入单元120包括:用于获得图像或者视频的相机121;麦克风122,该麦克风122是一类用于输入音频信号的音频输入设备;以及用于允许用户输入信息的用户输入单元123(例如,触摸键、推动键、机械键、软键等等)。数据(例如,音频、视频、图像等等)通过输入单元120被获得并且可以根据设备参数、用户命令、以及其组合通过控制器180进行分析和处理。
通常使用被配置成感测移动终端的内部信息、移动终端的周围环境、用户信息等等的一个或者多个传感器实现感测单元140。例如,在图1A中,示出了具有接近传感器141和照明传感器142的感测单元140。
必要时,感测单元140可以可替选地或者附加地包括其它类型的传感器或者设备,举一些例子,诸如触摸传感器、加速度传感器、磁传感器、G传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池量表、环境传感器(例如,气压计、湿度计、温度计、辐射监测传感器、热传感器、以及气体传感器等)、以及化学传感器(例如,电子鼻、医疗传感器、生物传感器等等)。移动终端100可以被配置成利用从感测单元140获得的信息,尤其是从感测单元140的一个或者多个传感器和其组合获得的信息。
输出单元150通常被配置成输出诸如音频、视频、触觉输出等等的各种类型的信息。示出了具有显示单元151、音频输出模块152、触觉模块153、以及光学输出模块154的输出单元150。
显示单元151可以具有与触摸传感器的层间结构或者集成结构以便于促进触摸屏幕。触摸屏幕可以提供在移动终端100和用户之间的输出接口,并且用作在移动终端100和用户之间提供输入接口的用户输入单元123。
接口单元160用作与能够被耦合到移动终端100的各种类型的外部设备的接口。例如,接口单元160可以包括有线或者无线端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有标识模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等中的任意项。在一些情况下,响应于被连接到接口单元160的外部设备,移动终端100可以执行与被连接的外部设备相关联的各种控制功能。
存储器170通常被实现为存储数据以支持移动终端100的各种功能或者特征。例如,存储器170可以被配置成存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或者指令等等。经由无线通信可以从外部服务器下载这些应用程序中的一些。在制造或者装运时其它的应用程序可以被安装在移动终端100内,用于移动终端100的基本功能(例如,接收呼叫、拨打电话、接收消息、发送消息等等)通常如此。通常,应用程序被存储在存储器170中、安装在移动终端100中,并且通过控制器180执行以执行用于移动终端100的操作(或者功能)。
除了与应用程序相关联的操作之外,控制器180通常还用作控制移动终端100的整体操作。通过处理由在图1A中描述的各种组件输入或者输出的信号、数据、信息等等,或者激活被存储在存储器170中的应用程序,控制器180可以提供或者处理适合于用户的信息或者功能。作为一个示例,控制器180根据已经被存储在存储器170中的应用程序的执行控制在图1A-1C中图示的一些组件或者所有组件。
电源单元190能够被配置成接收外部电力或者提供内部电力以便于供应对于操作被包括在移动终端100中的元件和组件所要求的适当的电力。电源单元190可以包括电池,并且电池可以被配置成被嵌入在终端主体中,或者被配置成可从终端主体拆卸。
继续参考图1A,现在将会更加详细地描述在本附图中描述的各种组件。关于无线通信单元110,广播接收模块111通常被配置成经由广播信道从外部广播管理实体接收广播信号和/或广播关联信息。广播信道可以包括卫星信道、陆地信道、或者两者。在一些实施例中,可以利用两个或者更多个广播接收模块111以有助于同时接收两个或者更多个广播信道,或者支持广播信道当中的切换。
移动通信模块112能够将无线信号发送到一个或者多个网络实体并且/或者从一个或者多个网络实体接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等等。这样的网络实体形成移动通信网络的一部分,其根据用于移动通信的技术标准或者通信方法(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA2000(码分多址2000)、EV-DO(增强的优化语音数据或者增强的仅语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等等)构造。经由移动通信模块112发送和/或接收到的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号、或者各种格式的数据以支持文本和多媒体消息的通信。
无线互联网模块113被配置成有助于无线互联网接入。此模块可以被内部地或者外部地耦合到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络发送和/或接收无线信号。
这样的无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(Wibro)、全球微波接入互操作(Wimax)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等等。无线互联网模块113可以根据一个或者多个这样的无线互联网技术或者其它的互联网技术发送/接收数据。
在一些实施例中,当根据例如WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LTE、LTE-A等等作为移动通信网络的一部分实现无线互联网接入时,无线互联网模块113执行这样的无线互联网接入。正因如此,互联网模块113可以与移动通信模块112协作,或者用作移动通信模块112。
短程通信模块114被配置成有助于短程通信。适合于实现这样的短程通信的技术包括:蓝牙(BLUETOOTHTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(ZigBee)、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等等。经由无线局域网,短程通信模块114通常支持在移动终端100和无线通信系统之间的无线通信,在移动终端100和另一移动终端100之间的通信、或者在移动终端和另一移动终端100(或者外部服务器)位于的网络之间的通信。无线局域网的一个示例是无线个人域网。
在一些实施例中,另一移动终端(可以类似于移动终端100配置)可以是可佩戴设备,例如,智能手表、智能眼镜或者头戴式显示器(HMD),其能够与移动终端100交换数据(或者与移动终端100协作)。短程通信模块114可以感测或者识别可佩戴设备,并且允许在可佩戴设备和移动终端100之间的通信。另外,当感测到的可佩戴设备是被授权与移动终端100通信的设备时,例如,控制器180可以使在移动终端100中处理的数据经由短程通信模块114传输到可佩戴设备。因此,可佩戴设备的用户可以在可佩戴设备上使用在移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户可以使用可佩戴设备应答呼叫。而且,当在移动终端100中接收到消息时,用户能够使用可佩戴设备检查接收到的消息。
位置信息模块115通常被配置成检测、计算、导出或者以其它方式识别移动终端的位置。作为示例,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块、或者两者。如有必要,位置信息模块115可以与无线通信单元110中的任意其它模块可替选地或者附加地发挥作用以获得与移动终端的位置相关的信息。
作为一个示例,当移动终端使用GPS模块时,可以使用从GPS卫星发送的信号获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,能够基于与将无线信号发送到Wi-Fi模块或者从Wi-Fi模块接收无线信号的无线接入点(AP)相关的信息获取移动终端的位置。
输入单元120可以被配置成允许对移动终端120的各种类型的输入。这样的输入的示例包括音频、图像、视频、数据、以及用户输入。经常使用一个或者多个相机121获得图像和视频输入。这样的相机121可以处理通过在视频或者图像捕获模式下的图像传感器获得的静止图片或者视频的图像帧。被处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。在一些情况下,相机121可以以矩阵配置排列以允许具有多个角度或者焦点的多个图像被输入到移动终端100。作为另一示例,相机121可以以立体布局放置以获取用于实现立体图像的左图像和右图像。
麦克风122通常被实现以允许对移动终端100的音频输入。根据在移动终端100中执行的功能,能够以各种方式处理音频输入。如有必要,麦克风122可以包括各种噪声去除算法以去除在接收外部音频的过程中产生的不想要的噪声。
用户输入单元123是允许用户输入的组件。这样的用户输入可以使控制器180能够控制移动终端100的运行。用户输入单元123可以包括机械输入元件中的一个或者多个(例如,键、位于移动终端100的前和/或后表面或者侧表面上的按钮、薄膜开关、滚动轮、滚动开关等等)、或者触敏输入等等。作为一个示例,触敏输入可以是通过软件处理被显示在触摸屏上的虚拟键或者软键、或者位于移动终端上不同于触摸屏的位置处的触摸键。另一方面,虚拟键或者可视键可以以例如,图形、文本、图标、视频、或者其组合的各种形状显示在触摸屏上。
感测单元140通常被配置成感测移动终端的内部信息、移动终端的周围环境信息、用户信息等等中的一个或者多个。控制器180通常与感测单元140协作以基于通过感测单元140提供的感测来控制移动终端100的运行或执行与被安装在移动终端中的应用程序相关联的数据处理、功能或者操作。使用任何种类的传感器可以实现感测单元140,现在将会更加详细地描述其中的一些。
接近传感器141可以包括在没有机械接触的情况下通过使用磁场、红外线等等感测接近表面的对象、或者位于表面附近的对象存在或者不存在的传感器。接近传感器141可以被布置在移动终端被触摸屏覆盖的内部区域处,或者触摸屏附近。
例如,接近传感器141可以包括透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等等中的任意项。当触摸屏被实现为电容型时,接近传感器141能够通过电磁场响应于具有导电性的对象的接近的变化来感测指示器相对于触摸屏的接近。在这样的情况下,触摸屏(触摸传感器)也可以被归类成接近传感器。
术语“接近触摸”将会在此被经常引用以表示其中指示器被定位为接近触摸屏而没有接触触摸屏的场景。术语“接触触摸”将会在此被经常引用以表示其中指示器物理接触触摸屏的场景。对于与指示器相对于触摸屏的接近触摸相对应的位置,这样的位置将会对应于其中指示器垂直于触摸屏的位置。接近传感器141可以感测接近触摸,和接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等等)。
通常,控制器180处理与通过接近传感器141感测到的接近触摸和接近触摸模式相对应的数据,并且使在触摸屏上输出可视信息。另外,根据相对于触摸屏上的点的触摸是接近触摸还是接触触摸,控制器180能够控制移动终端100执行不同的操作或者处理不同的数据。
使用任何各种触摸方法,触摸传感器能够感测被施加到诸如显示单元151的触摸屏的触摸。这样的触摸方法的示例包括电阻型、电容型、红外型、以及磁场型等等。
作为一个示例,触摸传感器可以被配置成将被施加到显示单元151的特定部分的压力的变化转换成电输入信号,或者将在显示单元151的特定部分处出现的电容转换成电输入信号。触摸传感器也可以被配置成不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力和/或触摸电容。触摸对象通常被用于将触摸输入施加到触摸传感器。典型的触摸对象的示例包括手指、触摸笔、触笔、指示器等等。
当通过触摸传感器感测触摸输入时,相对应的信号可以被发送到触摸控制器。触摸控制器可以处理接收到的信号,并且然后将相对应的数据发送到控制器180。因此,控制器180可以感测显示单元151的哪一个区域已经被触摸。在此,触摸控制器可以是与控制器180分离的组件、控制器180、或者其组合。
在一些实施例中,控制器180可以根据触摸了触摸屏或者除了触摸屏之外被设置的触摸键的触摸对象的类型而执行相同或者不同的控制。例如,基于移动终端100的当前操作状态或者当前执行的应用程序,可以根据提供触摸输入的对象决定执行相同或者不同的控制。
触摸传感器和接近传感器可以被单独地或者组合实现,以感测各种类型的触摸。这样的触摸包括短(或者轻敲)触摸、长触摸、多触摸、拖动触摸、轻弹触摸、捏缩触摸、捏放触摸、扫描触摸、悬停触摸等等。
如有必要,超声传感器可以被实现以使用超声波识别与触摸对象相关的位置信息。例如,控制器180可以基于通过照明传感器和多个超声传感器感测到的信息计算波生成源的位置。因为光比超声波快得多,所以光到达光学传感器的时间远远比超声波到达超声传感器的时间短。使用此事实可以计算波生成源的位置。例如,可以基于光作为参考信号,使用与超声波到达传感器的时间的时间差计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等等)、光传感器(或者图像传感器)、以及激光传感器。
实现具有激光传感器的相机121可以允许检测物理对象的相对于3D立体图像的触摸。光传感器可以被层压在显示设备上,或者与显示设备重叠。光传感器可以被配置成扫描接近触摸屏的物理对象的移动。更加详细地,光传感器可以包括成行和列的光电二极管和晶体管以使用根据被施加的光量而改变的电信号来扫描在光传感器处接收到的内容。即,光传感器可以根据光的变化计算物理对象的坐标从而获得物理对象的位置信息。
显示单元151通常被配置成输出在移动终端100中处理的信息。例如,显示单元151可以显示在移动终端100处执行的应用程序的执行屏幕信息或者响应于屏幕执行信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施例中,显示单元151可以被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可以采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等等的立体显示方案。
音频输出模块152通常被配置成输出音频数据。可以从任何数量的不同的来源获得这样的音频数据,使得可以从无线通信单元110接收音频数据或者可以已经将其存储在存储器170中。可以在诸如信号接收模式、呼叫模式、记录模式、语音识别模式、广播接收模式等等的模式期间输出音频数据。音频输出模块152能够提供与由移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块元152也可以被实现为接收器、扬声器、蜂鸣器等等。
触觉模块153能够被配置成产生用户感觉、感知、或者以其它方式体验的各种触觉效果。通过触觉模块153产生的触觉效果的典型示例是振动。能够通过用户选择或者通过控制器进行设置来控制通过触觉模块155产生的振动的强度、模式等等。例如,触觉模块153可以以组合的方式或者顺序的方式输出不同的振动。
除了振动之外,触觉模块153能够生成各种其它的触觉效果,包括诸如垂直移动以接触皮肤的针排列的刺激的效果、通过喷孔或者吸入口的空气的喷射力或者吸力、对皮肤的触摸、电极的接触、静电力、通过使用能够吸收或者产生热的元件再现冷和暖的感觉的效果等等。
触觉模块153也能够被实现为允许用户通过诸如用户的手指或者手臂的肌肉感觉来感觉触觉效果,以及通过直接接触传递触觉效果。根据移动终端100的特定配置也可以设置两个或者更多个触觉模块153。
光学输出模块154能够使用光源的光输出用于指示事件产生的信号。在移动终端100中产生的事件的示例可以包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、电子邮件接收、通过应用的信息接收等等。
也可以以移动终端发射单色光或者具有多种颜色的光的方式实现通过光学输出模块154的信号输出。例如,当移动终端感测用户已经检查了产生的事件时信号输出可以结束。
接口单元160用作用于要连接到移动终端100的外部设备的接口。例如,接口单元160能够接收从外部设备发送的数据,接收电力以传送到移动终端100内的元件和组件,或者将移动终端100的内部数据发送到这样的外部设备。接口单元160可以包括有线或者无线头戴式受话器端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有标识模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。
标识模块可以是存储用于认证使用移动终端100的权限的各种信息的芯片并且可以包括用户标识模块(UIM)、订户标识模块(SIM)、通用订户标识模块(USIM)等等。另外,具有标识模块的设备(在此也被称为“标识设备”)可以采用智能卡的形式。因此,标识设备经由接口单元160能够与终端100相连接。
当移动终端100与外部托架相连接时,接口单元160能够用作允许电力从托架供应到移动终端100的通道或者可以用作允许用户从托架输入的各种命令信号传递到移动终端的通道。从托架输入的各种命令信号或者电力可以作为用于识别移动终端被正确地安装在托架上的信号。
存储器170能够存储程序以支持控制器180的操作并且存储输入/输出数据(例如,电话簿、消息、静止图像、视频等等)。存储器170可以存储与响应于触摸屏上的触摸输入输出的各种模式的振动和音频相关的数据。
存储器170可以包括一种或者多种类型的存储介质,包括闪存、硬盘、固态硬盘、硅盘、多媒体卡式、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等等。也可以关于在诸如互联网的网络上执行存储器170的存储功能的网络存储设备操作移动终端100。
控制器180通常可以控制移动终端100的一般操作。例如,当移动终端的状态满足预设条件时控制器180可以设置或者释放用于限制用户输入与应用相关的控制命令的锁定状态。
控制器180也能够执行与语音呼叫、数据通信、视频呼叫等等相关联的控制和处理,或者执行模式识别处理以将在触摸屏上执行的手写输入或者绘图输入分别识别为字符或者图像。另外,控制器180能够控制这些组件中的一个或者组合以便于实现在此公开的各种示例性实施例。
电源单元190接收外部电力或者提供内部电力并且供应对于操作被包括在移动终端100中的各自的元件和组件所需的适当的电力。电源单元190可以包括电池,该电池通常是可充电的或者可拆卸地耦合到终端主体以用于充电。
电源单元190可以包括连接端口。连接端口可以被配置为接口单元160的一个示例,用于供应电力以对电池再充电的外部充电器被电气地连接到该接口单元160。
作为另一示例,电源单元190可以被配置成在没有使用连接端口的情况下以无线的方式对电池再充电。在本示例中,使用以磁感应为基础的感应耦合方法或者以电磁谐振为基础的电磁谐振耦合方法,电源单元190能够接收从外部无线电力发射器传递的电力。
可以使用例如软件、硬件、或者其任何组合,以计算机可读介质、机器可读介质、或者类似介质实现在此描述的各种实施例。
现在参考图1B和图1C,参考直板式终端主体描述移动终端100。然而,可以以任何各种不同的配置可替选地实现移动终端100。这样的配置的示例包括其中两个和更多个主体以相对可移动的方式被相互组合的手表式、夹式、眼镜式、或者折叠式、翻盖式、滑盖式、摇摆式、以及转动式和其组合。在此论述将会经常与特定类型的移动终端(例如,直板式、手表式、眼镜式等等)有关。然而,这样的与特定类型的移动终端有关的教导通常也将会应用于其它类型的移动终端。
移动终端100通常将会包括形成终端的外观的壳体(例如,框架、外罩、盖等)。在本实施例中,使用前壳体101和后壳体102形成壳体。各种电子组件被包含在前壳体101和后壳体102之间形成的空间中。至少一个中间壳体可以被附加地布置在前壳体101和后壳体102之间。
显示单元151被示出位于终端主体的前侧上以输出信息。如图所示的,显示单元151的窗口151a可以被安装到前壳体101以与前壳体101一起形成终端主体的前表面。
在一些实施例中,电子组件也可以被安装到后壳体102。这样的电子组件的示例包括可拆卸的电池191、标识模块、存储卡等等。后盖103被示出为覆盖电子组件,并且此盖可以被可拆卸地耦合到后壳体102。因此,当从后壳体102拆卸后盖103时,被安装到后壳体102的电子组件被暴露在外。
如图所示的,当后盖103被耦合到后壳体102时,后壳体102的侧表面被部分地暴露。在一些情况下,在耦合之后,后壳体102也可以被后壳体103完全地屏蔽。在一些实施例中,后盖103可以包括用于将相机121b或者音频输出模块152b暴露在外的开口。
壳体101、102、103可以通过注入成型合成树脂形成或者可以由例如不锈钢(STS)、铝(Al)、钛(Ti)等等的金属形成。
作为对其中多个壳体形成用于容纳组件的内部空间的示例的替代,移动终端100可以被配置使得一个壳体形成内部空间。在本示例中,以合成树脂或者金属从侧表面延伸到后表面的形式形成具有单一体的移动终端100。
如有必要,移动终端100可以包括防水单元(未示出),用于防止水进入到终端主体。例如,防水单元可以包括防水构件,其位于窗口151a和前壳体101之间、在壳体101和后壳体102之间、或者后壳体102和后盖103之间,以当这些壳体被耦合时密闭地密封内部空间。
图1B和图1C描述如被布置在移动终端上的某些组件。然而,要理解的是,可替选的布置是可能的并且在本公开的教导内。一些组件可以被省略或者重新布置。例如,第一操纵单元123a可以位于终端主体的另一表面上,并且第二音频输出模块152b可以位于终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。使用一个或者多个适当的显示设备可以实现显示单元151。这样的适当的显示设备的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、电子墨水显示器、以及其组合。
可以使用能实现相同或者不同的显示技术的两个显示设备实现显示单元151。例如,多个显示单元151可以被布置在一侧上,或者被相互分开,或者这些设备可以被集成,或者这些设备可以被布置在不同的表面上。
显示单元151也可以包括触摸传感器,该触摸传感器感测在显示单元处接收到的触摸输入。当触摸被输入到显示单元151时,触摸传感器可以被配置成感测此触摸,并且例如,控制器180可以生成与触摸相对应的控制命令或者其它信号。以触摸方式输入的内容可以是文本或者数值,或者能够以各种模式指示或者指定的菜单项目。
触摸传感器可以以具有触摸图案的膜或者在窗口151a的后表面上直接构图的金属线的形式配置,该膜被布置在窗口151a和窗口151a的后表面上的显示器之间。可替选地,触摸传感器可以与显示器集成地形成。例如,触摸传感器可以被布置在显示器的基板上或者显示器内。
显示单元151也可以与触摸传感器一起形成触摸屏。在此,触摸屏可以用作用户输入单元123(参见图1A)。因此,触摸屏可以替换第一操纵单元123a的至少一些功能。
第一音频输出模块152a可以以扬声器的形式被实现以输出语音音频、报警声音、多媒体音频再现等等。
显示单元151的窗口151a通常将会包括允许通过第一音频输出单元152a生成的音频通过的孔径。一个替选是允许音频沿着结构主体之间的组装间隙(例如,在窗口151a和前壳体101之间的间隙)被释放。在这样的情况下,被独立地形成以输出音频声音的孔可以不被看到或者在外观上以其它方式被隐藏,从而进一步简化移动终端100的外观和制造。
光学输出模块154能够被配置成输出用于指示事件产生的光。这样的事件的示例包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、邮件接收、通过应用的信息接收等等。当用户已经检查了产生的事件时,控制器能够控制光学输出模块154停止光输出。
第一相机121能够处理诸如在捕获模式或者视频呼叫模式下图像传感器获得的静止或者运动图像的图像帧。然后被处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。
第一和第二操纵单元123a和123b是用户输入单元123的示例,通过用户可以对其进行操纵以将输入提供给移动终端100。第一和第二操纵单元123a和123b也可以被统称为操纵部分,并且可以采用允许用户执行诸如触摸、推动、滚动等等的操纵的任何触觉方法。第一和第二操纵单元123a和123b也可以采用允许用户执行诸如接近触摸、悬停等等的操纵的任何非触觉的方法。
图1B图示作为触摸键的第一操纵单元123a,但是可能的替选包括机械键、推动键、触摸键、以及其组合。
可以以各种方式使用在第一和第二操纵单元123a和123b处接收到的输入。例如,用户可以使用第一操纵单元123a以将输入提供给菜单、主屏键、取消、搜索等等,并且用户可以使用第二操纵单元123b提供输入以控制从第一或者第二音频输出模块152a或者152b输出的音量、切换到显示单元151的触摸识别模式等等。
作为用户输入单元123的另一示例,后输入单元(未示出)可以位于终端主体的后表面上。用户能够操纵后输入单元以将输入提供给移动终端100。可以以各种不同的方式使用输入。例如,用户可以使用后输入单元以提供用于电源开/关、开始、结束、滚动、控制从第一或者第二音频输出模块152a或者152b输出的音量,切换到显示单元151的触摸识别模式等等的输入。后输入单元可以被配置成允许触摸输入、推动输入、或者其组合。
后输入单元可以位于在终端主体的厚度方向中重叠前侧的显示单元151。作为一个示例,后输入单元可以位于终端主体的后侧的上端部分上,使得当用户使用一只手抓握终端主体时用户能够使用食指容易地操纵它。可替选地,后输入单元能够最多被定位在终端主体的后侧的任何位置处。
包括后输入单元的实施例可以实现后输入单元的第一操纵单元123a的功能性的一些或者全部。正因如此,在从前侧省略第一操纵单元123a的情形下,显示单元151能够具有更大的屏幕。
作为又一替代,移动终端100可以包括手指扫描传感器,该手指扫描传感器扫描用户的指纹。然后控制器180能够使用通过手指扫描传感器感测的指纹信息作为认证过程的一部分。手指扫描传感器也可以被安装在显示单元151中或者在用户输入单元123中被实现。
示出麦克风122位于移动终端100的端部处,但是其它的位置是可能的。如有必要,多个麦克风可以被实现,通过这样的配置允许接收立体声音。
接口单元160(再次参考图1A)可以用作允许移动终端100对接外部设备的路径。例如,接口单元160可以包括用于连接到另一设备(例如,耳机、外部扬声器等等)的连接终端、用于近场通信的端口(例如,红外数据协会(IrDA)端口、蓝牙端口、无线LAN端口等等)、或者用于将电力供应到移动终端100的电源终端中的一个或多个。接口单元160可以以用于容纳诸如订户标识模块(SIM)、用户标识模块(UIM)、或者用于信息存储的存储卡的外部卡的插槽的形式实现。
示出第二相机121b位于终端主体的后侧处并且包括与第一相机单元121a的图像捕获方向大体上相反的图像捕获方向。如有必要,第二相机121a可以被替换地位于其他的位置处,或者使其可移动的,以便于具有不同于被示出的图像捕获方向。
第二相机121b能够包括沿着至少一条线布置的多个镜头。多个镜头也可以布置成矩阵配置。相机可以被称为“阵列相机”。当第二相机121b被实现为阵列相机时,可以使用多个镜头和具有更好的质量的图像以各种方式捕获图像。
如在图1C中所示,示出闪光灯124与第二相机121b相邻。当通过相机121b捕获对象的图像时,闪光灯124可以照明对象。
如在图1B中所示,第二音频输出模块152b能够位于终端主体上。第二音频输出模块152b可以结合第一音频输出模块152a实现立体声功能,并且也可以被用于实现用于呼叫通信的扬声器电话模式。
用于无线通信的至少一个天线可以位于终端主体上。天线可以被安装在终端主体中或者通过壳体形成。例如,配置广播接收模块111的一部分的天线可以可伸缩到终端主体中。可替选地,可以使用被附接到后盖103的内表面的膜或者包括导电材料的壳体形成天线。
用于将电力供应到移动终端100的电源单元190可以包括电池191,该电池191被安装在终端主体中或者可拆卸地耦合到终端主体的外侧。电池191可以经由被连接到接口单元160的电源电缆接收电力。而且,能够使用无线充电器以无线方式对电池191再充电。通过电磁感应或者电磁谐振可以实现无线充电。
示出后盖103,其被耦合到后壳体102以用于遮蔽电池191,以防止电池191的分离,并且保护电池191免于外部冲击或者外来物质。当电池191是从终端主体可拆卸的时,后壳体103可以被可拆卸地耦合到后壳体102。
用于保护外观或者协助或扩展移动终端100的功能的附件也可以被设置在移动终端100上。作为附件的一个示例,可以提供用于覆盖或者容纳移动终端100的至少一个表面的盖或者袋。盖或者袋可以与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于协助或者扩展对触摸屏触摸输入的触摸笔。
图2A和图2B是图示根据本发明的另一实施例的眼镜式移动终端400的示例的透视图。
眼镜式移动终端400可以被配置成戴在用户的头部,并且为了这样的目的,可以具有框架(例如,壳体或者外壳)。框架可以是柔性材料形成的用于更加容易佩戴。这些视图示出其中框架包括可以是由相互不同的材料形成的第一框架部分401和第二框架部分402的示例。通常,眼镜式移动终端400可以具有与如在图1A至图1C中所示的移动终端100相同或者相似的特性。
框架由用户的头部支撑并且提供在其中可以安装各种组件部分的空间。如所示的,诸如控制模块480(或者控制器)或者声音输出模块452的电子部件可以被安装在框架中。此外,覆盖用户的左眼或者右眼中的至少一个的透镜403可以可拆卸地安装到框架。
控制模块480被配置成控制被设置在眼镜式移动终端400中的各种电子组件。控制模块480可以被理解为对应于在上面描述的控制器180。虽然在图2A和图2B中,控制模块480被定位在用户的头部的侧面上方的框架上,但控制模块480的位置不限于此。
显示单元451可以以头戴式显示器(HMD)的类型被实现。“HMD类型”指的是被安装在用户的头部以在用户的眼睛的前面直接示出图像的显示类型。显示单元451可以被布置为对应于用户的眼睛中的至少一个,使得当用户戴上眼镜式移动终端400时,在用户的眼睛的前面直接提供图像。在图2A和图2B中,作为示例,显示单元451被布置在与用户的右眼相对应的部分处使得可以朝着用户的右眼输出图像。
显示单元451的至少一部分可以是透明的,使得当没有从显示单元451输出图像时用户的视野没有被阻挡。显示单元451的透明部分可以是输出图像的部分。此外,输出图像的部分可以被定位在透镜403的边缘处。因此,用户的正常的视野范围可以被显示单元占据。然而,本发明不限于此,并且输出图像的部分可以被布置在没有重叠透镜403的区域。
参考图2A和图2B,显示单元451包括图像投射部分451A和光路径改变部分451B。
图像投射部分451A被配置成投射从控制器的信号处理产生的图像。图像被投射的方向可以是与透镜403的主表面平行的第一方向。图像投射部分451A具有光源和光学系统。图像投射部分451A可以被构造成使用从光源发射的光通过光学系统产生图像并且投射图像。在这样的情况下,通过控制器可以与光源一起控制在产生图像的光学系统中的元件。
光路径变化部分451B被形成为改变来自于图像投射部分451A的图像沿其被投射的路径。光路径变化部分451B被布置在从光路径投射部分451A投射的图像的路径上。例如,根据实施例,光路径变化部分被布置为沿着第一方向与图像投射部分451A分开。
光路径变化部分451B折射或者反射沿着第一方向投射到第二方向的图像。作为示例,光路径变化部分451B可以是棱镜或者镜。在这样的情况下,第二方向可以是图像被投射到透镜的表面的方向或者图像经过透镜403到用户的眼睛的方向。
在本实施例中,例如,使用棱镜,显示单元451将图像投射到用户的眼睛。如所示的,棱镜可以是由透明材料形成以允许用户查看被投射的图像和用户的正常的前视野范围,尽管棱镜重叠透镜。
正因如此,通过显示单元451输出的图像可以被显示为重叠用户的正常的视野范围。眼镜式移动终端400可以使用显示器的特性以提供增强现实(AR)功能,通过该功能虚拟图像重叠现实生活图像或者背景以向用户示出单个图像。
相机421被布置为与用户的左眼和右眼中的至少一个相邻以捕获前图像。因为相机421被定位为与眼睛相邻,所以相机421可以获得用户看到的场景。
在这些附图中,虽然例如相机421被设置在控制模块480中,但本发明不限于此。相机431可以被安装在框架中。多个相机也可以被提供以获得立体图像。
眼镜式移动终端400可以具有用户输入单元423a和423b以接收控制命令。用户输入单元423a和423b可以被配置成允许用户操纵它们同时具有诸如通过触摸或者推动的触觉。在这些附图中,作为示例,框架和控制模块480分别具有推动式用户输入单元423a和触摸型用户输入单元423b。
此外,眼镜式移动终端400可以包括:麦克风(未示出),该麦克风接收声音并且将接收到的声音处理成电语音数据;和声音输出模块452,该声音输出模块452输出声音。声音输出模块452可以被配置成以传统的听觉声音输出方案或者经由骨传导方案传递声音。在使用骨传导方案实现声音输出模块452的情况下,当用户戴上眼镜式移动终端400时,声音输出模块452紧密接触用户的头部以便振动用户的头骨传递声音。
同时,如上所述,眼镜式移动终端400的相机421被定位为与用户的左眼或者右眼中的至少一个相邻以捕获他的前图像。因为相机421被定位为与用户的眼睛相邻,所以相机421可以获得与用户正在观看的场景密切对应的图像。正因如此,因为用户看到的场景用作通过相机421获得的预览图像,所以当在图像捕获功能时眼镜式移动终端400不需要将单独的预览图像输出到显示单元451。
当图像被捕获同时在显示单元451上没有输出预览图像时,用户可以期待验证捕获到的图像。例如,虽然相机和用户的视角范围几乎对准,但是因为用户的视角可能仍然稍微不同于相机的视角,所以被捕获并显示在显示单元451上的图像可能不同于用户意图捕获作为图像的场景。因此,用户可能需要验证是否在图像中已经捕获到所期待的场景。此外,为了验证捕获的图像的图像质量(例如,是否对象已经被精确地对焦),简单地查看并且欣赏捕获的图像,或者执行与捕获到的图像相关联的功能(例如,发送或者分享图像),用户可能需要在显示单元451上输出捕获到的图像。
如所论述的,显示单元451可以被定位为对应于用户的左眼或者右眼中的至少一个。因此,当信息被显示在显示单元451上时,信息有可能阻挡用户的正常的视野。因此,提议仅当存在对于捕获的图像的需求时将捕获到的图像提供给用户的方法。
现在参考附图详细地描述用于在显示单元上输出通过相机捕获的图像的方法。图3是图示根据本发明的实施例的控制方法的流程图,并且图4是图示在图3中示出的控制方法的概念视图。
根据本发明,眼镜式移动终端400执行捕获图像(S310)。
在此,通过被设置在眼镜式移动终端400中的相机421可以进行图像捕获,如结合图2A和图2B在上面描述的。可以响应于以各种方案应用的控制方法执行通过眼镜式移动终端400的图像捕获。
作为示例,通过用户的语音可以输入控制命令。控制器480可以响应于语音命令执行图像捕获功能。作为另一示例,可以响应于用户输入单元423a和423b(参考图2A或者图2B)的用户操纵应用控制命令。如上所述,用户输入单元423a和423b可以被配置成允许用户执行操纵同时提供诸如触摸或者推动的触觉反馈。可以基于用户输入单元423a和423b上的触摸输入或者推动输入应用控制命令。
此外,用于图像捕获的控制命令可以对应于从与眼镜式移动终端配对的至少一个外部电子设备(例如,智能电话(或者,移动终端或者蜂窝电话))接收到的图像捕获请求信号。换言之,当从外部电子设备接收请求图像捕获的信号时,控制器480可以响应于请求信号通过相机421捕获图像。
因此眼镜式移动终端400可以响应于以各种方式应用的控制命令执行图像捕获功能。
如果通过相机421进行图像捕获,则控制器480将捕获到的图像存储在存储器170中。仅当接收用于存储捕获到的图像的请求时,控制器480可以将捕获到的图像存储在存储器170中。在其它的实施例中,控制器480可以将图像自动地存储在存储器170中。在又一实施例中,控制器480可以接收关于是否自动地或者仅当接收用于存储图像的请求时存储被捕获到的图像的用户的选择。因此,取决于用户的选择,控制器480可以在图像被捕获时立即地或者仅当接收用于存储图像的请求时将图像存储在存储器170中。在下文中,关于被存储在存储器170中的图像进行描述。因此,下面描述的捕获到的图像是在通过相机421捕获之后被存储在存储器170中的图像。
存储器170可以被理解为包括被设置在眼镜式移动终端中的存储器、与眼镜式移动终端通信的至少一个外部服务器(或者云服务器)、或者两者。在眼镜式移动终端中,捕获到的图像可以立即地或者在预定的时间流逝之后被上传到至少一个外部服务器。在这样的情况下,控制器480可以从被设置在眼镜式移动终端中的存储器中删除被上传的捕获到的图像。此外,捕获到的图像可以被存储在至少一个外部服务器中同时保持在被设置在眼镜式移动终端中的存储器中。
再次参考图3,在图像捕获之后,执行感测在框架410上的触摸(S320)。
根据本发明的实施例,眼镜式移动终端可以被配置成感测框架410以及用户输入单元423a和423b上的触摸。
如在图2A和图2B中所示,框架410可以包括第一框架部分401和第二框架部分402。根据本发明,眼镜式移动终端可以被配置成在第一和第二框架部分401和402中的任意一个或者两者中具有触摸传感器。
为了本示例的目的,第一和第二框架部分401和402被公开为均具有触摸传感器。除了当第一和第二框架部分401和402需要被单独地描述时,第一和第二框架部分401和402可以被统称为框架410。换言之,应理解的是,框架410的描述可以应用于第一和第二框架部分401和402中的每一个。
不需要通过捕获图像的步骤S310连续地执行感测框架410上的触摸的块S302。不需要就在图像被捕获之后出现在框架410上的触摸。
当感测框架410上的触摸时,眼镜式移动终端可以在感测在框架410上的触摸之前执行将通过相机421捕获的图像输出到显示单元451(S330)。
控制器480可以响应于在框架410上的触摸将最近通过相机421捕获的图像输出到显示单元451。因此,用户可以通过触摸框架410接收捕获到的图像。
一旦感测到框架上的触摸,不论在框架410上的触摸的类型如何,控制器480可以输出在触摸被感测之前捕获到的图像。
例如,如在图4(a)中所示,通过相机421捕获图像(参考图2A或者图2B)。如在图4(b)中所示,如果预定类型的触摸被施加到框架410,则控制器480将就在施加触摸之前通过相机捕获的图像511输出到显示单元451。
在这样的情况下,控制器480可以在显示单元451的预定区域501中输出捕获到的图像511。如所示的,根据本发明,响应于在框架410上的触摸,捕获到的图像可以被输出。
在一些实施例中,仅当感测框架410上的预定类型的触摸时,控制器480可以输出就在感测触摸之前捕获到的图像。在此,预定类型的触摸可以是各种触摸类型中的一个。通过触摸点(或者触摸区域)的数目、是否触摸点能够变化(例如,拖动触摸可以被理解为触摸的点已经改变)、触摸点变化的方向(例如,在拖动触摸的情况下,拖动触摸沿着其移动的方向)、触摸的持续时间等等,可以定义预定类型的触摸。触摸点(或者触摸区域)的数目可以意指触摸框架410的手指的数目。例如,预定类型的触摸可以被定义为具有两个触摸点的短触摸。作为另一示例,预定类型的触摸可以被定义为具有单个触摸点的长触摸。正因如此,预定类型的触摸可以是各种触摸类型的中一个。
控制器480将就在感测到与预定类型的触摸相对应的预定类型的触摸之前通过相机421捕获的图像输出到显示单元451。
即使当在眼镜式移动终端中正在执行图像捕获功能或者与捕获到的图像无关的功能时,当感测在框架410上的预定类型的触摸时,控制器480可以将通过相机421最近捕获的图像输出到显示单元451。
例如,输出捕获到的图像的功能可以匹配预定类型的触摸。在这样的情况下,一旦存在预定类型的触摸,控制器480可以输出最新捕获到的图像,不论在眼镜式移动终端中当前执行的功能如何。通过示例,当感测在框架410上的预定类型的触摸同时消息器应用正在运行时,控制器480将最新捕获到的图像输出到显示单元451。在这样的情况下,在捕获的图像被输出之前正被输出到显示单元451的信息可能重叠捕获到的图像,或者当捕获到的图像被输出时可能从显示单元451消失。在其它的实施例中,控制器480可以控制输出捕获到的图像的位置,使得捕获到的图像没有重叠在捕获到的图像被输出之前正从显示单元451输出的屏幕信息。
同时,即使当响应于预定类型的触摸输出最新捕获到的图像时,在眼镜式移动终端中已经执行的功能可以被保持。
在框架410上的触摸被保持的同时,控制器480可以保持在显示单元451上的图像的输出。换言之,只要框架部分410上的预定类型的触摸被保持,控制器480可以持续输出最新的捕获到的图像。此外,甚至一旦感测到与预定类型的触摸连续的另一触摸,控制器480可以保持通过相机421捕获到的图像的输出。
再次返回到图3,响应于框架410上的触摸被释放,眼镜式移动终端400执行终止将图像输出到显示单元451(S340)。
在框架410上的触摸被保持的同时,控制器480将通过相机421捕获的图像输出到显示单元451,并且如果到框架部分410上的触摸被释放,则控制器可以控制显示单元451使得被显示在显示单元451上的图像消失。
参考图4(b)和图4(c),如果如在图4(c)中所示释放在框架410上的触摸,则控制器480可以终止捕获到的图像511的输出,并且捕获到的图像511可以从预定的区域501消失。因此,用户可以通过框架410上的触摸和释放触摸控制图像的输出和输出的终止。
当在框架410上的触摸被释放时,通过显示单元451输出的图像可以是就在预定类型的触摸被感测之前通过相机421捕获的图像或者可以是通过相机421捕获的其它图像,其不同于就在之前捕获的图像。一旦触摸框架410,触摸类型与预定类型可以是相同的或者不同的。
眼镜式移动终端可以响应于在框架410上感测到的预定类型输出最新捕获的图像,并且响应于在框架410上的附加的触摸,然后可以控制最新捕获的图像或者通过相机捕获的其它图像或者执行与其相关的功能。
在上面的实施例中,现对于图像被捕获的时间,响应于框架上的触摸,控制器480确定要输出的图像。然而,本发明不限于此,并且响应于框架上的触摸要输出的图像可以根据各种准则被确定。例如,控制器480可以确定相对于图像被存储在存储器170中的时间的图像。例如,当通过相机421捕获的图像时,可以响应于在框架410上的触摸输出与通过相机421捕获的图像不同的图像(诸如被下载的图像)。因此,眼镜式移动终端可以利用框架410上的触摸作为用于执行被存储在存储器170中的其它图像的输出功能的命令。
可以通过文件夹或者种类分类被存储在存储器170中的图像。控制器480可以基于在框架410上的触摸类型、是否已经触摸第一或者第二框架401和402、或者触摸框架410的位置等等中的至少一个输出被存储在特定文件夹中的图像或者与特定种类相对应的图像。控制器480可以基于这样的各种准则在显示单元451上输出不同的图像。
此外,根据本发明的实施例,可以响应于在框架410上的触摸输出被存储在与眼镜式移动终端配对的外部电子设备中的图像。在这样的情况下,在框架410上的触摸可以是不同于用于输出被存储在眼镜式移动终端中的图像的触摸的类型的触摸。
尽管未示出,但是眼镜式移动终端可以与响应于框架410上的触摸捕获图像的功能无关地输出捕获到的图像。
如结合图4在上面所描述的,当图像被显示在显示单元451上时,控制器480可以响应于用于捕获图像的请求执行图像捕获。通过语音命令、通过用户的手势、通过用户输入单元423a和423b的用户操纵,或者框架410的用户操纵,可以应用这样的图像捕获请求。响应于用户的请求,控制器480可以执行与将图像511输出到显示单元451的功能分离的图像捕获功能。如果响应于图像捕获请求输出图像,则控制器480可以将响应于图像捕获请求捕获的图像,而不是在做出图像捕获请求之前输出的图像511,输出到显示单元451。因此,用户可以接收最新捕获到的图像。如上所述,可以对响应于眼镜式移动终端中的框架上的触摸输出图像的功能做出各种变化。
现在参考附图描述用于提供与通过使用用户的手势输出图像的各种功能相关的方法。图5A、图5B、图5C以及图5D是图示用于基于用户的运动提供图像的方法的概念视图。
感测单元140可以感测用户头部的运动。更加具体地,感测单元140可以被配置成包括加速传感器、磁传感器、重力传感器(G传感器)、陀螺仪传感器、或者运动传感器。感测单元140可以感测佩戴眼镜式移动终端的用户的运动。因此,感测单元140可以被配置成感测与用户的运动相对应的眼镜式移动终端的运动。
控制器480可以使用用户的运动信息控制通过相机捕获的图像。作为示例,控制器480可以滚动被输出到显示单元451的捕获到的图像。控制器480可以控制显示单元451,使得被输出到显示单元451的第一捕获到的图像切换到与用户的运动相对应的第二捕获到的图像或者第三捕获到的图像。例如,用户可以通过简单地转向他的头部来移位被输出到显示单元451的图像。
例如,如果预定类型的触摸被施加到框架410,如在图5A(a)中所示,则控制器480输出通过相机421捕获的图像511,如在图5A(b)中所示。在此,图像511可以是最近捕获的图像。为了方便起见,图像511在此被称为第一图像。
在框架410上的触摸被保持的同时,控制器480持续在显示单元451上输出第一图像511。如果用户的头部在如在图5A(a)中所示的方向中移动,则控制器480可以在如在图5A(c)和(d)中所示的方向中滚动第一图像511。换言之,当感测用户的运动时,控制器480根据感测到的信息执行在方向中移位被输出到显示单元451的滚动功能。可以在预定的区域501内执行图像(或者第一图像511)的滚动。
在一些实施例中,控制器480基于用户旋转他的头部的运动在显示单元451上输出不同于第一图像511的第二图像512。在此,第一图像511被显示在显示单元451的预定的区域501中,并且根据用户的运动在预定区域内的方向中移位。随着第一图像移动,第二图像512被逐渐地显示在预定的区域中。第二图像512可以是就在第一图像511之前,或者就在第一图像之后捕获的图像。
在运动持续的同时,控制器480可以顺序地移动图像。即,随着第二图像512移位,第三图像513可以被输出。控制器480可以根据运动在预定的区域501中滚动事先捕获的到图像。因此,通过简单地移动他的头部,用户可以被提供有搜寻捕获到的图像的功能。
在另一示例中,如在图5A(c)中所示,在滚动功能被执行的同时,图像530可以被显示为没有完全地覆盖预定的区域501。在这样的情况下,图像530可以像电影胶片一样被示出。
此外,尽管未示出,但是控制器480可以根据用户头部的移动速度控制滚动速度。即,图像的移动速度可以取决于用户头部的旋转速度变化。
在其它的实施例中,即使当用户的头部停止移动时眼镜式移动终端也可以持续滚动图像。当用户的运动满足参考条件时,控制器480可以确定用户意图保持滚动图像。更加具体地,如在图5B(a)(a1)和(a2)、(b)以及(c)中所示,随着用户的头部移动,控制器480移位在预定的区域501中输出的图像。在用户头部的旋转距离满足如在图5B(a)(a1)、(a2)、以及(a3)中所示的参考值的情况下,即使当用户的头部停止移动,控制器480也可以持续滚动图像,如在图5B(d)中所示。这样的功能可以被称为“自动滚动功能”。换言之,控制器480可以基于用户头部的运动进行自动滚动功能。虽然讨论了触发自动滚动功能的条件与用户头部的旋转距离相关联的示例,但是本发明不限于此。例如,条件可以与其它的运动或者多个运动相关联。例如,执行自动滚动功能的运动条件可以与用户头部的移动速度相关联。作为另一示例,运动条件可以与用户头部的旋转距离和旋转速度相关联。
此外,通过其它的触发器,不是通过用户头部的运动,可以执行自动滚动功能。例如,当与自动滚动功能相关联的触摸被施加到框架410时,控制器480可以执行自动滚动功能。也可以基于用户的运动终止自动滚动功能。例如,在由于用户头部的旋转距离满足参考值而进行自动功能功能时,如在图5C(a)中所示,当用户的头部在用户头部的初始移动方向相反的方向中移位时,控制器480可以终止自动滚动功能。
在被论述的示例中,关于终止自动滚动功能的用户运动的条件与用户头部的移动方向相关联。然而,本发明不限于此。例如,条件可以与多个运动相关联。终止自动滚动功能的运动条件也可以与用户头部的移动速度相关联。作为另一示例,运动条件可以与用户头部的旋转方向和旋转速度相关联,使得当用户头部的运动以预定或更大的速度变到相对的方向时,控制器480可以终止自动滚动功能。
在实施例中,在当用户的头部取向返回到如在图5C(c)中所示的原始方向时终止自动滚动功能之后,控制器480可以再次滚动被输出到显示单元451的图像。
根据用户头部的旋转方向,眼镜式移动终端也可以控制图像的滚动方向。例如,控制器480可以控制图像的移动方向,使得当用户的头部在如图5D(a)中所示的第一方向中移动时的图像的移动方向不同于当用户的头部在如图5D(b)中所示的第二方向中移动时的图像的移动方向。
例如,在用户的头部在向左方向中移动的情况下,如在图5D(a)中所示,控制器480可以相对于用户的视野方向向左移位图像。在用户的头部取向向右方向的情况下,如在图5D(b)中所示,控制器480可以相对于用户的视野方向向右移位图像。
作为另一示例,当用户的头部在如图5D(a)中所示的第一方向中移位时,控制器480滚动图像以输出比当前输出的图像更早捕获的图像,并且当用户的头部在如图5D(b)中所示的第二方向中移位时,控制器480可以滚动图像以输出比当前输出的图像更晚捕获的图像。
现在参考附图描述用于提供图像相关的功能或者利用用户的运动的信息的方法。图6A、图6B以及图6C是图示根据本发明的实施例的用于在眼镜式移动终端中提供图像相关信息的方法的概念视图。
在示例中,当在佩戴眼镜式移动终端400的同时用户的头部在特定方向中移动时,眼镜式移动终端400可以执行与特定方向中的运动相关联的功能。当用户头部的运动对应于预定的运动时,控制器480可以确定用户的头部在特定方向中已经移动。
与特定方向中的运动相关联的各种功能可以被定义。与特定方向中的运动相对应,可以执行各种图像相关功能当中的基于用户选择的功能。通过在特定方向中移动用户的头部,用户可以选择要在眼镜式移动终端中进行的功能。
此外,与用户的头部在特定方向的相对方向中的移动相对应,可以终止对应于特定方向中的运动执行的功能。控制器480可以执行或者终止与用户的头部运动相对应的功能。此外,在其它实施例中,可能没有与特定方向的相对方向中的运动相对应地终止功能,并且替代地,控制器480可以控制显示单元451使得从显示单元451仅去除与功能相对应的屏幕信息。
图像相关功能可以是提供图像相关信息的功能、利用图像的附加功能、或者用于选择要结合图像执行的其它功能。因此,图像相关信息可以包括图像捕获的时间和地点、包含图像的文件夹、图像的种类、或者与被包括在图像中的对象相对应的信息。
此外,利用图像的附加功能可以包括使用图像可以执行的功能,诸如发送、分享、编辑、或者删除图像等等。
此外,功能也可以包括输出包含与附加功能分别相对应的项目的列表,使得附加功能的任意一个被选择。
同时,如上所述,在用户的头部的运动对应于预定的运动的情况下,控制器480可以确定用户的头部在特定的方向中已经移动。在此,预定的运动可以对应于当用户抬起头部的运动,如在图6A(a)和(b)中所示。如所示的,当用户升高他的头部时,控制器480可以确定用户的头部或者戴在用户头部的眼镜式移动终端已经在特定的方向中移动。在这样的情况下,如所示的,控制器480可以进行与输出图像相关联的功能。
在框架部分410上的触摸被保持的同时控制器480可以执行附加的功能,如结合图3和图4在上面所描述的。当图像515和附加的功能被提供的同时框架410上的触摸被释放时,如在图6A(b)中所示,对应于在特定的方向中已经移动的用户头部,控制器480可以终止附加的功能和图像514两者。
附加的功能可以是提供与输出图像515相关的信息520的功能。这样的相关信息可以如所示重叠于图像515的至少一部分被输出。此外,虽然未示出,但是控制器480可以控制显示单元451,使得相关信息没有重叠其中图像515被输出的区域501。
相关信息可以包括图像相关信息。此外,如果在预定的区域501中输出多个图像,则控制器480可以输出与多个图像中的每一个相关的所有信息或者可以提供关于多个图像中的仅一个的信息。在这样的情况下,控制器480可以提供在预定的区域501中占有较大面积的信息。同时,如上所述,在预定的区域501中输出的图像不必是最新捕获的图像。
在实施例中,当如图6A和图6B(a)中所示用户头部在特定方向中移位,然后如图6B(b)中所示在特定方向的相对方向中移动时,控制器480可以终止输出相关信息。正因如此,用户可以通过头部运动直观地控制相关信息的执行和终止。
在另一实施例中,控制器480可以执行与框架410上的触摸相对应的特定功能。作为示例,在眼镜式移动终端中,当结合图像要执行功能时,控制器480可以输出用于选择与用户头部在特定方向中的移动相对应的附加功能中的任意一个的列表521,如在图6C(a)和(b)中所示。列表521可以包含分别对应于附加功能的项目521A和521B。通过框架部分410上的触摸可以选择项目512A和521B中的任意一个。
更加具体地,参考图6C(a)-(d),如果用户头部在特定方向中移动,则控制器480输出指示与捕获到的图像512相关的功能的列表521。列表521包括与捕获到的图像相关的功能相对应的可选择的项目521A和521B,并且如在图6C(b)、(c)以及(d)中所示,可以通过框架410上的触摸选择项目521A和521B中的至少一个。可以以各种方式触摸框架410以选择项目中的至少一个。此外,可以在各种位置执行触摸以选择项目中的至少一个。
通过示例,控制器480可以基于框架410上的拖动触摸指定多个项目中的任意一个,如在图6C(b)和(c)中所示。即,用户可以通过利用框架410上的触摸确定多个项目当中的要选择的最终项目。拖动触摸输入也可以被用于导航。此外,可以基于在框架410上的预定类型的触摸(例如,在框架部分410上的双触摸)选择项目中的至少一个,如在图6C的(d)和543所示。执行项目上的导航的触摸和选择项目的触摸可以与将图像输出到显示单元的第一触摸或者与第一触摸分开施加的附加触摸相连续。
在导航触摸与第一触摸连续的情况下,即使当由于该触摸而从框架410释放第一触摸时,控制器480也可以持续输出图像。如果在第一触摸已经被释放之后的预定时间内触摸被重新施加到框架410,则控制器480可以持续在显示单元451上输出图像。
作为另一示例,框架410包括与显示单元451的第一侧耦合的第一框架部分401(参考图2A)和与相对于第一侧的侧面耦合的第二框架部分402(参考图2A)。当感测在第二框架部分402上的第一触摸同时用于输出图像的预定类型的触摸被施加到第一框架部分401时,控制器480可以允许指南图像521’重叠可选择项目中的任意一个(参考542)。换言之,控制器480可以通过使指南图像521’重叠要被选择的项目来指导用户选择相对应的项目。同时,当感测不同于第一触摸(参考543)的在第二框架部分402上的第二触摸时,与重叠指南图像的可选择项目相对应的功能可以被执行。
控制器480可以沿着与第一触摸连续的在第二框架部分402上的拖动触摸(通过附图标记542指示)移位指南图像521’,如在图6C(b)和(c)中所示。
虽然未被示出,但是对应于用户头部在特定方向的相对方向中移动列表可以从显示器消失。如上所述,眼镜式移动终端可以利用用户的运动和框架上的触摸以提供与捕获到的图像相关的各种功能。
在其它的实施例中,可以提供用于控制图像被输出到显示单元并且利用框架上的触摸提供与图像相关的功能的方法。图7A和图7B是图示用于基于在根据本发明的眼镜式移动终端的框架上的触摸提供图像的方法的概念视图。
根据本发明的实施例,用于滚动被输出到显示单元451的图像的触摸可以包括与用于输出图像的第一触摸连续的触摸,或者可以是与第一触摸分开施加的附加的触摸。当触摸与第一触摸连续时,即使当从框架410释放第一触摸时,控制器480也可以持续输出图像。如果在第一触摸已经释放之后的预定的时间内触摸被重新施加到框架410,则控制器480可以持续在显示单元451上输出图像。
在另一示例中,控制器480可以提供与在第一框架部分上的第一触摸相对应的滚动图像的功能。在此期间,在第一框架部分401上的第一触摸可以被保持。此外,当在第一框架部分401上的第一触摸被释放时,即使当在第二框架402上的触摸被保持时,控制器480也可以终止将捕获到的图像提供给显示单元451。在另一示例中,即使当第一框架部分401上的第一触摸被释放时,如果在第二框架部分402上的触摸被保持,则控制器480可以保持将捕获到的图像提供给显示单元451的功能。
现在描述用于利用框架410上的触摸滚动图像的示例方法。通过示例,对应于框架410上的预定类型的触摸(例如,从框架部分410的点410A拖动到另一点410B的触摸),如在图7A(a)中所示,控制器480可以滚动被输出到显示单元451的捕获到的图像,如在图7A(b)、(c)以及(d)中所示。控制器480可以控制显示单元451,使得根据预定类型的触摸第一图像切换到不同于第一图像的第二图像或者第三图像。换言之,用户可以仅通过在框架410上移动他的手指来移动被输出到显示单元451的图像。
如在图3和图4中所示,与在框架410上的触摸相对应,控制器480可以执行滚动功能,当感测到框架410上的拖动触摸时,关于通过相机捕获到的多个图像中的任意一个,允许多个图像被顺序地输出。
如上所述,控制器480可以在显示单元451的预定区域中输出图像。因此,可以在预定区域501内执行滚动被输出到显示单元451的第一图像。
根据拖动触摸,第一图像511在预定的区域内在一个方向中移动,并且随着第一图像移位,不同于第一图像的图像被逐渐地显示在预定的区域中。
在此,图像512可以是比第一图像511的捕获时间更早通过相机捕获的图像。当拖动触摸被保持时,控制器480可以逐渐地移位比第一图像511更早捕获到的图像。正因如此,对应于拖动触摸,控制器480可以在预定的区域501内滚动在过去捕获到的图像。因此,用户可以被提供通过在框架上简单地移动他的手指搜寻捕获到的图像的功能。
此外,当滚动图像时,控制器480可以控制与用户手指或者施加拖动触摸的其它对象的移动速度相对应的滚动速度。换言之,在预定的区域501中移动的图像的移动速度可以取决于拖动触摸的触摸速度变化。
同时,即使当拖动触摸被终止时,眼镜式移动终端也可以持续执行滚动图像的功能。在此,“拖动触摸的终止”可以意指当施加拖动触摸的手指或者其它的对象停止移动或者当从框架410去除施加拖动触摸的手指。
当拖动触摸满足参考条件时,控制器480可以确定用户意图持续移位图像。这样的功能可以表示“自动滚动功能”。控制器480可以基于拖动触摸的触摸速度执行自动滚动功能。在上面的示例中,用于执行自动滚动功能的条件与拖动触摸的速度相关。然而,本发明不限于此。例如,自动滚动功能的条件可以与触摸的长度或者触摸速度和拖动触摸长度的组合相关联。
在一些实施例中,当在相对的方向中施加拖动触摸时或者当与自动滚动功能的终止相关联的预定类型的触摸被施加时,可以终止自动滚动功能。
眼镜式移动终端可以根据拖动触摸的移动方向控制图像的滚动方向。例如,如图7A中所示当拖动触摸在第一方向中被施加时,可以在第一方向中执行滚动,并且当在与第一方向相对的第二方向中施加拖动触摸时,可以在第二方向中滚动图像,如在图7B(a)中所示。
因此,当在第一方向中,例如,在远离显示单元451的方向中,施加拖动触摸时,如在图7A中所示,控制器480可以输出相对于当前图像在先前捕获的图像。然后,当在第二方向中,例如,在接近显示单元451的方向中施加拖动触摸时,如在图7B中所示,控制器480可以输出在当前输出的图像之后捕获的图像。正因如此,眼镜式移动终端可以通过利用框架上的触摸移动图像或者控制图像的移动方向。因此,控制器可以执行与不同类型的触摸相对应的不同类型的控制,并且可以将不同的功能与不同的触摸相关联,并且可以执行与各个触摸相对应的功能。
图8A、图8B、图9A、图9B、图9C、图10A、图10B、图10C、图11以及图12是图示在根据本发明的另一实施例的眼镜式移动终端中利用框架上的触摸提供与捕获到的图像相关的功能的方法的概念视图。
参考图8A描述被施加到框架410的触摸的类型。在下文中描述的触摸的类型仅是示例,并且对于本领域的普通技术人员来说将会显然的是,可以存在除了下面描述的那些之外的在框架410上的其它各种触摸。
首先,如在图8A(a)中所示,第一类型的触摸可以是被施加到框架上的至少两个触摸点,即,多个触摸点的多触摸。当至少两个手指611和612同时触摸框架410时,如所示的多触摸可以被进行。对应于多个手指611和612触摸框架410,控制器480可以输出最近捕获到的图像,如结合图3和图4在上面描述的。换言之,如结合图3和图4在上面描述的,用于输出捕获到的图像的预定类型的触摸可以是利用多个手指或者其它的触摸对象在框架410上的触摸,如在图8A(a)中所示的。
第二类型的触摸,如在图8A(b)中所示,可以是在释放多个手指中的任意一个611之后立即触摸框架410的轻敲。在此,轻敲可以是接触框架410一次的简单轻敲或者接触框架410多次的多轻敲。
作为示例,如果施加第二类型的触摸,则控制器480可以选择正在显示单元451上输出的图像。
第三类型的触摸,如在图8A(c)中所示,可以是在释放多个手指当中的除了结合图8A(b)在上面描述的手指611之外的第二手指612之后立即触摸框架部分410的轻敲。在此,轻敲可以是接触框架410一次的简单轻敲或者接触框架410多次的多轻敲。
作为示例,如果第三类型的触摸被施加,则控制器480可以释放通过第二类型的触摸已经选择的图像的选择。
第四类型的触摸,如在图8A(d)和(e)中所示,可以是在特定的方向中在框架410上的轻弹触摸。与轻弹触摸相对应,控制器480可以删除或者选择输出图像。
第五类型的触摸,如在图8A(f)中所示,可以是在框架410上的拖动触摸。与拖动触摸相对应,控制器480可以对图像执行滚动功能,如在上面所描述的。
第六类型的触摸,如在图8A(g)中所示,可以从框架410释放触摸。与释放触摸相对应,控制器480可以终止输出图像的功能。
对应于在框架上的各种类型的触摸,眼镜式移动终端可以对输出图像执行各种类型的控制。此外,除了上述示例之外,取决于框架上的触摸位置和已经触摸第一框架部分和第二框架部分中的哪一个,眼镜式移动终端可以执行不同类型的控制。
现在描述利用框架上的触摸执行与被输出到显示单元的图像相关的控制的其它示例。作为示例,如在图8B(a)和(b)中所示,与框架上的上述第二类型的触摸,即,在释放多个手指中的任意一个手指611之后立即触摸框架部分410的轻敲,相对应,控制器480可以选择可选择项目中的任意一个。如所示的,可以通过第二类型的触摸选择被包括在列表550中的项目中的任意一个。虽然未被示出,但是与在框架410上运动多个手指中的至少一个手指的拖动触摸相对应,在项目之间的移位可以进行。
作为另一示例,如在图8C中所示,与结合图8A(d)和(e)在上面描述的第四类型的触摸,即,在特定方向中在框架410上的轻弹触摸,相对应,控制器480可以删除在显示单元上输出的图像。在这样的情况下,用户可以通过简单地执行在框架上的轻弹触摸删除图像。
另外,控制器480可以取决于框架410上的触摸位置改变输出图像的顺序。在此,输出图像的顺序意指根据某个参考显示图像的顺序。例如,可以根据已经捕获到图像的时间按照时间顺序或者相反的时间顺序在显示单元451上输出多个图像。
用户也可以期待在显示单元451上输出特定图像而不是顺序地输出图像。具体地,如在图9A中所示,框架410可以被考虑分割成多个区域410A、410B以及410C。取决于已经输出多个区域410A、410B以及410C中的哪一个,控制器480可以确定要被输出的图像。
如在图9A(a)中所示,当与显示单元451相邻的第一区域410C被触摸时,控制器480可以控制显示单元451使得根据触摸位置的图像被输出,在此是图像顺序的开始部分中的图像。如在图9A(b)中所示,当与中间部分相对应的第二区域410B被触摸时,控制480可以控制显示单元451使得与图像顺序的中间部分相对应的图像被输出。如在图9A(c)中所示,当距显示单元451最远的第三区域410C被触摸时,控制器480可以控制显示单元451使得与图像顺序的最后部分相对应的图像被输出。
正因如此,根据本发明的实施例的眼镜式移动终端可以根据框架上的触摸位置切换要输出的图像。因此,当多个图像被存储在存储器170中时,眼镜式移动终端可以立即输出与框架上的位置相对应的图像,而不是顺序地移位图像,因此节省用户搜寻所期待的图像的时间。
在其它的实施例中,眼镜式移动终端可以响应于框架410上的触摸停止滚动图像,如在图10A(a)中所示,以便于在显示单元451上输出特定的图像。在此,特定的图像可以是当触摸被施加时占据显示单元451上的最大面积的图像。
在图像被滚动的同时,眼镜式移动终端可以输出图像使得图像在尺寸上比预定区域501小。在这样的情况下,响应于触摸,控制器480可以在预定区域501上仅输出特定图像,如在图10A(b)中所示。在示例中,预定类型的触摸可以是在框架410上的双触摸或者通过触摸框架410的多个手指中的任意一个的双轻弹或单轻弹。
作为另一示例,如在图10B、图10C以及图11中所示,眼镜式移动终端可以响应于在框架上的触摸调节被输出到显示单元451的图像的大小。因此,当与调节输出图像的大小相关的触摸被施加到框架时,控制器480可以拉近或者拉远被输出到显示单元451的图像。
作为示例,当拖动触摸在如图10B(a)中所示的方向中被施加到框架410时控制器480可以拉近输出的图像,并且当拖动触摸在如图10B(c)中所示的相对方向中被施加到框架410时可以拉远输出图像。在这样的情况下,随着拖动触摸被施加,控制器480可以逐渐地拉近或者拉远图像。通过触摸框架410的多个手指610中的任何一个611或者612的运动可以进行拖动触摸。此外,在框架410上利用所有多个手指610可以施加拖动输入。在这样的情况下,拖动触摸可以与如结合图3和图4在上面描述的被首先施加到框架410以输出图像的触摸相连续。
作为另一示例,如在图10C中所示,在触摸已经被施加到第一框架部分以输出图像之后,控制器480可以响应于被施加到第二框架部分的拖动触摸拉近或者拉远被输出到显示单元451的图像。
取决于在框架402上的拖动触摸的方向,控制器480可以确定是否拉近、拉远(扩大或者收缩)图像。
此外,在如图11(c)和(d)中所示滚过多个图像的同时,控制器480也可以拉近或者拉远被输出到显示单元451的图像,如在图11(a)和(b)中所示。
在此,预定类型的触摸可以包括在框架410的多个点上的触摸或者与多个点上的触摸相连续的拖动触摸。随着拖动触摸被施加,控制器480可以逐渐地拉远图像同时输出其它的图像。在这样的情况下,当拖动触摸的长度比参考距离长时,控制器480可以拉远捕获到的图像同时输出其它的图像,如在图11(c)和(d)中所示。
尽管未被示出,但是附加的功能可以是响应于触摸提供与输出图像相关的信息。这样的相关信息可以包括图像捕获的时间和地点、捕获到的图像的格式和大小、以及关于被包括在图像中的对象的信息。同时,随着用于执行附加功能的触摸被释放,相关信息可以从显示单元451中消失。在此,触摸可以是被施加到除了第一触摸已经被施加以输出图像的侧面之外的侧面的触摸,如结合图3和图4在上面所描述的。
与先前论述的实施例相似,控制器480可以响应于在框架上的拖动触摸输出用于选择与图像相关的附加功能的列表521,如在图12(a)和(b)中所示。此外,基于在框架上的触摸可以选择被包括在列表521中的项目521A和521B。
通过示例,在框架上的第一触摸被保持,或者触摸被施加到另一框架(例如,第二框架402)的同时,如在图12(a)和(b)中所示,眼镜式移动终端可以输出用于选择与图像相关的功能的列表521。列表521可以包含与相关的功能相对应的项目521A和521B。
可以通过在框架410上的触摸选择项目521A和521B中的任意一个,如在图12(d)中所示。用于选择项目521A和521B的触摸可以是在对其施加第一触摸的第一框架部分401上的触摸,如在图12(d)中所示。对于被施加以选择项目的触摸的类型和被触摸以选择项目的框架考虑各种实施例。
可以基于在框架410(例如,第二框架部分402)上的拖动触摸指定项目,如在图12(b)和(c)中所示。换言之,用户可以通过利用在框架410上的触摸,包括用于导航的拖动触摸,确定多个项目521A和521B当中要选择的项目。如上所述,用于导航的触摸和用于选择的触摸可以是与用于在显示单元上输出图像的第一触摸相连续的触摸或者与第一触摸分开施加的附加的触摸。
当触摸与第一触摸相连续时,即使当从框架410释放第一触摸时,控制器480也可以相应地持续输出图像。例如,如果在第一触摸已经释放之后的预定的时间内触摸被重新施加到框架410,则控制器480可以在显示单元451上持续输出图像。
作为另一示例,当伴随着被施加到第一框架部分401的为了输出图像而施加的预定类型的触摸(或者第一触摸)感测到在第二框架部分402上的触摸时,控制器480可以允许指南图像521’重叠项目以指示项目的用户选择。如在图12(c)中所示,指南图像可以响应于在第二框架部分402上的拖动触摸在项目521A和521B之间移位。
在又一实施例中,眼镜式移动终端可以提供选择图像的功能,使得可以对所有被选择的图像执行特定的功能。例如,控制器480可以整体删除以及发送所选择的图像,或者将所选择的图像迁移到某个文件夹。此外,按照用户的请求,控制器480可以提供允许所选择的图像被临时存储在特定的文件夹中并且然后被顺序地或者一起输出到显示单元的功能。换言之,眼镜式移动终端可以提供选择多个图像中的至少一些的功能,使得可以对所选择的图像同时执行特定的功能。可以以各种方式,诸如在框架上的触摸或者用户的运动,选择图像。
图13A、图13B、图13C、图13D以及图13E是图示用于在根据本发明的实施例的眼镜式终端中选择图像的方法的概念视图。
通过示例,通过由用于在显示单元上输出图像的第一触摸的手指中的至少一个施加的附加的触摸可以选择图像,如在图13(A)中所示。附加的触摸可以是单轻敲触摸或者双轻敲触摸。如在图13中所示,如果附加的触摸被施加,则控制器480选择被输出到显示单元451的图像。控制器480可以输出信息以通知已经选择了图像。信息可以包括重叠所选择的图像516的指南图像521’。控制器480也可以以其它的各种方式通知用户已经选择了相对应的图像。虽然未被示出,但是用于选择图像的触摸可以是被施加到除了已经对其施加第一触摸的框架之外的框架的触摸,其中第一触摸可以被保持或者没有被保持。
在示例中,如果在图片被选择情况下用户头部如图13A(b)中所示在特定方向中移动,则控制器480可以输出可以结合所选择的图像执行的功能的列表525。如果用户头部如图13C(a)和(b)中所示在相对方向中移动,则列表525可以消失。如果列表525消失,则图像的选择可以被释放。虽然在一些实施例中,即使当列表消失时,图像的选择也可以被保持。
在此,用于选择被包括在项目525中的项目中的至少一个、执行项目之间的导航、以及终止列表525的输出的方法与结合图6A、图6B、图6C、以及图12在上面描述的方法相同或者相似,并且其详细描述被省略。
如果与图像相关的功能要求验证过程,则指南信息可以被提供以允许用户确认对应功能的执行。例如,为了确认所选择的图像不包括用户不想分享的图像,在执行分享功能之前可以向用户示出所选择的图像用于由用户验证和确认。如在图13B(a)中所示,在显示单元451的区域中,控制器480可以输出与所选择的图像相对应的缩略图图像511、512以及513,以便于提供关于所选择的图像的信息。通过缩略图图像511、512、以及513,用户可以识别什么图像当前仍然被选择。虽然未被示出,但是控制器480可以经由框架410允许经由被显示的缩略图511、512以及513的图像的选择或者未选择。例如,通过缩略图图像511、512以及513的选择,可以释放与缩略图图像相对应的图像的选择。
在类似的示例中,当删除所选择的图像时,在删除功能被执行之前可以提供关于所选择的图像的信息,以便防止意外删除。作为示例,当“删除”功能被选择时,如在图13D(a)中所示,控制器480可以在预定区域501上输出所选择的图像的缩略图图像550,如在图13D(b)中所示。因此,在删除功能被执行之前用户可以识别要删除的图像。
此外,控制器480可以在预定的区域501中输出所选择的图像(或者所选择的图像的缩略图),同时滚动所选择的图像(或者所选择的项目的缩略图),如在图13D(c)中所示。在这样的情况下,即使没有用户的操纵,也可以自动地滚动所选择的图像。在另一实施例中,可以响应于用户的附加操纵(例如,在框架410上的触摸或者用户头部的运动),在预定的区域501中滚动所选择的图像。在输出预定的时间之后,关于所选择的图像的信息可以从显示单元451消失,或者按照用户的请求从显示单元451消失。此外,当关于所选择的图像的信息输出时,控制器480可以按照用户执行相对应的功能的请求而执行相对应的功能。
在本公开中,“项目”或者“可选择的项目”可以“被指定”用于选择,意指项目可以被亮化,或者否则向用户指示,利用后续的运动被指定的项目要被选择(但是还没有被选择)。控制器480可以允许指南图像521’重叠特定的项目(例如,与删除功能相对应的项目)以便于通知用户特定的项目被指定的状态。
当项目被指定(但是还没有被选择)时可以执行各种功能。当功能要求提供关于可操作的所选图像的信息时,当对应的项目,诸如与指南图像521’所位于的位置相对应的项目,被指定时,控制器480可以提供结合图13C在上面描述的信息。要求提供关于可操作的所选图像的信息的功能可以基于用户的选择被确定或者可以被预先配置。
在另一实施例中,当与特定的功能相对应的项目被选择时,即,当接收用于执行特定的功能(例如,删除功能)的请求时,控制器480可以提供关于所选择的图像的信息。
换言之,控制器480可以响应于项目的指定首先提供关于所选择的图像的信息以执行功能,如在图13C(b)或者(d)中所示,并且然后可以接收关于是否最终执行功能的用户选择。虽然未被示出,但是可以通过与所选择的图像同时或者在不同的时间提供的弹出窗口执行选择。
同时,作为关于所选择的图像的附加功能的示例,存在聚集所选择的项目并且示出项目的“收集和查看”功能(或者保留功能)。
例如,如在图13E(a)中所示,响应于在框架(例如,第一框架401)上的预定类型的触摸,控制器480可以选择被输出到显示单元451的图像512作为要被用于收集和查看功能的图像。如在图13E(b)和(c)中所示,控制器480然后可以响应于在位于除了框架401所位于的侧面之外的侧面处的框架(例如,第二框架402)上的预定类型的触摸输出所选择的图像。
换言之,控制器480可以基于通过在框架部分上的触摸接收到的用户请求输出所选择的图像。一旦做出用户请求,控制器480可以输出所选择的图像,不论在眼镜式移动终端中正在执行的功能如何。
在这样的情况下,可以在预定的区域501中同时或者顺序地输出图像,如在图13E(c)中所示。同时,响应于用户的触摸或者自动地进行顺序的输出。
已经描述了用于通过触摸位于不同的侧面处的框架选择和输出图像的方法。然而,本发明不限于此,并且考虑其他变化,例如,控制器480可以通过以不同的方式触摸相同的框架选择和输出图像。
如在上面提出的,根据本发明的实施例的眼镜式移动终端可以响应于在框架上的触摸向用户提供捕获到的图像。因此,用户可以通过简单地触摸框架验证捕获到的图像。此外,当在通过相机捕获图像之后感测到框架上的触摸时,根据本发明的实施例的眼镜式移动终端可以输出最新捕获到的图像。此外,当感测到框架上的触摸上时根据本发明的实施例的眼镜式移动终端可以提供捕获到的图像,并且当触摸被释放时终止图像的输出。
正因如此,根据本发明的实施例,可以仅利用在框架上的触摸控制图像的输出和输出的终止,并且因此用户可以更加直观地被提供有与捕获到的图像相关的功能。此外,根据本发明的实施例的眼镜式移动终端可以响应于用户触摸的各种部分和各种方式对捕获到的图像执行附加的功能。正因如此,根据本发明,框架部分可以被用作控制命令的输入装置,允许眼镜式移动终端的更加有效的使用。
Claims (20)
1.一种眼睛佩戴式移动终端,包括:
相机,所述相机被配置成捕获图像;
框架,所述框架被形成为被佩戴在用户头部;
传感器,所述传感器被配置成检测在所述框架上的触摸;
显示器,所述显示器被耦合到所述框架并且被配置成显示信息;以及
控制器,所述控制器被配置成使所述显示器:
响应于检测到的在所述框架上的预定的第一触摸,显示第一图像,所述第一图像经由所述相机事先捕获;并且
当所述第一触摸被释放时终止所述第一图像的显示。
2.根据权利要求1所述的眼睛佩戴式移动终端,其中:
所述传感器进一步被配置成检测所述移动终端的移动;并且
所述控制器进一步被配置成响应于所述用户头部在第一方向中的移动使所述显示器将所述第一图像替换成第二图像。
3.根据权利要求2所述的眼睛佩戴式移动终端,其中:
所述第一图像被显示在所述显示器的特定区域中;并且
所述控制器进一步被配置成响应于所述用户头部的移动,使所述显示器滚动所述第一图像离开所述特定区域并且滚动所述第二图像进入所述特定区域。
4.根据权利要求2所述的眼睛佩戴式移动终端,其中:
所述第二图像是比所述第一图像更早捕获到的图像;并且
所述控制器进一步被配置成重复地将当前显示的图像替换成更早捕获到的图像。
5.根据权利要求3所述的眼睛佩戴式移动终端,其中,滚动所述第一图像和所述第二图像的速度对应于检测到的所述用户头部的移动速度。
6.根据权利要求4所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成如果检测到的移动超过阈值旋转距离值,则当不再检测到所述移动时,持续重复地更换当前显示的图像。
7.根据权利要求1所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成在显示所述第一图像的同时,响应于经由所述传感器检测到的在所述框架上的拖动触摸,使所述显示器滚过多个图像。
8.根据权利要求1所述的眼睛佩戴式移动终端,其中:
所述传感器进一步被配置成检测所述移动终端的移动;并且
所述控制器进一步被配置成响应于检测到的所述移动终端在第一方向中的移动,使所述显示器显示与被显示的第一图像相关的功能的列表。
9.根据权利要求8所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成:
使所述显示器显示多个可选择的项目,所述多个可选择的项目的每一个对应于功能的列表的功能;并且
响应于用于选择一个可选择的项目的在所述框架上检测到的触摸,执行与所述可选择的项目中的所述一个相对应的功能。
10.根据权利要求8所述的眼睛佩戴式移动终端,其中:
所述框架包括:第一框架部分,所述第一框架部分被耦合到所述显示器的第一侧;和第二框架部分,所述第二框架部分被耦合到所述显示器的第二侧,其中,在所述第一框架部分上检测到所述第一触摸;并且
所述控制器被配置成:
使所述显示器显示多个可选择的项目,所述多个可选择的项目的每一个对应于功能的列表的功能;
在所述第一框架部分上检测到所述第一触摸的同时,响应于在所述第二框架上检测到的第二触摸,使所述显示器在所述多个可选择的项目中的被指示的一个上显示指示符;并且
响应于在所述第二框架部分上检测到第三触摸,执行与所述指示的一个可选择的项目相对应的功能。
11.根据权利要求10所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成根据在所述第二框架部分上的拖动触摸,改变所述指示符的位置以被显示在所述多个可选择的项目中的另一个上,其中所述拖动触摸与所述第二触摸相连续。
12.根据权利要求8所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成响应于检测到的所述移动终端在与所述第一方向相对的第二方向中的移动,使所述显示器终止所述列表的显示。
13.根据权利要求1所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成响应于与所述第一触摸相连续的在所述框架上检测到的拖动触摸,使所述显示器改变所述被显示的第一图像的大小。
14.根据权利要求13所述的眼睛佩戴式移动终端,其中,所述控制器被配置成使所述显示器:
响应于在第一方向中施加的所述拖动触摸,拉近所述被显示的第一图像;并且
响应于在与所述第一方向相对的第二方向中施加的所述拖动触摸,拉远所述被显示的第一图像。
15.根据权利要求14所述的眼睛佩戴式移动终端,其中,所述控制器被配置成当在所述第二方向中施加的所述拖动触摸的长度超过阈值时,使所述显示器与被拉远显示的第一图像一起显示经由所述相机捕获到的多个其它图像。
16.根据权利要求1所述的眼睛佩戴式移动终端,其中,所述显示器是透明的并且包括:
图像投影仪,所述图像投影仪被配置成投射图像;和
光路径方向单元,所述光路径方向单元被配置成改变通过所述图像投影仪投射的图像的路径。
17.根据权利要求1所述的眼睛佩戴式移动终端,其中,所述被显示的第一图像是经由所述相机捕获到的最近捕获的图像。
18.根据权利要求1所述的眼睛佩戴式移动终端,其中,所述控制器进一步被配置成响应于图像捕获命令使所述相机捕获第二图像,同时显示所述第一图像。
19.根据权利要求18所述的眼睛佩戴式移动终端,其中,所述控制器被配置成在所述第二图像被捕获之后使所述显示器显示所述第二图像并且终止所述第一图像的显示。
20.一种用于控制眼睛佩戴式移动终端的方法,所述方法包括:
经由相机捕获图像,并且将所述捕获到的图像存储在存储器中;
检测在所述移动终端的框架上的触摸;
响应于所述触摸,在显示器上显示多个被存储的图像中的最近被存储的图像;以及
响应于所述触摸被释放,终止最近存储的图像的显示。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140085415A KR102227087B1 (ko) | 2014-07-08 | 2014-07-08 | 글래스 타입 단말기 및 그것의 제어방법 |
KR10-2014-0085415 | 2014-07-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105259654A true CN105259654A (zh) | 2016-01-20 |
CN105259654B CN105259654B (zh) | 2019-10-01 |
Family
ID=53404319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510397348.3A Active CN105259654B (zh) | 2014-07-08 | 2015-07-08 | 眼镜式终端及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10031337B2 (zh) |
EP (1) | EP2966545B1 (zh) |
KR (1) | KR102227087B1 (zh) |
CN (1) | CN105259654B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106027870A (zh) * | 2016-07-15 | 2016-10-12 | 深圳市卡卓无线信息技术有限公司 | 一种分体式智能眼镜 |
CN107608516A (zh) * | 2017-09-25 | 2018-01-19 | 广东小天才科技有限公司 | 智能穿戴设备的控制方法、装置及智能手表 |
CN108295469A (zh) * | 2017-12-04 | 2018-07-20 | 成都思悟革科技有限公司 | 基于动作捕捉技术的游戏视角转换方法 |
CN108427502A (zh) * | 2018-03-19 | 2018-08-21 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
CN111522142A (zh) * | 2020-06-14 | 2020-08-11 | 深圳市安之眼科技有限公司 | 一种ar智能眼镜 |
CN113260951A (zh) * | 2018-12-27 | 2021-08-13 | 美国斯耐普公司 | 基于指距或手接近的淡入用户界面显示 |
CN113260951B (zh) * | 2018-12-27 | 2024-05-28 | 美国斯耐普公司 | 基于指距或手接近的淡入用户界面显示 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014185146A1 (ja) * | 2013-05-15 | 2014-11-20 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
US20170186236A1 (en) * | 2014-07-22 | 2017-06-29 | Sony Corporation | Image display device, image display method, and computer program |
KR101655820B1 (ko) * | 2014-12-16 | 2016-09-22 | 현대자동차주식회사 | 스마트 글래스를 이용한 도착시간 알림 시스템 및 그 방법 |
US20160216792A1 (en) * | 2015-01-26 | 2016-07-28 | Seiko Epson Corporation | Head mounted display, and control method and control program for head mounted display |
US10397469B1 (en) | 2015-08-31 | 2019-08-27 | Snap Inc. | Dynamic image-based adjustment of image capture parameters |
KR20170099755A (ko) * | 2016-02-24 | 2017-09-01 | 주식회사 메타포트 | 보행 시뮬레이터용 hmd |
TW201830953A (zh) * | 2016-11-08 | 2018-08-16 | 美商帕戈技術股份有限公司 | 用於電子可穿戴裝置之智慧外殼 |
US10691201B2 (en) * | 2016-12-19 | 2020-06-23 | Intel Corporation | Image stream switcher |
US10405374B2 (en) * | 2017-03-17 | 2019-09-03 | Google Llc | Antenna system for head mounted display device |
US10839064B2 (en) * | 2017-06-20 | 2020-11-17 | Citrix Systems, Inc. | Securely entering credentials via head-mounted display device |
JP7091073B2 (ja) * | 2018-01-05 | 2022-06-27 | キヤノン株式会社 | 電子機器及びその制御方法 |
US20210362597A1 (en) * | 2018-04-12 | 2021-11-25 | Lg Electronics Inc. | Vehicle control device and vehicle including the same |
JP2020003692A (ja) * | 2018-06-29 | 2020-01-09 | ソニー株式会社 | 頭部装着型ディスプレイ |
WO2020031125A1 (en) * | 2018-08-10 | 2020-02-13 | Bryan Williams | Eyewear for simulating face-to-face communication |
US10719944B2 (en) | 2018-09-13 | 2020-07-21 | Seiko Epson Corporation | Dynamic object tracking |
KR20200080565A (ko) * | 2018-12-27 | 2020-07-07 | 삼성전자주식회사 | 무선 통신 수행 방법 및 이를 지원하는 전자 장치 |
TWI719483B (zh) * | 2019-05-17 | 2021-02-21 | 雅得近顯股份有限公司 | 便利備忘操作系統 |
US11694345B2 (en) | 2019-11-07 | 2023-07-04 | Seiko Epson Corporation | Moving object tracking using object and scene trackers |
CN111856758B (zh) * | 2020-07-17 | 2022-08-16 | 黎明职业大学 | 一种ar光机组件及ar眼镜 |
CN112255803A (zh) * | 2020-11-13 | 2021-01-22 | Oppo广东移动通信有限公司 | 镜腿及眼镜 |
CN112905088B (zh) | 2021-02-07 | 2022-11-04 | 北京蜂巢世纪科技有限公司 | 视频拍摄的控制方法及装置 |
KR102548210B1 (ko) * | 2021-10-06 | 2023-06-28 | 주식회사 피앤씨솔루션 | 터치 제스처를 이용한 사용자 인증 패턴 형성 방법 및 터치 제스처를 이용해 사용자 인증을 하는 머리 착용형 디스플레이 장치 |
US20230306499A1 (en) * | 2022-03-28 | 2023-09-28 | Google Llc | Vision-powered auto-scroll for lists |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102893236A (zh) * | 2010-07-20 | 2013-01-23 | 英派尔科技开发有限公司 | 增强现实临近检测 |
US20130135353A1 (en) * | 2011-11-28 | 2013-05-30 | Google Inc. | Head-Angle-Trigger-Based Action |
WO2014055929A1 (en) * | 2012-10-05 | 2014-04-10 | Google Inc. | One-dimensional to two-dimensional card navigation |
CN103852890A (zh) * | 2012-11-28 | 2014-06-11 | 联想(北京)有限公司 | 头戴式电子设备和音频处理方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003309745A (ja) * | 2002-04-15 | 2003-10-31 | Minolta Co Ltd | デジタルカメラ |
JP2009192905A (ja) * | 2008-02-15 | 2009-08-27 | Nikon Corp | 頭部装着型撮影装置 |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
JP2011205358A (ja) * | 2010-03-25 | 2011-10-13 | Fujifilm Corp | ヘッドマウントディスプレイ装置 |
JP5993127B2 (ja) | 2011-10-25 | 2016-09-14 | オリンパス株式会社 | 頭部装着型表示装置、情報端末、プログラム、情報記憶媒体、画像処理システム、頭部装着型表示装置の制御方法及び情報端末の制御方法 |
US20130139082A1 (en) * | 2011-11-30 | 2013-05-30 | Google Inc. | Graphical Interface Having Adjustable Borders |
JP5884502B2 (ja) * | 2012-01-18 | 2016-03-15 | ソニー株式会社 | ヘッドマウントディスプレイ |
US9035878B1 (en) * | 2012-02-29 | 2015-05-19 | Google Inc. | Input system |
EP2759921B1 (en) * | 2013-01-25 | 2020-09-23 | Morpho, Inc. | Image display apparatus, image displaying method and program |
US9146618B2 (en) * | 2013-06-28 | 2015-09-29 | Google Inc. | Unlocking a head mounted device |
US20170163866A1 (en) * | 2013-07-24 | 2017-06-08 | Google Inc. | Input System |
-
2014
- 2014-07-08 KR KR1020140085415A patent/KR102227087B1/ko active IP Right Grant
-
2015
- 2015-06-08 US US14/733,528 patent/US10031337B2/en active Active
- 2015-06-11 EP EP15001739.0A patent/EP2966545B1/en active Active
- 2015-07-08 CN CN201510397348.3A patent/CN105259654B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102893236A (zh) * | 2010-07-20 | 2013-01-23 | 英派尔科技开发有限公司 | 增强现实临近检测 |
US20130135353A1 (en) * | 2011-11-28 | 2013-05-30 | Google Inc. | Head-Angle-Trigger-Based Action |
WO2014055929A1 (en) * | 2012-10-05 | 2014-04-10 | Google Inc. | One-dimensional to two-dimensional card navigation |
CN103852890A (zh) * | 2012-11-28 | 2014-06-11 | 联想(北京)有限公司 | 头戴式电子设备和音频处理方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106027870A (zh) * | 2016-07-15 | 2016-10-12 | 深圳市卡卓无线信息技术有限公司 | 一种分体式智能眼镜 |
CN107608516A (zh) * | 2017-09-25 | 2018-01-19 | 广东小天才科技有限公司 | 智能穿戴设备的控制方法、装置及智能手表 |
CN108295469A (zh) * | 2017-12-04 | 2018-07-20 | 成都思悟革科技有限公司 | 基于动作捕捉技术的游戏视角转换方法 |
CN108427502A (zh) * | 2018-03-19 | 2018-08-21 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
CN108427502B (zh) * | 2018-03-19 | 2020-06-23 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
CN113260951A (zh) * | 2018-12-27 | 2021-08-13 | 美国斯耐普公司 | 基于指距或手接近的淡入用户界面显示 |
CN113260951B (zh) * | 2018-12-27 | 2024-05-28 | 美国斯耐普公司 | 基于指距或手接近的淡入用户界面显示 |
CN111522142A (zh) * | 2020-06-14 | 2020-08-11 | 深圳市安之眼科技有限公司 | 一种ar智能眼镜 |
Also Published As
Publication number | Publication date |
---|---|
CN105259654B (zh) | 2019-10-01 |
EP2966545B1 (en) | 2018-08-08 |
KR20160006053A (ko) | 2016-01-18 |
KR102227087B1 (ko) | 2021-03-12 |
US10031337B2 (en) | 2018-07-24 |
US20160011420A1 (en) | 2016-01-14 |
EP2966545A1 (en) | 2016-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105259654A (zh) | 眼镜式终端及其控制方法 | |
KR102082417B1 (ko) | 이동 단말기 및 그 제어 방법 | |
EP3107278B1 (en) | Mobile terminal and method of controlling the same | |
EP2947867B1 (en) | Mobile terminal and method of controlling the same | |
EP3130993B1 (en) | Mobile terminal and method for controlling the same | |
KR102182401B1 (ko) | 이동단말기 및 그 제어방법 | |
KR102184402B1 (ko) | 글래스 타입의 이동 단말기 | |
KR102225945B1 (ko) | 이동 단말기 및 그 제어 방법 | |
US10321045B2 (en) | Mobile terminal and method for controlling the same | |
US10511703B2 (en) | Charging device, method for controlling charging device, and mobile terminal connected to same | |
KR102155091B1 (ko) | 이동단말기 및 그 제어방법 | |
KR102223728B1 (ko) | 이동단말기 및 그 제어방법 | |
US20170083226A1 (en) | Mobile terminal and method for controlling the same | |
CN105549870A (zh) | 移动终端及其控制方法 | |
CN104978136A (zh) | 移动终端和用于移动终端的控制方法 | |
KR20190102587A (ko) | 이동 단말기 및 그 동작방법 | |
KR102398834B1 (ko) | 이동단말기 | |
KR102010300B1 (ko) | 영상표시장치 및 그 제어방법 | |
US10523859B2 (en) | Portable camera and controlling method thereof | |
CN105468261A (zh) | 移动终端及其控制方法 | |
KR102215816B1 (ko) | 이동단말기 및 그 제어방법 | |
KR20170047732A (ko) | 이동 단말기 및 그 제어 방법 | |
KR102245906B1 (ko) | 이동단말기 및 그 제어방법 | |
KR102096313B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR102329613B1 (ko) | 이동 단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |