CN107770363A - 移动终端 - Google Patents

移动终端 Download PDF

Info

Publication number
CN107770363A
CN107770363A CN201710522111.2A CN201710522111A CN107770363A CN 107770363 A CN107770363 A CN 107770363A CN 201710522111 A CN201710522111 A CN 201710522111A CN 107770363 A CN107770363 A CN 107770363A
Authority
CN
China
Prior art keywords
guideline
mobile terminal
gesture
controller
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710522111.2A
Other languages
English (en)
Inventor
李知善
李秀英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN107770363A publication Critical patent/CN107770363A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供一种移动终端,当用户观看全方位图像时该移动终端能够沿着指导路线控制屏幕。移动终端包括:显示单元,该显示单元被配置成显示全方位图像并且包括触摸传感器;和控制器,该控制器被配置成显示指导路线并且基于用户的第一手势控制在显示单元上显示全方位图像的显示区域的移动以对应于指导路线的方向。

Description

移动终端
相关申请的交叉引用
本申请要求2016年08月18日在韩国提交的韩国专利申请No.10-2016-0104962的优先权,其全部内容通过引用从而被整体合并于此。
技术领域
本公开旨在提供一种移动终端,当用户通过移动终端观看全方位图像时,通过在用户所期待的方向中滚动全方位图像用户能够观看所期待的图像。
背景技术
根据它们的移动性,终端通常可以被分类成移动/便携式终端或者固定终端。根据是否用户能够直接地携带终端,移动终端也可以被分类成手持式终端或者车载终端。
移动终端已经变成日益增长更多的功能。这样的功能的示例包括数据和语音通信、经由相机捕获图像和视频、记录音频、经由扬声器系统播放音乐文件、以及在显示器上显示图像和视频。一些移动终端包括支持玩游戏的附加的功能性,而其它的终端被配置为多媒体播放器。最近,移动终端已经被配置成接收允许观看诸如视频和电视节目的内容的广播和多播信号。
随着其变成多功能的,能够允许移动终端捕获静止图像或者运动图像,播放音乐或者视频文件、玩游戏、接收广播等等,使得被实现为一体化多媒体播放器。
正在不断进行努力以支持和增加移动终端的功能性。这样的努力包括软件和硬件改进,以及在结构组件中的变化和改进。
为了支持和增强这样的终端的功能,可以考虑改进终端的结构部分和/或软件部分。
同时,可以提供使用相机拍摄的在能够拍摄全方位(360度)图像的相机周围的所有区域的图像。这样的全方位图像可以由监视器、VR设备、移动终端等等再现。
然而,当使用移动终端再现全方位图像时,由于移动终端中的显示单元的尺寸的限制,平滑地再现全方位图像存在限制。
另外,由于能够在所有的方向中滚动全方位图像的特性,用户难以在所期待的方向中滚动全方位图像。
例如,虽然用户打算在水平方向中移动全方位图像,但用户难以在所期待的方向中准确地滚动全方位图像。即,使用典型的屏幕滚动技术在用户所期待的方向中准确地移动全方位图像存在限制。
发明内容
因此,本公开的目的是为了解决在上面注明的和其它的问题。
本公开的另一目的是为了提供一种移动终端,当用户通过移动终端观看全方位图像时,通过在用户所期待的方向中滚动全方位图像用户能够观看所期待的图像。
本公开的另一目的是为了提供一种移动终端,当用户通过移动终端观看全方位图像时,用户能够方便地产生控制或者去除在所期待的方向中移动全方位图像的指导路线。
在一个实施例中,提供一种移动终端,包括:显示单元,该显示单元被配置成显示全方位图像并且包括触摸传感器;和控制器,该控制器被配置成显示指导路线并且基于用户的第一手势控制在显示单元上显示全方位图像的显示区域的移动以对应于指导路线的方向。
在另一实施例中,提供一种操作移动终端的方法,该方法包括:显示全方位图像;显示指导路线;以及基于用户的第一手势,控制在显示单元上显示全方位图像的显示区域的移动以对应于指导路线的方向。
根据在下文中给出的详细描述,本申请的应用的进一步范围将变得更加显然。然而,应理解的是,仅通过说明给出指示本公开的优选实施例的特定示例和详细描述,因为对本领域的技术人员来说本公开的精神和范围内的各种变化和修改将变得显然。
附图说明
附图被包括以提供对本公开的进一步理解,并且被并入且组成本说明书的一部分,附图图示示例性实施例并且连同描述一起用于解释本公开的原理。
在附图中:
图1A是根据本公开的移动终端的框图;
图1B和图1C是从不同方向看的移动终端的一个示例的概念图;
图2是根据本公开的另选实施方式的可变形移动终端的概念图;
图3是根据本公开的另一个另选实施方式的可佩戴移动终端的概念图;
图4是根据本公开的另一个另选实施方式的可佩戴移动终端的概念图;
图5是图示根据本公开的实施例的操作移动终端的方法的流程图;
图6A至图6F是图示通过滚动全方位图像移动全方位图像的显示区域的典型示例的视图;
图7A至图7E是图示根据本公开的实施例的在全方位图像中设置指导路线并且使用设置的指导路线移动全方位图像的显示区域的示例的视图;
图8A至图8D是图示根据本公开的实施例的在全方位图像中自动地设置指导路线的示例的视图;
图9A至图9E是图示根据本公开的另一实施例的在全方位图像中设置指导路线并且沿着设置的指导路线移动全方位图像的显示区域的示例的视图;
图10A至图10D是图示根据本公开的另一实施例的在全方位图像中设置指导路线并且使用设置的指导路线移动全方位图像的显示区域的示例的视图;
图11A至图11F是图示根据本公开的另一实施例的在全方位图像中设置指导路线并且使用设置的指导路线移动全方位图像的显示区域的示例的视图;
图12A至图12D是图示根据本公开的实施例的在全方位图像中去除指导路线的示例的视图;
图13A至图13C是图示根据本公开的实施例的沿着在全方位图像中设置的多个指导路线移动和控制显示区域的示例的视图;以及
图14A至图14C是图示根据本公开的实施例的控制全方位图像的角度的示例的视图。
具体实施方式
参考附图,现在将根据在此公开的示例性实施例详细地给出描述。为了参考附图简要描述,相同的或者等效的组件可以被设有相同或者相似的附图标记,并且其描述将不会被重复。通常,诸如“模块”和“单元”的后缀可以被用于指代元件或者组件。这样的后缀的使用在此旨在仅有助于说明书的描述,并且后缀本身旨在没有给予任何特定的意义或者功能。在本公开中,为了简要,通常已经省略了在相关领域中对于普通技术人员来说公知的那些。附图被用于帮助容易地理解各种技术特征并且应理解附图没有限制在此提出的实施例。正因如此,本公开应被解释为延伸到除了在附图中特别陈述的之外的任何改变、等同物以及替代。
将要理解的是,尽管在此可以使用术语第一、第二等等以描述各种元件,但是这些元件不应被这些术语限制。这些术语通常仅被用于区分一个元件与另一个元件。
将要理解的是,当元件被称为“连接”另一元件时,元件能够与另一元件连接或者也可以存在中间元件。相反地,当元件被称为“直接地连接”另一元件时,不存在中间元件。
单数表示可以包括复数表示,除非根据上下文其表示明确不同的意义。在此使用诸如“包括”或者“具有”的术语并且应理解它们旨在指示在本说明书中公开的数个组件、功能或者步骤的存在,并且也理解可以同样地利用更多或者更少的组件、功能或者步骤。
可以使用各种不同类型的终端实现在此提出的移动终端。这样的终端的示例包括蜂窝电话、智能电话、用户装置、膝上型计算机、数字广播终端、个人数字助手(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、板式PC、平板PC、超级本、可佩戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等等。
仅通过非限制性示例,将会参考特定类型的移动终端进行进一步的描述。然而,这样的教导同等地应用于其它类型的终端,诸如在上面注明的那些类型。另外,这样的教导也可以被应用于诸如数字TV、桌上型计算机等等的固定终端。
现在参考图1A-1C,其中图1A是根据本公开的移动终端的框图,并且图1B和图1C是从不同的方向看到的移动终端的一个示例的概念视图。
示出移动终端100,其具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180、以及电源单元190的各种组件。理解的是,不要求实现所有图示的组件,并且可以替换地实现更多或者更少的组件。
现在参考图1A,示出移动终端100,该移动终端100具有被配置有数个被共同实现的组件的无线通信单元110。例如,无线通信单元100通常包括允许在移动终端100与无线通信系统或者移动终端位于的网络之间的无线通信的一个或多个组件。
无线通信单元110通常包括一个或者多个模块,其允许诸如在移动终端100和无线通信系统之间的无线通信的通信、在移动终端100和另一移动终端之间的通信、在移动终端100与外部服务器之间通信。此外,无线通信单元110通常包括将移动终端100连接到一个或者多个网络的一个或者多个模块。为了有助于这样的通信,无线通信单元110包括一个或者多个广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、以及位置信息模块115中的一个或者多个。
输入单元120包括:用于获得图像或者视频的相机121;麦克风122,该麦克风122是一种用于输入音频信号的音频输入装置;以及用于允许用户输入信息的用户输入单元123(例如,触摸键、推动键、机械键、软键等等)。数据(例如,音频、视频、图像等等)通过输入单元120被获得并且可以根据装置参数、用户命令、以及其组合通过控制器180分析和处理。
通常使用被配置成感测移动终端的内部信息、移动终端的周围环境、用户信息等等的一个或者多个传感器实现感测单元140。例如,在图1A中,示出具有接近传感器141和照度传感器142的感测单元140。
必要时,感测单元140可以可替选地或者附加地包括其它类型的传感器或者装置,诸如触摸传感器、加速度传感器、磁传感器、G传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池量表、环境传感器(例如,气压计、湿度计、温度计、辐射监测传感器、热传感器、以及气体传感器等)、以及化学传感器(例如,电子鼻、医疗传感器、生物传感器等等),举了一些例子。移动终端100可以被配置成利用从感测单元140获得的信息,并且特别地,从感测单元140的一个或者多个传感器及其组合获得的信息。
输出单元150通常被配置成输出诸如音频、视频、触觉输出等等的各种类型的信息。示出具有显示单元151、音频输出模块152、触觉模块153、以及光学输出模块154的输出单元150。
显示单元151可以具有与触摸传感器的层间结构或者集成结构以便于促成触摸屏幕。触摸屏幕可以在移动终端100和用户之间提供输出接口,并且用作在移动终端100和用户之间提供输入接口的用户输入单元123。
接口单元160用作对接能够被耦合到移动终端100的各种类型的外部装置。例如,接口单元160可以包括任何有线或者无线端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。在一些情况下,响应于被连接到接口单元160的外部装置,移动终端100可以执行与被连接的外部装置相关联的各种控制功能。
存储器170通常被实现为存储数据以支持移动终端100的各种功能或者特征。例如,存储器170可以被配置成存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或者指令等等。经由无线通信可以从外部服务器下载这些应用程序中的一些。在制造或者装运时其它的应用程序可以被安装在移动终端100内,其通常是用于移动终端100的基本功能(例如,接收呼叫、拨打电话、接收消息、发送消息等等)的情况。通常,应用程序被存储在存储器170中、安装在移动终端100中,并且通过控制器180执行以执行用于移动终端100的操作(或者功能)。
除了与应用程序相关联的操作之外,控制器180通常用作控制移动终端100的整体操作。控制器180能够通过处理通过在图1A中描述的各种组件输入或者输出的信号、数据、信息等等,或者激活被存储在存储器170中的应用程序来提供或者处理适合于用户的信息或者功能。作为一个示例,控制器180根据已经被存储在存储器170中的应用程序的执行控制在图1A-1C中图示的一些组件或者所有组件。
电源单元190能够被配置成接收外部电力或者提供内部电力以便于供应对于操作被包括在移动终端100中的元件和组件所要求的适当的电力。电源单元190可以包括电池,并且电池可以被配置成被嵌入在终端主体中,或者被配置成从终端主体可拆卸。
在下文中,在描述通过移动终端100实现的各种实施例之前,将会更加详细地给出参考图1的前述组件的描述。关于无线通信单元110,广播接收模块111通常被配置成经由广播信道从外部广播管理实体接收广播信号和/或广播相关信息。广播信道可以包括卫星信道、陆地信道、或者两者。在一些实施例中,可以利用两个或者更多个广播接收模块111以有助于同时接收两个或者更多个广播信道,或者支持广播信道当中的切换。
系统能够产生和发送广播信号和/或广播相关信息,或者服务器能够接收事先产生的广播信号和/或者广播相关联信息,并且将这样的项目发送到移动终端。广播信号可以使用任何TV广播信号、无线电广播信号、数据广播信号、以及其组合等等来实现。在一些情况下广播信号可以进一步包括与TV或者无线电广播信号相结合的数据广播信号。
可以根据各种技术标准或者广播方法(例如,国际标准化组织(ISO)、国际电工委员会(IEC)、数字视频广播(DVB)、高级电视系统委员会(ATSC)等等)中的任意一个编码广播信号,用于数字广播信号的发送和接收。广播接收模块111能够使用适合于所采用的发送方法的方法接收数字广播信号。
广播相关信息的示例可以包括与广播频道、广播节目、广播事件、广播服务提供商等等相关联的信息。也可以经由移动通信网络提供广播相关信息,并且在这样的情况下,通过移动通信模块112接收。
可以以各种格式实现广播相关信息。例如,广播相关信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等。经由广播接收模块111接收到的广播信号和/或广播相关信息可以被存储在合适的设备,诸如存储器170中。
移动通信模块112能够将无线信号发送到一个或者多个网络实体并且/或者从一个或者多个网络实体接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等等。这样的网络实体形成移动通信网络的一部分,其根据用于移动通信(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA 2000(码分多址2000)、EV-DO(增强的语音数据优化或者仅增强的语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、长期演进(LTE)、高级长期演进(LTE-A)等等)的技术标准或者通信方法构造。
经由移动通信模块112发送和/或接收的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号、或者各种格式的数据以支持文本和多媒体消息的通信。
无线互联网模块113被配置成有助于无线互联网接入。此模块可以被内部地或者外部地耦合到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络发送和/或接收无线信号。
这样的无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(Wibro)、全球微波接入互操作(Wimax)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、长期演进(LTE)、高级LTE(LTE-A)等等。无线互联网模块113可以根据一个或者多个这样的无线互联网技术,或者其它的互联网技术发送/接收数据。
在一些实施例中,当根据作为移动通信网络的一部分的例如WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LTE、LTE-A等等实现无线互联网接入时,无线互联网模块113执行这样的无线互联网接入。这样,无线互联网模块113可以与移动通信模块112协作,或者用作移动通信模块112.
短程通信模块114被配置成有助于短程通信。适合于实现这样的短程通信的技术包括:蓝牙(BLUETOOTHTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(ZigBee)、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等等。经由无线局域网,短程通信模块114通常支持在移动终端100和无线通信系统之间的无线通信,在移动终端100和另一移动终端100之间的通信、或者在移动终端和另一移动终端100(或者外部服务器)位于的网络之间的通信。无线局域网的一个示例是无线个人域网。
在一些实施例中,另一移动终端(可以类似于移动终端100配置)可以是可佩戴设备,例如,智能手表、智能眼镜或者头戴式显示器(HMD),其能够与移动终端100交换数据(或者以其它方式与移动终端100协作)。短程通信模块114可以感测或者识别可佩戴设备,并且允许在可佩戴设备和移动终端100之间的通信。另外,当感测到的可佩戴设备是被授权与移动终端100通信的设备时,例如,控制器180可以使在移动终端100中处理的数据的至少一部分经由短程通信模块114传输到可佩戴设备。因此,可佩戴设备的用户可以在可佩戴设备上使用在移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户可以使用可佩戴设备应答呼叫。而且,当在移动终端100中接收到消息时,用户能够使用可佩戴设备检查接收到的消息。
位置信息模块115通常被配置成检测、计算、导出或者以其它方式识别移动终端的位置。作为示例,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块、或者两者。如有必要,位置信息模块115可以替换地或附加地与无线通信单元110的任何其它模块起作用以获得与移动终端的位置有关的数据。
作为一个示例,当移动终端使用GPS模块时,可以使用从GPS卫星发送的信号获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,能够基于将无线信号发送到Wi-Fi模块或者从Wi-Fi模块接收无线信号的无线接入点(AP)有关的信息获取移动终端的位置。
输入单元120可以被配置成允许对移动终端120的各种类型的输入。这样的输入的示例包括音频、图像、视频、数据、以及用户输入。使用一个或者多个相机121经常获得图像和视频输入。这样的相机121可以处理在视频或者图像捕获模式下通过图像传感器获得的静止图片或者视频的图像帧。被处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。同时,相机121可以以矩阵配置排列以允许具有多个角度或者焦点的多个图像被输入到移动终端100。而且,相机121可以位于立体排列以获取用于实现立体图像的左图像和右图像。
麦克风122一般被实现为准许将音频输入到移动终端100。根据在移动终端100中执行的功能能够以各种方式能够处理音频输入。如有必要,麦克风122可以包括各种噪声去除算法以去除在接收外部音频信号的过程中产生的不想要的噪声。
用户输入单元123是允许用户输入的组件。这样的用户输入可以使控制器180能够控制移动终端100的操作。用户输入单元123可以包括机械输入元件中的一个或者多个(例如,机械键、位于移动终端100的前和/或后表面或者侧表面上的按钮、薄膜开关、滚动轮、滚动开关等等)、或者触摸灵敏的输入元件等等。作为一个示例,触摸灵敏的输入元件可以是通过软件处理被显示在触摸屏上的虚拟键或者软键或者视觉键、或者位于在除了触摸屏之外的位置处的移动终端上的触摸键。另一方面,虚拟键或者视觉键可以以例如,图形、文本、图标、视频、或者其组合的各种形状显示在触摸屏上。
感测单元140通常被配置成感测移动终端的内部信息、移动终端的周围环境信息、用户信息等等中的一个或者多个。控制器180通常与感测单元140协作以基于感测信号控制移动终端100的操作或执行与被安装在移动终端中的应用程序相关联的数据处理、功能或者操作。使用任何种类的传感器可以实现感测单元140,现在将会更加详细地描述其中的一些。
接近传感器141指的是在没有机械接触的情况下通过使用磁场、红外线等等感测接近表面的对象、或者位于表面附近的对象的存在或者不存在的传感器。接近传感器141可以被布置在通过触摸屏覆盖的移动终端的内部区域处,或者触摸屏附近。
例如,接近传感器141可以包括任何透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等等。当触摸屏被实现为电容型时,接近传感器141能够通过电磁场响应于具有导电性的对象的接近的变化来感测指示器相对于触摸屏的接近。在这样的情况下,触摸屏(触摸传感器)也可以被归类成接近传感器。
术语“接近触摸”将会在此被经常引用以表示其中指示器被定位为接近触摸屏而没有接触触摸屏的场景。术语“接触触摸”将会在此被经常引用以表示其中指示器物理接触触摸屏的场景。对于与指示器相对于触摸屏的接近触摸相对应的位置,这样的位置将会对应于其中指示器垂直于触摸屏的位置。接近传感器141可以感测接近触摸,和接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等等)。
通常,控制器180处理与通过接近传感器141感测到的接近触摸和接近触摸模式相对应的数据,并且使在触摸屏上能够输出视觉信息。另外,根据是否相对于触摸屏上的点的触摸是接近触摸或者接触触摸,控制器180能够控制移动终端100执行不同的操作或者处理不同的数据。
使用任何各种触摸方法,触摸传感器能够感测被施加到诸如显示单元151的触摸屏的触摸。这样的触摸方法的示例包括电阻型、电容型、红外型、以及磁场型等等。
作为一个示例,触摸传感器可以被配置成将被施加到显示单元151的特定部分的压力的变化转换成电输入信号,或者将在显示单元151的特定部分处出现的电容转换成电输入信号。触摸传感器也可以被配置成不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力和/或触摸电容。触摸对象通常被用于将触摸输入施加到触摸传感器。典型的触摸对象的示例包括手指、触摸笔、触笔、指示器等等。
当通过触摸传感器感测触摸输入时,相应的信号可以被传送到触摸控制器。触摸控制器可以处理接收到的信号,并且然后将相应的数据传送到控制器180。因此,控制器180可以感测已经触摸显示单元151的哪一个区域。在此,触摸控制器可以是与控制器180分离的组件、控制器180、或者其组合。
在一些实施例中,控制器180可以根据触摸了触摸屏或者除了触摸屏之外被设置的触摸键的触摸对象的类型执行相同或者不同的控制。例如,基于移动终端100的当前操作状态或者当前执行的应用程序,可以决定根据提供触摸输入的对象是否执行相同或者不同的控制。
触摸传感器和接近传感器可以被单独地或者组合实现,以感测各种类型的触摸。这样的触摸包括短(或者轻敲)触摸、长触摸、多点触摸、拖动触摸、轻击触摸、捏缩触摸、捏放触摸、滑动触摸、悬停触摸等等。
如有必要,超声传感器可以被实现以使用超声波识别与触摸对象有关的位置信息。例如,控制器180可以基于通过照度传感器和多个超声传感器感测到的信息计算波生成源的位置。因为光比超声波快得多,所以光到达光学传感器的时间远远比超声波到达超声传感器的时间短。使用此事实可以计算波生成源的位置。例如,可以基于光作为参考信号使用与超声波到达传感器的时间的时间差计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等等)、光传感器(或者图像传感器)、以及激光传感器。
实现具有激光传感器的相机121可以允许相对于3D立体图像的物理对象的触摸的检测。光传感器可以被层压在显示设备上,或者与显示设备重叠。光传感器可以被配置成扫描接近触摸屏的物理对象的移动。更加详细地,光传感器可以包括在行和列处的光电二极管和晶体管以使用根据被施加的光的量改变的电信号扫描在光传感器处接收到的内容。即,光传感器可以根据光的变化计算物理对象的坐标从而获得物理对象的位置信息。
显示单元151通常被配置成输出在移动终端100中处理的信息。例如,显示单元151可以显示在移动终端100处执行的应用程序的执行屏幕信息或者响应于执行屏幕信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施例中,显示单元151可以被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可以采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等等的立体显示方案。
通常,3D立体图像可以包括左图像(例如,左眼图像)和右图像(例如,右眼图像)。根据如何将左和右图像组合成3D立体图像,3D立体成像方法能够被划分为其中左和右图像位于帧中的上和下的上下方法、其中左和右图像位于帧中的左右的左到右(左到右或者并排)方法、其中左和右图像以贴片的形式定位的棋盘方法、其中左和右图像通过列和行可替选地放置的隔行扫交错方法、以及其中基于时间左和右图像被可替选地显示的时间序列(或者逐帧)的方法。
而且,至于3D缩略图图像,从原始的图像帧的左图像和右图像能够分别产生左图像缩略图和右图像缩略图,并且然后被组合以产生单个3D缩略图图像。通常,术语“缩略图”可以被用于指代被缩小的图像或者被缩小的静止图像。通过与屏幕上的左图像和右图像之间的视差相对应的深度,利用其间的水平距离差可以显示被产生的左图像缩略图和右图像缩略图,从而提供立体空间感。
使用立体处理单元可以在立体显示单元上显示用于实现3D立体图像所需的左图像和右图像。立体处理单元能够接收3D图像并且提取左和右图像,或者能够接收2D图像并且将其变成左图像和右图像。
音频输出模块152通常被配置成输出音频数据。可以从任何数量的不同的来源获得这样的音频数据,使得可以从无线通信单元110接收音频数据或者可以已经将其存储在存储器170中。可以在诸如信号接收模式、呼叫模式、记录模式、语音识别模式、广播接收模式等等的模式期间输出音频数据。音频输出模块152能够提供与由移动终端100执行的特定功能(例如,呼叫信号接收声音、消息接收声音等等)有关的音频输出。音频输出模块152也可以被实现为接收器、扬声器、蜂鸣器等等。
触觉模块153能够被配置成产生用户能够感觉、感知、或者以其它方式体验的各种触觉效果。通过触觉模块153产生的触觉效果的典型示例是振动。能够通过用户选择或者通过控制器进行设置来控制通过触觉模块155产生的振动的强度、模式等等。例如,触觉模块153可以以组合的方式或者顺序的方式输出不同的振动。
除了振动之外,触觉模块153还能够生成各种其它的触觉效果,包括通过诸如垂直移动以接触皮肤的针排列的刺激的效果、通过喷孔或者吸入口的空气的喷射力或者吸力、对皮肤的触摸、电极的接触、静电力、通过使用能够吸收或者产生热的元件再现冷和暖的感觉的效果等等。
触觉模块153也能够被实现为允许用户通过诸如用户的手指或者手臂的肌肉感觉来感觉触觉效果,以及通过直接接触传递触觉效果。根据移动终端100的特定配置也可以设置两个或者更多个触觉模块153。
光学输出模块154能够使用光源的光输出用于指示事件产生的信号。在移动终端100中产生的事件的示例可以包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、电子邮件接收、通过应用的信息接收等等。
也可以以移动终端发射单色光或者具有多种颜色的光的方式实现通过光学输出模块154输出的信号。例如,当移动终端感测用户已经检查了产生的事件时信号输出可以被结束。
接口单元160用作用于要连接到移动终端100的外部设备的接口。例如,接口单元160能够接收从外部设备发送的数据,接收电力以传送到移动终端100内的元件和组件,或者将移动终端100的内部数据发送到这样的外部设备。接口单元160可以包括有线或者无线头戴式受话器端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有标识模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。
识别模块可以是存储用于认证使用移动终端100的权限的各种信息的芯片并且可以包括用户识别模块(UIM)、订户识别模块(SIM)、通用订户识别模块(USIM)等等。另外,具有识别模块的设备(在此也被称为“识别设备”)可以采用智能卡的形式。因此,识别设备经由接口单元160能够与终端100相连接。
当移动终端100与外部托架相连接时,接口单元160能够用作允许电力从托架供应到移动终端100的通道或者可以用作允许用户从托架输入的各种命令信号传递到移动终端的通道。从托架输入的各种命令信号或者电力可以作为用于识别移动终端被正确地安装在托架上的信号操作。
存储器170能够存储程序以支持移动终端180的操作并且存储输入/输出数据(例如,电话簿、消息、静止图像、视频等等)。存储器170可以存储与响应于触摸屏上的触摸输入输出的各种模式的振动和音频有关的数据。
存储器170可以包括一种或者多种类型的存储介质,包括闪存型、硬盘型、固态盘(SSD)型、硅盘型、多媒体卡式、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等等。也可以关于在诸如互联网的网络上执行存储器170的存储功能的网络存储设备操作移动终端100。
控制器180可以典型地控制移动终端100的一般操作。例如,当移动终端的状态满足预设条件时,控制器180可以设置或者释放用于限制用户输入与应用有关的控制命令的锁定状态。
控制器180也能够执行与语音呼叫、数据通信、视频呼叫等等相关联的控制和处理,或者执行模式识别处理以将在触摸屏上执行的手写输入或者绘图输入分别识别为字符或者图像。另外,控制器180能够控制这些组件中的一个或者组合以便于实现在此公开的各种示例性实施例。
电源单元190接收外部电力或者提供内部电力并且供应对于操作被包括在移动终端100中的各自的元件和组件所需的适当的电力。电源单元190可以包括电池,该电池通常是可充电的或者可拆卸地耦合到终端主体,用于充电。
电源单元190可以包括连接端口。连接端口可以被配置为接口单元160的一个示例,用于供应电力以对电池再充电的外部充电器被电气地连接到该接口单元160。
作为另一示例,电源单元190可以被配置成在没有使用连接端口的情况下以无线的方式对电池再充电。在本示例中,使用以磁感应为基础的感应耦合方法或者以电磁谐振为基础的电磁谐振耦合方法,电源单元190能够接收从外部无线电力发射器传递的电力。
可以使用例如软件、硬件、或者其任何组合,以计算机可读介质、机器可读介质、或者类似介质实现在此描述的各种实施例。
参考图1B和图1C,参考直板式终端主体,描述移动终端100。然而,移动终端100可以替选地已各种不同的配置中的任意一种来实现。这样的配置的示例包括手表式、夹式、眼镜型、或者折叠式、翻盖式、滑盖式、摇摆式、旋转式等的各种结构,其中两个或者更多个主体以相对可移动的方式被相互组合。在此的讨论将常常涉及特定型的移动终端(例如,直板式、手表式、眼睛型等等)。然而关于特定型移动终端的这种教导也将通常应用到其它型移动终端。
移动终端100将通常包括形成终端的外观的壳体(例如,外壳、外罩、盖等)。在本实施例中,壳体可以被划分成前壳体101和后壳体102。各种电子组件可以被合并在前壳体101和后壳体102之间形成的空间中。至少一个中间壳体可以被附加地布置在前壳体和后壳体101和102之间。
显示单元151能够被布置在终端主体的前表面上以输出信息。如所图示的,显示单元151的窗口151a能够被安装到前壳体101使得与前壳体101一起形成终端主体的前表面。
在一些实施例中,电子组件也可以被安装到后壳体102。这样的电子组件的示例可以包括可拆卸的电池、标识模块、存储卡等。用于覆盖电子组件的后盖103可以被可拆卸地耦合到后壳体102。因此,当从后壳体102拆卸后盖103时,被安装到后壳体102的电子组件可以被外部地暴露。
如所图示的,当后盖103被耦合到后壳体102时,后壳体102的侧表面可以被部分地暴露。在一些情况下,在耦合时,后壳体102也可以被后盖103完全地遮盖。在一些实施例中,后盖103可以包括用于外部地暴露相机121b或者音频输出模块152b的开口。
壳体101、102、103可以通过注入成型合成树脂形成或者可以由例如不锈钢(STS)、铝(Al)、钛(Ti)等的金属形成。
作为多个壳体形成用于容纳组件的内部空间的示例的替选,移动终端100可以被配置使得一个壳体形成内部空间。在本实例中,以合成树脂或者金属从侧表面延伸到后表面的方式来形成具有连体的移动终端100。
如有必要,移动终端100可以包括防水单元(未示出),用于防止水引入到终端主体。例如,防水单元可以包括防水构件,其位于窗口151a和前壳体101之间、在壳体101和后壳体102之间、或者后壳体102和后盖103之间,当这些壳体被耦合时密闭地密封内部空间。
移动终端可以包括显示单元151、第一和第二音频输出模块151a/151b、接近传感器141、照度传感器142、光学输出模块154、第一和第二相机121a/121b,、第一和第二操纵单元123a/123b、麦克风122、接口单元160等。
将会针对图1B和图1C示出的移动终端100进行描述。显示单元151、第一音频输出模块151a、接近传感器141、照度传感器142、光学输出模块154、第一相机121a以及第一操纵单元123a被布置在终端主体的前表面上,第二操纵单元123b、麦克风122以及接口单元160被布置在终端主体的侧表面上,并且第二音频输出模块151b和第二相机121b被布置在终端主体的后表面上。
然而,应当理解,可替选的布置是可能的,并且在本公开的教导内。一些组件可以省略或者重新布置。例如,第一操纵单元123a可以不被布置在终端主体的另一表面上,并且第二音频输出模块152b可以被布置在终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。显示单元151能够使用一个或多个合适的显示装置。例如,这样合适的显示装置的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、以及电子墨显示器,以及其组合。
可以使用能够实现相同或者不同显示技术的两个显示装置来实现显示单元151。例如,多个显示单元151可以被布置在一个侧面上以相互分开,或者这些装置可以被集成,或者这些装置可以被布置在不同的表面上。
显示单元151也能够包括触摸传感器,该触摸传感器感测在显示单元处接收到的触摸输入。当触摸被输入到显示单元151时,触摸传感器可以被配置成感测此触摸,并且控制器180(例如)能够生成与触摸相对应的控制命令或者其它信号。以触摸方式输入的内容可以是文本或者数值,或者能够以各种模式指示或者指定的菜单项目。
触摸传感器可以以被布置在窗口151a和窗口151a的后表面上的显示器之间的具有触摸图案的膜的形式,或者被直接地构图在窗口151a的后表面上的金属线来配置。或者,触摸传感器可以与显示器集成地形成。例如,触摸传感器可以被布置在显示器的基板上或者显示器内。
显示单元151也能够与触摸传感器一起形成触摸屏。在此,触摸屏可以用作用户输入单元123(参见图1A)。因此,触摸屏可以替换第一操纵单元123a的功能中的至少一些。
可以以用于输出语音音频、报警声音或者多媒体音频再现的扬声器的形式实现第一音频输出模块152a。
显示单元151的窗口151a将典型地包括用于允许从第一音频输出模块152a产生的音频穿过的孔径。一个备选是允许音频沿着结构主体之间的组装间隙(例如,在窗口151a和前壳体101之间的间隙)释放。在本实例中,被独立地形成以输出音频声音的孔可以不被看到或者在外观上以其它方式被隐藏,从而进一步简化移动终端100的外观的制造。
光学输出模块154可以输出用于指示事件产生的光。在移动终端100中产生的事件的示例包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、电子邮件接收、通过应用的信息接收等。当感测到用户的事件查看时,控制器可以控制光学输出单元154以停止光的输出。
第一相机121可以处理在视频呼叫模式或者捕获模式下通过图像传感器获得的静止或者运动图像的图像帧。因此,处理的图像帧可以被显示在显示单元151上或者被存储在存储器170中。
第一和第二操纵单元123a和123b是用户输入单元123的示例,通过用户可以对其进行操纵以将输入提供给移动终端100。通常,第一和第二操纵单元123a和123b也可以被称为操纵部分,并且可以采用允许用户执行诸如触摸、推动、滚动等等的操纵的任何触觉方法。第一和第二操纵单元123a和123b也可以采用允许用户执行诸如接近触摸、悬停等等的操纵的任何非触觉的方法。
图1B图示作为触摸键的第一操纵单元123a,但是可能的替选包括机械键、推动键、触摸键以及其组合。
可以以各种方式使用在第一和第二操纵单元123a和123b处接收到的输入。例如,第一操纵单元123a可以由用户使用以将输入提供给菜单、主屏键、取消、搜索等等,并且第二操纵单元123b可以由用户使用以提供输入以控制从第一或者第二音频输出模块152a或者152b输出的音量级,切换到显示单元151的触摸识别模式等等。
作为用户输入单元123的另一示例,后输入单元(未示出)可以位于终端主体的后表面上。后输入单元能够由用户操纵以将输入提供给移动终端100。可以以各种不同的方式使用输入。例如,用户可以使用后输入单元以提供用于从第一或者第二音频输出模块152a或者152b输出的电源开/关、开始、结束、滚动、控制音量级的输入,切换到显示单元151的触摸识别模式等等。后输入单元可以被配置成允许触摸输入、推动输入或者其组合。
后输入单元可以被设置成在终端主体的厚度方向中重叠前表面的显示单元151。作为一个示例,后输入单元可以被设置在终端主体的后表面的上端部分上,使得当用户使用一只手抓住终端主体时用户能够使用食指容易地操纵它。可替选地,后输入单元能够被定位在终端主体的后侧的至多任何位置处。
包括后输入单元的实施例可以实现后输入单元中的第一操纵单元123a的功能的一些或者全部。这样,在其中从前侧省略第一操纵单元123a的情形下,显示单元151能够具有更大的屏幕。
作为又一个替选,移动终端100可以包括手指扫描传感器,该手指扫描传感器扫描用户的指纹。因此,控制器180可以使用通过手指扫描传感器感测的指纹信息作为认证过程的一部分。手指扫描传感器可以被安装在显示单元151或者用户输入单元123中。
麦克风122被示出为位于移动终端100的末端处,但是其他位置是可能的。如有必要,多个麦克风可以被实现,利用这样的布置允许接收立体声音。
接口单元160可以用作允许移动终端100与外部设备对接的路径。例如,接口单元160可以包括用于连接到另一设备(例如,耳机、外部扬声器等)的连接终端、用于近场通信的端口(例如,红外数据协会(IrDA)端口、蓝牙端口、无线LAN端口等)、或者用于将电力供应到移动终端100的电源终端中的一个或多个。接口单元160可以以用于容纳诸如订户标识模块(SIM)、用户标识模块(UIM)、或者用于信息存储的存储器卡的外部卡的插槽的形式来实现。
第二相机121b被示出为位于终端主体的后侧处,并且包括与第一相机单元121a的图像捕获方向大体上相反的图像捕获方向。如有必要,第二相机121b可以可替选地位于其他位置,或者使其可移动,以便于具有与被示出的图像捕获方向不同的图像捕获方向。
第二相机121b可以包括沿着至少一条线布置的多个透镜。多个透镜也可以以矩阵配置来布置。相机可以被称为“阵列相机”。当第二相机121b被实现为阵列相机时,可以使用多个透镜以各种方式捕获图像以及图像具有更好的质量。
如在图1C中所示,闪光灯124被示出为与第二相机121b相邻。当通过相机121b捕获主题的图像时,闪光灯124可以照明主题。
如在图1B中所示,第二音频输出模块152b能够位于终端主体上。第二音频输出模块152b可以结合第一音频输出模块152a来实现立体声功能,并且也可以被用于实现用于呼叫通信的扬声器电话模式。
用于无线通信的至少一个天线可以位于终端主体上。天线可以被安装在终端主体中或者通过壳体形成。例如,配置广播接收模块111的一部分的天线可以缩回到终端主体中。可替选地,使用被附接到后盖103的内表面的膜、或者包括导电材料的壳体,可以形成天线。
用于将电力供应到移动终端100的电源单元190可以包括电池191,该电池191被安装在终端主体中或者可拆卸地耦合到终端主体的外部。电池191可以经由连接到接口单元160的电源线缆来接收电力。此外,使用无线充电器以无线方式能够对电池191充电。通过电磁感应或者电磁谐振可以实现无线充电。
后盖103被示出为耦合到用于屏蔽电池191的后壳体102,以防止电池191的分离,并且保护电池191免受外部冲击或者外来物质的影响。当从终端主体可拆卸电池191时,后壳体103可以被可拆卸地耦合到后壳体102。
用于保护外观或者协助或者扩展移动终端100的功能的附件也可以被提供在移动终端100上。作为附件的一个示例,可以提供用于覆盖或者容纳移动终端100的至少一个表面的盖或者袋。盖或者袋可以与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于协助或者扩展对触摸屏的触摸输入的触摸笔。
图2是根据本发明可替选实施例的可变形的移动终端的概念视图。在该图中,示出具有显示单元251的移动终端200,显示单元251是一种通过外力可变形的显示器。包括显示单元251和移动终端200的其他组件的这个变形,可以包括弯曲、弯折、折叠、扭曲、卷曲、以及其组合中的任意一个。可变形的显示单元251也可以被称为“柔性显示单元”。在一些实现中,柔性显示单元251可以包括一般柔性显示器、电子纸张(也被称为电子纸)、以及其组合。通常,移动终端200可以被配置成包括与图1A-1C的移动终端100相同或者相似的特征。
移动终端200的柔性显示器通常被形成为轻质的、非易碎的显示器,其仍然呈现常规平板显示器的特性,但是替代地制造在如先前所述能够变形的柔性基板上。
术语电子纸可以被用于指代采用一般墨水的特性的显示技术,并且在使用反射光方面不同于常规平板显示器。电子纸通常被理解为使用扭动球或者经由使用胶囊的电泳来改变显示的信息。
当柔性显示单元251没有变形(例如,在无限曲率半径的状态下,并且被称为第一状态)时,柔性显示单元251的显示区域包括大体平坦的表面。当柔性显示单元251被外力从第一状态变形(例如,具有有限曲率半径的状态,并且被称为第二状态)时,显示区域可以变成弯曲表面或者弯折表面。如所图示的,在第二状态中显示的信息可以是在弯曲表面上输出的可视信息。可以实现可视信息使得独立地控制在矩阵配置中排列的每个单元像素(子像素)的光发射。单元像素表示用于代表一个颜色的基础单元。
根据一个可替选的实施例,柔性显示单元251的第一状态可以是弯曲状态(例如,从上到下或者从右到左弯曲的状态),而不是处于平坦状态。在这个实施例中,当外力被施加到柔性显示单元251时,柔性显示单元251可以转变到第二状态使得柔性显示单元被变形成平坦的状态(或者较少弯曲的状态)或者更加弯曲的状态。
如有必要,柔性显示单元251可以使用与显示器相组合的触摸传感器来实现柔性触摸屏。当在柔性触摸屏处接收到触摸时,控制器180能够执行与触摸输入相对应的特定控制。通常,柔性触摸屏被配置成在第一和第二状态这两者中时感测触摸和其他输入。
一个选项是配置移动终端200以包括感测柔性显示单元251的变形的变形传感器。变形传感器可以被包括在感测单元140中。
变形传感器可以位于柔性显示单元251或者壳体201中以感测与柔性显示单元251的变形有关的信息。与柔性显示单元251的变形有关的这样的信息的示例可以是变形的方向、变形的程度、变形的位置、变形的时间量、变形的柔性显示单元251被恢复的加速度等等。其他可能性包括能够响应于柔性显示单元的弯曲而被感测或者当柔性显示单元251被转变成、或者存在于第一和第二状态时被感测的大多数任何类型的信息。
在一些实施例中,基于与柔性显示单元251的变形有关的信息,控制器180或者其他组件能够改变柔性显示单元251上显示的信息,或者生成用于控制移动终端200的功能的控制信号。通常,通过变形传感器来感测这样的信息。
移动终端200被示出为具有用于容纳柔性显示单元251的壳体201。考虑到柔性显示单元251的特性,该壳体201能够与柔性显示单元251一起是可变形的。
考虑到柔性显示单元251的特性,位于移动终端200中的电池(在该图中未示出)也可以与柔性显示单元261协作地可变形。实现这样的电池的一个技术是要使用堆叠电池单元的堆叠和折叠方法。
柔性显示单元251的变形不限于通过外力执行。例如,通过用户命令、应用命令等等能够将柔性显示单元251从第一状态变形成第二状态。
根据又一个实施方式,移动终端可被配置为可在人体上可佩戴的设备。这样的设备超越了用户用他们的手抓住移动终端的通常技术。可佩戴设备的示例包括智能手表、智能眼镜、头戴式显示器(HMD)等等。
典型的可佩戴设备可以与另一个移动终端100交换数据(或协作)。在这样的设备中,可佩戴设备通常具有比协作的移动终端更少的功能。例如,移动终端100的短程通信模块114可以感测或识别足够近以与移动终端通信的可佩戴设备。此外,当感测到的可佩戴设备是被认证以与移动终端100通信的设备时,控制器180例如可以经由短程通信模块114将在移动终端100中处理的数据发送到可佩戴设备。因此,可佩戴设备的用户可以在可佩戴设备上使用在移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户可以使用可佩戴设备应答呼叫。此外,当在移动终端100中接收到消息时,用户能够使用可佩戴设备来检查接收到的消息。
图3是图示根据另一示例性实施例的手表式移动终端300的一个示例的透视图。如在图3中所图示,手表式移动终端300包括具有显示单元351的主体301以及连接到主体301以可佩戴在手腕上的带302。通常,移动终端300可以被配置成包括与图1A-图1C中的移动终端100相同或者相似的特征。
主体301包括具有特定外观的壳体。如所示出的,壳体可以包括协作地限定用于容纳各种电子组件的内部空间的第一壳体301a和第二壳体301b。其他配置是可能的。例如,利用被配置成限定内部空间的这样的壳体,可以可替选地实现单个壳体,从而实现具有单体的移动终端300。
手表式外部设备300能够执行无线通信,并且用于无线通信的天线能够被安装在主体301中。天线可以使用壳体延伸其功能。例如,包括导电材料的壳体可以被电连接到天线以延伸接地面积或者辐射面积。
显示单元351被示出为位于主体301的前侧处,使得显示的信息对于用户来说是可视的。在一些实施例中,显示单元351包括触摸传感器,使得显示单元能够用作触摸屏。如所示出的,窗口351a被定位在第一壳体301a上以与第一壳体301a一起形成终端主体的前表面。
所图示的实施例包括被定位在主体301上的音频输出单元352、相机321、麦克风322、以及用户输入单元323。当显示单元351被实现为触摸屏时,附加功能键可以被最小化或者被消除。例如,当触摸屏被实现时,用户输入单元323可以被省赂。
带302通常被佩戴在用户的手腕上并且可以是由用于有助于设备的佩戴的柔性材料制成。作为一个示例,带302可以是由皮毛、橡胶、硅胶、合成树脂等等制成。带302也可以被配置成从主体301可拆卸。因此,根据用户的喜好,带302可以被各种类型的带替换。
在一个配置中,带302可以被用于延伸天线的性能。例如,带可以在其中包括接地延伸部分(未被示出),该接地延伸部分被电连接到天线以延伸接地区域。
带302可以包括紧固件302a。紧固件302a可以被实现为搭扣型、扣合钩结构、Ve1cro⑧型等等,并且包括柔性部分或者材料。附图图示使用搭扣实现紧固件302a的示例。
图4是图示根据另一个示例性实施例的眼镜型移动终端400的一个示例的立体图。眼镜式移动终端400能够佩戴在人体的头部,并且为此提供有框架(例如,壳体或者外壳等)。框架可以由容易被佩戴的柔性材料制成。移动终端400的框架被示出为具有第一框架401和第二框架402,其能够由相同或不同的材料制成。通常,眼镜式移动终端400可以配置成包括与图1A-1C中的移动终端100的特征相同或者相似的特性。
框架被支撑在头部上并且限定用于安装各种组件的空间。如所示的,诸如控制模块480、音频输出模块452等的电子组件可以被安装到框架部件。此外,覆盖左眼和右眼中任一个或这两者的透镜403可以可拆卸地耦合到框架部件。
控制模块480被配置成控制移动终端400中设置的各种电子组件。控制模块480可以被理解为与上述的控制器180相对应的组件。图4示出控制模块480被安装在头部的一侧上的框架部件中,但其他位置也是可能的。
显示单元451可以被实现为头戴式显示器(HMD)。HMD指的是显示器通过其被安装到头部以在用户的眼睛前面直接示出图像的显示技术。为了在用户佩戴眼镜式移动终端400时在用户的眼睛前面直接地提供图像,显示单元451可以被设置为与左眼和右眼中的任一个或这两者相对应。图4示出显示单元451被设置在与右眼相对应的部分上以输出由用户的右眼可观看的图像。
使用棱镜,显示单元451可以将图像投影到用户的眼睛中。此外,棱镜可以由光学透明的材料形成,使得用户能够观看用户前面的一般视域(用户通过眼睛观看的范围)和投影的图像这两者。
以此方式,通过显示单元451输出的图像在与一般视域重叠时可以被观看。移动终端400可以使用显示器将虚拟图像重叠在现实图像或背景上来提供增强现实性(AR)。
相机421被设置为与左眼和右眼中任一个或这两者相邻以捕获图像。因为相机421被设置为与眼睛相邻,所以相机421能够获取用户当前观看到的场景。相机421可以至多被定位移动终端的任何位置。在一些实施例中,多个相机421可以被利用。这样的多个相机421可以被用于获取立体图像。
眼镜式移动终端400可以包括用户输入单元423a和423b,其每个能够由用户操作以提供输入。用户输入单元423a和423b可以采用允许经由触觉输入进行输入的技术。典型的触觉输入包括触摸、推动等等。用户输入单元423a和423b被示出,当它们分别位于框架部件和控制模块480上时,该用户输入单元423a和423b以推动方式和触摸模式是可操作的。
如果需要,移动终端400可以包括:麦克风,该麦克风将输入声音处理成电音频数据;以及音频输出模块452,该音频输出模块452用于输出音频。音频输出模块452可以被配置成以一般音频输出方式或者骨传导方式产生音频。当以骨传导方式实现音频输出模块452时,音频输出模块452可以在用户佩戴移动终端400时紧密地贴附到头部并且振动用户的颅骨以传送声音。
现在将会更加详细地描述通过不同地描述的移动终端可操作的通信系统。这样的通信系统可以被配置成利用各种不同的空中接口和/或物理层中的任意一个。由通信系统利用的这样的空中接口的示例包括:频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)、通用移动电信系统(UMTS)(包括长期演进(LTE),LTE-A(高级长期演进))、全球移动通信系统(GSM)等。
仅通过非限制性示例,进一步的描述将会涉及CDMA通信系统,但是这样的教导等同地应用于包括CDMA无线通信系统以及OFDM(正交频分复用)无线通信系统的其它系统类型。CDMA无线通信系统通常包括一个或者多个移动终端(MT或者用户设备,UE)100、一个或者多个基站(BS、节点B、或者演进的节点B)、一个或者多个基站控制器(BSC)、以及移动交换中心(MSC)。MSC被配置成与传统的公共交换电话网络(PSTN)和BSC对接。BSC经由回程线路被耦合到基站。可以根据包括例如E1/T1、ATM、IP、PPP、帧中继、HDSL、ADSL、或者xDSL的数个已知的接口中的任何一个来配置回程线路。因此,CDMA无线通信系统中能够包括多个BSC。
每个基站可以包括一个或者多个扇区,每个扇区具有全向天线或者指向以特定方向径向远离基站的天线。可替选地,每个扇区可以包括两个或者更多个不同的天线。每个基站可以被配置成支持多种频率指配,每个频率指配具有特定的频谱(例如,1.25MHz、5MHz等等)。
扇区和频率指配的交集可以被称为CDMA信道。基站也可以被称为基站收发器子系统(BTS)。在一些情况下,术语“基站”可以用于统指BSC,以及一个或多个基站。基站也可以被表示为“小区站点”。可替选地,给定的基站的单个扇区可以被称为小区站点。
广播发射器(BT)将广播信号发送到在系统内操作的移动终端100。图1A的广播接收模块111通常被配置在移动终端100内部以接收由BT发送的广播信号。
例如,用于定位移动终端100的位置的全球定位系统(GPS)卫星可以与CDMA无线通信系统协作。可以以比两个卫星更多或者更少的卫星获得有用的位置信息。要理解的是,可以可替选地实现其它类型的位置检测技术(即,除了或者替代GPS定位技术可以使用的定位技术)。必要时,GPS卫星中的至少一个可以被可替选地或者另外配置成提供卫星DMB传输。
位置信息模块115通常被配置成检测、计算、或者以其它方式识别移动终端的位置。作为示例,位置信息模块115可以包括全球定位系统(GPS)模块、Wi-Fi模块、或者两者。如有必要,位置信息模块115可以可替选地或者另外用作无线通信单元110的其它模块中的任意一个以获得与移动终端的位置有关的数据。
典型GPS模块能够从三个或者更多个卫星测量精确的时间和距离,并且基于被测量的时间和距离根据三角法精确地计算移动终端的当前位置。可以使用从三个卫星获取距离和时间信息并且通过单个卫星执行错误校正的方法。特别地,GPS模块可以根据从卫星接收到的位置信息获取精确的时间和三维速度信息以及纬度、经度的位置以及高度值。
此外,GPS模块能够实时获取速度信息以计算当前位置。有时候,当移动终端位于卫星信号的盲点中,诸如位于室内空间中时,测量的位置的精确度可能被折衷。为了最小化这样的盲点的影响,可以利用替代或者互补的定位技术,诸如Wi-Fi定位系统(WPS)。
Wi-Fi定位系统(WPS)指的是基于使用Wi-Fi的无线局域网(WLAN)的位置确定技术作为用于跟踪移动终端100的位置的技术。此技术通常包括移动终端100中的Wi-Fi模块和用于与Wi-Fi模块通信的无线接入点的使用。
Wi-Fi定位系统可以包括Wi-Fi位置确定服务器、移动终端、连接到移动终端的无线接入点(AP)、以及存储有无线AP信息的数据库。
连接到无线AP的移动终端可以将位置信息请求消息发送到Wi-Fi位置确定服务器。Wi-Fi位置确定服务器基于移动终端100的位置信息请求消息(或者信号)提取连接到移动终端100的无线AP的信息。无线AP的信息可以通过移动终端100被发送到Wi-Fi位置确定服务器,或者可以从无线AP被发送到Wi-Fi位置确定服务器。
基于移动终端100的位置信息请求消息提取的无线AP的信息可以包括媒介访问控制(MAC)地址、服务集识别(SSID)、接收信号强度指示符(RSSI)、参考信号接收功率(RSRP)、参考信号接收质量(RSRQ)、信道信息、隐私、网络类型、信号强度、噪声强度等等中的一个或者多个。
如上所述,Wi-Fi位置确定服务器可以接收被连接到移动终端100的无线AP的信息,并且可以从事先建立的数据库提取与被连接到移动终端的无线AP相对应的无线AP信息。存储在数据库中的任何无线AP的信息可以是诸如MAC地址、SSID、RSSI、信道信息、隐私、网络类型、纬度和经度坐标、无线AP位于的建筑物、楼层、详细的室内位置信息(GPS坐标可用)、AP拥有者的地址、电话号码等等的信息。为了在位置确定过程期间去除使用移动AP或者非法的MAC地址提供的无线AP,Wi-Fi位置确定服务器可以仅提取预定数目的无线AP信息,以便于高的RSSI。
然后,Wi-Fi位置确定服务器可以使用从数据库提取的至少一个无线AP信息提取(分析)移动终端100的位置信息。
用于提取(分析)移动终端100的位置信息的方法可以包括小区ID方法、指纹方法、三角法方法、地标方法等等。
小区ID方法被用于将通过移动终端收集的外围无线AP信息当中的具有最大的信号强度的无线AP的位置确定为移动终端的位置。小区ID方法是最低复杂度的实现,不要求附加的成本,并且能够快速地获取位置信息。然而,在小区ID方法中,当无线AP的安装密度低时定位的精确度可能落在所期待的阈值之下。
指纹方法被用于通过从服务区域选择参考位置收集信号强度信息,并且基于所收集的信息使用从移动终端发送的信号强度信息跟踪移动终端的位置。为了使用指纹方法,通常无线电信号的特性要以数据库的形式预先存储。
三角法方法被用于基于至少三个无线AP和移动终端的坐标之间的距离计算移动终端的位置。为了测量移动终端和无线AP之间的距离,信号强度可以被转换成距离信息。对于被发送的无线信号可以采用到达时间(ToA)、到达时间差(TDoA)、到达角(AoA)等等。
地标方法被用于使用已知的地标发射器测量移动终端的位置。
除了这些定位位置方法之外,各种算法可以被用于提取(分析)移动终端的位置信息。这样提取的位置信息可以通过Wi-Fi位置确定服务器被发送到移动终端100,从而获取移动终端100的位置信息。
移动终端100能够通过被连接到至少一个无线AP获取位置信息。根据移动终端100位于的无线通信环境可以不同地改变获取移动终端100的位置信息所需的无线AP的数目。
如关于图1A先前所描述的,移动终端可以被配置成包括诸如蓝牙(BluetoothTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(Zigbee)、近场通信(NFC)、无线USB(无线通用串行总线)等等的短程通信技术。
被设置在移动终端处的典型的NFC模块支持短程无线通信,其是移动终端之间的非接触型的通信并且通常在大约10cm内发生。NFC模块可以以卡模式、阅读器模式、或者P2P模式中的一个操作。移动终端100可以进一步包括用于存储卡信息的安全模块,以便于在卡模式下操作NFC模块。安全模块可以是诸如通用集成电路卡(UICC)(例如,订户标识模块(SIM)或者通用SIM(USIM))、安全微型SD和贴纸的物理介质,或者被嵌入在移动终端中的逻辑介质(例如,嵌入式安全元件(SE))。可以在NFC模块和安全模块之间执行基于单线协议(SWP)的数据交换。
在NFC模块在卡模式下操作的情况下,移动终端可以将关于普通的IC卡的卡信息传送到外部。更加具体地,如果具有关于支付卡(例如,信用卡或者公交卡)的卡信息的移动终端接近卡阅读器,则可以执行短程移动支付。作为另一示例,如果存储关于门卡的卡信息的移动终端接近门卡阅读器,则进入批准过程可以启动。诸如信用卡、交通卡、或者门卡的卡可以以小程序(applet)的形式被包括在安全模块中,并且安全模块可以存储关于在其中安装的卡的卡信息。用于支付卡的卡信息可以包括卡号、剩余量和使用历史等等中的任意一个。门卡的卡信息可以包括用户的姓名、用户的编号(例如,大学生编号或者员工编号)、进入历史等等中的任意一个。
当NFC模块在阅读器模式下操作时,移动终端能够从外部标签读取数据。通过移动终端从外部标签接收到的数据可以被编码成通过NFC论坛定义的NFC数据交换格式。NFC论坛通常定义四种记录类型。更加具体地,NFC论坛定义四个记录类型定义(RTD),诸如智能型海报、文本、统一资源标识符(URI)、以及一般控制。如果从外部标签接收到的数据是智能型海报类型,则控制器可以执行浏览器(例如,互联网浏览器)。如果从外部标签接收到的数据是文本类型,则控制器可以执行文本查看器。如果从外部标签接收到的数据是URI类型,则控制器可以执行浏览器或者发起呼叫。如果从外部标签接收到的数据是一般控制类型,则控制器可以根据控制内容执行适当的操作。
在其中NFC模块在P2P(端对端)模式下操作的一些情况下,移动终端能够执行与另一移动终端的P2P通信。在这样的情况下,逻辑链路控制协议(LLCP)可以被应用于P2P通信。对于P2P通信,在移动终端和另一移动终端之间可以生成连接。此连接可以被归类成在一个分组被交换之后结束的无连接模式,和其中分组被连续地交换的面向连接模式。对于典型的P2P通信,诸如电子类型名片、地址信息、数字照片和URL、用于蓝牙连接的设置参数、Wi-Fi连接等等的数据可以被交换。因为NFC通信的可用距离非常短,所以在交换小容量的数据中能够有效地利用P2P模式。
将会参考附加的附图更加详细地描述更多的优选实施例。本领域的技术人员将会理解,在没有脱离其特性的情况下能够以数种形式实施本特征。
图5是图示根据本公开的实施例的操作移动终端的方法的流程图。
在下文中,将会结合图1A至图4描述移动终端100。
参考图5,移动终端100的控制器180通过显示单元151显示全方位图像(S501)。
在实施例中,全方位图像可以是被存储在移动终端100自身中的内容图像。
在另一实施例中,全方位图像可以是从被连接到移动终端100的另一移动终端提供的图像。
在另一实施例中,可以从能够与移动终端100有线或者无线通信的服务器或者计算机提供全方位图像。
在实施例中,全方位图像可以是包括诸如上、下、左以及右方向的所有方向中的信息的图像。例如,全方位图像可以包括在天球的中心处观看到的整个天球的图像。全方位图像可以是包括静止图像和运动图像两者的图像。
移动终端100的控制器180可以在显示单元151上显示全方位图像的部分区域。当全方位图像的部分区域被显示在显示单元151上时,控制器180可以允许被显示的部分区域在没有失真的情况下被显示。然而,当全方位图像的部分区域被显示在显示单元151上时,由于视角的限制仅全方位图像的一部分可以被显示在显示单元151上。
另一方面,当移动终端100的控制器180允许全方位图像的更多区域被显示在显示单元151上时,屏幕可能被失真地显示。
在另一实施例中,全方位图像可以是不包括诸如上、下、左以及右方向的所有方向中的信息的部分图像的图像。
参考图5,移动终端100的控制器180通过显示单元151显示在全方位图像中生成的指导路线(S502)。
在实施例中,移动终端100的控制器180可以通过用户输入生成与用户输入相对应的指导路线。
控制器180可以通过显示单元151接收由移动终端100的用户输入的手势,并且在显示单元151上显示与手势相对应的指导路线。
在另一实施例中,移动终端100的控制器180可以自动地生成指导路线。
控制器180可以接收由移动终端100的用户输入的手势。可替选地,当先前存储的指导路线存在时,控制器180可以自动地生成指导路线。
将会参考图7A至图11E详细地描述控制器180通过显示单元151接收由移动终端100的用户输入的手势并且在显示单元151上显示指导路线的方法和控制器180自动生成指导路线的方法。
参考图5,移动终端100的控制器180通过指导路线控制全方位图像(S503)。
在实施例中,控制器180可以沿着指导路线显示全方位图像的显示区域。
如果用户的滚动手势被输入,则控制器180不沿着滚动手势的方向移动全方位图像的显示区域但是可以通过仅考虑滚动手势的方向中的与指导路线的方向相对应的分量来移动全方位图像的显示区域。即,控制器180可以控制全方位图像的显示区域以仅在与指导路线相对应的方向中移动。
在另一实施例中,控制器180可以沿着多个指导路线移动全方位图像的显示区域。
如果用户的滚动手势被输入,则控制器180不沿着滚动手势的方向移动全方位图像的显示区域但是可以通过仅考虑滚动手势的方向中的与滚动方向相邻的指导路线的方向相对应的分量来移动全方位图像的显示区域。即,控制器180可以仅在与多个指导路线中的每一个相对应的方向中控制全方位图像的显示区域。
在另一实施例中,控制器180可以控制要被改变的指导路线的方向。
如果用户的手势被输入,则控制器180可以改变与用户的手势相对应的指导路线的方向。
在另一实施例中,当多个指导路线存在时,控制器180可以根据它们的优先级顺序控制多个指导路线被顺序地应用。
参考图5,移动终端的控制器180去除全方位图像中的设置的指导路线(S504)。
在实施例中,当用户的手势被输入时,控制器180设置与手势相对应的指导路线。
在另一实施例中,当用户的手势被输入时,控制器180可以允许与手势相对应的设置的指导路线被显示在显示单元151上。
在下文中,将会详细地描述步骤S501至S504。
图6A至图6F是图示通过滚动全方位图像来移动全访问图像的显示区域的典型示例的视图。
参考图6A和图6B,移动终端100的控制器180可以显示全方位图像的部分区域。如上所述的全方位图像可以包括与虚拟天球的所有区域相对应的图像,并且控制器180可以显示作为与天球的所有区域相对应的图像的全方位图像的部分区域。例如,图6A图示显示在水中拍摄的全方位图像的移动终端100,并且包括第一对象601的全方位图像的部分区域被显示在移动终端100中。移动终端100的用户可以移动全方位图像的显示区域。
图6B指示在图6A中显示的全方位图像的一部分。显示区域603指的是在图6A中控制器180在显示单元151上显示的区域。因此,控制器180可以在显示单元151上显示作为全方位图像的一部分的显示区域603。然而,显示区域603的大小不被限制,并且可以被扩大或者缩小。
移动终端100的用户可以使用控制区域602移动全方位图像的显示区域。例如,当用户的输入被输入到控制区域602中的与右侧相对应的区域时,控制器180可以将被显示在移动终端100中的全方位图像的显示区域移动到右侧。而且,例如,当用户的输入被输入到控制区域602中的与上侧相对应的区域时,控制器180可以将被显示在移动终端100中的全方位图像的显示区域移动到上侧。
参考图6C,如果通过显示单元151从用户输入滚动手势,则移动终端100的控制器180可以在与滚动手势相对应的方向中移动全方位图像的显示区域。
例如,如果向右侧移动的滚动手势被输入,则控制器180可以移动被显示在移动终端100中的全方位图像的显示区域。因此,能够看到当显示区域被改变时第一对象601已经从右侧移动到屏幕的左侧。
参考图6D,如果向右侧移动的滚动手势被输入,则控制器180将被显示在移动终端100中的全方位图像的显示区域向右侧移动。因此,可以将全方位图像的显示区域从显示区域603移动到显示区域604。
参考图6E,如果通过显示单元151从用户输入滚动手势,则移动终端100的控制器180可以在与滚动手势相对应的方向中移动全方位图像的显示区域。
然而,当滚动手势被输入时,可能会出现不同于移动终端100的用户的意图的错误。例如,当期待向如在图6C中所示的右侧移动全方位的显示区域的用户将错误的手势612输入到显示单元151时,,不同于用户的意图,全方位图像的显示区域可能被移动到右上部分。
参考图6F,如果用户输入错误手势612,则控制器180不能够将显示在移动终端100中的全方位图像的显示区域移向用户打算将全方位图像的显示区域移动到的右侧,并且基于用户的错误手势612移动全方位图像的显示区域。因此,不同于用户的意图,全方位图像的显示区域被从显示区域603移动到显示区域605。
如上所述,当要在诸如地面或者水的表面的水平方向的特定方向中移动全方位图像的显示区域时,由于用户的不准确输入,全方位图像的显示区域可能在非预期方向中被移动。
图7A至图7E是图示根据本公开的实施例的在全方位图像中设置指导路线并且使用设置的指导路线移动全方位图像的显示区域的示例的视图。
在图7A至图7E中,假定用户通过移动终端100的显示单元151控制全方位图像。
当全方位图像的部分区域被显示在移动终端100的显示单元151上时,移动终端100的控制器180可以接收从用户输入的用于生成指导路线的手势。
例如,移动终端100的控制器180可以接收选择第一触摸701和第二触摸702的多触摸手势。
当包括第一触摸701和第二触摸702的多触摸手势被输入到显示单元151时,移动终端100的控制器180可以生成与连接第一触摸701和第二触摸702的直线相对应的指导路线703。然而,指导路线703不限于被显示在显示单元151上的指导路线。即,指导路线703可以是包括第一触摸701和第二触摸702的直线。指导路线703可以不限于连接第一触摸701和第二触摸702的线段。
另外,虽然指导路线703被表示为直线,但是指导路线703可以是曲线而不是直线。即,指导路线703的形状不限于特定的形状,并且可以包括其中全方位图像的显示区域的中心被连续地显示的所有形状。
参考图7C,在图7B中显示的显示区域704是全方位图像的一部分,并且指导路线703的一部分仅被显示在显示区域704中。指导路线703可以是在整个全方位区域中设置的线705的一部分。因此,用户可以沿着在整个全方位区域中设置的线705移动显示区域704。因此,能够在与用户的意图相对应的方向中移动显示区域。
参考图7D,当用户的手势被输入到显示单元151时,移动终端100的控制器180可以将全方位图像的显示区域的移动限于与指导路线703相对应的方向。
例如,当与第一滚动手势711相对应的第一方向对应于指导路线703的方向时,当与第一方向相对应的第一滚动手势711被输入时,控制器180可以在第一方向中移动全方位图像的显示区域。
然而,当与第二方向相对应的第二滚动手势712被输入到显示单元151时,控制器180可以在第一方向中而不是第二方向中沿着指导路线移动全方位图像的显示区域。
控制器180可以测量被输入到显示单元151的滚动手势的长度和速度。使用在指导路线与第二滚动手势712之间的角度713,控制器180可以确定全方位图像的显示区域的移动的程度。
具体地,在实施例中,控制器180可以使用与第二滚动手势712的指导路线相对应的方向分量来控制全方位图像的显示区域。例如,可以假定第一滚动手势711和第二滚动手势712是具有不同的方向和相同的量级(magnitude)的手势。即,可以假定各自的滚动手势是具有相同的大小和不同的量级的有向向量,并且控制器180可以通过对第二滚动手势712和角度713执行内积来获得新的向量。控制器180可以以与新向量相对应的量级在与指导路线703相对应的方向中移动全方位图像的显示区域。即,与新向量相对应的量级是通过对输入的第二滚动手势712的量级执行内积以对应于角度713所获得的量级,并且控制器180可以在指导路线703的方向中移动全方位图像的显示区域。
换言之,当与指导路线703相对应的滚动手势被输入时,全方位图像的显示区域可以被移动以对应于输入滚动手势的量级。然而,当在不同于指导路线703的方向中输入滚动手势时,在与指导路线703相同的方向中移动全方位图像的显示区域,但是全方位图像的显示区域的移动速度可能减小。
因此,当在与指导路线703相对应的方向中移动全方位图像的显示区域时,控制器180能够通知用户的输入是不准确的。另外,控制器180能够在与指导路线703相对应的方向中恒定地改变全方位图像的显示区域。
然而,在另一实施例中,控制器180可以在第二滚动手势712的量级被保持的状态下在与指导路线703相对应的方向中移动全方位图像的显示区域。
在实施例中,指导路线703可以被显示在显示单元151上。然而,当指导路线703被显示在移动终端100的显示单元151上时,指导路线703可能中断用户观看全方位图像。因此,控制器180可以不在移动终端100的显示单元151上显示指导路线703。
参考图7E,在另一实施例中,指导指示符721和722可以被显示在显示单元151上。指导指示符721和722可以是被显示在指导路线703与显示单元151的边缘汇合的点处的标记。指导指示符721和722可以被显示为多个标记。当指导指示符721和722被相互连接时,与指导路线703相对应的直线可以被获得。
因此,与当指导路线703被显示时相比较,当指导指示符被显示时,移动终端100的用户能够被提供有清楚的图像。
图8A至图8D是图示根据本公开的实施例的在全方位图像中自动地设置指导路线的示例的视图。
参考图8A,当用户的手势被输入到显示单元151时,控制器180可以自动地生成指导路线。
例如,当双触摸被同时输入到显示单元151上的第一区域801和第二区域802时,控制器180可以自动地生成指导路线。
参考图8B,生成的指导路线可以是与被显示在移动终端100的显示单元151上的屏幕水平的指导路线811或者与被显示在显示单元151上的屏幕垂直的指导路线812。与被显示在显示单元151上的屏幕水平的指导路线811和与被显示在显示单元151上的屏幕垂直的指导路线812分别对应于图6A中显示的控制区域602的左/右和上/下。
然而,与被显示在显示单元151上的屏幕水平的指导路线811和与被显示在显示单元151上的屏幕垂直的指导路线812中的仅一个可以被生成。在另一实施例中,与被显示在显示单元151上的屏幕水平的指导路线811和与被显示在显示单元151上的屏幕垂直的指导路线812可以被同时生成。
参考图8C,在图8B中显示的显示区域是全方位图像的一部分。仅与屏幕垂直的指导路线812的一部分被显示在显示区域中,并且与屏幕垂直的指导路线812可以是在整个全方位区域中设置的线813的一部分。因此,用户可以沿着在整个全方位区域中设置的线813移动显示区域。而且,仅与屏幕水平的指导路线811的一部分被显示,并且与屏幕水平的指导路线811可以是在整个全方位区域中设置的线814的一部分。因此,用户可以沿着在整个全方位区域中设置的线814移动显示区域。
另外,用户的手势不限于被同时输入到显示单元151的第一区域801和第二区域802的双触摸,并且控制器180可以根据用户的设置等等设置用于自动生成指导路线的另一手势。
另外,生成的指导路线不限于与被显示在移动终端100的显示单元151上的屏幕水平的指导路线811或者与显示在显示单元151上的屏幕垂直的指导路线812,并且可以在各个方向中生成。
当用户将简单的手势输入到移动终端100的显示单元151时,用户能够容易地获得与显示单元151水平或者垂直的指导路线。因此,用户能够更加容易地控制全方位图像。
参考图8D,控制器180可以识别其周围的声音822并且生成与发出声音822的方向相对应的指导路线821。
当移动终端100的用户识别其周围的声音822时,用户能够沿着与发出声音822的方向相对应的指导路线821移动全方位图像的显示区域。因此,生成声音的对象能够被更加容易地显示在移动终端100的显示单元151上。
图9A至图9E是图示根据本公开的另一实施例的在全方位图像中设置指导路线并且沿着设置的指导路线移动全方位图像的显示区域的示例的视图。
参考图9A至图9E,在实施例中,控制器180可以在用户输入的全方位图像中接收两个点,并且生成连接两个输入点的指导路线。
例如,控制器180可以通过用户输入的手势在显示单元151上接收第一点901。输入手势的种类不被限制。控制器180可以通过诸如长触摸、双触摸以及压力触摸的各种手势来获得关于第一点901的信息。
在实施例中,如果第一点901被输入,则如在图9B中所示的控制器180可以显示在球形中缩小的全方位图像使得执行快速屏幕转换。当全方位图像被显示为球形时,屏幕失真,但是更宽的区域能够被显示,使得全方位图像的显示区域能够被更加快速地移动到所期待的区域。
在另一实施例中,控制器180不将屏幕转换成球形,但是可以通过滚动手势来移动全方位图像的显示区域。
控制器180可以通过显示单元151接收从用户输入的第二点903。第二点903甚至可以在被显示在其中全方位图像被显示为球形的图像中被指定,并且甚至在其中全方位图像的整个区域被显示的图像中被指定。
控制器180可以通过连接第一点901和第二点903来生成指导路线904。
通过连接第一点901和第二点903如在图9D中所示的指导路线904可以被显示,并且可以被显示为通过连接点和点获得的曲线。可替选地,指导路线904可以被显示为通过连接点和点获得的线段、半直线、直线等等。
更加详细地,参考图9E,天球形的全方位图像可以被显示在图9E中。第一部分901对应于被显示为天球的全方位图像的第三点911,并且第二点903对应于全方位图像的第四点912。移动终端100的用户可以通过将全方位图像的显示区域移动到第四点912来选择与第三点911相对应的第一点901并且生成第二点903。控制器180可以生成连接第一点901和第二点903的与在天球上的线段914相对应的指导路线904。
移动终端100的用户能够沿着生成的指导路线显示全方位图像的显示区域,使得全方位图像的显示区域能够被更加容易地控制。
图10A至图10D是图示根据本公开的另一实施例的在全方位图像中设置指导路线并且使用设置的指导路线移动全方位图像的显示区域的示例的视图。
参考图10A,如果在指导路线被设置之后用于指定大于被显示在显示单元151上的先前指定的全方位图像的区域的区域的手势被输入,则基于屏幕,移动终端100的控制器180可以允许显示区域在全方位图像的大小沿着指导路线被固定的状态下被移动。
例如,如在图10A中所示,用于选择第一点1001和第二点1002的手势可以被输入。手势可以包括诸如压力触摸、长触摸以及双触摸的各种手势。当用于选择第一点1001和第二点1002的手势被输入,并且在第一点1001和第二点1002之间的距离超过如在图10A中所示显示的全方位图像的部分区域的50%时,被显示的全方位图像的大小可以被固定。然而,50%的参考可以通过用户的选择等等被改变。
随着显示全方位图像的大小被固定,用户能够更加容易地改变全方位图像的显示区域而没有由于故障改变全方位图像的大小的任何问题。
参考图10B,当固定全方位图像的显示区域的大小以对应于被显示在全方位图像中的带1003的高度时,移动终端100的用户可以沿着被显示在全方位图像中的带1003移动显示区域。
参考图10C,如果在指导路线被设置之后输入用于指定大于被显示在显示单元151上的全方位图像的先前指定的区域的区域的手势,则移动终端100的控制器180可以扩大被指定的区域以被显示在整个显示单元151上,并且基于扩大的屏幕,允许全方位图像的显示区域沿着指导路线被移动。
例如,用于选择第三点1011和第四点1012的手势可以被输入,如在图10C中所示。手势可以包括诸如压力触摸、长触摸以及双触摸的各种手势。当用于选择第三点1011和第四点1012的手势被输入,并且在第三点1011和第四点1012之间的距离不超过全方位图像的部分区域的50%时,控制器180可以扩大全方位图像使得所选择的区域被显示在显示单元151的整个屏幕上。
被扩大的图像可以被显示,如在图10D中所示。
被扩大的图像的大小可以被固定或者改变。
当被扩大的全方位图像的大小被固定时,控制器180可以在显示单元151上显示通知全方位图像的大小已经被固定的指示线1021和1022。
当被显示的全方位图像的大小被固定时,用户能够更加容易地改变全方位图像的显示区域而没有由于故障而改变全方位图像的大小的任何问题。另外,当基于指导路线扩大全方位图像时,全方位图像能够被更加容易地控制。
图11A至图11F是图示根据本公开的另一实施例的在全方位图像中设置指导路线并且使用设置的指导路线移动全方位图像的显示区域的示例的视图。
全方位图像可以是静止图像或者运动图像。
在实施例中,当全方位图像是运动图像时,移动终端100的控制器180可以随着时间流逝改变指导路线。
例如,如果假定全方位图像的再现时间是两分钟,则从开始到一分钟再现时间的指导路线和从一分钟到两分钟的指导路线可以被设置为相互不同。
指导路线可以变成用于甚至在全方位图像被停止的状态下控制全方位图像的显示区域的移动的参考。而且,指导路线可以变成用于当全方位图像被再现时控制显示区域的移动的参考。
参考图11A,运动图像的形式的全方位图像可以包括指导路线1101。如果运动图像的形式的全方位图像被再现,则指导路线1101可以被显示在显示单元151上。
当在与显示的指导路线1011相对应的方向中再现全方位图像时,控制器180可以移动显示区域。
参考图11B,在全方位图像的特定显示区域中可以改变或者添加指导路线。
例如,如果在指导路线1101被设置的状态下用于设置具有不同于指导路线1101的方向的指导路线的手势1102和1103被输入,则控制器180可以改变指导路线或者添加指导路线。
参考图11C,如果用于设置指导路线的手势1102和1103被输入,则控制器180可以设置新的指导路线1111。然而,如果新的指导路线1111被设置,则控制器180可以去除现有的指导路线1101。可替选地,如果新的指导路线1111被设置,则控制器180可以允许通过保持现有的指导路线1101来设置多个指导路线。
当多个指导路线被设置时,如果滚动手势被输入到显示单元151,则控制器180可以移动全方位图像的显示区域以对应于与输入的滚动手势相邻的指导路线。
例如,当指导路线1101和指导路线1111被设置时,如果滚动手势被输入到显示单元151,则控制器180可以选择指导路线1101和指导路线1111当中的与输入滚动手势相邻的指导路线并且在与所选择的指导路线相对应的方向中移动全方位图像的显示区域。
在另一实施例中,仅当滚动手势在离多个指导路线中的每一个的特定距离处被输入时,控制器180可以移动全方位图像的显示区域以对应于指导路线。
在实施例中,使用在全方位图像的再现状态显示区域中的指导路线状态变化标记1112,控制器180可以显示其中指导路线被改变或者相互重叠的显示区域。指导路线状态变化标记1112是通知全方位图像中的指导路线的状态已经改变的标记,并且因此,移动终端100的用户能够更加容易地检测全方位图像的状态。
不同于在附图中所示的,指导路线可以被显示在再现状态显示区域中。例如,时间的范围可以被显示,并且使用文本可以显示指导路线的存在。即,本公开特征在于,指导路线的状态被显示在移动终端100中。因此,用于显示指导路线的状态的方法不限于上述方法。
参考图11D,在图11C中显示的显示区域是全方位图像的一部分,并且仅指导路线1101的一部分被显示在显示区域中。指导路线1101可以是在整个全方位区域中设置的线1102的一部分。因此,用户可以沿着在整个全方位区域中设置的线1105移动显示区域。另外,仅新指导路线111的一部分被显示在显示区域中,并且新的指导路线1111可以是在整个全方位区域中设置的线1112的一部分。因此,用户可以沿着在整个全方位区域中设置的线1112移动显示区域。
参考图11E和图11F,即使当全方位图像被显示为球形时指导路线1121可以被显示在显示单元151上。
另外,当全方位图像被显示在球形时,如果用于设置指导路线的手势被输入,则控制器180可以设置新的指导路线1121。
另外,当全方位图像被显示为球形时,使用全方位图像的再现状态显示区域中的指导路线变化标记1132,控制器180可以显示其中指导路线被改变或者相互重叠的显示区域。
当全方位图像被显示为球形时,如果指导路线被改变,则新的指导路线1131可以被显示。
图12A至图12D是图示根据本公开的实施例的去除在全方位图像中设置的指导路线的示例的视图。
参考图12A至图12D,如果在指导路线被设置的状态下用户的指导路线去除手势被输入,则移动终端100的控制器180可以去除设置的指导路线。
参考图12A,如果在预设指导路线1201上的第一位置1211和第二位置1222处多触摸手势被输入,则控制器180可以去除预设指导路线1201。
参考图12B,如果在预设指导路线1201上的第三位置1231处多触摸手势被输入,并且在指导路线1201的方向中的手势移动被输入,则控制器180可以去除预设指导路线1201。
参考图12C和图12D,如果在指导路线1202被设置的状态下手势1241被输入到除了指导路线1202之外的另一区域,则控制器180可以允许在移动终端100的显示单元151上看不到指导路线。即,当手势1241被输入时,控制器180可以允许指导路线1201不被显示在显示单元151上同时如原样保持指导路线1202被设置的状态。因此,移动终端100的用户能够控制在指导路线1202的方向中的全方位图像的显示区域,并且同时去除显示单元151上的指导路线1202,从而获得更加清楚的图像。
然而,当在显示单元151上看不到指导路线1202时,用户不能够获知全方位图像的显示区域被移动的方向。
因此,在另一实施例中,当指导路线1202被去除时,多个指导指示符1251和1252可以被显示在显示单元151上。指导指示符1251和1252可以是显示在指导路线1202与显示单元151的边缘汇合的点处的标记。指导指示符1251和1252可以被显示为多个标记。当指导指示符1251和1252被相互连接时,与指导路线1202相对应的直线可以被获得。
在另一实施例中,当在图12A和图12B中输入用于去除预设指导路线1201的手势时,控制器180不去除指导路线1201但是可以控制指导路线1201在显示单元151上不被看到。
图13A至图13C是图示根据本公开的实施例的沿着在全方位图像中设置的多个指导路线移动和控制显示区域的示例的视图。
参考图13A至图13C,当多个指导路线1301和1302被设置时,移动终端100的控制器180可以指定相应的指导路线1301和1302的控制顺序。
当多个指导路线1301和1302被设置时,如果用于指定相应的指导路线1301和1302的顺序的手势被输入,则移动终端100的控制器180可以进入指导路线1301和1302的顺序指定模式。
例如,当手势(例如,长触摸、压力触摸或者双触摸)被输入到在多个指导路线1301和1302之间的接触的点1303时,控制器180可以进入用于指定各个指导路线1301和1302的顺序的模式。
控制器180可以在指定各个指导路线1301和1302的顺序的模式下接收各个指导路线1301和1302的顺序。例如,当首先选择指导路线1301并且然后选择指导路线1302时,控制器180可以控制全方位图像的显示区域以沿着指导路线1301被移动。
参考图13B和图13C,控制器180可以在各个指导路线1301和1302上显示用于指示指导路线1301和1302的顺序的标记1311和1312。标记1311和1312可以被指示为,例如,1/2和2/3。1/2指示当指导路线的总数目是2时首先控制的指导路线,并且2/3指示当指导路线的总数目是3时其次控制的指导路线。
因此,指导路线1301被表示为如在标记1311中指示的两个指导路线之外首先控制的指导路线,并且指导路线1302被表示为如在标记1312中指示的两个指导路线之外其次控制的指导路线。
当各个指导路线1301和1302的顺序被指定时,控制器180可以控制全方位图像的显示区域以沿着其优先级顺序高于指导路线1302的优先级顺序的指导路线1301被移动。当沿着指导路线1301移动全方位图像的显示区域并且然后随着全方位图像被旋转一次而将其移动到初始位置时,控制器180可以去除指导路线1301。接下来,控制器180可以控制全方位图像的显示区域以沿着其优先级顺序低于指导路线1301的优先级顺序的指导路线1301被移动。当沿着指导路线1302移动全方位图像的显示区域并且然后随着全方位图像被旋转一次而将其移动到初始位置时,控制器180可以去除指导路线1302。
在另一实施例中,当沿着多个指导路线1301和1302中的每一个全方位图像的显示区域被旋转一次时,多个指导路线1301和1302分别返回到它们的被设置的状态。
多个指导路线的数目可以是两个或者更多个。
图14A至图14C是图示根据本公开的实施例的控制全方位图像的角度的示例的视图。
参考图14A至图14C,当全方位图像被显示为球形时,如果从用户输入确定的手势,则控制器180可以为每个步骤调节球的角度。
参考图14A,控制器180可以以球形1401显示全方位图像。参考线1402指的是在具有图14A的球形的前图像的角度被调节之前的参考。
当从用户输入用于倾斜具有球形1401的全方位图像的手势时,控制器180可以允许用户在移动终端100中调节具有球形1401的全方位图像的斜率(slop)。例如,当用户输入用于摇动移动终端100的手势时,控制器180可以将用于摇动移动终端100的手势识别为用于倾斜全方位图像的手势。
然而,除了用于摇动移动终端100的手势,用于倾斜全方位图像的手势可以包括各种手势。
如果用于倾斜全方位图像的手势被输入,则控制器180可以改变如在图14B中所示的全方位图像的斜率。与现有的参考线1402相比较,新参考线1403可以是与用于摇动移动终端100的手势相对应的被旋转了角度1405的参考线。
参考图14C,移动终端100的控制器180可以通过识别用于摇动移动终端100的手势的量级来改变新参考线1403被旋转的角度。
例如,当用于摇动移动终端100的手势的量级弱时,新的参考线可以是参考线1422,并且参考线1422可以是被旋转了角度1431的参考线。另外,当用于摇动移动终端100的手势的量级强时,新的参考线1434可以是被旋转了角度1432的参考线。
根据本公开的各种实施例,当用户通过移动终端观看全方位图像时,移动终端通过在用户所期待的方向中滚动全方位图像使得用户能够观看所期待的图像。
此外,当用户通过移动终端观看全方位图像时,移动终端使用户能够方便地产生控制或者去除用于在所期待的方向中移动全方位图像的指导路线。
另一方面,控制器180通常是管理设备的控制的组件并且也可以被称为中央处理单元、微处理器、处理器等等。
在前面的描述中提及的本发明可以使用其上存储有用于由执行在此陈述的各种方法的处理器执行的指令的机器可读介质实现。可能的机器可读介质的示例包括HDD(硬盘驱动)、SSD(固态盘)、SDD(硅盘驱动)、ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备等等。根据需要,计算机可读介质也可以被实现为载波的形式(例如,经由互联网的传送)。处理器可以包括终端的控制器180。
前述实施例仅是示例性的并且不被视为对本公开的限制。此描述旨在是说明性的,并且没有限制权利要求的范围。许多替代、修改以及变形对于本领域的技术人员来说将会是显然的。可以以各种方式组合在此描述的示例性实施例的特征、结构、方法以及其它特性以获得附加的和/或替代的示例性实施例。
由于在没有脱离其特性的情况下可以以多种形式实现本特征,所以也应理解的是,上述实施例不受前面描述的任何细节的限制,除非另有规定,否则应在所附的权利要求中限定的范围内被广泛地解释,并且因此旨在由所附的权利要求涵盖落入权利要求的范围和界限或者该范围和界限的等同物内的所有变化和修改。

Claims (20)

1.一种移动终端,包括:
显示单元,所述显示单元被配置成显示全方位图像并且包括触摸传感器;以及
控制器,所述控制器被配置成显示指导路线并且基于用户的第一手势控制在所述显示单元上显示所述全方位图像的显示区域的移动以对应于所述指导路线的方向。
2.根据权利要求1所述的移动终端,其中,基于所述用户的第二手势,所述控制器设置所述指导路线。
3.根据权利要求2所述的移动终端,其中,所述手势是选择第一点和第二点的多触摸手势,
其中,所述指导路线是包括所述第一点和所述第二点的直线。
4.根据权利要求1所述的移动终端,其中,所述指导路线包括多个指导路线,
其中,所述控制器控制在所述显示单元上显示所述全方位图像的所述显示区域的移动以对应于所述多个指导路线当中的与所述第一手势相邻的指导路线的方向。
5.根据权利要求1所述的移动终端,其中,根据所述用户的第三手势,所述控制器设置所述指导路线对应于所述显示单元的垂直和水平方向中的至少一个。
6.根据权利要求1所述的移动终端,进一步包括麦克风,所述麦克风被配置成接收声音,
其中,所述控制器检测接收到的声音的位置,并且设置所述指导路线对应于所述位置。
7.根据权利要求1所述的移动终端,其中,基于所述第一手势的方向和所述指导路线的方向之间的角度,所述控制器确定所述显示区域的移动速度。
8.根据权利要求1所述的移动终端,其中,所述控制器设置与选择第三点和第四点的第四手势相对应的区域,并且如果所述区域小于预设参考区域,则在所述显示单元上扩大并且显示与所述区域相对应的图像。
9.根据权利要求1所述的移动终端,其中,如果在包括第五点和第六点并且连接所述第五点和所述第六点的所述指导路线中未被包括的第五手势被输入,则所述控制器添加与所述第五手势相对应的指导路线。
10.根据权利要求9所述的移动终端,其中,如果与所述第五手势相对应的所述指导路线被添加,则所述控制器去除现有的指导路线。
11.一种用于操作移动终端的方法,所述方法包括:
显示全方位图像;
显示指导路线;以及
基于用户的第一手势,控制在所述显示单元上显示所述全方位图像的显示区域的移动以对应于所述指导路线的方向。
12.根据权利要求11所述的方法,进一步包括:基于所述用户的第二手势,设置所述指导路线。
13.根据权利要求12所述的方法,其中,所述手势是选择第一点和第二点的多触摸手势,
其中,所述指导路线包括所述第一点和所述第二点。
14.根据权利要求11所述的方法,其中,所述指导路线包括多个指导路线,
其中,控制所述显示区域的移动包括:控制在所述显示单元上显示所述全方位图像的所述显示区域的移动以对应于所述多个指导路线当中的与所述第一手势相邻的指导路线的方向。
15.根据权利要求11所述的方法,进一步包括:根据所述用户的第三手势,设置所述指导路线对应于所述显示单元的垂直和水平方向中的至少一个。
16.根据权利要求11所述的方法,进一步包括:
检测通过麦克风接收到的声音的位置;以及
设置所述指导路线对应于所述位置。
17.根据权利要求11所述的方法,其中,控制所述显示区域的移动包括:基于在所述第一手势的方向和所述指导路线的方向之间的角度,确定所述显示区域的移动速度。
18.根据权利要求11所述的方法,进一步包括:
设置与选择第三点和第四点的第四手势相对应的区域;以及
如果所述区域小于预设参考区域,则在所述显示单元上扩大和显示与所述区域相对应的图像。
19.根据权利要求11所述的方法,进一步包括:
接收在包括第五点和第六点并且连接所述第五点和所述第六点的所述指导路线中未被包括的第五手势;以及
添加与所述第五手势相对应的指导路线。
20.根据权利要求19所述的方法,其中进一步包括:如果与所述第五手势相对应的所述指导路线被添加,则去除现有的指导路线。
CN201710522111.2A 2016-08-18 2017-06-30 移动终端 Pending CN107770363A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160104962A KR20180020517A (ko) 2016-08-18 2016-08-18 이동 단말기
KR10-2016-0104962 2016-08-18

Publications (1)

Publication Number Publication Date
CN107770363A true CN107770363A (zh) 2018-03-06

Family

ID=59677068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710522111.2A Pending CN107770363A (zh) 2016-08-18 2017-06-30 移动终端

Country Status (4)

Country Link
US (1) US10628024B2 (zh)
EP (1) EP3285154B1 (zh)
KR (1) KR20180020517A (zh)
CN (1) CN107770363A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118315221A (zh) * 2024-06-07 2024-07-09 歌尔股份有限公司 按键结构及智能眼镜

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5987931B2 (ja) * 2015-02-09 2016-09-07 株式会社リコー 映像表示システム、情報処理装置、映像表示方法、映像表示プログラム、映像処理装置、映像処理方法および映像処理プログラム
US10197409B2 (en) * 2015-06-07 2019-02-05 Apple Inc. Frequency based transit trip characterizations
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
CN112384972A (zh) * 2018-03-27 2021-02-19 维泽托有限责任公司 用于多屏幕显示和交互的系统和方法
JP7073917B2 (ja) * 2018-04-18 2022-05-24 株式会社リコー 情報処理装置およびプログラム
JP7214523B2 (ja) * 2019-03-20 2023-01-30 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090058806A1 (en) * 2005-04-16 2009-03-05 Mitchell Scott Middler Processing cursor movements in a graphical user interface of a multimedia application
CN101561989A (zh) * 2009-05-20 2009-10-21 北京水晶石数字科技有限公司 一种全景图展示方法
US20120133680A1 (en) * 2010-11-29 2012-05-31 Microsoft Corporation Instantaneous panning using a groove metaphor
CN104035678A (zh) * 2013-01-30 2014-09-10 三星电子株式会社 滚动方法及使用该滚动方法的电子设备
CN104346123A (zh) * 2013-08-02 2015-02-11 兄弟工业株式会社 图像显示装置和图像显示方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990941A (en) 1991-05-13 1999-11-23 Interactive Pictures Corporation Method and apparatus for the interactive display of any portion of a spherical image
US8665225B2 (en) 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US20080256484A1 (en) * 2007-04-12 2008-10-16 Microsoft Corporation Techniques for aligning and positioning objects
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US9582049B2 (en) * 2008-04-17 2017-02-28 Lg Electronics Inc. Method and device for controlling user interface based on user's gesture
KR101705872B1 (ko) * 2010-09-08 2017-02-10 삼성전자주식회사 모바일 디바이스의 화면상의 영역 선택 방법 및 장치
US9692965B2 (en) 2011-04-25 2017-06-27 Mitsuo Hayashi Omnidirectional image editing program and omnidirectional image editing apparatus
US9563278B2 (en) 2011-12-19 2017-02-07 Qualcomm Incorporated Gesture controlled audio user interface
KR102092234B1 (ko) * 2012-08-03 2020-03-23 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20150040073A1 (en) 2012-09-24 2015-02-05 Google Inc. Zoom, Rotate, and Translate or Pan In A Single Gesture
KR102009279B1 (ko) * 2013-09-13 2019-08-09 엘지전자 주식회사 이동 단말기
KR102223277B1 (ko) * 2014-01-06 2021-03-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
WO2016060501A1 (en) * 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
KR20160056133A (ko) * 2014-11-11 2016-05-19 삼성전자주식회사 이미지 표시 제어 방법 및 이를 지원하는 장치
US11366585B2 (en) * 2015-04-24 2022-06-21 Samsung Electronics Company, Ltd. Variable display orientation based on user unlock method
US9977569B2 (en) * 2016-01-29 2018-05-22 Visual Supply Company Contextually changing omni-directional navigation mechanism

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090058806A1 (en) * 2005-04-16 2009-03-05 Mitchell Scott Middler Processing cursor movements in a graphical user interface of a multimedia application
CN101561989A (zh) * 2009-05-20 2009-10-21 北京水晶石数字科技有限公司 一种全景图展示方法
US20120133680A1 (en) * 2010-11-29 2012-05-31 Microsoft Corporation Instantaneous panning using a groove metaphor
CN104035678A (zh) * 2013-01-30 2014-09-10 三星电子株式会社 滚动方法及使用该滚动方法的电子设备
CN104346123A (zh) * 2013-08-02 2015-02-11 兄弟工业株式会社 图像显示装置和图像显示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118315221A (zh) * 2024-06-07 2024-07-09 歌尔股份有限公司 按键结构及智能眼镜

Also Published As

Publication number Publication date
US10628024B2 (en) 2020-04-21
EP3285154A1 (en) 2018-02-21
KR20180020517A (ko) 2018-02-28
EP3285154B1 (en) 2019-05-15
US20180052576A1 (en) 2018-02-22

Similar Documents

Publication Publication Date Title
US11934625B2 (en) Mobile terminal
EP3246916B1 (en) Mobile terminal and controlling method thereof
US10219026B2 (en) Mobile terminal and method for playback of a multi-view video
US9883365B2 (en) Mobile terminal
EP3200086B1 (en) Mobile device, hmd and system
EP2966561B1 (en) Mobile terminal equipped with touch screen and method of controlling therefor
CN104935724B (zh) 终端和在其中处理数据的方法
US9454301B2 (en) Mobile terminal controlled by at least one touch and method of controlling therefor
CN107949817A (zh) 移动装置、可佩戴式装置以及控制各个装置的方法
CN105323376A (zh) 移动终端和使用该移动终端来控制外部装置的方法
CN107770363A (zh) 移动终端
EP3128391B1 (en) Mobile terminal and watch-type mobile terminal
CN108141542A (zh) 移动终端及其控制方法
CN105391842B (zh) 移动终端及其控制方法
CN108989973A (zh) 移动终端
US20180181283A1 (en) Mobile terminal and method for controlling the same
CN106341521B (zh) 移动终端
CN107734134A (zh) 移动终端及其操作方法
US10764528B2 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180306

RJ01 Rejection of invention patent application after publication