CN103369130A - 显示设备及其控制方法 - Google Patents

显示设备及其控制方法 Download PDF

Info

Publication number
CN103369130A
CN103369130A CN2013101232618A CN201310123261A CN103369130A CN 103369130 A CN103369130 A CN 103369130A CN 2013101232618 A CN2013101232618 A CN 2013101232618A CN 201310123261 A CN201310123261 A CN 201310123261A CN 103369130 A CN103369130 A CN 103369130A
Authority
CN
China
Prior art keywords
layer
image display
portable terminal
user
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101232618A
Other languages
English (en)
Other versions
CN103369130B (zh
Inventor
卢泰佑
罗星菜
全兑泳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN103369130A publication Critical patent/CN103369130A/zh
Application granted granted Critical
Publication of CN103369130B publication Critical patent/CN103369130B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

公开了一种显示设备及其控制方法,通过其能够给包括能够显示立体3D图像的显示单元的移动终端提供更加方便的3D(3维)用户界面。该方法包括:在图像显示设备的显示单元上显示第一对象;将第一对象分割成多个第一层;确定相对于基准的图像显示设备的倾斜,并且响应于确定的倾斜,将指定3D深度提供给多个第一层中的每个层。

Description

显示设备及其控制方法
技术领域
本发明涉及一种显示设备,并且更加具体地,涉及一种图像显示设备及其控制方法。虽然本发明适合于广范围的应用,但是其特别地适合于将更加方便的3D(三维)用户界面提供给包括能够显示立体3D图像的显示单元的移动终端。
背景技术
最近,各种类型的图像显示装置的数目已经增加。根据移动性的存在或者不存在,终端类型的图像显示装置能够被分类成移动/便携式终端和固定终端。根据用户直接携带的可能性,移动终端能够进一步被分类成手持式终端和车载终端。
随着终端类型的图像显示装置变得多样化,终端类型的图像显示装置趋向于被实现为设置有复合功能的多媒体播放器,该复合功能诸如照片或者视频的拍摄、音乐或者视频文件的重放、玩游戏、广播接收等等。
为了支持和增加图像显示装置的终端功能,能够考虑图像显示装置的结构部分和/或软件部分的改进。
特别地,被设置有能够通过双目视差实现立体3D图像的显示单元的终端型图像显示装置被广泛地发布。在这样的情形下,对于提供能够响应于图像显示设备的状态或者用户的位置而提供最佳屏幕的3D用户界面的图像显示设备的需求正在日益上升。
发明内容
因此,本发明涉及一种显示设备及其控制方法,其基本上避免了由于相关技术的限制和不足所造成的一个或多个问题。
本发明的目的是为了提供一种显示设备及其控制方法,由此能够提供更加方便的立体3D用户界面。
本发明的另一目的是为了提供一种显示设备及其控制方法,通过其响应于图像显示设备的倾斜或者用户的位置,用户能够被提供以最佳屏幕。
从本发明可获得的技术任务没有限制为上述技术任务。并且,在本发明所属的技术领域的普通技术人员从下面的描述能够清楚地理解其它未提及的技术任务。
本发明的附加优点、目的和特征将在下面的描述中部分地阐述,并且在研究下文后,部分地对本领域普通技术人员来说变得显而易见,或者可以根据本发明的实施来获知。通过以下书面描述及其权利要求书以及附图中特别指出的结构,可以实现和获得本发明的目的和其他优点。
为了实现这些目的和其它优点并根据本发明的目的,如在此具体化并且广泛描述的,根据本发明的一个实施例的图像显示设备可以包括:显示单元,该显示单元被配置成通过包括双目视差生成装置来选择性地显示立体3D图像;第一感测模块,该第一感测模块被配置成确定运动;第二感测模块,该第二感测模块被配置成确定指示器的接近的存在与否或者指示器的位置;相机;以及控制器,该控制器在显示单元上显示特定对象,该控制器将显示的对象分割成多个层,控制器将指定3D深度给予多个层中的每一个,以对应于从以下组成的组中选择的至少一个:经由第一感测模块确定的倾斜、经由第二感测模块确定的指示器接近的存在与否、以及使用经由相机拍摄的用户图像而确定的用户位置。
在本发明的另一方面中,根据本发明的另一实施例的控制图像显示设备的方法可以包括下述步骤:在显示单元上显示第一对象;将第一对象首先分割成多个层;确定移动终端的倾斜;以及响应于确定的倾斜,将指定3D深度给予多个首先分割的层中的每一个。
在本发明的又一方面中,根据本发明的又一实施例的控制移动终端的方法可以包括下述步骤:如果第一条件被满足,将至少一个3D对象显示为双目视差类型的立体3D图像;如果第二条件被满足,将至少一个3D对象显示为立体2D图像;以及如果第三条件被满足,将至少一个3D对象显示为平面图像。
因此,本发明提供以下效果和/或特征。
首先,本发明响应于通过多个传感器感测到的图像显示设备的倾斜或者被面部识别的用户的位置来改变包括图标或者菜单的层的3D深度或者布置配置,从而为了方便性给用户提供最佳视野。
从本发明可获得的效果和/或优点没有限制为上述效果。并且,对本发明所述的技术领域的普通技术人员来说根据下面的描述能够清楚地理解其它未提及的效果和/或优点。
要理解的是,本发明前面的一般描述和后面的详细描述都是示例性和解释性的,并且意在提供对所要求保护的本发明的进一步解释。
附图说明
附图被包括以提供本发明的进一步理解,并且被合并并且组成本说明书的一部分,附图图示了本发明的实施例,并且连同描述一起用于解释本发明的原理。在附图中:
图1是根据本发明的一个实施例的移动终端的框图;
图2是根据本发明的一个实施例的移动终端的前透视图;
图3是用于描述双目视差的原理的图;
图4是由双目视差引起的距离和3D深度的感觉的概念的图;
图5是描述可应用于本发明的实施例的使用双目视差的立体3D图像显示方法的原理的图;
图6A(a)和(b)是可应用于本发明的实施例的用于检测指示器位置的距离识别方法的一个示例的图;
图6B(a)和(b)是可应用于本发明的实施例的用于检测指示器位置的距离识别方法的另一示例的图;
图7是根据本发明的一个实施例的用于激活移动终端中的3D用户界面的操作处理的一个示例的流程图;
图8A(a)、图8A(b)、图8B(a)、图8B(b)、图8C(a)、图8C(b)、图8D(a)以及图8D(b)是根据本发明的一个实施例的用于响应于移动终端的倾斜变化而激活3D用户界面的处理的一个示例的图;
图9(a)和图9(b)是根据本发明的一个实施例的用于响应于移动终端中的指示器的用户视野变化而操作3D用户界面的处理的一个示例的图;
图10(a)、图10(b)、图10(c)以及图10(d)是根据本发明的一个实施例的用于响应于移动终端中的指示器的接近而操作3D用户界面的处理的一个示例的图;
图11(a)、图11(b)以及图11(c)是根据本发明的一个实施例的用于响应于与移动终端中的指示器的接触触摸而操作3D用户界面的处理的一个示例的图;
图12(a)、图12(b)以及图12(c)是根据本发明的一个实施例的用于在移动终端中选择特定层之后操作3D用户界面的处理的一个示例的图;
图13(a)、图13(b)以及图13(c)是根据本发明的一个实施例的用于响应于移动终端中的事件发生而操作3D用户界面的处理的一个示例的图;
图14A(a)、图14A(b)、图14A(c)、图14B(a)、图14B(b)以及图14B(c)是根据本发明的另一实施例的用于根据移动终端中的用户的视野而改变对象的显示形式的处理的一个示例的显示配置的图;
图15A(a)、图15A(b)、图15B(a)和图15B(b)是根据本发明的另一实施例的用于根据触摸点而改变指定的对象的显示形式的方法的一个示例的显示配置的图;以及
图16(a)、图16(b)、图16(c)以及图16(d)是根据本发明的另一实施例的用于根据触摸点而改变主屏幕页面的显示形式的方法的一个示例的显示配置的图。
具体实施方式
在下面的详细描述中参考附图,该附图形成描述的一部分,并且通过本发明的示例性的特定实施例示出。本技术领域的技术人员应当理解,可以利用其它实施例,并且在不脱离本发明的范围的情况下可以进行结构、电气以及程序的变化。只要有可能,在附图中将会使用相同的附图标记来指代相同或者相似的部件。
如在此所使用的,为了有助于本公开的论述,后缀“模块”、“单元”以及“部分”通常用于元件。因此,没有将重大的意义或者作用给予后缀,并且应当理解“模块”、“单元”以及“部分”能够一起或者可交换地使用。
在下面的描述中,假定图像显示装置是终端。可以使用在此论述的各种技术来实现各种类型的终端。这样的终端的示例包括移动终端和固定终端,诸如移动电话、用户设备、智能电话、DTV、计算机、数字广播终端、个人数字助理、便携式多媒体播放器(PMP)、导航仪等。仅通过非限制性的示例,将会提供关于移动终端100的进一步的描述,并且这样的教导可以等同地适用于其它类型的终端。
图1是根据本发明的实施例的移动终端100的框图。图1示出了移动终端100,该移动终端100具有无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源单元190等。示出了具有各种组件的移动终端100,但是应当理解,因为可以替代地实现更多的或者更少的组件,所以不要求实现所有的图示的组件。
首先,无线通信单元110通常包括允许在移动终端100和无线通信系统或者移动终端100所位于的网络之间进行无线通信的一个或者多个组件。例如,无线通信单元110能够包括广播接收模块111、移动通信模块112、无线因特网模块113、短程通信模块114、位置定位模块115等。
广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播关联信息。广播信道可以包括卫星信道和陆地信道。广播管理服务器通常指生成并且发送广播信号和/或广播关联信息的服务器,或者被提供以先前生成的广播信号和/或广播关联信息并且然后将所提供的信号或者信息发送到终端的服务器。广播信号可以被实现为TV广播信号、无线电广播信号以及数据广播信号等。如果需要,广播信号可以进一步包括与TV或者无线电广播信号相组合的广播信号。
广播关联信息包括与广播信道、广播节目、广播服务提供商等相关联的信息。还可以经由移动通信网络来提供广播关联信息。在这样的情况下,可以通过移动通信模块112来接收广播关联信息。
能够以各种形式来实现广播关联信息。例如,广播关联信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)和手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以被配置成接收从各种类型的广播系统发送的广播信号。通过非限定的示例,这样的广播系统包括陆地数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、手持数字视频广播(DVB-H)、称为仅媒体前向链路(MediaFLO
Figure BDA00003033152600071
)的数据广播系统以及陆地综合业务数字广播(ISDB-T)。另外,广播接收模块111能够被配置成适用于其它的广播系统以及上述的数字广播系统。
通过广播接收模块111接收到的广播信号和/或广播关联信息可以被存储在诸如存储器160的适当的装置中。
移动通信模块112将无线信号发送到一个或者多个网络实体(例如,基站、外部终端、服务器等等)/从一个或者多个网络实体(例如,基站、外部终端、服务器等等)接收无线信号。这样的无线信号可以表示音频、视频以及根据文本/多媒体消息收发的数据等。
无线因特网模块113支持移动终端100的因特网访问。该模块可以被内部地或者外部地耦合到移动终端100。在这样的情况下,无线因特网技术能够包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波互联接入)、HSDPA(高速下行分组接入)、LTE(长期演进)等。
短程通信模块114有助于相对短程的通信。用于实现该模块的适当的技术包括,举几个例子,射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、以及通常被称为蓝牙和紫蜂的网络技术。
位置定位模块115识别或者以其它方式获得移动终端100的位置。如果需要,可以通过全球定位系统(GPS)模块来实现该模块。
还参考图1,示出了音频/视频(A/V)输入单元120,其被配置成将音频或者视频信号输入提供给移动终端100。如示,A/V输入单元120包括相机121和麦克风122。相机121在视频呼叫模式或者拍摄模式中接收并且处理通过图像传感器获得的静止图片或者视频的图像帧。通常,处理的图像帧能够被显示在显示器151上。
通过相机121处理的图像帧能够被存储在存储器160中或者能够经由无线通信单元110来向外部发送。可选地,能够根据依照用户需要使用终端的环境来将两个或者多个相机121提供给移动终端100。
当便携式装置是处于诸如电话呼叫模式、记录模式以及语音识别模式的特定模式中时,麦克风122接收外部音频信号。该音频信号被处理并且转换成电音频信号。处理的音频数据被变换成在呼叫模式的情况下可经由移动通信模块112发送到移动通信基站的格式。麦克风122通常包括各种噪声消除算法,以消除在接收外部音频信号的过程中生成的噪声。
用户输入单元130响应于相关联的输入装置的用户操作而生成输入数据。这样的装置的示例包括小键盘、薄膜开关、触摸板(例如,恒压/电容)、滚动轮、拨动开关等。
感测单元140提供感测信号,以用于使用移动终端的各方面的状态测量来控制移动终端100的操作。例如,感测单元140可以检测移动终端100的开/关状态、移动终端100的组件(例如,显示器和小键盘)的相对定位、移动终端100或移动终端100的组件的位置改变、用户有没有接触移动终端100、移动终端100的方位或加速/减速。
作为示例,考虑配置为滑盖式移动终端的移动终端100。在该配置中,感测单元140可以感测移动终端的滑动部分是打开还是关闭。其它示例包括感测单元140感测电源单元190有没有供电、接口单元170与外部设备之间有没有耦合或其它连接。如果需要,感测单元140能够包括接近传感器141。
输出单元150生成与视觉、听觉、触觉等相关的输出。在一些情况下,输出单元150包括显示器151、音频输出模块152、警报单元153、触觉模块154、投影仪模块155等。
显示器151通常被实现为在视觉上显示(输出)与移动终端100相关联的信息。例如,如果移动终端在电话呼叫模式中进行操作,则显示器通常提供用户界面(UI)或图形用户界面(GUI),该用户界面(UI)或图形用户界面(GUI)包括与拨打、进行以及终止电话呼叫相关联的信息。作为另一示例,如果移动终端100处于视频呼叫模式或拍摄模式下,则显示器151可以附加地或替代地显示与这些模式相关联的图像、UI或GUI。
可以使用已知的显示器技术来实现显示模块151,这些技术包括例如液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管显示器(OLED)、柔性显示器和三维显示器。移动终端100可以包括一个或多个这样的显示器。
能够将一些以上显示器实现为透明或透光式,它们能够被称为透明显示器。作为透明显示器的代表性示例,存在TOLED(透明OLED)等。还能够将显示器151的后部配置实现为透光式。在该配置中,用户能经由终端主体的显示器151所占据的区域看见终端主体后部的对象。
根据移动终端100的所实现的配置,能够向移动终端100提供至少两个显示器151。例如,可以以相互隔开或置入一个主体中的方式将多个显示器布置在移动终端100的单个面上。替代地,能够将多个显示器布置在移动终端100的不同面上。
在显示器151和用于检测触摸动作的传感器(在下文中也被称为“触摸传感器”)配置相互层叠结构(在下文中也被称为“触摸屏”)的情况下,用户能够将显示器151用作输入设备以及输出设备。在这样的情况下,能够将触摸传感器配置为触摸膜、触摸片、触摸板等。
触摸传感器能够被配置成将施加于显示器151特定部分的压力或者从显示器151特定部分生成的电容的变化转换为电输入信号。此外,能够配置触摸传感器以检测触摸的压力以及触摸的位置或尺寸。
如果对触摸传感器137进行触摸输入,则与该触摸相对应的信号被传输到触摸控制器。触摸控制器处理该信号,并且然后将处理的信号传输到控制器180。因此,控制器180能够知道显示器151的指定部分是否被触摸。
继续参考图1,接近传感器(在附图中未示出)能够被设置在由触摸屏包围的移动终端100的内部区域或触摸屏周围。接近传感器是在没有机械接触的情况下使用电磁场强度或红外线来检测有没有对象靠近指定检测表面或者有没有对象存在于接近传感器周围的传感器。因此,接近传感器与接触型传感器相比更耐用,而且与接触型传感器相比用途更广。
接近传感器能够包括透射式光电传感器、直接反射式光电传感器、镜像反射式光电传感器、射频振荡接近传感器、静电电容接近传感器、磁性接近传感器、红外接近传感器等中的一个或多个。当触摸屏包括静电电容接近传感器时,可以将其被配置成使用根据指示器的接近的电场变化来检测指示器的接近。在这种情况下,能够将触摸屏(触摸传感器)归类为接近传感器。
在下面的描述中,为了清楚,在不接触触摸屏的情况下指示器靠近触摸屏而被视作位于触摸屏上的动作被称为“接近触摸”,而指示器实际上接触触摸屏的动作可以被称为“接触触摸”。由指示器接近触摸的触摸屏上的位置的含义指的是当指示器执行接近触摸时垂直相对触摸屏的指示器的位置。
接近传感器检测接近触摸和接近触摸模式(例如,接近触摸距离、接近触摸持续时间、接近触摸位置、接近触摸移位状态等)。另外,能够将与所检测到的接近触摸动作和所检测到的接近触摸模式相对应的信息输出到触摸屏。
音频输出模块152在包括呼叫接收模式、呼叫拨打模式、记录模式、语音识别模式、广播接收模式等的不同模式中起作用,以输出从无线通信单元110接收到的或存储在存储器160中的音频数据。在操作期间,音频输出模块152输出与特定功能(例如,接收到呼叫、接收到消息等)相关的音频。经常使用一个或多个扬声器、蜂鸣器、其它音频产生设备及其组合来实现音频输出模块152。
警报单元153输出信号,以用于通告与移动终端100相关联的特定事件的发生。典型事件包括接收到呼叫事件、接收到消息事件以及接收到触摸输入事件。警报单元153能够通过振动以及视频或音频信号的方式来输出用于通告事件发生的信号。能够经由显示器151或音频输出单元152来输出视频或音频信号。因此,能够将显示器151或音频输出模块152视作警报单元153的一部分。
触觉模块154生成用户能感测到的各种触觉效果。振动是由触觉模块154生成的触觉效果的代表性效果。由触觉模块154生成的振动的强度和模式是可控制的。例如,能够以合成在一起的方式来输出不同的振动,或者能够依次输出不同的振动。
触觉模块154能够生成各种触觉效果以及振动。例如,触觉模块154生成归因于相对于接触皮肤表面垂直移动的针排列的效果、归因于空气通过喷射/抽吸孔的喷射/抽吸力的效果、归因于掠过皮肤表面的效果、归因于接触电极的效果、归因于静电力的效果、归因于使用吸热设备或发热设备表示热感/冷感的效果等。
触觉模块154能够被实现为使得用户能够通过手指、手臂等的肌肉感觉来感测触觉效果,并且通过直接接触来传递触觉效果。可选地,根据移动终端100的相应配置类型,能够向移动终端100提供至少两个触觉模块154。
投影仪模块155是使用移动终端100来执行图像投影仪功能的元件。并且,根据控制器180的控制信号,投影仪模块155能够在外部屏幕或者墙上显示与在显示器151上显示的图像相同或者至少部分不同的图像。
具体地,投影仪模块155能够包括光源(在附图中未示出),该光源产生用于向外部投影图像的光(例如,激光);图像生成元件(在附图中未示出),该图像生成元件用于使用从光源产生的光生成图像以向外部输出;以及透镜(在附图中未示出),该透镜用于放大图像以便以预定的焦距向外输出。投影仪模块155能够进一步包括用于通过机械地移动透镜或者整个模块来调整图像投射方向的装置(在附图中未示出)。
投影仪模块155能够根据显示装置的装置类型而被归类为CRT(阴极射线管)模块、LCD(液晶显示器)模块、DLP(数字光处理)模块等。特别地,通过使得从光源产生的光能够在DMD(数字微镜装置)芯片上反射的机制来操作DLP模块,并且DLP模块对于投影仪模块151的小型化来说是有利的。
优选地,能够在移动终端100的横向、前侧或者背侧方向的长度方向上设置投影仪模块155。应当理解,根据其必要性,投影仪模块155能够被设置在移动终端100的任何位置。
存储器单元160通常用于存储各种类型的数据,以支持移动终端100的处理、控制和存储要求。这样的数据的示例包括用于在移动终端100上进行操作的应用的程序指令、联系人数据、电话簿数据、消息、音频、静止图片、运动图片等。并且,能够将最近的使用历史或每个数据的累积使用频率(例如,每个电话簿、每个消息或每个多媒体的使用频率)存储在存储器单元160中。此外,能够将用于在触摸输入到触摸屏的情况下所输出的各种模式的声音和/或振动的数据存储在存储器单元160中。
可以使用任何类型的适当的易失性和非易失性存储器或存储设备或其组合来实现存储器160,包括硬盘、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、闪存、磁盘或光盘、多媒体卡微型存储器、卡式存储器(例如,SD存储器、XD存储器等)或其它类似的存储器或数据存储设备。并且,移动终端100能够与网络存储器相关联地进行操作,该网络存储器用于在因特网上执行存储器160的存储功能。
接口单元170通常被实现为将移动终端100与外部设备耦合。接口单元170从外部设备接收数据或者被供电,并且然后向移动终端100中的各个元件传输数据或电力、或者使得移动终端100中的数据能够被传输到外部设备。可以使用有线/无线头戴式受话器端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于耦合到具有识别模块的设备的端口、音频输入/输出端口、视频输入/输出端口、耳机端口等来配置接口单元170。
识别模块是存储用于验证移动终端100的使用权限的各种信息的芯片,并且能够包括用户识别模块(UIM)、订户识别模块(SIM)、通用订户识别模块(USIM)等。具有识别模块的设备(下面称为“识别设备”)能够被制造为智能卡。因此,识别设备可经由相应端口连接到移动终端100。
当将移动终端110连接到外部支架时,接口单元170成为用于从支架向移动终端100提供电力的通道,或者成为用于将由用户从支架输入的各种命令信号递送到移动终端100的通道。从支架输入的各种命令信号或电力中的每一个可以用作使得移动终端100能够识别已经被正确装入支架的信号而进行操作。
控制器180通常控制移动终端100的整体操作。例如,控制器180执行与语音呼叫、数据通信、视频呼叫等相关联的控制和处理。控制器180可以包括提供多媒体重放的多媒体模块181。多媒体模块181可以被配置为控制器180的一部分或者被实现为单个组件。此外,控制器180能够执行模式识别处理,以用于将触摸屏上执行的书写输入和绘图输入分别识别为字符或图像。
电源单元190提供移动终端的各种组件所需要的电力。电力可以是内部电力、外部电力或其组合。
例如,使用计算机软件、硬件或其一些组合,可以在计算机可读介质中实现这里所述的各种实施例。对于硬件实施方式,可以在一个或多个专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、设计成执行这里所述功能的其它电子单元或其选择性组合中实现这里所述的实施例。也可以通过控制器180来实现此类特征。
对于软件实施方式,可以通过诸如进程和函数的单独的软件模块来实现这里所述的实施例,每个软件模块执行这里所述的一个或多个功能和操作。能够通过用任何合适的编程语言所编写的软件应用来实现软件代码,并且可以将软件代码存储在诸如存储器160的存储器中,并且通过诸如控制器180的控制器或处理器来执行。
图2是根据本发明的一个实施例的移动终端的前透视图。
在附图中示出的移动终端100具有直板式终端主体。但是,可以以各种不同的配置实现移动终端100。这样的配置的示例包括折叠式、滑盖式、旋转式、摇摆式、以及其组合。为了清楚起见,进一步的公开将主要涉及直板式移动终端100。然而,这样的教导同样适用于其它类型的移动终端。
还参考图2,移动终端100包括配置其外部的壳体(外壳、外罩、外盖等等)。在本实施例中,壳体能够被划分为前壳体101和后壳体102。各种电气/电子部件位于前壳体101与后壳体102之间提供的空间中。可选地,另外至少一个中间壳体能够进一步被设置在前壳体和后壳体101和102之间。
通过合成树脂的注模成型来形成壳体101和102,或者其能够由诸如不锈钢(STS)、钛(Ti)等的金属物质来形成。
显示器151、音频输出单元152、相机121、用户输入单元130/131以及132、麦克风122、接口170等能够被设置到终端主体,并且更具体地,设置到前壳体101。
显示器151占据前壳体102的主表面的大部分。音频输出单元152和相机121被设置到与显示器151的两个末端部分中的一个相邻的区域,而用户输入单元131和麦克风122被设置到与显示器151的另一个末端部分相邻的另一区域。用户输入单元132和接口170能够被设置到前壳体和后壳体101和102的横向侧面。
输入单元130被操纵为接收用于控制终端100的操作的命令。并且,输入单元130能够包括多个操纵单元131和132。操纵单元131和132能够被称为操纵部分,并且可以采用使得用户能够通过体验触感来执行操纵动作的触感方式的任何机构。
通过第一或者第二操纵单元131或132输入的内容能够被不同地设置。例如,诸如开始、结束、滚动等的命令被输入到第一操纵单元131。并且,用于从音频输出单元152输出的声音的音量调节的命令、用于切换到显示器151的触摸识别模式的命令等能够被输入到第二操纵单元133。
立体3D图像的实现
在下面的描述中,解释在可应用于本发明的实施例的移动终端中显示3D图像的方法和用于其的显示单元配置。
用于实现3D图像的方案之一是分别将不同的图像提供给双眼的立体方案,其使用在以人眼看着对象时用户能够感到立体效果的原理。特别地,人眼被配置成由于双眼之间的距离,在看着相同的对象时看到不同的平面图像。经由视网膜这些不同的图像被转发给人脑。人脑能够通过将不同的图像组合在一起而感到3D图像的深度和逼真性。因此,归因于双眼之间距离的双目视差使用户能够感到立体效果,尽管或多或少存在双目视差的个体差异。因此,双目视差变成第二种类的最重要因素。参考图3如下详细地解释双目视差。
图3是用于解释双目视差的原理的图。
参考图3,假定六面体310作为物体被定位在前面,低于眼睛的高度,以被通过人眼看到。在这样的情况下,左眼能够看到左眼平面图像320,其仅展现包括六面体310的顶侧、前侧以及左横向侧的三个面。并且,右眼能够看到右眼平面图像330,其仅展现包括六面体310的顶侧、前侧以及右横向侧的三个面。
即使真实的事物实际上没有被定位在用户的双眼前面,如果左眼平面图像320和右眼平面图像330被设置为分别到达左眼和右眼,用户也能够充分地感到六面体310,仿佛实际看着六面体310。
因此,为了在移动终端100中实现属于第二种类的3D图像,对于具有预定视差的相同对象的左眼和右眼图像,相同对象的图像应以相互区别的方式到达双眼。
在下面的描述中,参考图4解释归因于双目视差的3D深度。
图4是归因于双目视差的距离和3D深度的感觉的概念的图。
参考图4,与在距离d2中相比,通过双眼考虑距离d1中的六面体400时进入每个眼睛的图像的横向侧比率相对较高,从而通过双眼看到的图像之间的差异增加。此外,考虑在距离d1中的六面体400时用户感到的立体效果的程度能够变得比考虑距离d2中的六面体400时的高。特别地,当通过用户的双眼看到事物时,较近的物体给予较大的立体效果,而较远的物体给予较小的立体效果。
立体效果中的这样的差异能够被数字化成3D深度或者3D水平。在下面的描述中,位于较近的事物的高的立体效果将会被表示为低的3D深度和低的3D水平。并且,位于较远的事物的低的立体效果将被表示为高的3D深度和高的3D水平。因为3D深度或者水平的定义被相对地设置,用于3D深度或水平的分类参考和3D深度或者水平的增加/减少方向是可改变的。
为了在本公开中相互区别上述两个种类,属于第一种类的立体图像将被命名“2D立体图像”并且属于第二种类的立体图像将会被命名“3D立体图像”或者“感知的3D图像”。
如下描述实现3D立体图像的方法。
首先,如在下面的描述中所提到的,为了实现3D立体图像,用于右眼的图像和用于左眼的图像需要以相互区别的方式到达双眼。为此,如下解释各种方法。
1)视差屏障方案(parallax barrier scheme)
视差屏障以通过电子地驱动被设置在普通显示器和双眼之间的切断装置(cutoff device)来控制光的传播方向的方式,使不同的图像到达双眼。参考图5如下地解释。
图5是描述使用可应用于本发明的实施例的双目视差的3D立体图像显示方法的原理的图。
参考图5,为了显示3D立体图像,显示单元151可以包括显示面板和被附接到显示面板的顶表面的切换面板。切换面板是可电气地控制的,并且能够部分地切断或者传输光以到达双眼。特别地,显示面板可以包括诸如LCD、LED、AMOLED等等的普通显示装置。
在图5中,“b”指示切换面板的屏障空间,“g”指示切换面板和显示面板之间的间隙,并且“z”指示眼睛视野位置和显示面板之间的距离。当通过像素单元(L,R)合成两个图像时,如在图5中所示,切换面板可以以左眼的视角和右眼的视角分别对应于包括在右图像中的像素和包括在左图像中的像素的方式而操作。
在试图输出3D立体图像的情况下,切换面板被开启,以相互隔离入射视角。在试图输出2D图像的情况下,切换面板被关闭,以让入射视角通过。因此,如果切换面板被关闭,则双目视差没有被隔离。上面配置的切换面板有助于2D和3D之间的切换,从而在没有佩戴偏振眼镜或者主动快门型眼镜的情况下使用户能够有利地欣赏3D立体图像。
图5示出例如视差屏障在一个轴方向中工作,但本发明不受限制于此。可替选地,本发明可以采用能够根据由控制器180生成的控制信号在至少两个轴方向中工作的视差屏障。
2)透镜
透镜方案指的是使用被设置在显示器和双眼之间的透镜屏幕的方法。特别地,经由透镜屏幕上的透镜折射光的传播方向,从而不同的图像分别到达双眼。
3)偏振眼镜
根据偏振眼镜方案,偏振方向被设置为相互正交以将不同的图像分别提供给双眼。在圆偏振的情况下,执行偏振以具有不同的旋转方向,从而不同的图像分别被提供给双眼。
4)主动快门
此方案是一种眼镜方案。特别地,左眼图像和右眼图像以指定的周期被交替地显示在显示单元上。并且,当相应方向的图像被显示时用户的眼镜关闭在相对方向中的它的快门。因此,相应方向的图像能够到达相应方向中的眼睛。即,在左眼图像被显示时,右眼的快门被关闭以使左眼图像仅到达左眼。相反地,当右眼图像被显示时,左眼的快门被关闭以使右眼图像仅到达右眼。
在下面的描述中,假定根据本发明的一个实施例的移动终端能够通过上述方法之一经由显示单元151给用户提供3D立体图像。
同时,诸如箭头、手指等等的用于指向显示单元上的特定对象或者从显示单元选择菜单的图形被称为指示器或者光标。但是,指示器被频繁地用于指示用于触摸操纵等等的手指、触摸笔等等。为了在本公开中相互清楚地区别指示器和光标,被显示在显示单元上的图形被命名为光标,并且诸如手指、触摸笔等等的用于执行触摸、接近触摸、手势等等的物理装置被命名为指示器。
指示器位置识别方法
在下面的描述中,参考图6A和图6B解释用于检测可应用于本发明的实施例的指示器位置的方法。
首先,根据本发明的移动终端的控制器180使用经由相机121连续地拍摄的图像获得诸如用户的手、触摸笔等等的指示器的位置、运动轨迹、操作模式以及操作类型,并且然后能够将获得的信息识别为相应的用户命令。这样做,能够进一步使用接近传感器、距离传感器或者其组合替代使用经由相机121单独地拍摄的图像,来增强感测精确度。特别地,能够同时使用多个传感器以进一步增强感测精确度。
图6A是可用于本发明的实施例的用于检测指示器位置的距离识别方法的一个示例的图。
参考图6A,假定移动终端100的显示单元151被放置成面朝上。并且,假定在图2中示出的相机121被放置为面向显示单元151的相同方向。参考图6A(a),在指示器(例如,手指)被摆放在移动终端100上方的情况下,可以经由相机121拍摄。这样做,如果指示器和移动终端100之间的距离经由距离d2从距离d3到距离d1逐渐地减少,参考图6A(b),则被拍摄的图像可以包括左图像610、中间图像620或者右图像630以增加其尺寸。如果使用此原理激活指示器识别过程,则控制器180输出视觉效果(例如,文本)以向用户发出用于将预定距离中的指示器放置在显示单元上方的请求。通过此方法,控制器180从相机顺序地获得图像,图像中的每一个包括位于不同距离(例如,2cm、5cm、10cm等等)的指示器。控制器180将从相应图像获得的但是在尺寸上不同的共同形状识别为指示器,并且然后能够确定每一个距离中的相应尺寸。
图6B是可应用于本发明的实施例的用于检测指示器位置的距离识别方法的另一示例的图。
参考图6B,假定多个接近传感器141至144被放置在移动终端100的附近侧或者角落。随着指示器611接近移动终端100,控制器180从传感器141至144中的每一个获得关于距指示器611的距离的信息,并且然后通过诸如三角测量等等的计算能够确定指示器的位置。例如,如果指示器611以图6B(a)和图6B(b)中示出的方式移动,通过传感器确定的距指示器的距离以相同的速率分别减少。因此,控制器180能够确定仅是距离减少而没有朝着移动终端100的平行移动。此外,能够通过包括以下步骤的方法来确定指示器的位置:从移动终端100的至少一部分将红外线应用于指示器,并且使用红外线传感器感测被指示器反射的红外线的模式。
参考图6A和图6B描述的上述指示器位置/距离测量方法是示例性的,本发明不受限于此。并且,对本领域的技术人员来说显然的是,使用传感器检测指示器的位置的任何方法可应用于本发明。
3D用户界面
根据本发明的一个实施例,提供如下地配置的3D用户界面。首先,根据用户的视野或者移动终端被放置的状态,被显示在显示单元上的对象被分割成至少一个或者多个层。其次,每一个层的3D深度和排列的形状中的至少一个是可改变的。在这样的情况下,使用相机121通过面部识别等等确定用户位置的方法可以应用于用户的视野。并且,能够使用经由感测单元140感测到的移动终端倾斜来确定移动终端放置状态。在下面的描述中,参考图7解释根据本发明的一个实施例的用于在移动终端中提供3D用户界面的操作处理。
图7是根据本发明的一个实施例的用于在移动终端中激活3D用户界面的操作处理的一个示例的流程图。
参考图7,当指定的条件被满足时,根据本发明的3D用户界面能够被激活[S710]。在特定应用被激活的情况、移动终端的倾斜改变的情况、经由用户输入单元应用了激活命令输入的情况、事先安排的事件发生的情况、以及外部信号(例如,来电呼叫信号等等)被输入的情况之一中,能够确定用于激活3D用户界面的条件被满足。一旦3D用户界面被激活,控制器180将当前显示在显示单元上的对象分组成至少一个或者多个层,将指定的3D深度给予每一个层,并且改变被排列的层的配置。
随后,控制器180能够执行面部识别以确定用户注视移动终端100的视野[S720]。可以以下述方式执行面部识别。首先,控制器180在经由被提供给移动终端100的相机121拍摄的图像中识别用户的面部部分,从图像中提取面部部分,并且然后确定相应的位置。
为了在通过面部识别而确定的用户视野中以最佳的角度观看每一个层,控制器180可以改变每一个层的3D深度和被排列的状态中的至少一个[S730]。例如,可以执行当前步骤以使每一个层的表面和用户的视野变成相互垂直。当然,可以执行当前步骤以根据用户的视野改变每一个层的3D深度和被安排的状态中的至少一个,而不管移动终端的倾斜。可替选地,可以以根据移动终端的倾斜确定每一个层和地面之间的角度并且然后沿着X轴、Y轴以及Z轴中的至少一个旋转相应的层以对应于用户的视野的方式执行当前步骤。
如果面部识别没有被使用,控制器180能够改变配置3D用户界面的每一个层的3D深度和被排列的状态,以对应于移动终端100的倾斜(例如,每一个层的表面变成垂直于地面)[S730’]。
随后,控制器180通过接近传感器、相机和/或触摸屏检测指示器的运动[S740],并且然后能够激活与检测到的指示器的运动相对应的功能[S750]。
如在前面的描述中所提及的,当移动终端100的倾斜被改变时,控制器180能够激活3D用户界面。在下面的描述中,当用户提起被放置在平面上的移动终端100时,参考图8A至图8D解释用于激活3D用户界面的处理。
图8A至图8D是根据本发明的一个实施例的用于响应于移动终端的倾斜变化而激活3D用户界面的处理的一个示例的图。
参考图8A至图8D,假定面部识别没有被应用。当如图8A(a)中所示放置移动终端100时,假定应用的列表作为图标显示在触摸屏151上(图8A(b))。特别地,假定被显示在图8A中示出的触摸屏151上的对象包括主菜单,在该主菜单中多个图标以指定的形式排列。
在这样的情况下,多个图标被分组成多个组810、820以及830。特别地,可以由用户随意地或者由控制器180根据指定的参考来配置多个组810、820以及830中的每一个。组810、820以及830中的每一个可以被认为是单个层。在图8A中示出的情况中,以3D深度“0”被给予每一个层的方式(即,所有的层被显示在触摸屏的表面上)在相同的平面上所有的层可以被排列成相互相邻。
如果在图8A中示出的情形下用户提起移动终端100(图8B(a)),视觉效果可以在触摸屏151上显示为以下方式:与各个组相对应的层810、820以及830相互部分地重叠,仿佛根据重力下落。
在继续层下落视觉效果中,控制器180可以通过将3D深度给予每一个层而改变被排列的状态的方法来激活3D用户界面。在图8C中示出相对应的示例。特别地,图8C示出以下情况:以位于在3D用户界面的激活之前的先前位置基本相同的位置的方式,3D深度被给予各个层以变得与地面垂直。更加特别地,图8C(a)是移动终端的透视图,其中给予3D深度的层810’、820’以及830’直立以相对于地面变成垂直的。参考图8C(a),给予3D深度的层中的每一个看起来从触摸屏的表面突出,以帮助3D效果的理解。特别地,虽然层810’、820’以及830’中的每一个实际上被显示在触摸屏表面上,但用户可以体验以下效果,仿佛层810’、820’以及830’在通过触摸屏151表示的虚拟空间151’中直立。
这样做时,参考图8D,如果移动终端100的倾斜变成接近于垂直,则控制器180可以以层810’、820’以及830’中的每一个保持垂直于地面而直立的方式来改变被排列的状态。
虽然图8A至图8D假定用户提起移动终端,但如果用户将被提起的移动终端放下在平面位置上也能够激活根据本发明的3D用户界面。
为了清楚起见,根据下面的附图可以部分地省略被包含在各个层中的菜单和/或内容。
参考图9如下地描述应用面部识别的情况。
图9是根据本发明的一个实施例的用于响应于移动终端中的指示器的用户视野变化而操作3D用户界面的处理的一个示例的图。在图9中,假定通过在前面的描述中提及的方法之一已经激活了3D用户界面的情况。
参考图9(a),作为经由相机121的面部识别的结果,如果用户的视野位于前面(即,箭头方向),则以层910、920以及930的表面面向用户视野的方式可以排列层910、920以及930。这样做时,取决于作为面部识别的结果而确定的用户视野的高度,可以确定被形成在排列在虚拟空间中的每一个层和触摸屏表面之间的角940。可替选地,取决于图8中示出的移动终端的倾斜可以确定角940。
如果用户向右移动,参考图9(b),控制器180通过面部识别检测用户视野的移动,并且然后能够控制要每一个层的表面朝着检测到的用户视野旋转。
通过此方法,用户能够方便地查看层,而不管移动终端被放置的方向。
在下面的描述中,参考图10详细地解释根据指示器的检测的视觉反馈。
图10是用于根据本发明的一个实施例的用于响应于移动终端中的指示器的接近而操作3D用户界面的处理的一个示例的图。在图10中,假定通过在前面的描述中提及的方法之一已经激活了3D用户界面。并且,假定在激活之前显示的对象被分割成层1010、1020以及1030。此外,假定图10(a)至10(d)示出按顺序执行的步骤。
参考图10(a),当根据本发明的3D用户界面被激活时,多个层1010、1020以及1030中的每一个的排列状态被改变以对应于倾斜和/或面部识别的结果。在此状态下,指示器1040接近底层1030。
参考图10(b),如果控制器180通过在参考图6A和图6B的描述中提及的方法中的至少一个检测到指示器1040的位置接近底层1030,控制器180顺序地去除被给予底层1030的3D深度。因此,在用户的视野中,可以带来竖立的底层1030接触指示器1040并且然后倒下的效果。
随后,参考图10(c),如果指示器1040接近中间层1020,则给予中间层1020的3D深度也可以被去除。如果指示器1040接近顶层1010,参考图10(d),给予顶层1010的3D深度也可以被去除。这样做时,如果底层1030和指示器1040之间的距离变成等于或者大于预定的距离,则控制器180能够顺序地给予已经从底层1030去除的3D深度。因此,在用户的视野中,用户可以体验下述效果。首先,通过指示器,底层1030落下。其次,随着指示器远离底层,底层再次直立。
在上面的描述中,按照图10(a)至图10(d)的顺序移位指示器。可替选地,也可以按照图10(d)至图10(a)的顺序移位指示器。
在下面的描述中,参考图11解释用于通过接触触摸来选择层的处理。
图11是根据本发明的一个实施例的用于在移动终端中响应于与指示器的接触触摸来操作3D用户界面的处理的一个示例的图。假定在图10的相同条件下在图11中示出的处理遵循在图10(c)中示出的步骤。
参考图11(a),在指示器1040靠近中间层1020时,用户能够将与指示器1040的接触触摸应用于触摸屏151上的区域(在该区域上显示中间层1020),以便于选择中间层1020。
因此,参考图11(b),除了所选择的中间层1020之外的剩下的层可以以移向触摸屏151的相应侧的方式从触摸屏151消失。特别地,消失的层1010和1030中的每一个可以通过保持在中间层选择之前所给予的3D深度来移动。并且,消失的层1010和1030中的每一个可以在不同的方向中移动。
参考图11(c),在未被选择的层1010和1030已经消失之后,所选择的中间层1020’可以扩展到全屏。
在下面的描述中,参考图12详细地解释用于所选择的层扩展到全屏的处理。
图12是根据本发明的一个实施例的在移动终端中选择特定层之后操作3D用户界面的处理的一个示例的图。假定在图12中示出的处理遵循在图11(c)中示出的步骤。
参考图12(a),所选择的层1210’被显示为全屏并且3D深度没有被给予所选择的层1210’。如果所选择的层被显示为全屏,因为所选择的层的表面面积被增加为大于与在图11(a)中示出的其它层一起先前显示的相应层的表面面积,能够显示由于在图11(a)中示出的有限表面面积而不能够被显示的内容和/或图标。此外,在当前处理中能够执行面部识别,并且控制器180可以控制频繁地使用的图标1210被排列在靠近被识别的用户位置的方向中。因此,如果用户的视野从前侧变成右侧,参考图12(b),频繁地使用的图标能够被排列在右栏1210’中。
同时,被包括在所选择的层中的图标可以被划分为多个子层,并且3D深度能够被给予每一个子层(图12(c))。在这样的情况下,每一个子层的3D深度或者被排列的方向能够被改变以对应于用户的视野(例如,箭头)。
在下面的描述中,在3D用户界面是活动的时,如果事件发生,参考图13解释移动终端的相应操作。
图13是根据本发明的一个实施例的用于在移动终端中响应于事件发生来操作3D用户界面的处理的一个示例的图。在图13中示出的处理遵循在图12(c)中示出的步骤或者在图9(a)中示出的步骤。并且,假定事件包括来电呼叫信号。
参考图13,在根据本发明的3D用户界面是活动的时,如果存在来电呼叫,则控制器180可以控制以与在图11(b)中示出的相类似的方式而显示的层在侧方向中消失(图13(a))。在层已经消失之后或者一旦层消失,来电呼叫菜单1310可以被显示在触摸屏151上(图13(b))。随后,来电呼叫菜单被划分成多个层1311、1313以及1315,并且层1311、1313以及1315中的每一个的排列状态和/或3D深度是可改变的(图13(c))。在这样的情况下,如在前面的描述中所提及的,响应于移动终端的倾斜或者通过面部识别检测到的用户的位置,可以改变层1311、1313以及1315中的每一个的排列状态和/或3D深度。
在图13中,发生的事件被假定为呼叫信号的标题,本发明不受限于此。并且,本发明可以应用于各种事件。例如,各种事件可以包括SMS、NMS、邮件等等的接收、预设报警时间的期满等等。
同时,根据上述实施例,3D用户界面包括双目视差类型的立体3D图像。但是,如果用户的眼睛偏离显示单元的前侧预定的角度,取决于立体3D图像的实现类型可能不能够实现立体3D图像。在这样的情况下,根据本发明的3D用户界面可以被实现为图形3D图像(即,右眼和左眼图像彼此相同)。
根据条件的图像显示形式的多步骤变化
根据本发明的另一实施例,取决于预设条件是否被满足可以改变显示对象显示形式。在这样的情况下,通过根据给予显示对象的3D效果而被区别,显示形式在概念上包括平面2D图像、立体2D图像或者立体3D图像。因此,优选地是,3D深度值被给予根据本发明的显示对象的至少一部分,以能够改变上述显示形式。
例如根据条件的对象显示形式变化,如果第一条件被满足,显示对象被显示为立体3D图像。在这样的状态下,如果第二条件被满足,则相应的对象可以被显示为立体2D图像。在第二条件被满足时,如果第三条件被满足,相应的对象可以被显示为平面2D图像。当然,显示对象可以以“第一条件→第二条件→第三条件”的相反顺序显示。特别地,在第二条件被满足的条件下对象被显示为平面3D图像时,如果第一条件被满足或者第二条件和第三条件没有被满足,相应的对象可以被显示为立体3D图像。
例如,第一或者第二条件可以包括经由相机检测到的用户的视野范围。例如,第三条件可以包括多个对象之间的排列关系和/或视野范围。特别地,如果用户的视野位于第一视野范围内,则第一条件被满足以使显示对象能够被显示为立体3D图像。如果用户的视野没有超过第二视野范围,尽管偏离第一视野范围,第二条件被满足以使相应的对象能够被显示为立体2D图像。如果用户的视野从第二视野范围输出或者显示对象的排列状态满足特定条件,尽管存在于第二视野范围内(例如,显示对象中的一个阻挡另一对象的至少一部分),第三条件被满足以使相应的对象从立体2D图像能够被显示为平面图像。
在这样的情况下,第一视野范围优选地包括用于以实现立体3D图像的各种类型给用户提供最佳立体3D图像的范围。例如,如在前面的描述中所提及的,在视差屏障类型的情况下,取决于切换屏障是否是活动的,左眼图像被设置为到达用户的左眼并且右眼图像被设置为到达用户的右眼。这样做时,因为切换屏障(switching barrier)的最大操作范围通常没有偏离预定的区域,如果用户的视野偏离在切换屏障设计中建立的范围,则右眼图像和左眼图像中的每一个可以到达非所要的(unintendede)相对眼。在这样的情况下,用户不能够看到清楚的立体3D图像。因此,第一视野范围可以包括对于立体3D图像实现手段来说足以使右眼图像和左眼图像分别精确地到达相应眼睛的范围。因此,如果用户的视野偏离第一范围,则难以精确地实现立体3D图像。如果对象的显示类型变成立体2D图像,用户能够意识到他的视野已经偏离最佳范围。此外,虽然视野偏离最佳视野范围,如果仅当在偏离的定时点显示对象时显示类型变成立体2D图像类型,用户能够保持经由显示单元151观看相同的对象。
在下面的描述中,解释在用于相同对象的立体3D图像、立体2D图像以及平面图像之间的切换的方法。根据本实施例,提出两种切换方法。
根据第一切换方法,为特定对象事先准备立体3D图像、立体2D图像以及平面图像。随后,取决于指定的条件是否被满足,图像被相互切换。
根据第二切换方法,对象是通过诸如OpenGL、direct X等等的3DAPPI(应用程序编程接口)在虚拟空间中3维地配置的。随后,根据条件以不同视野看着被配置的对象而产生的图像被输出。
例如,当六面体结构(即,立方体)的对象被以对象的第一面面向前侧的方式排列时,如果第一条件(即,确定的用户视野位于第一视野范围内)被满足,则控制器180以以下方式创建相应的对象的源图像:创建在能够观看第一面和第一面的左侧的视野中所看到的一个图像作为左眼图像,在能够观看第一面和第一面的右侧的视野中所看到的另一个图像作为右眼图像。如果在没有超过第一视野范围的范围内改变用户视野,控制器180能够响应于改变的用户视野来改变创建左眼图像的视野和创建右眼图像的视野。如果用户的视野超过第一视野范围,即,如果第二条件被满足,则控制器180能够仅使用左眼图像创建视野和右眼图像创建视野中的一个创建立体2D图像,或者能够考虑从两个视野之间的中间位置处的视点观看相对应的对象来创建立体2D图像。此外,如果第三条件被满足,控制器180能够通过仅输出第一面的图像的方法来显示平面图像。
在下面的描述中,参考图14A和图14B详细地解释用于在上述条件下改变显示显示对象的形式的处理。
图14A和图14B是根据本发明的另一实施例的用于根据移动终端中的用户视野来改变对象的显示形式的处理的一个示例的显示配置的图。
在图14A和图14B中,假定三个3D对象1411、1412以及1413被排列在显示单元151上的虚拟空间151’中。并且,假定控制器180使用相机121检测用户的视野。
参考图14A,当三个3D对象被显示时,用户的视野位于前述的第一视野范围内(即,能够通过立体3D图像实现给用户提供精确的立体3D图像的范围)(图14A(a))。在这样的情况下,控制器180能够创建在用户的左眼1421的视野中观看3D对象所得的图像作为左眼图像(图14A(b)),并且能够创建在用户的右眼1422的视野中观看3D对象所得的图像作为右眼图像(图14A(c))。因此,如果通过上述方法获得用于立体3D图像实现的源图像,控制器180能够将相应的源图像作为立体3D图像输出到具有双目视差生成装置的显示单元。
同时,图14B(a)示出用户的视野超过第一视野范围的情况,即,第二条件被满足的情况。在这样的情况下,控制器180没有进一步创建源图像以输出立体3D图像,而是显示在左眼视野、右眼视野以及左眼视野和右眼视野之间的中间视野1430中的一个中观看3D对象所得的图像。这样做时,显示单元151的双目视差生成装置可被去激活(deactivate)。
当第二条件被满足时,在对象作为立体2D图像被输出时,参考图14B(b),在某个用户视野中第三3D对象1413的相当大的部分可能看起来仿佛被第一3D对象1411阻挡。在这样的情况下,控制器180确定第三条件被满足,并且然后能够输出对象中的每一个作为平面图像(图14B(c))。在这样的情况下,用于第三条件的示例的“一个对象阻挡另一个对象的比率”可以包括预设值。替代于该比率,如果对象的特定部分被阻挡,则控制器180可以确定第三条件被满足。
同时,例如,提供了在实施例的上述描述中提及的条件,本发明不受限于此。并且,包括事件发生、用户命令输入等等的各种条件可以应用于本发明。
根据本发明的另一实施例的另一示例,提供了包括以下步骤的方法:参考触摸点分割触摸屏区域,并且仅响应于用户的视野来改变被包括在指定区域中的对象的显示形式。
参考图15A、图15B以及图16C如下详细地描述这一点。
图15A和图15B是根据本发明的另一实施例的用于根据触摸点改变指定对象的显示形式的方法的一个示例的显示配置的图。
在图15A和图15B中,假定与在图14A中示出的相类似的多个对象被显示。并且,假定控制器180正在使用经由相机121拍摄的图像检测用户的视野。
参考图15A(a),当用户的视野1510位于在前面观看显示单元151的点时,用户使用手1510将触摸输入应用于多个点(例如,2个点1511和1512)。在这样的情况下,例如,触摸输入被同时应用于多个点。可替选地,触摸输入可以包括尺寸等于或者大于预定尺寸的触摸输入或者在一个方向中的触摸和拖动输入。
取决于触摸类型,控制器180能够通过选择下述中的一个来确定用于屏幕分割的基准线1521:1)当触摸被输入到多个点时,相互连接触摸点的线和/或线的延长;2)在触摸和拖动输入的情况下,触摸和拖动的轨迹和/或轨迹的延长;以及3)在指示器触摸面积等于或者大于预定面积的触摸输入的情况下,在接触平面内绘制的最长直线和/或最长直线的延长。并且,用于分割的基准线1521可以被显示在显示单元151上或者不被显示。
在用于屏幕分割的触摸输入被保持时,如果用户的视野被改变,则响应于改变的用户视野,在两个触摸屏区域中的较大一个中改变对象的显示形式,从参考分割的基准线152分割触摸屏面积来产生该两个触摸屏区域,并且在另一触摸屏区域中的其它对象的显示形式可以被固定为触摸输入的状态。例如,参考图15A(b),假定通过以右顶端靠近用户的方式旋转移动终端100,用户视野1501’被从显示单元前面变成右顶端的情况。在这样的情况下,响应于用户的视野1501’能够改变参考用于分割的基准线1521位于左区域1531中的对象的显示形式,该左区域1531具有比右区域1532大的尺寸。并且,右区域1532中的对象可以保持在触摸输入的状态下。
参考图15A的上面的描述涉及在肖像方向中设置用于分割的基准线。参考图15B的下面的描述涉及在风景方向中设置用于分割的基准线。
参考图15B(a),沿着经过指示器1510的两个触摸点1513和1514的直线能够设置用于分割的基准线1522。参考图15B(b),如果通过移动终端的旋转或者用户的运动,用户的视野1513变成右顶端,则可以响应于用户的视野来改变包括在分割的基准线1522下方的底区域1534中的对象的显示形式。此外,包括在分割的基准线1522上方的顶区域1533中的其它对象的显示形式可以保持在触摸输入的状态下。
在参考图15A和图15B描述的区域分割之后的显示形式改变方法可以应用于下面的情形。首先,从上到下或者左到右排列多个页面。其次,响应于用户界面中的滚动命令,当前显示的页面变成相邻的页面,在该用户界面上通常仅显示单个页面。例如,此用户界面可以包括包含移动终端中的多个页面的背景屏幕(例如,主屏幕)、具有被排列在多个页面上的活动图标的主菜单等等中的一个。参考图16如下地详细描述这一点。
图16是根据本发明的另一实施例的用于根据触摸点改变主屏幕页面的显示形式的方法的一个示例的显示配置的图。
参考图16(a),在水平方向中三层1610、1620以及1630被排列成相互相邻。至少一个对象1611被排列在层1610上。至少一个对象1621被排列在层1620上。并且,至少一个对象被排列在层1630上。这样做时,假定中央层1610被显示在触摸屏151上的情形。在这样的情况下,层1610、1620以及1630中的每一个可以对应于主屏幕的一页或者主菜单的一页。此外,对象中的每一个可以包括快捷方式图标或者窗口小部件(widget)。
这样做时,如果用户试图查看位于当前显示在触摸屏151上的层1610的左侧,通常输入滚动命令。例如,滚动命令可以包括在右方向中应用的轻拂(flick)触摸输入等等。如果滚动命令被输入,参考图16(b),随着中央层1610逐渐地消失到右侧,左边层1620可以从左侧端逐渐地出现。同时,通过参考图15A和图15B描述的方法之一,可以设置用于分割的基准线,如在图16(c)中所示。其后,在触摸输入被输入时,如果用户的视野被改变,参考图16(d),则左边层1620的一部分出现,因为响应于用户的视野,在用于分割的基准线的左侧上的左边区域倾斜,同时在用于分割的基准线的右侧上的右边区域被保持完整。此外,响应于用户的视野,左边层出现程度是可改变的。
通过上述方法,用户能够在没有移位层的情况下通过方便的操纵来查看与当前显示的层相邻的层的对象。
对本领域的技术人员来说将会显然的是,在不脱离本发明的精神或者范围的情况下能够以其它形式指定各种修改和变化。
根据本发明的一个实施例,能够将上述方法实现在程序记录介质中作为计算机可读代码。计算机可读介质可以包括保存了由计算机系统可读的数据的所有种类的记录设备。计算机可读介质可以包括例如ROM、RAM、CD-ROM、磁带、软盘、光学数据存储设备等,并且也包括载波型实现(例如,经由互联网的传输)。
以预定类型,通过本发明的结构元件和特征的组合来实现前述实施例。除非另有指定,否则应当选择性地考虑每个结构元件或特征。可以在不与其它结构元件或特征组合的情况下实现每个结构元件或特征。而且,可将一些结构元件和/或特征互相组合,以构成本发明的实施例。
本领域内的技术人员可以明白,在不偏离本发明的精神或范围的情况下,能够在本发明中进行各种修改和变化。因此,意图是本发明涵盖本发明的修改和变化,只要它们落在所附权利要求和其等同内容的范围内。

Claims (23)

1.一种控制图像显示设备的方法,所述方法包括下述步骤:
在所述图像显示设备的显示单元上显示第一对象;
将所述第一对象分割成多个第一层;
确定相对于基准的所述图像显示设备的倾斜;和
响应于确定的倾斜,将指定的3D深度提供给所述多个第一层中的每个层。
2.根据权利要求1所述的方法,进一步包括下述步骤:
经由所述图像显示设备的相机确定用户的位置;和
响应于确定的用户的位置,改变被提供给所述多个第一层中的每个层的指定的3D深度。
3.根据权利要求1所述的方法,进一步包括下述步骤:
经由所述图像显示设备的相机确定用户的位置;和
响应于确定的位置,旋转所述多个第一层中的每个层。
4.根据权利要求1所述的方法,进一步包括下述步骤:
生成特定事件;
在所述显示单元上显示与所述特定事件相对应的第二对象;
将所述第二对象分割成多个第二层;和
响应于确定的倾斜,将指定的3D深度提供给所述多个第二层中的每个层。
5.根据权利要求4所述的方法,进一步包括步骤:在显示所述第二对象之前使所述多个第一层中的每个层消失。
6.根据权利要求1所述的方法,进一步包括下述步骤:
确定指示器的存在、所述指示器的接近以及所述指示器的位置;和
当确定的指示器的位置接近所述多个第一层当中的特定层时,从所述特定层去除指定的3D深度。
7.根据权利要求1所述的方法,其中所述显示单元包括触摸屏,并且
其中所述方法进一步包括下述步骤:
检测对与所述多个第一层当中的特定层相对应的所述触摸屏上的区域的触摸输入;
使所述多个第一层中的剩余层从所述触摸屏消失;和
将所述特定层扩展到全屏。
8.根据权利要求1所述的方法,其中所述多个第一层中的每一个包括图标、菜单以及内容中的至少一个。
9.根据权利要求8所述的方法,其中通过为图标、菜单以及内容中的至少一个预设的基准或者用户设置的基准来执行分割步骤。
10.根据权利要求1所述的方法,其中响应于所述图像显示设备的倾斜变化、经由所述图像显示设备的用户输入单元输入的命令、以及与外部信号相对应的事件的发生中的一个来执行分割步骤。
11.根据权利要求1所述的方法,其中所述图像显示设备是移动终端。
12.一种图像显示设备,包括:
显示单元,所述显示单元被配置成通过包括双目视差生成装置来选择性地显示立体3D图像;
第一感测模块,所述第一感测模块被配置成检测所述图像显示设备的运动;
第二感测模块,所述第二感测模块被配置成检测指示器的存在、所述指示器的接近或者所述指示器的位置;
相机;以及
控制器,所述控制器被配置成:
在所述显示单元上显示第一对象,
将显示的第一对象分割成多个第一层,和
响应于以下中的一个将指定的3D深度提供给所述多个第一层中的每个层:相对于经由所述第一感测模块确定的基准的所述图像显示设备的倾斜、经由所述第二感测模块确定的指示器接近的存在、以及使用经由所述相机拍摄的用户图像而确定的用户位置。
13.根据权利要求12所述的图像显示设备,其中所述控制器被配置成控制所述多个第一层中的每个层以所述多个层中的每个层的表面面朝所确定的用户位置的方式而旋转。
14.根据权利要求12所述的图像显示设备,其中所述第一感测模块包括加速传感器和陀螺仪传感器。
15.根据权利要求12所述的图像显示设备,其中,当特定事件发生时,所述控制器被配置成在所述显示单元上显示与所述特定事件相对应的第二对象,并且将所述第二对象再次分割成多个第二层。
16.根据权利要求12所述的图像显示设备,其中所述控制器被配置成:使用经由所述第一感测模块确定的倾斜,将所述指定的3D深度提供给所述多个第一层中的每个层,以使所述多个第一层中的每个层的表面变成相对于地面垂直。
17.根据权利要求12所述的图像显示设备,其中,当经由所述第二感测模块确定的指示器的位置接近多个层当中的特定层时,所述控制器被配置成从所述特定层去除指定的3D深度。
18.根据权利要求12所述的图像显示设备,其中,当经由所述第一感测模块检测到的所述图像显示设备的倾斜被改变时,所述控制器被配置成分割显示的第一对象。
19.根据权利要求12所述的图像显示设备,其中所述显示的第一对象包括多个图标,并且
其中所述多个第一层中的每一个包括来自所述多个图标中的至少一个图标。
20.根据权利要求19所述的图像显示设备,其中所述控制器被配置成将所述多个图标分类成种类,并且每个种类与所述多个第一层中的相应层相关联。
21.根据权利要求19所述的图像显示设备,其中所述控制器被配置成基于使用的频率来分类所述多个图标,并且将所述多个图标分配给所述多个第一层,使得最频繁使用的图标被排列在最靠近经由相机确定的用户位置的所述多个第一层中的一个层上。
22.根据权利要求12所述的图像显示设备,其中所述图像显示设备是移动终端。
23.一种控制移动终端的方法,包括下述步骤:
当满足第一条件时,通过所述移动终端的控制器,在所述移动终端的显示器上将至少一个3D对象显示为双目视差类型的立体3D图像;
当满足第二条件时,通过所述控制器,在所述移动终端的显示器上将所述至少一个3D对象显示为立体2D图像;和
当满足第三条件时,通过所述控制器,在所述移动终端的显示器上将所述至少一个3D对象显示为平面图像。
CN201310123261.8A 2012-04-10 2013-04-10 显示设备及其控制方法 Expired - Fee Related CN103369130B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0037413 2012-04-10
KR1020120037413A KR101873759B1 (ko) 2012-04-10 2012-04-10 영상 표시 장치 및 그 제어방법

Publications (2)

Publication Number Publication Date
CN103369130A true CN103369130A (zh) 2013-10-23
CN103369130B CN103369130B (zh) 2017-06-09

Family

ID=48095517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310123261.8A Expired - Fee Related CN103369130B (zh) 2012-04-10 2013-04-10 显示设备及其控制方法

Country Status (4)

Country Link
US (1) US20130268882A1 (zh)
EP (1) EP2650753A3 (zh)
KR (1) KR101873759B1 (zh)
CN (1) CN103369130B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809870A (zh) * 2014-03-17 2014-05-21 联想(北京)有限公司 信息处理方法和信息处理装置
CN104063053A (zh) * 2014-05-30 2014-09-24 小米科技有限责任公司 图像显示方法、装置及电子设备
CN104869456A (zh) * 2014-02-24 2015-08-26 联想(北京)有限公司 一种显示方法及电子设备
CN104991707A (zh) * 2015-07-20 2015-10-21 青岛海信移动通信技术股份有限公司 一种显示用户界面方法及装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101727899B1 (ko) * 2010-11-26 2017-04-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
USD745050S1 (en) * 2013-01-09 2015-12-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US20140237403A1 (en) * 2013-02-15 2014-08-21 Samsung Electronics Co., Ltd User terminal and method of displaying image thereof
KR102205754B1 (ko) * 2014-02-21 2021-01-21 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법
US20160109952A1 (en) * 2014-10-17 2016-04-21 Top Victory Investments Ltd. Method of Controlling Operating Interface of Display Device by User's Motion
KR102310994B1 (ko) 2014-11-25 2021-10-08 삼성전자주식회사 3차원 상호작용 컴퓨팅 장치 및 방법
US10218793B2 (en) 2016-06-13 2019-02-26 Disney Enterprises, Inc. System and method for rendering views of a virtual space
KR20180056174A (ko) * 2016-11-18 2018-05-28 삼성전자주식회사 콘텐츠 처리 방법 및 이를 지원하는 전자 장치
CN108170282A (zh) * 2018-01-19 2018-06-15 百度在线网络技术(北京)有限公司 用于控制三维场景的方法和装置
CN113848964A (zh) * 2021-09-08 2021-12-28 金华市浙工大创新联合研究院 一种非平行光轴双目测距方法
US20230245373A1 (en) * 2022-01-28 2023-08-03 Samsung Electronics Co., Ltd. System and method for generating a three-dimensional photographic image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1705962A (zh) * 2002-10-17 2005-12-07 皇家飞利浦电子股份有限公司 利用二维显示装置产生伪三维显示的方法和系统
US20100064259A1 (en) * 2008-09-11 2010-03-11 Lg Electronics Inc. Controlling method of three-dimensional user interface switchover and mobile terminal using the same
US20110083103A1 (en) * 2009-10-07 2011-04-07 Samsung Electronics Co., Ltd. Method for providing gui using motion and display apparatus applying the same
US20120081359A1 (en) * 2010-10-04 2012-04-05 Lg Electronics Inc. Mobile terminal and controlling method thereof

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6486895B1 (en) * 1995-09-08 2002-11-26 Xerox Corporation Display system for displaying lists of linked documents
JP4343051B2 (ja) * 2004-07-20 2009-10-14 株式会社東芝 情報処理装置、操作画面の制御方法およびプログラム
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
KR20080073868A (ko) * 2007-02-07 2008-08-12 엘지전자 주식회사 단말기 및 메뉴표시방법
KR20090019161A (ko) * 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
US8593408B2 (en) * 2008-03-20 2013-11-26 Lg Electronics Inc. Electronic document reproduction apparatus and reproducing method thereof
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
JP5087532B2 (ja) * 2008-12-05 2012-12-05 ソニーモバイルコミュニケーションズ株式会社 端末装置、表示制御方法および表示制御プログラム
CN102087575B (zh) * 2009-12-03 2015-04-08 中山市云创知识产权服务有限公司 图标动态排列的电子装置及方法
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8589822B2 (en) * 2010-12-10 2013-11-19 International Business Machines Corporation Controlling three-dimensional views of selected portions of content
US20120249461A1 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. Dedicated user interface controller for feedback responses
US8988512B2 (en) * 2011-04-14 2015-03-24 Mediatek Inc. Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof
US20130135588A1 (en) * 2011-11-29 2013-05-30 Milan Momcilo Popovich 3D display apparatus
US9378581B2 (en) * 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
US20140111479A1 (en) * 2012-10-24 2014-04-24 Apple Inc. Interactive Three-Dimensional Display System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1705962A (zh) * 2002-10-17 2005-12-07 皇家飞利浦电子股份有限公司 利用二维显示装置产生伪三维显示的方法和系统
US20100064259A1 (en) * 2008-09-11 2010-03-11 Lg Electronics Inc. Controlling method of three-dimensional user interface switchover and mobile terminal using the same
US20110083103A1 (en) * 2009-10-07 2011-04-07 Samsung Electronics Co., Ltd. Method for providing gui using motion and display apparatus applying the same
US20120081359A1 (en) * 2010-10-04 2012-04-05 Lg Electronics Inc. Mobile terminal and controlling method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869456A (zh) * 2014-02-24 2015-08-26 联想(北京)有限公司 一种显示方法及电子设备
CN103809870A (zh) * 2014-03-17 2014-05-21 联想(北京)有限公司 信息处理方法和信息处理装置
CN103809870B (zh) * 2014-03-17 2018-01-23 联想(北京)有限公司 信息处理方法和信息处理装置
CN104063053A (zh) * 2014-05-30 2014-09-24 小米科技有限责任公司 图像显示方法、装置及电子设备
CN104063053B (zh) * 2014-05-30 2018-02-06 小米科技有限责任公司 图像显示方法、装置及电子设备
CN104991707A (zh) * 2015-07-20 2015-10-21 青岛海信移动通信技术股份有限公司 一种显示用户界面方法及装置
CN104991707B (zh) * 2015-07-20 2019-01-22 青岛海信移动通信技术股份有限公司 一种显示用户界面方法及装置

Also Published As

Publication number Publication date
EP2650753A3 (en) 2015-06-03
KR101873759B1 (ko) 2018-08-02
CN103369130B (zh) 2017-06-09
US20130268882A1 (en) 2013-10-10
EP2650753A2 (en) 2013-10-16
KR20130114950A (ko) 2013-10-21

Similar Documents

Publication Publication Date Title
CN103369130A (zh) 显示设备及其控制方法
CN102446064B (zh) 移动终端及其控制方法
KR101728728B1 (ko) 이동 단말기 및 그 제어방법
CN102385476B (zh) 移动终端及其控制方法
EP2498168B1 (en) Mobile terminal and method of controlling the same
CN102214065B (zh) 移动终端及其图像显示控制方法
CN102736843B (zh) 移动终端及其三维(3d)多角度视图控制方法
US9390250B2 (en) Mobile terminal and control method thereof
CN102595157B (zh) 显示3d图像的装置及其控制方法
KR101830966B1 (ko) 전자 기기 및 전자 기기의 컨텐츠 생성 방법
CN102402379A (zh) 移动终端及其控制方法
CN104580576A (zh) 手表型移动终端及其控制方法
CN104049740A (zh) 移动终端及其控制方法
CN102541432A (zh) 移动终端及其控制方法和移动终端的图像显示方法
KR20110054256A (ko) 이동 단말기 및 그 제어방법
KR101709500B1 (ko) 이동 단말기 및 그 제어방법
KR101723413B1 (ko) 이동 단말기 및 그 제어방법
KR20120034303A (ko) 이동 단말기 및 그 제어방법
KR20110080573A (ko) 이동 단말기 및 그 제어 방법
KR101753033B1 (ko) 이동 단말기 및 그 제어방법
KR20130053476A (ko) 휴대 단말기 및 그 제어 방법
KR20110060125A (ko) 이동 단말기 및 그 제어방법
KR101882262B1 (ko) 이동 단말기 및 그 제어방법
KR20130087117A (ko) 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170609

Termination date: 20180410