CN102479052B - 移动终端及其操作控制方法 - Google Patents

移动终端及其操作控制方法 Download PDF

Info

Publication number
CN102479052B
CN102479052B CN201110384922.3A CN201110384922A CN102479052B CN 102479052 B CN102479052 B CN 102479052B CN 201110384922 A CN201110384922 A CN 201110384922A CN 102479052 B CN102479052 B CN 102479052B
Authority
CN
China
Prior art keywords
image
images
mobile terminal
zoomed
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110384922.3A
Other languages
English (en)
Other versions
CN102479052A (zh
Inventor
郑河梁
辛承珉
李臣慧
李珍术
金东玉
金泰润
禹承贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN102479052A publication Critical patent/CN102479052A/zh
Application granted granted Critical
Publication of CN102479052B publication Critical patent/CN102479052B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Processing Or Creating Images (AREA)

Abstract

提供了一种移动终端及其操作控制方法。该操作控制方法包括:在显示模块上显示基于第一和第二图像之间的差异而创建的第一立体3D图像;响应于接收到用于改变图像的放大率的输入,改变该第一和第二图像的放大率;通过相对于从放大率改变后的第一和第二图像中选择的中心对象来移动落在参考差异范围之外的放大率改变后的第一和第二图像中的其他对象以使得移动的对象能够落回该参考差异范围内,来创建第一和第二校正的图像;并且,在该显示模块上显示由放大率改变输入所指定的第二立体3D图像的一部分,基于放大率改变后的第一和第二图像之间的差异来创建该第二立体3D图像。因此,有可能响应于放大或缩小立体3D图像而适当地校正落在参考差异范围之外的立体3D图像中的对象的差异。

Description

移动终端及其操作控制方法
本申请要求2010年11月26日在韩国提交的韩国申请号10-2010-0118918的优先权,其整体内容通过引用被包含在此。 
技术领域
本公开涉及移动终端和该移动终端的操作控制方法,该移动终端能够响应于放大或缩小包括对象的立体三维(3D)图像,而校正落在参考差异范围(reference disparity range)之外的对象的差异范围。 
背景技术
移动终端是可以向用户提供多种服务的便携装置,该多种服务例如是语音呼叫服务、视频呼叫服务、信息输入/输出服务和数据存储服务。 
随着移动终端所提供的服务的类型多样化,越来越多的移动终端已经配备了多种复杂的功能,诸如拍摄照片或运动图像、播放音乐文件或运动图像文件、提供游戏程序、接收广播节目以及提供无线因特网服务,因此其已经演进为多媒体播放器。 
已经进行了各种尝试来将这样的复杂功能实现为硬件装置或软件程序。例如,已经开发了各种用户界面(UI)环境,在其中允许用户容易地搜索和选择期望的功能。另外,由于将移动终端视为可以表示个人个性的个人物品的增长趋势,对于用于移动终端的各种设计的需求已经稳定地增长。 
同时,立体三维(3D)成像近来已经变得普遍,立体三维(3D)成像是组合由相机拍摄的多个图像以创建立体3D图像的技术。当被应用到移动终端时,立体3D成像可以允许用户使用移动终端的相机来创建立体3D图像,并且在移动终端的显示器上显示各种立体3D图像。可以使用各种方法来在移动终端的显示器上显示立体3D图像,该各种方法例如是自动立体视觉(auto-stereoscopy),它也被称为无眼镜3D。 
通常基于在其左图像和右图像之间的差异(例如,在左图像和右图像的相对定位方面的差别)来创建立体3D图像。因此,如果存在落在用户的视差极限之外的立体3D图像中的对象,则该对象可能看起来失真,并且可能因此引起疲劳、恶心和/或头疼。当放大或缩小立体3D图像时,这种失真变得更严重。 
因此,需要一种方法来响应于放大或缩小立体3D图像而校正落在参考差异范围之外的立体3D图像中的对象。 
附图说明
参考下面的附图来详细描述实施例,在附图中,相似的附图标号指的是相似的元件,其中: 
图1是根据本发明一个实施例的移动终端的框图。 
图2是在图1中所示的移动终端的前透视图; 
图3是在图2中所示的移动终端的后透视图; 
图4A至4C是图示如何创建立体三维(3D)图像的示例的图; 
图5A和5B是图示在立体3D图像中的3D对象的深度和疲劳之间的关系的示例的图; 
图6A和6B是图示3D效果如何响应于放大立体3D图像而失真的示例的图; 
图7是图示根据本公开的示例性实施例的移动终端的操作控制方法的流程图;以及 
图8至16是图示图7的示例性实施例的图。 
具体实施方式
以下将参考附图详细描述本发明,在附图中,示出本发明的示例性实施例。 
在此使用的术语“移动终端”可以指示移动电话、智能电话、膝上型计算机、数字广播接收机、个人数字助理(PDA)、便携多媒体播放器(PMP)、导航设备、平板计算机和电子书(e书)阅读器等。在本公开中,可以可交换地使用术语“模块”和“单元”。 
图1图示根据本发明一个实施例的移动终端100的框图。参见图1,移动终端100可以包括无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等。无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190中的两个或更多个可以被结合进单个单元中,或者无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190中的一些可以被划分为两个或更多个更小的单元。 
无线通信单元110可以包括广播接收模块111、移动通信模块113、无线因特网模块115、短距离通信模块117和全球定位系统(GPS)模块119。 
广播接收模块111可以通过广播信道来从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以是卫星信道或地面信道。广播管理服务器可以是生成广播信号和/或广播相关信息并发送所生成的广播信号和/或所生成的广播相关信息的服务器,或者可以是接收并然后发送预先生成的广播信号和/或预先生成的广播相关信息的服务器。 
广播相关信息可以包括广播信道信息、广播节目信息和/或广播服务提供商信息。广播信号可以包括TV广播信号、无线电广播信号、数据广播信号、数据广播信号和TV广播信号的组合或数据广播信号和无线电广播信号的组合。可以通过移动通信网络向移动终端100提供广播相关信息。在该情况下,移动通信模块113而不是广播接收模块111可以接收广播相关信息。广播相关信息可以具有多种形式。例如,广播相关信息可以具有数字多媒体广播(DMB)电子节目指南(EPG)或手持数字视频广播(DVB-H)电子服务指南(ESG)。 
广播接收模块111可以使用多种广播系统来接收广播信号,该多种广播系统例如是地面数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、仅媒体前向链路(MediaFLO)、DVB-H和地面综合业务数字广播(ISDB-T)。另外,广播接收模块111可以被配置为适合于除了在此给出的那些之外的几乎所有类型的广播系统。由广播接收模块111接收到的广播信号和/或广播相关信息可以被存储在存储器160中。 
移动通信模块113可以通过移动通信网络向基站、外部终端和服务器中的至少一个发送无线信号或从其接收无线信号。该无线信号可以根据移动终端100是否发送/接收语音呼叫信号、视频呼叫信号或文本/多媒体消息而包括多种类型的数据。 
无线因特网模块115可以是用于无线地接入因特网的模块。无线因特网模块115可以被嵌入移动终端100中或可以被安装在外部设备中。无线因特网模块115可以使用多种无线因特网技术,诸如无线局域网(WLAN)、无线宽带(WiBro)、全球微波互联接入(Wimax)和高速下行链路分组接入(HSDPA)。 
短距离通信模块117可以是用于短距离通信的模块。短距离通信模块117可以使用多种短距离通信技术,诸如蓝牙、射频识别(RFID)、 红外数据协会(IrDA)、超宽带(UWB)和紫蜂(ZigBee)。 
GPS模块119可以从多个GPS卫星接收位置信息。 
A/V输入单元120可以用于接收音频信号或视频信号。A/V输入单元120可以包括相机模块121和麦克风123。相机模块121可以处理在视频呼叫模式或图像拍摄模式期间由图像传感器拍摄的多种图像帧,诸如静止图像或运动图像。显示模块151可以显示由相机模块121处理的图像帧。 
由相机模块121处理的图像帧可以被存储在存储器160中,或可以通过无线通信单元110被发送到外部设备。移动终端100可以包括两个或更多个相机121。 
麦克风123可以使用麦克风在呼叫模式、记录模式或语音识别模式期间接收外部声音信号,并且可以将声音信号转换为电子声音数据。在呼叫模式期间,移动通信模块113可以将电子声音数据转换为可以容易地发送到移动通信基站的数据,并且然后可以输出由该转换获得的数据。麦克风123可以使用多种噪声去除算法来去除在外部声音信号的接收期间可能产生的噪声。 
用户输入单元130可以基于用于控制移动终端100的操作的用户输入来产生按键输入数据。用户输入单元130可以被实现为能够通过被用户按下或触摸而接收命令或信息的小键盘、薄膜开关、或静压或电容触摸板。替代地,用户输入单元130可以被实现为能够通过被旋转而接收命令或信息的转轮、微动盘或微动轮、或者操纵杆。还可替代地,用户输入单元130可以被实现为手指鼠标。特别地,如果用户输入单元130被实现为触摸板并且与显示模块151形成相互的层结构,则用户输入单元130和显示模块151可以被统称为触摸屏。 
感测单元140可以确定移动终端100的当前状态,诸如移动终端100是否被打开或闭合、移动终端100的位置、以及移动终端100是否与用户接触,并且感测单元140可以产生用于控制移动终端100的操作的感测信号。例如,当移动终端100是滑盖型移动电话时,感测单元140可以确定移动终端100是否被打开或闭合。另外,感测单元140可以确定移动终端100是否被电源单元190供电以及接口单元170是否连接到外部设备。 
感测单元140可以包括检测传感器141、压力传感器143和运动传感器145。检测传感器141可以在没有与实体的机械接触的情况下确定是否存在接近或者靠近移动终端100的对象。更具体地,检测传感器141可以通过检测在交流(AC)磁场中的变化或者静电容的变化率来检测接近或者靠近的对象。感测单元140可以包括两个或更多个检测传感器141。检测传感器141可以感测用户相对于移动终端100的位置。例如,可以确定用户的眼睛与移动终端100的显示器表面的相对位置。在特定实施例中,当显示立体3D图像时,所感测的用户(例如,用户的眼睛)的距离可以被用于计算差异的最大阈值,将在下文进一步详细讨论。 
压力传感器143可以确定是否正在向移动终端100施加压力,或可以测量向移动终端100施加的压力的量级——如果有的话。压力传感器143可以被安装在需要压力检测的、移动终端100的特定部分中。例如,压力传感器143可以被安装在显示模块151中。在该情况下,有可能基于压力传感器143提供的数据来将典型触摸输入与压力触摸输入相区别,压力触摸输入是通过施加比用于产生典型触摸输入的压力更大的压力而产生的。另外,当通过显示模块151接收压力触摸输入时,有可能基于压力传感器143提供的数据在检测到压力触摸输入时确定向显示模块151施加的压力的量级。 
运动传感器145可以使用加速度传感器或陀螺仪传感器来确定移动终端100的位置和运动。 
通常,加速度传感器是用于将在加速中的振动转换为电信号的一种设备。随着在微电子机械系统(MEMS)技术中的近来的发展,已经在多种产品中广泛地使用加速度传感器以用于多种目的,从检测大运动(诸如在汽车的气囊系统中进行的汽车碰撞)到检测微小运动(诸如在游戏输入装置中进行的手的运动)。通常,用于表示两个或三个轴向的一个或多个加速度传感器被并入单个封装内。存在着仅需要诸如Z轴的一个轴向的检测的一些情况。因此,当需要X或Y轴加速度传感器而不是Z轴加速度传感器时,可以在另外的基板上安装X或Y轴加速度传感器,并且可以在主基板上安装该另外的基板。 
陀螺仪传感器是用于测量角速度的传感器,并且可以确定移动终端100的旋转对于基准方向的相对方向。 
输出单元150可以输出音频信号、视频信号和警告信号。输出单元150可以包括显示模块151、音频输出模块153、警告模块155和触觉模块157。 
显示模块151可以显示由移动终端100处理的多种信息。例如,如果移动终端100处于呼叫模式中,则显示模块151可以显示用于进行或接收呼叫的用户界面(UI)或图形用户界面(GUI)。如果移动终端100处于视频呼叫模式或图像拍摄模式中,则显示模块151可以显示用于拍摄或接收图像的UI或GUI。 
如果显示模块151和用户输入单元130一起形成层结构并且因此被实现为触摸屏,则显示模块151可以被用作为输出装置和输入装置两者。如果显示模块151被实现为触摸屏,则显示模块151也可以包括触摸屏面板和触摸屏面板控制器。触摸屏面板是附接到移动终端100的外部上的透明面板,并且可以连接到移动终端100的内部总线。触摸屏面板持续监控触摸屏面板是否正在被用户触摸。一旦接收到向触摸屏面 板的触摸输入,则触摸屏面板向触摸屏面板控制器发送与该触摸输入对应的多个信号。触摸屏面板控制器处理由触摸屏面板发送的信号,并且向控制器180发送处理后的信号。然后,控制器180基于触摸屏面板控制器发送的处理后的信号来确定是否已经产生了触摸输入以及已经触摸了触摸屏面板的哪个部分。 
显示模块151可以包括电子纸(e纸(e-paper))。e纸是一种反射显示技术,并且可以提供与纸上的普通墨水一样高的分辨率、宽视角、以及优良的视觉属性。e纸可以被实现在多种类型的基板上,诸如塑料、金属或纸基板,并且,即使在断电后e纸也可以在其上显示和保持图像。另外,e纸可以减小移动终端100的功耗,因为它不需要背光组件。通过使用带静电的半球扭转向列球(electrostatic-charged hemisphericaltwist ball)、使用电泳淀积(electrophoretic deposition)或使用微胶囊(microcapsule),显示模块151可以被实现为e纸。 
显示模块151可以包括LCD、薄膜晶体管(TFT)-LCD、有机发光二极管(OLED)、柔性显示器和三维(3D)显示器中的至少一个。移动终端100可以包括两个或更多个显示模块151。例如,移动终端100可以包括外部显示模块(未示出)和内部显示模块(未示出)。 
音频输出模块153可以输出在呼叫接收模式、呼叫模式、记录模式、语音识别模式或广播接收模式期间由无线通信单元110接收的音频数据,或可以输出在存储器160中存在的音频数据。另外,音频输出模块153可以输出与诸如接收呼叫或消息的移动终端100的功能相关联的多种声音信号。音频输出模块153可以包括扬声器和蜂鸣器。 
警告模块155可以输出用于指示在移动终端100中的事件发生的警告信号。事件的示例包括接收呼叫信号、接收消息和接收按键信号。由警告模块155输出的警告信号的示例包括音频信号、视频信号和振动信号。更具体地,警告模块155可以在接收呼入信号或消息时输出警告 信号。另外,警告模块155可以接收按键信号,并且可以输出作为对于按键信号的反馈的警告信号。因此,用户能够基于由警告模块155输出的警告信号来容易地识别事件的发生。可以不仅通过警告模块155而且通过显示模块151或音频输出模块153来输出用于向用户通知事件的发生的警告信号。 
触觉模块157可以提供可被用户感知的多种触觉效果(诸如振动)。如果触觉模块157产生振动作为触觉效果,则可以以多种方式来改变由触觉模块157产生的振动的强度和模式。触觉模块157可以将不同的振动效果合成,并且可以输出合成的结果。替代地,触觉模块157可以依序输出不同的振动效果。 
触觉模块157可以提供除了振动之外的多种触觉效果,诸如通过使用垂直于接触皮肤表面而移动的针阵列而获得的触觉效果、通过经由喷射孔或吸入孔来喷射或吸入空气而获得的触觉效果、通过向皮肤的表面给予刺激而获得的触觉效果、通过与电极接触而获得的触觉效果、使用静电力而获得的触觉效果、通过使用能够吸收热量或产生热量的装置来实现热或冷的感觉而获得的触觉效果。触觉模块157可以被配置来使得用户能够使用手指或手臂的肌肉运动知觉来识别触觉效果。移动终端100可以包括两个或更多个触觉模块157。 
存储器160可以存储控制器180的操作所需的多种程序。另外,存储器160可以暂时存储多种数据,诸如电话本、消息、静止图像或运动图像。 
存储器160可以包括闪存型存储介质、硬盘型存储介质、多媒体卡微型存储介质、卡型存储器(例如,安全数字(SD)或极限数字(XD)存储器)、随机存取存储器(RAM)和只读存储器(ROM)中的至少一个。移动终端100可以操作网络存储器,该网络存储器在因特网上执行存储器160的功能。 
接口单元170可以与可连接到移动终端100的外部设备对接。接口单元170可以是有线/无线头戴式耳机、外部电池充电器、有线/无线数据端口、用于例如存储卡、订户识别模块(SIM)卡或用户识别模块(UIM)卡的卡插槽、音频输入/输出(I/O)端子、视频I/O端子或耳机。接口单元170可以从外部设备接收数据,或可以被外部设备供电。接口单元170可以向移动终端100中的其他部件发送由外部设备提供的数据,或可以向外部设备发送由移动终端100中的其他部件提供的数据。 
当移动终端100连接到外部托架时,接口单元170可以提供用于从外部托架向移动终端100供电或用于从外部托架向移动终端100发送多种信号的路径。 
控制器180可以控制移动终端100的一般操作。例如,控制器180可以执行与进行/接收语音呼叫、发送/接收数据或进行/接收视频呼叫有关的多种控制操作。控制器180可以包括播放多媒体数据的多媒体播放器模块181。多媒体播放器模块181可以被实现为硬件设备,并且可以被安装在控制器180中。替代地,多媒体播放器模块181可以被实现为软件程序。 
电源单元190可以被外部电源或内部电源供电,并且可以向移动终端100中的其他部件供电。 
移动终端100可以包括有线/无线通信系统或卫星通信系统,并且因此能够在能以帧或分组为单位发送数据的通信系统中操作。 
以下,将参考图2和3详细描述移动终端100的外部结构。本公开可以应用到几乎任何类型的移动终端,诸如折叠型、直板型、摆动型和滑动型移动终端。然而,为了方便,假定移动终端100是配备了全触摸屏的直板型移动终端。 
图2图示了移动终端100的前透视图,图3图示了移动终端100的后透视图。参见图2,可以由前壳体100-1和后壳体100-2来形成移动终端100的外部。可以在由前壳体100-1和后壳体100-2形成的空间中安装多种电子装置。通过注模,前壳体100-1、后壳体100-2可以由合成树脂形成。替代地,前壳体100-1和后壳体100-2可以由诸如不锈钢(STS)或钛(Ti)的金属形成。 
显示模块151、第一音频输出模块153a、第一相机121a和第一至第三用户输入模块130a至130c可以被布置在移动终端100的主体中,具体地说,被布置在前壳体100-1上。第四和第五用户输入模块130d和130e和麦克风123可以被布置在后壳体100-2的一侧上。 
如果触摸板被配置为与显示模块151重叠并且因此形成相互的层结构,则显示模块151可以用作为触摸屏。因此,用户可以简单地通过触摸显示模块151来输入多种信息到移动终端100。 
第一音频输出模块153a可以被实现为接收器或扬声器。第一相机121a可以被配置为适合于拍摄用户的静止或运动图像。麦克风123可以被配置来正确地接收用户的语音或其他声音。 
第一至第五用户输入模块130a至130e以及第六和第七用户输入模块130f和130g可以被统称为用户输入单元130。任何装置可以被使用为第一至第七用户输入单元130a至130f,只要它可以以触摸方式操作。例如,用户输入单元130可以被实现为能够根据用户的按下或触摸操作而接收命令或信息的薄膜开关或触摸板,或者可以被实现为用于旋转按键的转轮型或微动型,或者实现为操纵杆。在功能方面,第一至第三用户输入模块130a至130c可以操作为用于输入命令(诸如“开始”、“结束”或“滚动”)的功能按键,第四用户输入模块130d可以操作为用于选择移动终端100的操作模式的功能按键,并且第五用户输入模块 130e可以操作为用于激活移动终端100内的特定功能的热键。 
参见图3,可以将两个相机121b和121c另外设置在后壳体100-2的后部,并且,可以将第六和第七用户输入模块130f和130g与接口单元170布置在后壳体100-2的一侧上。 
相机121b和121c可以具有与相机121a的图像拍摄方向基本上相反的图像拍摄方向,并且可以具有与相机121a的分辨率不同的分辨率。相机121b和121c可以一起用于在3D拍摄模式中创建立体3D图像,或可以用于单独地创建二维(2D)图像。在相机121b和121c之间的距离可以被配置为可调整的。因此,通过调整在相机121b和121c之间的距离,有可能调整立体3D图像的大小或分辨率。更具体地,相机121b和121c之一可以被配置为可移动得更接近或更远离另一个相机,使得可以调整在相机121b和121c之间的距离。 
闪光灯125和镜子可以被布置在相机121b和121c之间。当相机121b和121c拍摄物体的图像时,闪光灯125可以照亮该物体。镜子可以允许用户在他或她要拍摄他或她自己的图像时看到他自己或她自己。 
可以另外在后壳体100-2上设置另一个音频输出模块。在后壳体100-2上的音频输出模块可以与在前壳体100-1上的音频输出模块153一起实现立体声功能。在后壳体100-2上的音频输出模块也可以用在扬声器电话模式中。 
接口单元170可以用作为允许移动终端100通过固定线路或无线地与外部设备交换数据的路径。 
除了用于呼叫通信的天线之外,可以在前壳体或后壳体100-1或100-2的一侧上布置广播信号接收天线。可以安装该广播信号接收天线使得它可以从前壳体或后壳体100-1或100-2延伸。 
电源单元190可以被安装在后壳体100-2上并可以向移动终端100供电。电源单元190例如可以是可充电的电池,其可以可拆卸地组合到后壳体100-2,以被充电。 
移动终端100可以使用在其后的相机121b和121c来创建立体3D图像,并且可以然后在显示模块151上显示立体3D图像。 
移动终端100可以与对应于2D图像的对象不同地显示对应于立体3D图像的对象,使得可以容易地将对应于立体3D图像的对象与对应于2D图像的对象相区别。移动终端100可以在显示模块151上仅重新布置和显示对应于立体3D图像的对象。 
立体3D图像是可以在图像中创建深度幻觉的图像,并且因此可以向观众提供逼真的真实感觉。用户的两眼可能彼此分开大约65mm。因此,当向两眼中的每只眼呈现世界的不同2D图像时,2D图像被投射到两眼的视网膜上,并且大脑使用双眼差异从2D视网膜图像提取深度,双眼差异源自两眼的水平分离,并且是设计3D显示装置时应当考虑的最重要因素之一。 
存在显示3D图像的各种方法,诸如:立体显示方法,它是使用眼镜来显示3D图像的方法;自动立体显示方法,它是不使用眼镜来显示3D图像的方法,并且也被称为无眼镜3D;以及,投射方法,它使用全息术(holography)。立体显示方法一般用在家庭电视机中,并且自动立体显示方法一般用在移动终端中。 
自动立体显示方法的示例包括但是不限于透镜显示方法、视差屏障(parallax barrier)方法和视差照明(parallax illumination)方法。透镜显示方法涉及向显示左眼图像和右眼图像的装置前面使用半球状凸透镜片。视差屏障方法涉及通过视差屏障来投射左眼图像和右眼图像。 视差照明方法涉及在LCD后放置照明板,以便使得左眼和右眼能够看到像素的交替列。除了在此给出的之外,可以使用利用可以创建三维感觉的若干因素的各种其他类型的立体3D成像技术。 
图4A至4C图示如何创建立体3D图像的示例。移动终端100可以使用在其后部的两个相机,即,相机121b和121c来创建立体3D图像。为了方便,以下将相机121b和121c分别称为第一和第二相机121b和121c。 
参见图4A和4B,作为使用第一和第二相机121b和121c拍摄物体200的结果,可以创建第一和第二图像205和207。 
由第一和第二相机121b和121c提供的第一和第二图像205和207分别对应于左眼图像和右眼图像。参见图4C,控制器180可以使用在第一和第二图像205和207之间的差异来创建立体3D图像210。例如,在第一和第二图像205和207之间的差异可以是在第一和第二图像205和207中的相应点之间的距离。以下进一步详细地描述在立体3D图像中的差异和用于校正这个值的方法。 
如上所述,立体3D图像是可以在图像中创建深度幻觉并且因此可以向观众提供逼真的真实感觉的图像。两眼彼此分开大约65mm。因此,当向两眼中的每只眼呈现世界的不同2D图像时,2D图像被投射到两眼的视网膜上,并且大脑使用双眼差异从2D视网膜图像提取深度,双眼差异源自两眼的水平分离,并且是设计3D显示装置时应当考虑的最重要因素之一。 
可以在显示模块151上显示或可以使用相纸和设备来打印由控制器180创建的立体3D图像210。可以使用几乎与上述相同的方式来不仅创建立体3D静止图像而且创建立体3D运动图像。 
如上所述,存在显示3D图像的各种方法,诸如:立体显示方法, 它是使用眼镜来显示3D图像的方法;自动立体显示方法,它是不使用眼镜来显示3D图像的方法,并且也被称为无眼镜3D;以及投射方法,它使用全息术。立体显示方法一般用在家庭电视机中,并且自动立体显示方法一般用在移动终端中。 
自动立体显示方法的示例包括但是不限于透镜显示方法、视差屏障方法和视差照明方法。透镜显示方法涉及向显示左眼图像和右眼图像的装置前面使用半圆状凸透镜片。视差屏障显示方法涉及通过视差屏障来投射左眼图像和右眼图像。视差照明方法涉及在LCD后面放置照明板,以便使得左眼和右眼能够看到像素的交替列。对于除了在此给出的之外的、利用可以创建三维感觉的若干因素的各种立体3D成像技术,正在进行研究。 
除了移动终端之外的各种类型的装置也可以被配置为能够创建和显示立体3D图像。 
图5A和5B图示在立体3D图像中的3D对象的深度和疲劳/不适之间的关系的示例。在立体3D图像中的对象的深度可以根据在立体3D图像的左眼图像和右眼图像内该对象的位置上的差别而改变。 
参见图5A,医学研究显示:在与对象220相距距离Z处,当观看对象220时的会聚角θ超过大约1.5度时,左眼223和右眼225彼此分开距离d的观众可能开始感到疲劳。即,会聚角θ在聚焦在近对象时比聚焦在位于远处的对象时变得更大,并且会聚角越大,观众可能体验到更疲劳。因此,为了减少疲劳,可以布置立体3D图像中的3D对象,使得会聚角θ可以落在预定范围内。可以将会聚角θ的范围设置为移动终端中的默认值,或可以基于用户偏好来设置。 
参见图5B,对象220被感知为从显示器151的表面突出距离Z’。阈值差异dTH可以是显示器151上显示的右眼图像220R和左眼图像220L的 相应部分之间的距离。阈值差异dTH可以是用于给定会聚角θ的参考差异范围内的最大差异值。如图所示,阈值差异dTH与距离Z’(感知的3D对象的突出距离)、会聚角θ以及用户至显示器151的总距离有关。会聚角θ可以与3D对象的感知深度和阈值双眼差异dTH有关系,由等式cos(θ)>=(dL 2+dR 2-dth)/(2dLdR)表达,其中,θ是会聚角,dL是在左眼图像和会聚点之间的距离,dR是在右眼图像和会聚点之间的距离,并且dTH是双眼差异的指定阈值。 
参考差异范围可以是在移动终端中存储的预定值。也可以基于用户的偏好或对于差异改变的容忍度,由用户来设置差异范围。替代地,可以使用各种模型来预测用户的不适水平,以便设置或调整参考差异范围。 
而且,因为会聚角θ取决于用户相对于显示屏幕151的位置,所以参考差异范围可以基于用户位置距显示器的预定距离Z。替代地,传感器141可以测量距离Z以确定会聚角θ。然后可以基于所检测的用户的位置来调整阈值差异值。 
图6图示了3D效果如何响应于放大立体3D图像而失真的示例。参见图6A和6B,可以基于左眼图像和右眼图像233和235之间的差异来创建立体3D图像230。在立体3D图像230中的差异可以是d1,d1可以是在左眼图像和右眼图像233和235的中心处的对象(以下称为中心对象)之间的距离。 
当放大立体3D图像230时,可以通过缩放立体3D图像230来获得立体图像240。可以基于左眼和右眼图像233和235的放大后的左眼和右眼图像243和245来创建缩放的立体3D图像240。因为在放大的左眼和右眼图像243和245的中心之间的距离d2可以大于d1,所以在立体3D图像240中的一些对象可以落在参考差异范围之外。这可使得放大的立体3D图像240看起来失真并且引起疲劳。在该情况下,可能需要校正落在参考 差异范围以外的对象的差异范围。类似地,响应于在大小上缩小立体3D图像230,在大小调整后的立体3D图像中的3D对象也可能看起来失真。 
仅为了容易说明,在图像对(image pairs)中的公共点之间的距离已经被描述为在中心对象处测量。然而,应当明白,本公开不限于特定的中心对象,并且可以基于左眼图像和右眼图像233和235中的任何相应参考点来测量图像对中的差异。 
图7图示根据本公开一个示例性实施例的移动终端的操作控制方法的流程图。参见图7,响应于所选择的3D模式或所接收的用户命令,控制器180在显示模块151上显示立体3D图像,该立体3D图像是基于左眼图像和右眼图像之间的差异而创建的(S300)。 
在接收到用于改变立体3D图像的放大率的输入(诸如用于放大或缩小立体3D图像的输入)的情况下(S305),控制器180改变左眼图像和右眼图像的放大率,由此生成放大率改变后的(放大的或缩小的)左眼图像和右眼图像(S310)。 
控制器180在放大率改变后的左眼图像和右眼图像内移动对象,使得对象可以落在参考差异范围内(S315)。例如,可以选择在放大率改变后的左眼图像和右眼图像中的中心对象,并且,可以相对于所选择的中心对象,移动在放大率改变后的左眼图像和右眼图像中的其他对象。例如,可以移动所选择的中心对象以建立零视差,并且可以因此相对于所选择的中心对象,移动在放大率改变后的左眼图像和右眼图像中的其他对象。当移动图像以使得它们重叠在彼此之上时,可以实现零视差。在该情况下,零视差平面可以是显示器屏幕的表面,并且在第一图像和第二图像的对应的相应中心对象之间的距离可以是零,以使得图像重叠。 
在难以一起移动落在参考差异范围之外的所有对象的情况下,象不仅对于近范围内的对象而且对于远范围的对象改变立体3D图像的放大率时的情况那样,可以二维地显示落在参考差异范围之外的对象的全部或一些。控制器180可以例如基于向这个功能分配系统资源的预定偏好,来确定可以处理多少个对象以校正它们的差异。 
控制器180使用适当的内插(interpolation)方法来内插孔洞区域,由此生成校正的左眼和右眼图像(S320)该孔洞区域是作为操作S315的结果而生成的。例如,可以使用与孔洞区域相邻的像素的值或辅助图像来内插该孔洞区域。 
控制器180在显示模块151上显示由用于改变立体3D图像的放大率的输入所指定的校正的立体3D图像的一部分(S325)。 
如果选择了除了改变立体3D图像的放大率之外的功能(S330),则控制器180控制执行所选择的功能(S335)。例如,响应于接收到用于移动显示器屏幕的输入,控制器180可以在显示模块151上各处移动校正的立体3D图像。控制器180也可以将与校正的立体3D图像对应的立体信息提供为数值数据、图形或图像。 
重复执行操作S305至S335,直到用户选择结束上述操作(S340)。 
根据这个示例性实施例,有可能响应于改变立体3D图像的放大率,校正落在参考差异范围之外的立体3D图像中的对象。 
以下参考图8至16来进一步详细地描述图7的示例性实施例。 
图8图示立体3D图像的示例。参考图8,在放大包括远处对象的立体3D图像400的部分403和包括近处对象的立体3D图像400的部分405的情况下,可以从立体3D图像部分403和405中选择不同的对象来作为中 心对象,并且可以使用所选择的中心对象校正立体3D图像400中的其他对象。 
例如,可以将近处部分405中的对象的图像对选择作为中心对象。可以将近处部分405中的中心对象移动距离d3,以建立零视差。立体3D图像400中的其他对象,包括远处部分403以及图像400的其他区域,可以与中心对象移动得同样多,由此校正立体3D图像400。 
参考图9A和9B,可以选择性地放大立体3D图像410的部分415,由此获得放大的立体3D图像420。立体3D图像410的放大率越大,则立体3D图像410的3D效果变得越大。如果立体3D图像420中的对象都未落在参考差异范围之外,则不必校正立体3D图像420。 
参考图9B,放大立体3D图像420的部分425,由此获得放大的立体3D图像430,如图9C中所示。放大的立体3D图像430的差异d5变得大于立体3D图像420的差异。如果差异d5落在参考差异范围之外,则立体3D图像430可能引起眼睛疲劳和疼痛,因此需要被校正。例如,可以将差异d5缩小到在参考差异范围内。替代地,可以将放大后图像的差异调整为放大之前的差异。例如,可以将图像430的差异d5改变为在图像的放大之前存在的图像425中的差异。 
而且,如果立体3D图像420大到不能被校正,则可以二维地显示整个立体3D图像420或立体3D图像420的至少一部分。可以基于专用于这个功能的预定量的资源和处理改变所需的时间量来确定是否二维地显示图像。 
图10图示如何通过图像划分和扭曲(warp)来调整差异的示例。参见图10,左眼图像和右眼图像503和505被一起显示在用于调整差异或深度的显示屏幕500上。如果用户选择左眼图像和右眼图像503和505的部分,则在左眼图像和右眼图像503和505的所选择部分上显示网格, 使得可以将左眼图像和右眼图像503和505中的每一个划分为多个区域。网格中的交叉点被标注。 
网格中的指示器507是具有大于预定阈值的值的点,其选自左眼图像和右眼图像503和505中的每一个中的边缘部分,并且可以通过彼此连接而形成一个或多个平面。如果用户触摸并且然后顺时针地旋转指示器,则当基于左眼图像和右眼图像503和505创建立体3D图像时,指示器的深度可增加。 
可以使用可以在右眼图像505的右侧上设置的色条510来表示立体3D图像的深度。色条510表示对于通过自动会聚(auto-convergence)所获得的默认深度值的相对深度。如果用户触摸并且然后逆时针地旋转指示器,则可以以对于通过自动会聚所获得的深度值的相对深度来显示立体3D图像。为了提供通过自动会聚所获得的深度值和整个图像的深度信息,可以将通过自动会聚所获得的整个深度图显示为3D直方图513,并且可以将通过改变左眼图像和右眼图像503和505的深度而获得的深度图在3D直方图513的下面显示为3D直方图515。如果通过图像划分和扭曲来修改左眼图像和右眼图像503和505之一的深度,则因此自动地修改另一眼图像的深度。 
如果可以对于所有的区域自由地修改左眼图像和右眼图像503和505的深度,则立体3D图像可能变得不自然,因此,可以对于修改左眼图像和右眼图像503和505中的每一个的深度施加限制。即,不将左眼图像和右眼图像503和505的深度修改到下述程度:在存在彼此重叠的两个对象的情况下,在后面的对象会看起来比在前面的对象更突出,或反之亦然。为此,色条510可以基于相邻对象的深度,对于每个对象提供可允许的深度变化范围信息,使得用户不能超出相应的可允许深度变化范围而修改每个对象的深度。可以在防止图像的3D效果失真的同时,通过图像划分和扭曲来有效地修改图像的深度。 
图11A和11B图示如何调整立体3D图像的深度和差异的示例。参见图11A,可以在显示立体3D图像的3D模式屏幕600上提供3D深度设置菜单610。 
在从3D深度设置菜单610选择项目‘3D深度’的情况下,可以显示用于调整整个立体3D图像或立体3D图像的一部分的差异或深度的显示屏幕620,如图11B中所示。可以显示消息窗口621,以向用户提供通知,如图所示。在这种情况下,可以在显示屏幕620上调整3D对象625(例如,图标)的感知深度。 
图12A和12B图示如何使用滚动条来调整整个立体3D图像的深度的示例。参见图12A和12B,可以在显示屏幕620上显示例如包括多个3D图标625的立体3D图像。在显示屏幕620上的立体3D图像的深度可以被配置为响应于向上滚动滚动条630中的滑块而增大,该滚动条630设置在显示屏幕620的左侧,并且响应于向下滚动滚动条630中的滑块而减小。 
响应于向上或向下滚动滚动条630中的滑块,在显示屏幕620上的立体3D图像中的对象625可以被配置为根据相应立体3D图像的深度方面的变化而被放大或缩小。 
参考图13A和13B,响应于接收到捏合放大(pinch-out)输入623,该捏合放大输入是通过使用两个或更多手指多触摸(multi-touch)特定对象并且将手指相对于彼此拖开而创建的,该特定对象的深度可以被配置为例如被调整得增大。在这个示例中,可以响应于捏合放大输入将对象625的深度选择性地调整为被感知为从显示器进一步突出,如图所示。 
参考图14A和14B,响应于接收到捏合缩小(pinch-in)输入633,该捏合缩小输入是通过使用两个或更多手指多触摸特定对象并且将手 指相对于彼此拖近而创建的,该特定对象的深度可以被配置为减小。 
替代地,对象的深度可以被配置为响应于长触摸输入而被调整。 
参考图15,可以在显示屏幕处显示3D图640。3D图640示出在显示屏幕上当前显示的对象的深度。在3D图640上,当前被用户操纵的对象可以以与其他对象不同的颜色被显示。 
参考图16,立体3D图像650可以包括多个3D对象661、662、663。在使用两个手指多触摸特定对象662并且然后将该两个手指彼此拖开或拖近的情况下,如附图标记655和657所指示的,在使用另一个手指按压指定按键的同时,如附图标记653所指示的,对象662的深度可以被配置为被调整。在该情况下,对象662的深度可以被配置为响应于捏合放大输出而增大,并且响应于捏合缩小输入而减小。替代地,与选择按钮653一起的捏合输入可以改变整个立体3D图像650的感知3D深度,而不是如上公开的仅改变对象662的感知3D深度。而且,如上所述,有可能使用各种手势输入来调整对象的深度或差异。 
根据本公开的移动终端和根据本公开的其操作控制方法不限于在此给出的示例性实施例。因此,在此给出的示例性实施例的变化和组合落在本公开的范围内。 
本公开可以被实现为可以被移动终端中包括的处理器(诸如移动站调制解调器(MSM))读取并且可以被写在计算机可读记录介质上的代码。该计算机可读记录介质可以是以计算机可读方式存储数据的任何类型的记录装置。计算机可读记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储器和载波(例如,通过因特网的数据传输)。该计算机可读记录介质可以在连接到网络的多个计算机系统上分布,使得以离散的方式向其写入计算机可读代码并且从其执行该计算机可读代码。本领域内的普通技术人员可以容易地解释用于 实现本公开所需的功能程序、代码和代码段。 
如上所述,根据本公开,有可能响应于放大或缩小立体3D图像而适当地校正落在参考差异范围之外的立体3D图像中的对象的差异。因此,有可能响应于放大或缩小立体3D图像而防止当立体3D图像中的对象落在参考差异范围之外时可能引起的恶心或头疼。 
如在此体现和宽泛地公开的,本公开提供了移动终端和移动终端的操作控制方法,该移动终端能够响应于放大或缩小包括对象的立体三维(3D)图像而校正落在参考差异范围之外的对象的差异范围。 
根据本公开的一个方面,提供了一种移动终端的操作控制方法,所述操作控制方法包括:在显示模块上显示基于第一和第二图像之间的差异而创建的第一立体3D图像;响应于接收到用于改变图像的放大率的输入,改变所述第一和第二图像的放大率;通过相对于从放大率改变后的第一和第二图像中选择的中心对象来移动落在参考差异范围之外的放大率改变后的第一和第二图像中的其他对象以使得移动的对象能够落回所述参考差异范围内,来生成第一和第二校正的图像;并且,在所述显示模块上显示由放大率改变输入所指定的第二立体3D图像的一部分,基于放大率改变后的第一和第二图像之间的差异来创建所述第二立体3D图像。 
根据本公开的另一个方面,提供了一种移动终端,所述移动终端包括:显示模块,其被配置为在其上显示基于第一和第二图像之间的差异而创建的第一立体3D图像;以及控制器,其被配置为响应于接收到用于改变图像的放大率的输入,改变所述第一和第二图像的放大率,并且通过相对于从放大率改变后的第一和第二图像中选择的中心对象来移动落在参考差异范围之外的放大率改变后的第一和第二图像中的其他对象以使得移动的对象能够落回所述参考差异范围内,来创建第一和第二校正的图像,所述控制器被配置为在所述显示模块上显示由 放大率改变输入所指定的第二立体3D图像的一部分,基于放大率改变后的第一和第二图像之间的差异来创建所述第二立体3D图像。 
在本说明书中对于“一个实施例”、“实施例”、“示例实施例”等的任何引用表示在本公开的至少一个实施例中包括结合实施例所描述的特定特征、结构或特性。这样的短语在说明书中的各种位置的出现不必然都指的是同一实施例。而且,当结合任何实施例描述特定的特征、结构或特性时,认为它在本领域技术人员结合其他实施例而实现这样的特征、结构或特性的认知范围内。 
虽然已经参考其多个说明性实施例而描述了实施例,但是应当明白,本领域技术人员可以设计落在本公开的原理的精神和范围内的多个其他修改和实施例。更具体地,在本公开、附图和所附权利要求的范围内的主题组合布置的组件部分和/或布置中,各种改变和修改是可能的。除了在组件部分和/或布置中的变化和修改之外,替代使用对于本领域技术人员也是显然的。 

Claims (15)

1.一种移动终端,包括:
3D显示器,其被配置为显示第一图像和第二图像,以生成包括多个3D对象的3D图像;以及
控制器,其被配置为响应于用户输入改变包括所述第一和第二图像的3D图像的放大率,并且校正在第一缩放图像和第二缩放图像之间的双眼差异,
其中,所述控制器确定所述第一和第二缩放图像之间的双眼差异,确定所述双眼差异是否在差异的指定范围之外,重新定位所述第一或第二缩放图像中的至少一个,使得所述双眼差异在所述差异的指定范围内,并且控制所述3D显示器以显示校正的第一和第二缩放图像,
其中,基于从所述第一和第二缩放图像之间选择的中心对象,所述控制器通过重新定位落在所述差异的指定范围之外的3D对象来重新定位所述第一或第二缩放图像中的至少一个,
其中,如果难以一起重新定位落在所述差异的指定范围之外的所有3D对象,则所述控制器控制所述3D显示器以将落在所述差异的指定范围之外的所述3D对象中的一些显示为二维2D对象。
2.根据权利要求1所述的移动终端,其中
基于所述多个3D对象的中心对象来确定所述第一和第二缩放图像之间的双眼差异。
3.根据权利要求2所述的移动终端,其中,所述控制器通过移动所述第一和第二缩放图像的多个3D对象的中心对象以建立零视差,来校正在所述第一缩放图像和所述第二缩放图像之间的双眼差异。
4.根据权利要求2所述的移动终端,其中,所述控制器响应于移动缩放的3D图像的请求来在所述3D显示器上移动所述第一缩放图像和第二缩放图像。
5.根据权利要求1所述的移动终端,其中,当所述第一和第二图像的放大率超过参考水平时,所述控制器控制所述3D显示器来显示与缩放的第一和第二图像相对应的2D图像。
6.根据权利要求1所述的移动终端,其中,所述控制器进行内插,以填充由重新定位所述第一或第二缩放图像而创建的孔洞区域。
7.根据权利要求2所述的移动终端,其中,所述控制器响应于包括捏合缩小输入或捏合放大输入的预定义手势输入来校正从多个3D对象选择的对象的双眼视差。
8.根据权利要求1所述的移动终端,其中,所述控制器控制所述3D显示器来显示用于通过图像划分和扭曲而调整所述3D图像的感知深度的菜单。
9.根据权利要求1所述的移动终端,其中,响应于预定义输入,所述控制器控制所述3D显示器将从所述第一和第二缩放图像中选择的一个或多个对象显示为3D对象,并且将在所述第一和第二缩放图像中的其他未选择对象显示为2D对象。
10.根据权利要求1所述的移动终端,其中,所述控制器控制所述3D显示器来显示与显示的第一和第二缩放图像相对应的立体信息,所述立体信息被显示为数值数据、图形或图像中的至少一个。
11.一种在移动终端上控制3D显示器的方法,所述方法包括:
显示第一图像和第二图像,以生成包括多个3D对象的3D图像;
响应于用户输入改变包括所述第一和第二图像的3D图像的放大率;以及
校正在第一和第二缩放图像之间的双眼差异,
其中,校正所述双眼差异包括:
确定第一缩放图像和第二缩放图像之间的双眼差异;
确定所述双眼差异是否在差异的指定范围之外;
重新定位所述第一或第二缩放图像中的至少一个,使得所述双眼差异在所述差异的指定范围内;以及
在所述3D显示器上显示校正的第一和第二缩放图像,
其中,重新定位所述第一或第二缩放图像中的至少一个包括:基于从所述第一和第二缩放图像之间选择的中心对象,通过重新定位落在所述差异的指定范围之外的3D对象来重新定位所述第一或第二缩放图像中的至少一个,
其中,显示校正的第一和第二缩放图像包括:如果难以一起重新定位落在所述差异的指定范围之外的所有3D对象,则将落在所述差异的指定范围之外的所述3D对象中的一些显示为二维2D对象。
12.根据权利要求11所述的方法,其中,基于所述多个3D对象的中心对象来确定所述第一和第二缩放图像之间的双眼差异。
13.根据权利要求12所述的方法,其中,校正所述双眼差异进一步包括:移动所述第一和第二缩放图像的多个3D对象中的一个以建立零视差。
14.根据权利要求12所述的方法,进一步包括:
响应于移动缩放的3D图像的请求来在所述3D显示器上移动所述第一和第二缩放图像。
15.根据权利要求11所述的方法,进一步包括:
当所述第一和第二图像的放大率超过参考水平时,在所述3D显示器上显示与缩放的第一和第二图像相对应的2D图像。
CN201110384922.3A 2010-11-26 2011-11-28 移动终端及其操作控制方法 Expired - Fee Related CN102479052B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0118918 2010-11-26
KR1020100118918A KR101727899B1 (ko) 2010-11-26 2010-11-26 휴대 단말기 및 그 동작 제어방법

Publications (2)

Publication Number Publication Date
CN102479052A CN102479052A (zh) 2012-05-30
CN102479052B true CN102479052B (zh) 2014-10-22

Family

ID=45470262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110384922.3A Expired - Fee Related CN102479052B (zh) 2010-11-26 2011-11-28 移动终端及其操作控制方法

Country Status (6)

Country Link
US (1) US9088771B2 (zh)
EP (1) EP2458880B1 (zh)
JP (1) JP5357238B2 (zh)
KR (1) KR101727899B1 (zh)
CN (1) CN102479052B (zh)
TW (1) TWI471820B (zh)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
US9152258B2 (en) * 2008-06-19 2015-10-06 Neonode Inc. User interface for a touch screen
EP2532166B1 (en) * 2010-04-01 2017-07-19 Nokia Technologies Oy Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair
JP5586377B2 (ja) * 2010-08-17 2014-09-10 オリンパスイメージング株式会社 表示装置
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2013042311A1 (ja) * 2011-09-20 2013-03-28 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
JP2013097593A (ja) * 2011-11-01 2013-05-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
GB2498954B (en) * 2012-01-31 2015-04-15 Samsung Electronics Co Ltd Detecting an object in an image
CN104137539B (zh) * 2012-02-23 2016-07-27 富士胶片株式会社 立体图像显示控制装置、具有该装置的摄像装置及立体图像显示控制方法
CN103312863A (zh) * 2012-03-08 2013-09-18 中兴通讯股份有限公司 移动终端视频的呈现方法及装置
US20150070477A1 (en) * 2012-03-30 2015-03-12 Sony Corporation Image processing device, image processing method, and program
US9176587B2 (en) 2012-06-29 2015-11-03 Panasonic Intellectual Property Management Co., Ltd. Tactile sense presentation device and tactile sense presentation method
CN102883120B (zh) * 2012-07-24 2016-07-20 冠捷显示科技(厦门)有限公司 一种双画面图像显示装置及控制方法
KR101971624B1 (ko) 2012-07-25 2019-04-23 삼성전자주식회사 이동 단말의 정보 표시 방법, 디스플레이 장치의 정보 제공 방법, 이동 단말의 제어 신호 생성 방법
TWI478046B (zh) * 2012-12-28 2015-03-21 Qisda Corp 數位相機操作方法以及使用此方法之數位相機
CN103049175B (zh) 2013-01-22 2016-08-10 华为终端有限公司 预览画面呈现方法、装置及终端
CN103970458A (zh) 2013-01-30 2014-08-06 国际商业机器公司 用于对多个条件的取值进行调节的方法和系统
US10129538B2 (en) * 2013-02-19 2018-11-13 Reald Inc. Method and apparatus for displaying and varying binocular image content
US10261612B2 (en) * 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US9239661B2 (en) * 2013-03-15 2016-01-19 Qualcomm Incorporated Methods and apparatus for displaying images on a head mounted display
US9930313B2 (en) * 2013-04-01 2018-03-27 Lg Electronics Inc. Image display device for providing function of changing screen display direction and method thereof
TWI547142B (zh) 2013-04-02 2016-08-21 杜比實驗室特許公司 引導的3d顯示器適配
CN103297501A (zh) * 2013-05-07 2013-09-11 杭州玄鸟数字技术有限公司 全息投影实时交互系统
US20160212404A1 (en) * 2013-08-23 2016-07-21 The Schepens Eye Research Institute, Inc. Prevention and Treatment of Myopia
CN104461601B (zh) * 2013-09-25 2017-11-28 联想(北京)有限公司 一种参数值调整方法及电子设备
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
KR20150042574A (ko) * 2013-10-11 2015-04-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application
KR102271853B1 (ko) * 2014-03-21 2021-07-01 삼성전자주식회사 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
TWI566576B (zh) * 2014-06-03 2017-01-11 宏碁股份有限公司 立體影像合成方法及裝置
US9473764B2 (en) * 2014-06-27 2016-10-18 Microsoft Technology Licensing, Llc Stereoscopic image display
US9911235B2 (en) * 2014-11-14 2018-03-06 Qualcomm Incorporated Spatial interaction in augmented reality
TWI556664B (zh) * 2014-11-24 2016-11-01 To achieve a wireless interaction between an electronic device and an initiator
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
DE102015100680B4 (de) * 2015-01-19 2016-10-13 Carl Zeiss Ag Verfahren und Vorrichtungen zur Umgebungsdarstellung
KR102317820B1 (ko) * 2015-08-12 2021-10-26 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
US11889224B2 (en) * 2015-12-31 2024-01-30 C. Douglass Thomas Electronic cooking assistant
CN106484416B (zh) * 2016-09-30 2021-02-05 腾讯科技(北京)有限公司 一种信息处理方法及终端
CN107959846B (zh) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 影像显示设备及影像显示方法
JP7350510B2 (ja) * 2019-05-14 2023-09-26 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US11280630B2 (en) * 2019-11-27 2022-03-22 Zoox, Inc. Updating map data
CN114534252A (zh) * 2020-11-25 2022-05-27 苏州佳世达电通有限公司 显示装置及其显示方法
KR20220107831A (ko) * 2021-01-26 2022-08-02 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN113271451B (zh) * 2021-04-22 2023-02-28 武汉联影智融医疗科技有限公司 3d成像视差调整方法、控制设备和3d成像系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1774937A (zh) * 2003-04-17 2006-05-17 夏普株式会社 三维图像生成装置、三维图像再现装置、三维图像处理装置、三维图像处理程序及记录该程序的记录介质
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653790B2 (ja) * 1995-05-23 2005-06-02 松下電器産業株式会社 立体電子ズーム装置及び立体画質制御装置
US20020141635A1 (en) 2001-01-24 2002-10-03 Swift David C. Method and system for adjusting stereoscopic image to optimize viewing for image zooming
JP4222817B2 (ja) 2002-09-27 2009-02-12 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
JP4259913B2 (ja) 2003-05-08 2009-04-30 シャープ株式会社 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
WO2004093467A1 (ja) 2003-04-17 2004-10-28 Sharp Kabushiki Kaisha 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
US8619121B2 (en) 2005-11-17 2013-12-31 Nokia Corporation Method and devices for generating, transferring and processing three-dimensional image data
KR100704634B1 (ko) * 2005-12-19 2007-04-09 삼성전자주식회사 사용자의 위치에 따른 입체 영상을 디스플레이하는 장치 및방법
KR100894874B1 (ko) * 2007-01-10 2009-04-24 주식회사 리얼이미지 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법
JP2009246625A (ja) 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
JP4811452B2 (ja) 2008-11-19 2011-11-09 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5355208B2 (ja) 2009-05-01 2013-11-27 富士フイルム株式会社 3次元表示装置及びデジタルズーム補正方法
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
US9380292B2 (en) * 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
KR101626621B1 (ko) * 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
EP2553931A1 (en) * 2010-04-01 2013-02-06 Thomson Licensing Subtitles in three-dimensional (3d) presentation
GB2479784B (en) * 2010-04-23 2012-11-07 Nds Ltd Image scaling
JP5186715B2 (ja) 2010-06-14 2013-04-24 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム
WO2012037075A1 (en) * 2010-09-14 2012-03-22 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
KR20120055991A (ko) * 2010-11-24 2012-06-01 삼성전자주식회사 영상처리장치 및 그 제어방법
JP5879713B2 (ja) * 2010-12-09 2016-03-08 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9189825B2 (en) * 2011-04-12 2015-11-17 Lg Electronics Inc. Electronic device and method for displaying stereoscopic image
JP2012244396A (ja) * 2011-05-19 2012-12-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US20130009949A1 (en) * 2011-07-05 2013-01-10 Texas Instruments Incorporated Method, system and computer program product for re-convergence of a stereoscopic image
KR101899972B1 (ko) * 2011-12-21 2018-09-18 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR101873759B1 (ko) * 2012-04-10 2018-08-02 엘지전자 주식회사 영상 표시 장치 및 그 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
CN1774937A (zh) * 2003-04-17 2006-05-17 夏普株式会社 三维图像生成装置、三维图像再现装置、三维图像处理装置、三维图像处理程序及记录该程序的记录介质

Also Published As

Publication number Publication date
EP2458880B1 (en) 2017-05-10
EP2458880A3 (en) 2013-03-27
KR101727899B1 (ko) 2017-04-18
JP5357238B2 (ja) 2013-12-04
TWI471820B (zh) 2015-02-01
TW201224993A (en) 2012-06-16
CN102479052A (zh) 2012-05-30
US9088771B2 (en) 2015-07-21
JP2012114920A (ja) 2012-06-14
KR20120057258A (ko) 2012-06-05
EP2458880A2 (en) 2012-05-30
US20120133645A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
CN102479052B (zh) 移动终端及其操作控制方法
US9323324B2 (en) Mobile terminal and operation control method thereof
CN102346642B (zh) 移动终端和控制移动终端的操作的方法
CN102566747B (zh) 移动终端和用于控制移动终端的操作的方法
CN103455138B (zh) 移动终端和移动终端的控制方法
US9298745B2 (en) Mobile terminal capable of displaying objects corresponding to 3D images differently from objects corresponding to 2D images and operation control method thereof
CN102411474B (zh) 移动终端及控制移动终端的操作的方法
CN102385476B (zh) 移动终端及其控制方法
CN103369130B (zh) 显示设备及其控制方法
CN104375632A (zh) 显示装置及其控制方法
US20130167092A1 (en) Electronic device having 3-dimensional display and method of operating thereof
EP2334087A2 (en) Method for displaying broadcasting data and corresponding mobile terminal
US20120069000A1 (en) Mobile terminal and method for controlling operation of the mobile terminal
CN102446064A (zh) 移动终端及其控制方法
CN104423886A (zh) 移动终端及其控制方法
CN102546937A (zh) 能够提供多人游戏的移动终端及其操作控制方法
KR20130065074A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20120040766A (ko) 휴대 단말기 및 그 동작 제어방법
KR20120048396A (ko) 휴대 단말기 및 그 동작 제어방법
KR20130066338A (ko) 휴대 단말기 및 그 동작방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141022

Termination date: 20181128