CN102333228B - 电子设备及其控制方法 - Google Patents

电子设备及其控制方法 Download PDF

Info

Publication number
CN102333228B
CN102333228B CN201110156750.4A CN201110156750A CN102333228B CN 102333228 B CN102333228 B CN 102333228B CN 201110156750 A CN201110156750 A CN 201110156750A CN 102333228 B CN102333228 B CN 102333228B
Authority
CN
China
Prior art keywords
image
picture
stereo
camera module
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110156750.4A
Other languages
English (en)
Other versions
CN102333228A (zh
Inventor
金佶仙
洪星龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100055943A external-priority patent/KR101673409B1/ko
Priority claimed from KR1020100078412A external-priority patent/KR101666919B1/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN102333228A publication Critical patent/CN102333228A/zh
Application granted granted Critical
Publication of CN102333228B publication Critical patent/CN102333228B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明涉及电子设备及其控制方法,提供了一种电子设备和控制电子设备的方法。所述电子设备根据从在其显示单元上显示的预览图像中选择的特定对象来改变在其显示单元上显示的立体图像的深度。当改变电子设备的照相机模块的变焦状况时,所述电子设备根据改变的变焦状况自动地调整立体图像的深度。

Description

电子设备及其控制方法
相关申请的交叉引用
按照35U.S.C.§119(a),本申请要求了于2010年6月14日提出的韩国专利申请第10-2010-0055943号以及于2010年8月13日提出的韩国专利申请第10-2010-0078412号的在先提交日和优先权,在此将其全部引用加以结合。
技术领域
本公开内容涉及一种电子设备及其控制方法。
背景技术
由于近来趋向于在电子设备中添加用于3D效果的功能,需要改进电子设备的硬件和软件。
发明内容
本发明的示例性实施例提供了一种电子设备和用于控制所述电子设备的方法,其可以在产生立体图像或改变所述立体图像的深度的同时增强用户便利性。
依照本发明的一个方面,提供了一种电子设备,包括:被配置为显示图像的显示单元;至少第一照相机模块和第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和控制器。所述控制器被配置为:合成从第一照相机模块获取的第一图像和从第二照相机模块获取的第二图像以产生立体图像;控制显示单元以显示所述立体图像;控制所述显示单元以显示包括至少所述第一图像或所述第二图像的第三图像;接收所述第三图像的至少一个对象的特定对象的选择;并且控制所述显示单元以根据选择的特定对象来控制显示的立体图像的深度。
依照本发明的另一方面,提供了一种电子设备,包括:多个照相机模块,所述多个照相机模块包括至少第一照相机模块和第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和控制器。所述控制器被配置为:合成从所述第一照相机模块获取的第一图像和从所述第二照相机模块获取的第二图像以产生立体图像;并且根据所述多个照相机模块的变焦状况来控制所述立体图像的深度。
依照本发明的另一方面,提供了一种电子设备,包括:被配置为显示图像并且接收触摸输入的触摸屏;至少第一照相机模块和第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和控制器。所述控制器被配置为:合成从所述第一照相机模块获取的第一图像和从所述第二照相机模块获取的第二图像以产生立体图像;控制所述触摸屏以显示所述立体图像;并且控制所述触摸屏以根据在经由所述触摸屏接收的多个触摸输入位置之间的距离变化来控制显示的立体图像的深度。
依照本发明的另一方面,提供了一种电子设备,包括:被配置为显示图像并且接收触摸输入的触摸屏;多个照相机模块,包括至少第一照相机模块和第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和控制器。所述控制器被配置为:合成从所述第一照相机模块获取的第一图像和从所述第二照相机模块获取的第二图像以产生立体图像;控制所述触摸屏以显示滚动对象;并且通过根据所述滚动对象的位置来调整所述第一图像和所述第二图像的汇聚点而控制所述立体图像的深度。
依照本发明的另一方面,提供了一种电子设备,包括:被配置为显示图像的显示单元;至少第一照相机模块和第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和控制器。所述控制器被配置为:合成从所述第一照相机模块获取的第一图像和从所述第二照相机模块获取的第二图像以产生立体图像;控制所述显示单元以显示所述立体图像;控制所述显示单元以显示包括至少所述第一图像或所述第二图像的第三图像;接收所述第三图像的至少一个对象的特定对象的选择;接收选择的特定对象的移动的输入;并且控制所述显示单元以根据选择的特定对象的移动来控制显示的立体图像的深度。
依照本发明的另一方面,提供了一种控制电子设备的方法,所述电子设备包括多个照相机模块。所述方法包括:经由控制器合成从所述多个照相机模块中的第一照相机模块获取的第一图像和从所述多个照相机模块中的第二照相机模块获取的第二图像以产生立体图像;经由所述控制器控制显示单元以显示所述立体图像并且显示至少包括所述第一图像或第二图像的第三图像;经由所述控制器接收所述第三图像的至少一个对象的特定对象的选择;并且经由所述控制器控制所述显示单元以根据选择的特定对象来控制显示的立体图像的深度。
依照本发明的另一方面,提供了一种控制电子设备的方法,所述电子设备包括多个照相机模块。所述方法包括:经由控制器合成从所述多个照相机模块中的第一照相机模块获取的第一图像和从所述多个照相机模块中的第二照相机模块获取的第二图像以产生立体图像;并且经由所述控制器根据所述多个照相机模块的变焦状况来控制所述立体图像的深度。
依照本发明的另一方面,提供了一种控制电子设备的方法,所述电子设备包括多个照相机模块。所述方法包括经由控制器合成从所述多个照相机模块中的第一照相机模块获取的第一图像和从所述多个照相机模块中的第二照相机模块获取的第二图像以产生立体图像;经由所述控制器控制显示单元以显示立体图像;经由所述控制器接收所述立体图像的至少一个对象的特定对象的选择;经由所述控制器接收所述特定对象的移动的输入;并且经由所述控制器控制所述显示单元以根据选择的特定对象的移动来控制显示的立体图像的深度。
附图说明
附图图示了本发明的实施例并且与说明书一起用来解释本发明的原理,所述附图用来提供对本发明的进一步理解并且被并入并构成此说明书的一部分。
图1图示了依照本发明实施例的电子设备的框图。
图2和3是图示依照本发明实施例的、利用双目视差显示立体图像的方法的视图。
图4A-5B是图示依照本发明实施例的电子设备的外观的视图。
图6A和6B是图示通过使用在依照本发明实施例的电子设备中提供的多个照相机模块拍摄多个图像来根据双目视差产生立体图像的示例的视图。
图7是图示依照本发明实施例的控制移动终端的方法的流程图。
图8是依照本发明实施例的图示显示通过重叠多个图像所获得的合成图像作为预览图像的示例的视图。
图9是图示显示通过重叠多个图像所获得的合成图像作为在依照本发明实施例的电子设备中包括的预览图像的示例的视图。
图10是依照本发明实施例图示显示从多个照相机模块中的任何一个接收的图像作为预览图像的示例的视图。
图11到13是依照本发明实施例图示显示从彼此独立的多个照相机模块接收的多个图像作为预览图像的示例的视图。
图14是依照本发明实施例图示显示立体图像和从多个照相机模块中的任何一个接收的图像作为预览图像的示例的视图。
图15是图示经由在依照本发明实施例的电子设备中的用户操纵来调整第一图像和立体图像的显示位置的示例的视图。
图16和17是图示在依照本发明实施例的电子设备中从预览图像中选择特定对象的示例的视图。
图18A和18B是图示在依照本发明实施例的电子设备中根据从预览图像中选择的对象来调整立体图像的深度的示例的视图。
图19是图示控制依照本发明实施例的电子设备的方法的流程图。
图20是图示在依照本发明实施例的电子设备的显示单元上显示立体图像的预览图像的示例的视图。
图21是图示在依照本发明实施例的电子设备中从预览图像中选择特定对象的示例的视图。
图22是依照本发明实施例图示当改变多个照相机模块的变焦状况时自动地调整立体图像的深度的示例的视图。
图23是图示控制依照本发明实施例的电子设备的方法的流程图。
图24是图示在依照本发明实施例的电子设备中根据在多个多触摸点之间的距离变化来调整立体图像的深度的示例的视图。
图25是图示控制依照本发明实施例的电子设备的方法的流程图。
图26是图示在依照本发明实施例的电子设备的显示单元上显示滚动对象的示例的视图。
图27A-28B是图示在依照本发明实施例的电子设备中根据滚动对象的位置来调整立体图像的深度的示例的视图。
图29是图示控制依照本发明实施例的电子设备的方法的流程图。
图30是图示在依照本发明实施例的电子设备中根据选择的对象的移动来调整立体图像的深度的示例的视图。
具体实施方式
现在将参考附图更充分地描述本发明,在附图中示出了本发明的示例性实施例。然而,本发明可以依照许多不同的形式实施并且不应当被解释为限于这里阐明的实施例;相反,提供这些实施例以使得此公开彻底和完整,并且向本领域技术人员充分传达了本发明的原理。
在下面描述中,仅仅考虑到描述方便而向电子设备的组件赋予后缀“模块”和“单元”并且不具有彼此区分的意思和功能。
在说明书中描述的电子设备例如可以包括智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、数字电视、台式计算机、机顶盒、数字照相机和导航系统。
图1是依照本发明实施例的电子设备100的框图。也可以提供其它实施例、配置和布置。如所示,电子设备100可以包括无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190。尽管图1示出了具有各个组件的电子设备100,但是应当理解并不要求实现所有图示的组件。作为选择,可以实现更多或更少的组件。
无线通信单元110包括一个或多个组件,所述组件允许在电子设备100和电子设备100位于其内的无线通信系统或网络之间的无线通信。例如,无线通信单元110包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114和位置信息模块115。对于非电子(non-electronic)设备来说,无线通信单元110可以被替换为有线通信单元。无线通信单元110和有线通信单元可以被统称为通信单元。
广播接收模块111经由广播信道从外部广播管理实体接收广播信号和/或广播相关信息。广播信道可以包括卫星信道和/或地面信道。
广播管理实体可以指用于发送广播信号和/或广播相关信息的系统。广播管理实体可以是用于产生和发送广播信号和/或广播相关信息的服务器或用于接收预先产生的广播信号和/或广播相关信息并且把所述广播信号和/或广播相关信息发送到电子设备100的服务器。广播信号不仅可以包括电视广播信号、无线电广播信号和数据广播信号,而且可以包括采用电视广播信号组合无线电广播信号的形式的信号。
广播相关信息可以是关于广播信道、广播节目或广播服务供应商的信息。广播相关信息甚至可以经由移动通信网络提供。在后一种情况中,广播相关信息可以经由移动通信模块112接收。广播相关信息的示例包括数字多媒体广播(DMB)的电子节目指南(EPG)和手持式数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以接收从各种类型的广播系统发送的广播信号。作为非限制性示例,广播系统包括地面数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、手持式数字视频广播(DVB-H)、被称为仅媒体前向链路的数据广播系统和综合业务地面数字广播(ISDB-T)。广播接收模块111还可以接收多播信号。由广播接收模块111接收的广播信号和/或广播相关信息可以被存储在适当的存储设备中,诸如存储器160。
移动通信模块112经由移动通信网络向/从基站、外部终端或服务器中的至少一个发送/接收无线电信号。无线电信号例如可以表示语音呼叫信号、视频通话呼叫信号或依照文本/多媒体消息的发送和接收的各种形式的数据。
无线因特网模块113为电子设备100支持因特网接入。此无线因特网模块113可以被内部或外部耦合到电子设备100。用于无线因特网的适当技术包括但不限于WLAN(无线LAN)、(无线宽带)、(全球微波接入互操作性)和HSDPA(高速下行链路分组接入)。在非电子设备中无线因特网模块113可以被替换为有线因特网模块。无线因特网模块113和有线因特网模块可以被统称为因特网模块。
短距离通信模块114便于相对短距离的通信。用于短距离通信的适当技术包括但不限于射频识别(RFID)、红外线数据协会(IrDA)、超宽频带(UWB)以及诸如蓝牙和紫蜂的联网技术。
位置信息模块115识别或获得电子设备100的位置。位置信息模块115可以通过使用全球导航卫星系统(GNSS)来获得位置信息。GNSS是用于描述无线电导航卫星系统的术语,所述无线电导航卫星系统被配置为当绕地球旋转时发送能够确定它们在地表上或接近地表的位置的参考信号。GNSS包括美国运行的全球定位系统(GPS);欧洲运行的伽利略;俄罗斯运行的全球轨道导航卫星系统(GLONASS);中国运行的指南针(COMPASS);和日本运行的准天顶卫星系统(QZSS)。
作为GNSS的典型示例,位置信息模块115是GPS模块。位置信息模块115可以计算与在一个点或对象和至少三个卫星之间的距离相关的信息以及与测量距离信息时的时间相关的信息,并且向获得的距离信息应用三角法,以便依照预定时间的纬度、经度和高度获得关于所述点或对象的三维位置信息。此外,还可以使用通过使用三个卫星来计算位置和时间信息并且使用另一卫星来校正计算的位置和时间信息的方法。位置信息模块115连续实时地计算当前位置并且根据位置信息计算速度信息。
继续参考图1,音频/视频(A/V)输入单元120可以被配置为向电子设备100提供音频或视频信号输入。A/V输入单元120可以包括照相机模块121和麦克风122。照相机模块121处理由图像传感器在拍照模式或视频通话模式中获得的静止图片或视频的图像帧。经处理的图像帧可以显示在显示单元151上。
由照相机模块121处理的图像帧可以被存储在存储器160中或者可以通过无线通信单元110被发送到外部设备。选择性地,如果需要,电子设备100可以包括两个或多个照相机模块121。
当电子设备100处于诸如电话呼叫模式、记录模式和/或语音识别模式的特定模式中时,麦克风122接收外部音频信号。接收的音频信号被处理并转换为数字数据。在呼叫模式中,经处理的数字数据被变换成可经由移动通信模块112发送到移动通信基站的格式然后被输出。此外,电子设备100并且特别是A/V输入单元120可以包括噪声去除算法以去除在接收外部音频信号的过程中所产生的噪声。
用户输入单元130响应于一个或多个相关联的输入设备的用户操纵来产生输入数据。这种设备的示例包括小键盘、圆顶开关、触摸板(例如静态压力/电容)、慢进轮和慢进开关。如下面将描述的,用户输入单元130的特定示例是其中触摸板与显示器组合的触摸屏。
感测单元140提供了电子设备100的各个方面的状态测量。例如,感测单元140可以检测电子设备100的打开/闭合状态、电子设备100的组件(例如,显示屏和小键盘)的相对位置、电子设备100或所述电子设备100的组件的位置变化、是否存在用户与电子设备100的接触、电子设备100的朝向和/或所述电子设备100的加速度/减速度。
作为示例,电子设备100可以被配置为滑动型电子设备,其中感测单元140可以感测电子设备100的滑动部分是打开还是闭合的。感测单元140还可以感测是否存在由电源单元190提供的电力或者在接口单元170和外部设备之间是否存在耦合或其它连接。
输出单元150产生与视觉、听觉和触觉有关的输出。输出单元150可以包括显示单元151、音频输出模块152、警报模块153、触觉模块154。
显示单元151显示由电子设备100处理的信息。例如,当电子设备100处于呼叫模式中时,显示单元151可以显示与呼叫相关联的用户界面(UI)或图形用户界面(GUI)。如果电子设备100处于视频通信模式或拍照模式中,那么显示单元151可以显示拍照和/或接收的图片、UI或GUI。
显示单元151可以包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器或3维显示器。电子设备100可以包括一个或多个这种显示器。
显示单元151可以具有透明或透光型配置,以下被称为透明显示器。透明OLED(TOLED)是透明显示器的一个示例。显示单元151的背面配置也可以具有透光型配置。在此配置中,用户能够经由终端主体的显示单元151占据的区域看见位于所述终端主体后面的对象。
可以提供至少两个显示单元151。例如,多个显示单元151可以在电子设备100的单个面上彼此相互间隔提供或者内置于一个主体内。作为选择,多个显示单元151中的每个可以提供在电子设备100的不同面上。
如果显示单元151和用于检测触摸动作的传感器(以下被称为‘触摸传感器’)采用相互分层结构(以下被称作‘触摸屏’)构成,那么显示单元151可以被用作为输入设备和输出设备。例如,触摸传感器可以包括触摸薄膜、触摸片或触摸板。
触摸传感器可以被配置为把施加到显示单元151的特定部分的压力或从所述显示单元151的特定部分产生的静电容变化转换为电输入信号。触摸传感器可以检测触摸压力以及触摸的触摸位置或幅度。
如果对触摸传感器进行触摸输入,那么对应于触摸输入的信号(多个)被转送到触摸控制器(未示出)。触摸控制器处理该信号(多个)继而把相应的数据转送到控制器180。因此,控制器180可以确定显示单元151的哪个部分被触摸。
继续参考图1,可以在触摸屏包围的或在所述触摸屏周围的电子设备100内提供接近传感器141。接近传感器141可以在没有机械接触的情况下使用电磁场强度或红外线来检测是否存在接近特定的检测表面的对象或在所述接近传感器141周围存在的对象。据此,接近传感器141可以比接触型传感器具有更大的耐用性和更大的实用性。
接近传感器141可以包括透射光电传感器、直接反射光电传感器、镜面反射光电传感器、射频振荡接近传感器、静电容接近传感器、磁接近传感器或红外接近传感器。如果触摸屏是静电型触摸屏,那么接近传感器141可以使用电场依照指示器接近所产生的变化来检测指示器的接近,并且所述触摸屏(触摸传感器)可以被分类为接近传感器141。
其中指示器在不接触触摸屏的情况下接近触摸屏而仍被认为位于触摸屏上的动作被称为‘接近触摸’。其中指示器实际上已经触摸触摸屏的动作被称为‘接触触摸’。由指示器在触摸屏上接近触摸的位置指的是当指示器执行接近触摸时指示器与触摸屏垂直相对的位置。
接近传感器141可以检测接近触摸和/或接近触摸模式(例如,接近触摸距离、接近触摸持续时间、接近触摸位置、接近触摸移位状态等)。可以在触摸屏上显示对应于检测的接近触摸动作和/或检测的接近触摸模式的信息。
控制器180(图1)依照指示器的接近深度和位置把接近触摸识别为各种输入信号之一。控制器180依照各种输入信号执行各个操作控制。
再次参照图1,音频输出模块152可以在例如呼叫接收模式、呼叫发起模式、记录模式、语音识别模式或广播接收模式中输出从无线通信单元110接收的音频数据。音频输出模块152可以输出在存储器160中存储的音频数据。音频输出模块152可以输出与电子设备100执行的功能有关的音频信号(例如,呼叫信号接收声音、消息接收声音等)。音频输出模块152例如可以包括接收器、扬声器或蜂鸣器。
警报模块153输出用于通知出现与电子设备100相关联的特定事件的信号。典型的事件包括呼叫信号接收、消息接收、键信号输入和触摸输入。警报模块153经由振动以及视频信号或音频信号来输出用于通知事件出现的信号。视频信号经由显示单元151输出并且音频信号经由音频输出模块152输出。从而,至少显示模块151或音频输出模块152可以被认为是警报模块153的一部分。
触觉模块154可以产生可以被用户感测的各种触觉效果。振动是触觉模块154产生的代表性触觉效果。从触觉模块154产生的振动的强度和模式是可控制的。例如,彼此不同的振动可以合成在一起输出或者可以按顺序输出。
触觉模块154可以产生除振动之外的各种触觉效果。例如,触觉模块154可以产生由相对于触摸的皮肤垂直移动的针排列、经由喷射孔的喷气力、经由吸气孔的吸气力所引起的效果,在皮肤表面上掠过的效果、与电极接触的效果、静电力的效果和/或使用吸热或发热设备的热/冷感测的效果。
触觉模块154可以被配置为经由直接接触提供触觉效果。触觉模块154还可以被配置为使用户能够经由手指或手臂的肌肉感测而感受到触觉效果。依照电子设备100的配置,可以提供两个或多个触觉模块154。
存储器160被配置为存储用于控制器180操作的程序。作为选择,存储器160可以临时存储输入/输出数据(例如,电话簿、消息、静止图片、活动图片等)。存储器160可以存储当触摸屏接收触摸输入时输出的各种模式的振动和声音数据。
存储器160例如可以包括闪速存储器、硬盘、多媒体卡微型存储器、卡型存储器(例如,SD存储器、XD存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘或光盘。电子设备100可以与经由因特网执行存储器160的存储功能的网络存储设备相关联地操作。
接口单元170把电子设备100与外部设备耦合。接口单元170从外部设备接收数据。接口单元170被提供有电力并且可以被配置为向电子设备100内的元件递送电力。接口单元170可以被配置为使数据能够从电子设备100转送到外部设备。接口单元170可以被配置为包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于耦合到具有识别模块的设备的端口、音频输入/输出(I/O)端口、视频输入/输出(I/O)端口或耳机端口。
识别模块(未示出)是用于存储用于验证电子设备100的使用权限的各种类型的信息的芯片或卡,并且可以包括用户识别模块(UIM)、订户识别模块(SIM)和/或通用订户识别模块(USIM)。装备有以上识别模块的设备(以下被称为‘识别设备’)可以采用智能卡形式制造。识别设备可经由相应的端口连接到电子设备100。
接口单元170可以被配置为用于从被连接到电子设备100的托架向电子设备100提供电力的通道。接口单元170可以便于向电子设备100递送由用户经由托架输入的各种命令信号。经由托架输入的各个命令信号或电力可以作为用于识别电子设备100被正确地加载到托架中的信号。
控制器180典型地控制电子设备100的整体操作。例如,控制器180执行与语音呼叫、数据通信和视频会议相关联的控制和处理。控制器180可以包括提供多媒体重放的多媒体模块181。多媒体模块181可以被配置为控制器180的一部分或者可以被配置为独立的组件。控制器180还可以执行用于把在触摸屏上执行的书写输入识别为字符和/或把在触摸屏上执行的绘图输入识别为字符或图像的模式识别处理。
电源单元190提供电子设备100的各个组件所要求的电力。电源可以是内部电源、外部电源或其组合。
图2和3是图示依照本发明的、利用双目视差来显示立体图像的方法的视图。图2图示了其中使用双凸透镜阵列的方法并且图3图示了其中使用视差栅的方法。
双目视差指的是在人类左右眼视觉之间的差异。当人类大脑把左眼看见的图像与右眼看见的图像合成时,产生其中合成图像被认为具有深度的立体效果。以下,其中人依照双目视差感受立体效果的现象被认为是立体视觉并且用于导致立体视觉的图像被认为是三维立体图像。另外,当在图像中包括的特定对象导致立体视觉时,相应的对象被认为是立体对象。
依照双目视差来显示三维立体图像的方法被划分为其中要求特定眼镜的眼镜型和其中不要求眼镜的非眼镜型。眼镜型方法包括使用具有波长选择性的有色眼镜,使用依照偏振差异而具有光屏蔽效果的偏振眼镜或时分眼镜来在眼睛的潜像时间内交替地提供左右图像。还有一种方法,把具有不同透射率的滤色片安装到左右眼镜中来依照由透射率差异所引起的视力计时间差来获得相对于左右移动的立体效果。
其中立体效果并非是由观察者产生而是由图像显示表面产生的非眼镜型方法包括视差栅方法、双凸透镜方法或微透镜阵列方法。
参照图2,为了显示三维立体图像,显示单元151包括双凸透镜阵列11a。双凸透镜阵列11a位于显示表面13与左右眼睛12a和12b之间,在显示表面13上在水平方向上交替地布置将被输入到左眼12a的像素L和将被输入到右眼12b的像素R。双凸透镜阵列11a相对于将被输入到左眼12a的像素L和将被输入到右眼12b的像素R提供了光可区分方向性。通过双凸透镜阵列11a的图像被由左眼12a和右眼12a分别观察,并且人类大脑把通过左眼12a看见的图像与通过右眼12b看见的图像合成以便观察三维立体图像。
参照图3,为了显示三维立体图像,显示单元151包括垂直网格视差栅11b。视差栅11b位于显示表面13与左右眼睛12a和12b之间,在显示表面13上在水平方向上交替地布置将被输入到左眼12a的像素L和将被输入到右眼12b的像素R。依照这种方式,通过垂直网格光圈由左眼12a和右眼12b分别地观察图像。人类大脑把通过左眼12a看见的图像与通过右眼12b看见的图像合成以便观察三维立体图像。视差栅11b只有当将显示三维立体图像时才开启以便划分入射时间,并且当将显示平面图像(二维图像)时关闭以便在不划分的情况下发送入射时间。
显示三维立体图像的上述方法被用于描述本发明的实施例。然而,本发明不限于这些方法。依照本发明,可以使用除上述方法之外的各个方法来显示利用双目视差的三维立体图像。
图4A-5B是图示依照本发明实施例的电子设备100的外观的视图。图4A和4B将电子设备100图示为数字照相机,并且图5A和5B将电子设备100图示为移动终端。
参照图4A和4B,数字照相机100可以包括单个主体。图4A图示了数字照相机100的前表面,并且图4B图示了数字照相机100的后表面。如图4A所示,可以在数字照相机100的前表面上提供至少包括第一照相机模块121a和第二照相机模块121b的多个照相机模块。如图4B所示,可以在数字照相机100的后表面上提供显示单元151和诸如小键盘的用户输入单元130。可以在数字照相机100的主体中包括用于实现控制器180的电路(图1)。
参照图5A和5B,移动终端100可以包括单个条形主体。图5A图示了移动终端100的前表面,并且图5B图示了移动终端100的后表面。如图5(b)所示,可以在移动终端100的后表面上提供至少包括第一照相机模块121a和第二照相机模块121b的多个照相机模块。如图5(a)所示,可以在移动终端100的前表面上提供显示单元151和诸如小键盘的用户输入单元130。在移动终端100的主体中提供了用于实现控制器180的电路(图1)。
电子设备100的主体可以包括各种形状和配置。例如,移动终端100可以被实现为蛤壳型主体。另外,电子设备100的每个组件的位置可以改变。例如,图5B的移动终端100的第一照相机模块121a可以被布置在图4A中所描绘的主体的后表面的上部(或者在图5B中所描绘的主体的前表面的上部),并且第二照相机模块121b可以被布置在图4A中所描绘的主体的后表面的下部(或者在图5B中所描绘的主体的前表面的下部)。由第一照相机模块121a和第二照相机模块121b拍摄的图像可以合成以便产生立体图像。
图6A和6B图示了依照本发明实施例的、使用在电子设备100中提供的第一照相机模块121a和第二照相机模块121b来拍摄多个图像以便产生立体图像的示例。图6A图示了由第一照相机模块121a拍摄用于左眼的对象6a的图像的示例,并且图6B图示了由第二照相机模块121b拍摄用于右眼的相同对象6a的图像的示例。
如图6A和6B所示,电子设备100通过第一和第二照相机模块121a和121b获取用于左眼的图像和用于右眼的图像,其中用于右眼的图像与用于左眼的图像相比具有不同的视差。控制器180(图1)组合获取的用于左右眼睛的图像来产生立体图像。
这里公开的示例性实施例可以借助参考图1到6B描述的电子设备100来实现。将参考附图描述依照本发明实施例的、控制电子设备100的方法以及电子设备100的操作。
图7是图示依照本发明实施例的控制电子设备100(图4A-5B)的方法的流程图。参照图7,控制器180(图1)从诸如第一和第二照相机模块121a(图4A和5A)和121b(图4A和5A)的多个照相机模块接收对应于左眼图像的第一图像和对应于右眼图像的第二图像的输入(S101)。控制器180(图1)控制显示单元151(图4B和5B)在显示单元151的显示区域上显示由诸如第一和第二照相机模块121a和121b的多个照相机模块中的至少一个拍摄的预览图像。例如,控制器180(图1)可以显示从第一照相机模块121a接收的第一图像、从第二照相机模块121b接收的第二图像或者第一和第二图像的重叠图像作为预览图像。
图8到15图示了显示预览图像的电子设备100(图4A-5B)的示例。
图8图示了在显示单元151上显示合成图像8a作为预览图像的示例。通过重叠从第一照相机模块121a接收的第一图像和从第二照相机模块121b接收的第二图像来获得合成图像。
当由第一和第二照相机模块121a和121b(图4A和5A)拍摄附近对象的图像时,在第一和第二图像中的对象的位置可以彼此相当不同。图9图示了显示通过重叠从第一照相机模块121a(图4A和5A)接收的第一图像和从第二照相机模块121b(图4A和5A)接收的第二图像获得的合成图像作为预览图像的示例,其中通过拍摄附近对象9a的图像来获得第一和第二图像。
从图9中可以看出,在第一图像中对象9a的位置(右侧)显著不同于在第二图像中对象9a的位置(左侧)。据此,当用户通过触摸预览图像中的对象来选择对象时,靠近触摸点显示的第二图像的对象和第一图像的对象可以彼此不同。结果,多个对象可以位于预览图像中的触摸点附近。
据此,可以在显示单元151上显示从诸如第一和第二照相机模块121a和121b(图4A和5A)的多个照相机模块之一接收的图像作为预览图像,或者从多个照相机模块121a和121b接收的多个图像可以彼此独立地显示作为预览图像。此外,从多个照相机模块121a和121b之一接收的图像和立体图像可以一起显示作为预览图像。
图10图示了显示从诸如第一和第二照相机模块121a和121b(图4A和5A)的多个照相机模块之一接收的图像作为预览图像的示例。参照图10,在显示单元151上显示从第一照相机模块121a(图4A和5A)接收的第一图像10a。据此,控制器180(图1)根据从第一图像10a选择的对象来控制立体图像的深度。
图11到13图示了彼此独立地显示从诸如第一和第二照相机模块121a和121b(图4A和5A)的多个照相机模块接收的多个图像作为预览图像的示例。参照图11,显示区域可以包括第一显示区域151a和第二显示区域151b。在第一显示区域151a上显示从第一照相机模块121a(图4A和5A)接收的第一图像10a,并且在第二显示区域151b上显示从第二照相机模块121b(图4A和5A)接收的第二图像10b。据此,控制器180(图1)控制显示单元151以根据从第一图像10a或第二图像10b选择的对象来显示立体图像的深度。
图12图示了把显示单元151划分为第一显示区域151a和第二显示区域151b的示例。然而,本发明不限于结合图12描述的方法,并且可以使用各种方法。第一和第二显示区域151a和151b可以是显示单元151的单个显示区域在逻辑上划分的区域或者在物理上划分的区域。
参照图12,当第一图像10a和第二图像10b彼此独立地显示作为预览图像时,控制器180(图1)可以控制显示单元151以显示在产生立体图像时在立体图像中包括的图像10a和10b的区域12。据此,用户可以直观地识别在立体图像中包括的区域。
图13图示了经由来自用户的操纵来交换第一图像10a和第二图像10b的显示位置的示例。参照图13,在显示单元151的第一显示区域151a上显示从第一照相机模块121a(图4A和5A)接收的第一图像10a,并且在显示单元151的第二显示区域151b上显示从第二照相机模块121b(图4A和5A)接收的第二图像10b。当由用户输入了在显示单元151的第二显示区域151b开始并且在显示单元151的第一显示区域151a结束的拖动输入时,控制器180(图1)控制显示单元151在显示单元151的第一显示区域151a上显示从第二照相机模块121b接收的第二图像10b并且在显示单元151的第二显示区域151b上显示从第一照相机模块121a接收的第一图像10a。
图14和15图示了显示从诸如第一和第二照相机模块121a和121b(图4A和5A)的多个照相机模块之一接收的图像和立体图像作为预览图像的示例。参照图14,在显示单元151的第一显示区域151a上显示从第一照相机模块121a(图4A和5A)接收的第一图像10a,并且在显示单元151的第二显示区域151b上显示通过把第一图像10a与第二图像10b合成所获得的立体图像10c。立体图像10c可以是当拍摄图像时在存储器160(图1)中存储的预览图像并且可以使用显示立体图像的、诸如预先描述的非眼镜型的、不需要眼镜的方法来显示。
显示单元151可以包括允许立体图像借助预先描述的双凸透镜方法或视差栅方法显示的面板。作为选择,可以部分地开启和关闭面板。当时使用用于显示立体图像的非眼镜型方法时,可以控制显示单元151只在第一显示区域151a或第二显示区域151b之一上显示立体图像。
控制器180(图1)控制显示单元151根据从第一图像10a选择的对象来显示在第二显示区域151b上显示的立体图像10c的深度。用户可以选择对象并且把立体图像的深度直观地确定为可调整的。在图14中所示出的第一图像10a和立体图像10c的显示位置仅仅是示例,从而例如可以经由用户操纵来改变。
图15图示了经由用户操纵来交换的第一图像10a和立体图像10c的显示位置的示例。参照图15,在显示单元151的第一显示区域151a上显示第一图像10a并且在显示单元151的第二显示区域151b上显示立体图像10c。当由用户输入了在显示单元151的第二显示区域151b开始并且在显示单元151的第一显示区域151a结束的拖动输入时,控制器180(图1)控制显示单元151在显示单元151的第一显示区域151a上显示立体图像10c并且在显示单元151的第二显示区域151b上显示从第一照相机模块121a(图4A和5A)接收的第一图像10a。
预览图像拍摄方法可以在拍摄附近对象的图像和拍摄远距离对象的图像之间自动地变换。例如,当拍摄远距离对象的图像时,可以依照结合图8描述的方法来显示预览图像,并且当拍摄附近对象的图像时,可以依照结合图10到15描述的方法来显示预览图像。用于确定目标对象是位于远处还是附近的方法对于本领域普通技术人员来说是公知的并且可以容易地实现。从而,将省略其进一步详细描述。
再次参照图7,当选择在预览图像中包括的至少一个对象的特定对象同时在显示单元151(图1)上显示预览图像时(在步骤S103的“是”),控制器180(图1)控制显示单元151根据选择的对象显示立体图像的深度(S104)。当通过把第一图像与第二图像合成来产生立体图像时,控制器180控制显示单元151根据选择的对象来显示在两个图像之间的深度。可以通过调整当组合两个图像时合成两个图像的位置来控制在两个图像之间的视差。
图16和17图示了选择在预览图像中的特定对象的示例。参照图16,在显示单元151上显示通过重叠从第一照相机模块121a(图4A和5A)接收的第一图像和从第二照相机模块121b(图4A和5A)接收的第二图像所获得的合成图像16a作为预览图像。当在其上显示预览图像的同时在点16b触摸显示单元151的显示区域时,控制器180(图1)在预览图像中包括的至少一个对象当中选择在触摸点16b显示的对象16c。
参照图17,在显示单元151的第一显示区域151a上显示从第一照相机模块121a(图4A和5A)接收的第一图像10a,并且在显示单元151的第二显示区域151b上显示从第二照相机模块121b(图4A和5A)接收的第二图像10b。当在显示单元151上显示预览图像的同时在点17a触摸第一显示区域151a时,控制器180(图1)在第一图像10a中包括的至少一个对象当中选择在触摸点17a显示的对象17c。
据此,控制器180(图1)控制显示单元151在第二显示区域151b中显示图标17d,其中在第二图像10b中包括的至少一个对象当中选择对应于在第一显示区域151a中显示的对象17c的对象17c’以便表明已经选择了相应的对象17c。更特别地是,控制器180(图1)控制显示单元151以在第二图像10b上显示选择的对象17c’。据此,用户可以直观地识别适当选择了在显示单元151的第一显示区域151a上显示的对象17c。
用于显示在第二图像10b上选择的对象17c’的图17的示例仅仅是用于显示在第二图像10b中包括的至少一个对象当中选择的对象17c’的各种方法之一。例如,控制器180(图1)可以控制显示单元151以显示选择的对象17c’的轮廓,由此把对象17c’与显示图像的其它部分相区分。作为一个示例,控制器180(图1)可以控制显示单元151以在选择的对象17c’上提供3D效果,以便把对象17c’与显示的图像的其它部分相区分。
图18A和18B图示了立体图像的深度怎样根据在预览图像中选择的对象而改变的示例。图18A图示了在图像内选择对象之前的立体图像,并且图18B图示了在选择对象之后的立体图像。参照图18A和18B,当在立体图像中包括的立体对象18a、18b和18c当中选择第一对象18a时,控制器180(图1)控制图像的视差以致在立体图像中的第一对象18a的深度被设置为基准深度18d,例如‘0’。
照惯例,通过经由用户的按钮操纵以每像素为基础移动其中合成左图像和右图像的位置来调整立体图像的深度。然而,依照本发明实施例,用户可以仅仅通过选择充当基准的显示对象来调整立体图像的深度。
现在将参考附图描述用于控制电子设备100(图4A-5B)的方法以及依照本发明实施例的电子设备100的操作。图19是图示控制依照本发明实施例的电子设备100的方法的流程图。图20-22是图示依照本发明实施例的、控制电子设备100的方法的视图。
参照图19,控制器180(图1)从包括第一照相机模块121a(图4A和5A)和第二照相机模块121b(图4A和5A)的多个照相机模块中接收对应于左眼图像的第一图像和对应于右眼图像的第二图像的输入(S401)。控制器180(图1)通过第一或第二照相机模块121a和121b(图4A和5A)中的至少一个获取预览图像并且在显示单元151(图4B和5B)的显示区域上显示所获取的预览图像(S402)。
预览图像可以是从第一照相机模块121a接收的第一图像或从第二照相机模块121b接收的第二图像。作为选择,预览图像可以是通过重叠第一图像和第二图像所获得的合成图像。当在显示单元151的显示区域上显示的预览图像是第一和第二图像的合成图像时,预览图像可以是由电子设备100(图4A-5B)产生的立体图像。
图20图示了在电子设备100(图4A-5B)的显示单元151上显示立体图像的预览图像的示例。参照图20,控制器180(图1)控制显示单元151显示从第一照相机模块121a(图4A和5A)接收的第一图像和从第二照相机模块121b(图4A和5A)接收的第二图像的合成图像20作为预览图像。例如,控制器180(图1)控制显示单元151显示由电子设备100(图4A-5B)产生的立体图像使得用户可以识别出立体图像。
再次参照图19,当在显示单元151(图4B和5B)上显示预览图像的同时选择了在预览图像中包括的至少一个对象的特定对象时(在步骤S403的“是”),控制器180(图1)控制显示单元151根据选择的对象显示立体图像的深度(S404)。例如,控制器180(图1)根据在立体图像中选择对象的深度来控制在用于产生立体图像的第一和第二图像之间的视差。可以通过调整两个图像的汇聚点来控制在两个图像之间的视差。
图21图示了在图20示出的预览图像中选择至少一个对象的特定对象的示例。参照图21,当触摸了在触摸屏151上显示预览图像的至少一个对象的特定对象20a的区域时,控制器180(图1)控制显示单元151根据触摸的对象20a来显示立体图像的深度。
例如,控制器180(图1)可以控制立体图像的深度以使得在立体图像中选择对象20a的深度被设置为基准值,例如‘0位置’。为了调整立体图像的深度以使得在立体图像中选择对象20a的深度被设置为期望的值,控制器180(图1)控制其中合成从第一照相机模块121a(图4A和5A)接收的第一图像和从第二照相机模块121b(图4A和5A)接收的第二图像的位置。
尽管已经相对于通过用户触摸其中显示特定对象20a的区域来选择用于充当基准的对象以控制立体图像的深度描述了图21,不过本发明并不局限于此。作为选择,控制器180(图1)可以分析从多个照相机模块接收的图像以便提取对象并且可以在提取的对象当中选择特定对象以便充当用于控制立体图像的深度的基准。另外,显示单元151不限于被实现为触摸屏。
再次参照图19,当改变第一和第二照相机模块121a和121b(图4A和5A)的变焦状况时(在步骤S405的“是”),控制器180(图1)根据改变的变焦状况来调整立体图像的深度(S406)。例如,控制器180通过调整第一和第二图像的汇聚点来控制在第一和第二图像之间的视差。
当由控制器180(图1)调整第一和第二照相机模块121a和121b(图4A和5A)的光学变焦状况时,在第一和第二照相机模块121和121b之间的视差被改变,例如在图像之间的汇聚点被改变。据此,控制器180(图1)需要补偿由于在第一和第二照相机模块121a和121b的变焦状况中的变化所导致的汇聚点变化。
当调整了照相机模块121a和121b(图4A和5A)的变焦状况时,控制器180(图1)根据经调整的变焦状况来获取第一和第二图像改变的汇聚点。控制器180(图1)可以补偿由于变焦状况的调整所导致的汇聚点变化。
例如在步骤S404,控制器180改变第一和第二图像的汇聚点,以使得经调整的在立体图像中的对象深度被重置为基准值,其中对象的深度曾被设置为基准值。可以取决于变焦状况中的变化来调整立体图像中的基准值。换句话说,随着改变照相机模块121a和121b(图4A和5A)的变焦状况,基准值可以调整。
图22图示了取决于在照相机模块121a和121b(图4A和5A)的变焦状况中的变化来自动地调整立体图像的深度的示例。参照图22,在显示单元151上显示第一和第二图像的合成图像作为预览图像20,并且根据在预览图像20中至少一个对象的特定对象20a的选择来调整立体图像的深度。
随着照相机模块121a和121b(图4A和5A)的光学变焦状况改变,改变第一和第二图像的汇聚点,由此调整立体图像的深度。据此,控制器180(图1)控制显示单元151通过根据改变的变焦状况改变第一和第二图像的汇聚点来重新调整立体图像的深度。
例如,控制器180改变第一和第二图像的汇聚点,以使得在立体图像中对象20a的深度被设置为适合于经改变的变焦状况的基准值。可以取决于照相机模块121a和121b的变焦度来调整基准值。
照惯例,当拍摄立体图像时改变用于获得用于产生立体图像的图像的第一和第二照相机模块121a和121b(图4A和5A)的光学变焦状况时,立体图像的深度需要由用户通过按钮操作以每个像素基础移动其中合成左图像和右图像的位置来重置。然而依照本发明,当改变变焦状况时,电子设备100(图4A-5B)可以根据改变的变焦状况自动地调整立体图像的深度。
现在将参考图23和24描述依照本发明实施例的、控制电子设备100(图4A-5(b))的方法以及电子设备100的操作。图23是图示依照本发明实施例的、控制电子设备100的方法的流程图。图24是图示依照本发明实施例的、控制电子设备100的方法的视图。
参照图23,控制器180(图1)从至少包括第一照相机模块121a(图4A和5A)和第二照相机模块121b(图4A和5A)的多个照相机模块中接收对应于左眼图像的第一图像和对应于右眼图像的第二图像的输入(S601)。控制器180控制显示单元151(图4B和5B)使用接收的第一和第二图像显示预览图像(S602)。例如,控制器180通过合成从第一照相机模块121a接收的第一图像和从第二照相机模块121b接收的第二图像来产生立体图像的预览图像并且在电子设备100的显示单元151(图4A-5B)上显示预览图像。
当在显示单元151(图4B和5B)上的多个点上接收多触摸输入时(在步骤S603的“是”),控制器180(图1)确定在多个触摸点之间的距离是否改变(S604)。为此目的,控制器180可以获取多个触摸点的位置并且根据获取的位置来获取在多个触摸点之间的距离。
“多触摸输入”指的是其中控制器180(图1)在显示单元151的显示区域中的至少两个点上接收触摸输入的情况。显示单元151可以被实现为触摸屏以接收触摸输入。
例如,可以通过至少一个触摸点的拖动输入来改变在多个触摸点之间的距离。当在多个触摸点之间的距离改变时(在步骤S604的“是”),控制器180(图1)根据改变的距离来调整立体图像的深度(S605)。
例如,控制器180可以改变第一和第二图像的汇聚点以便增加或减少立体图像的深度。随着立体图像的深度的调整,还可以调整经由显示单元151在电子设备100(图4A-5B)的屏幕上显示的预览图像的深度。据此,用户可以直观地识别出通过多触摸输入已经调整的立体图像的深度。
图24图示了在依照本发明实施例的电子设备100(图4A-5B)中根据在多触摸的多个点之间的距离变化来调整立体图像的深度的示例。参照图24,控制器180(图1)控制显示单元151显示通过合成第一图像和第二图像所获得的立体图像作为预览图像24。
当显示单元151被多触摸时,控制器180经由显示单元151接收从在多触摸多个点当中的至少一个触摸点开始的拖动输入。例如,控制器180接收在触摸显示单元151的显示区域的多个手指当中的至少一个手指的拖动输入。控制器180连续地获取多个触摸点的位置并且根据获取的位置来计算在多个触摸点之间的距离变化。
控制器180根据在多个触摸点之间改变的距离来调整立体图像的深度。例如,控制器180改变用于产生立体图像的第一和第二图像的汇聚点。
依照结合图24描述的实施例,当调整立体图像的深度时,用户可以通过诸如仅仅由手指触摸显示单元151的显示区域并且沿着显示区域移动手指来把立体图像的深度设置为期望的值。据此,通过经由用户的按钮操纵以每像素为基础改变汇聚点,与设置立体图像的深度的常规方法相比增强了用户便利性。
现在将参考图25-28B描述依照本发明实施例的、控制电子设备100(图4A-5B)的方法以及电子设备100的操作。图25是图示依照本发明实施例的、控制电子设备100的方法的流程图。图26到28B是图示依照本发明实施例的、控制电子设备100的方法的视图。
参照图25,控制器180(图1)从至少包括第一照相机模块121a(图4A和5A)和第二照相机模块121b(图4A和5A)的多个照相机模块中接收对应于左眼图像的第一图像和对应于右眼图像的第二图像的输入(S801)。控制器180控制显示单元151(图4B和5B)使用第一和第二图像在显示单元151的显示区域上显示预览图像(S802)。
例如,控制器180通过重叠并组合从第一照相机模块121a接收的第一图像和从第二照相机模块121b接收的第二图像来产生立体图像的预览图像并且控制显示单元151显示电子设备100(图4A-5B)的预览图像。显示单元151可以被实现为触摸屏。
控制器180(图1)控制显示单元151(图4B和5B)在预览图像上显示滚动对象(S803)。控制器180可以控制显示单元151当电子设备100(图4A-5B)处于特定状态中时,诸如当显示预览图像时,或者只有当经由用户输入单元130接收的输入来请求显示滚动对象时,自动地显示滚动对象。滚动对象可以包括滚动条。
图26图示了在触摸屏151上显示滚动对象的示例。参照图26,控制器180(图1)控制触摸屏151显示第一图像和第二图像的合成图像作为预览图像26。控制器180(图1)还控制触摸屏151显示其中改变第一和第二图像的汇聚点的滚动区域26a和表示第一和第二图像的当前汇聚点的滚动对象26b。
例如,在触摸屏151上显示表示立体图像的深度的可变范围的滚动区域26a和表示立体图像的当前深度的滚动对象26b。可以根据在预览图像中选择的、至少一个对象的特定对象26c来显示滚动对象的位置。
例如,控制器180(图1)改变第一和第二图像的汇聚点使得如在预览图像26中所选择的立体图像中特定对象26c的深度被设置为基准值,例如‘0位置’。控制器180(图1)可以通过使用滚动对象26b控制触摸屏151显示相对于在立体图像中选择的对象26c的深度而调整的立体图像的深度程度,其中选择对象26c的深度被设置为基准值。
再次参照图25,当诸如通过在触摸屏151上的拖动输入来移动滚动对象的位置时(在步骤S804的“是”),控制器180根据滚动对象的移动位置来调整在触摸屏151上显示的立体图像的深度(S805)。例如,控制器180改变第一和第二图像的汇聚点以便增加或减少立体图像的深度。
当调整立体图像的深度时,还相应地调整在电子设备100(图4A-5B)的显示单元151上显示的预览图像(图26)。据此,用户可以直观地识别出经由移动滚动对象所调整的立体图像的深度。
图27A-28B图示了根据滚动对象的位置来调整立体图像的深度的示例。图27A图示了其中用户向‘靠近’按钮26d滚动滚动对象26b的情况。图27B图示了随着移动滚动对象26b,改变立体图像的3D效果。图28A图示了其中用户向‘远离’按钮26e滚动滚动对象26b的情况。图28B图示了随着滚动对象26b被滚动,改变立体图像的3D效果。
参照图27A和27B,随着滚动对象26b被移动接近于‘靠近’按钮26d,汇聚点向显示单元151的显示表面27A的正面移动。此外,调整立体图像的深度以便提供相对于电子设备100(图4A-5B)的显示单元151的显示表面27a向后逐渐移动立体图像中对象的3D效果。
参照图28A和28B,随着滚动对象26b被移动接近于‘远离’按钮26e,汇聚点向显示单元151的显示表面27A的后面移动。此外,调整立体图像的深度以便提供相对于电子设备100(图4A-5B)的显示单元151的显示表面27a向前逐渐投射立体图像中对象的3D效果。
依照结合图25到28B描述的实施例,当调整立体图像的深度时,用户可以通过仅仅滚动滚动条来把立体图像的深度设置为期望的值。据此,由用户通过按钮操纵以每像素为基础移位汇聚点,与设置立体图像的深度的常规方法相比增强了用户便利性。
现在将参考图29和30非常详细地描述依照本发明实施例的、控制电子设备100(图4A-5B)的方法以及电子设备100的操作。图29是图示依照本发明实施例的、控制电子设备100的方法的流程图。图30是图示依照本发明实施例的、控制电子设备100的方法的视图。
参照图29,控制器180(图1)从至少包括第一照相机模块121a(图4A和5A)和第二照相机模块121b(图4A和5A)的多个照相机模块中接收对应于左眼图像的第一图像和对应于右眼图像的第二图像的输入(S901)。控制器180(图1)通过至少第一照相机模块121a或第二照相机模块121b获取预览图像并且在显示单元151(图4B和5B)显示获取的预览图像(S902)。
预览图像可以是从第一照相机模块121a接收的第一图像或从第二照相机模块121b接收的第二图像。作为选择,预览图像可以是通过重叠第一和第二图像所获得的合成图像。当在显示单元151的显示区域上显示的预览图像是第一和第二图像的合成图像时,预览图像可以是由电子设备100(图4A-5B)产生的立体图像。
当在显示单元151(图4B和5B)上显示预览图像的同时选择了在预览图像中包括的至少一个对象的特定对象时(在步骤S903的“是”),控制器180(图1)控制显示单元151根据选择的对象来调整立体图像的深度(S904)。
用于根据选择的对象来调整立体图像的深度的方法与如结合图19到22所描述的用于根据选择的对象来调整立体图像的深度的方法基本上相同。据此,将省略其进一步详细描述。
控制器180(图1)经由图像识别连续地获取选择的对象的移动。当移动选择的对象时(在步骤S905的“是”),如在步骤S904中一样,控制器180控制显示单元151(图4B和5B)根据选择的对象来调整立体图像的深度(S906)。更特别地是,控制器180(图1)控制显示单元151调整立体图像的深度并且把在立体图像中选择对象的深度设置为基准值。
图30图示了根据选择的对象的移动来调整立体图像的深度的示例。参照图30,在预览图像30中选择至少一个对象的第一对象30a。控制器180(图1)控制显示单元151根据选择的第一对象30a显示立体图像的深度。
例如,控制器180控制立体图像的整体深度,以使得在立体图像中第一对象30a的深度被设置为基准值,例如‘0位置’。在这种环境中,利用位于第一对象30a后面的第二对象30b看起来好像位于更远离于‘0位置’来创建3D效果。
随着诸如向图像后面移动第一对象30a,调整第一对象30a的深度。据此,控制器180(图1)根据第一对象30a的移动位置来重置立体图像的深度。在图30的示例中,在由于第二对象30b位于第一对象30a的前面所以第二对象30b看起来好像比‘0位置’进一步向前突出之处创建了3D效果。
依照结合图29和30描述的实施例,当移动被选择作为基准的对象时,电子设备100(图4A-5B)可以根据选择的对象的移动来自动地调整立体图像的深度。据此,用户不必通过对应于对象移动的按钮操纵来重置立体图像的深度。
这里描述的用于控制电子设备的方法可以被编写为计算机程序并且可以在数字微处理器中实现,数字微处理器使用计算机可读记录介质执行程序。用于控制电子设备的方法可以通过软件执行。软件可以包括用于运行需要的任务的代码段。程序或代码段也可以被存储在处理器可读介质中或者可以通过传输介质或通信网络依照与载波组合的计算机数据信号来发送。
计算机可读记录介质可以是任何数据存储设备,该数据存储设备可以存储能够由计算机系统读取的数据。计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、DVD-ROM、DVD-RAM、磁带、软盘和光数据存储设备。计算机可读记录介质也可以分布在网络耦合的计算机系统上,使得计算机可读代码依照分布方式存储和执行。
上述实施例和优点仅仅是示例性的并且不被解释为限制本发明。当前教导能够被容易地应用于其它类型的设备。上述实施例的描述意在是说明性的,而并非是限制权利要求的范围。许多候选方式、修改和变化对本领域技术人员来说是显而易见的。

Claims (23)

1.一种电子设备,包括:
显示单元,被配置为显示图像并包括触摸屏;
至少第一照相机模块和第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和
控制器,被配置为:
合成从所述第一照相机模块获取的第一图像和从所述第二照相机模块获取的第二图像以产生立体图像;
控制所述显示单元在所述显示单元的第一显示区显示所述立体图像的预览图像;
控制所述显示单元在所述显示单元的第二显示区显示所述第一图像或所述第二图像的预览图像;
经由所述触摸屏接收在所述第一图像或所述第二图像的预览图像选择特定对象的触摸输入;
把在所述立体图像中选择的对象的深度设置为基准深度;并且
根据所述基准深度来同时控制所述立体图像的整个区域中包括的其他对象的深度并且控制所述显示单元来显示反映了被控制深度的所述立体图像的预览图像。
2.如权利要求1所述的电子设备,其中所述控制器进一步被配置为:通过调整所述第一图像和所述第二图像的汇聚点来控制所述立体图像的深度。
3.如权利要求1所述的电子设备,其中:
所述控制器进一步被配置为:根据经由所述触摸屏接收的触摸输入的位置来接收所述特定对象的选择。
4.如权利要求1所述的电子设备,其中:
所述第一图像和所述第二图像包括至少一个对象;
所述第一图像和所述第二图像的所述至少一个对象中的每个对应于所述立体图像的所述至少一个对象之一;并且
所述控制器进一步被配置为:控制所述显示单元以对应于所述第一图像或所述第二图像的预览图像的选择的特定对象来显示所述立体图像的所述至少一个对象的位置。
5.如权利要求1所述的电子设备,其中所述控制器进一步被配置为:控制所述显示单元以在所述第一图像和所述第二图像的预览图像的每个中显示在所述立体图像中包括的区域。
6.如权利要求1所述的电子设备,其中:
所述控制器进一步被配置为:控制所述显示单元以根据从所述第二显示区域到所述第一显示区域的拖动输入,在所述显示单元的第二显示区域中显示所述立体图像的预览图像并且在所述显示单元的第一显示区域中显示所述第一图像或所述第二图像的预览图像。
7.如权利要求1所述的电子设备,其中:
多个照相机模块,其包括至少所述第一照相机模块和所述第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和
所述控制器进一步被配置为:控制所述显示单元,以根据所述多个照相机模块的变焦状况的变化来调整受控的所述立体图像的深度。
8.如权利要求7所述的电子设备,其中所述控制器进一步被配置为:通过调整所述第一图像和所述第二图像的汇聚点来控制所述立体图像的深度。
9.如权利要求7所述的电子设备,其中所述控制器进一步被配置为:根据所述变焦状况来调整所述基准深度。
10.如权利要求7所述的电子设备,其中:
所述控制器进一步被配置为:根据经由所述触摸屏接收的触摸输入的位置来接收所述特定对象的选择。
11.如权利要求7所述的电子设备,其中所述变焦状况是多个照相机模块的光学变焦状况。
12.如权利要求1所述的电子设备,其中:
所述触摸屏被配置为显示图像并且接收触摸输入;
所述控制器被进一步配置为:控制所述触摸屏以根据在经由所述触摸屏接收的多个触摸输入位置之间的距离变化来调整显示的立体图像的受控深度。
13.如权利要求12所述的电子设备,其中所述控制器进一步被配置为:通过调整所述第一图像和所述第二图像的汇聚点来控制所述立体图像的深度。
14.如权利要求1所述的电子设备,其中:
所述触摸屏被配置为显示图像并且接收触摸输入;
所述电子设备还包括多个照相机模块,其中至少包括所述第一照相机模块和所述第二照相机模块,其中所述第一照相机模块和所述第二照相机模块中的每个被配置为获取图像;和
所述控制器被进一步配置为:
控制所述触摸屏以显示滚动对象;并且
通过根据所述滚动对象的位置来调整所述第一图像和所述第二图像的汇聚点而调整所述立体图像的受控深度。
15.如权利要求14所述的电子设备,其中所述控制器进一步被配置为:
控制所述触摸屏以显示所述立体图像的预览图像;并且
控制所述触摸屏以根据所述第一图像和所述第二图像的汇聚点的变化来控制所述预览图像的深度。
16.如权利要求1所述的电子设备,其中:
所述控制器被进一步配置为:
接收选择的特定对象的移动的输入;并且
控制所述显示单元以根据选择的特定对象的移动来调整显示的立体图像的受控深度。
17.如权利要求16所述的电子设备,其中:
所述控制器进一步被配置为:根据经由所述触摸屏接收的触摸输入的位置来接收所述特定对象的选择。
18.如权利要求16所述的电子设备,其中所述控制器进一步被配置为:
随着移动所选择的特定对象,改变在所述立体图像中选择的特定对象的深度;
重置用于移动的选择的特定对象的深度的基准深度;并且
根据重置的基准深度来改变所述立体图像的受控深度。
19.如权利要求16所述的电子设备,其中所述控制器进一步被配置为:通过调整所述第一图像和所述第二图像的汇聚点来控制所述显示的立体图像的深度。
20.一种控制电子设备的方法,所述电子设备包括多个照相机模块,所述方法包括:
经由控制器合成从所述多个照相机模块中的第一照相机模块获取的第一图像和从所述多个照相机模块中的第二照相机模块获取的第二图像以产生立体图像;
经由所述控制器控制显示单元在所述显示单元的第一显示区显示所述立体图像的预览图像并且在所述显示单元的第二显示区显示所述第一图像或所述第二图像的预览图像;
经由触摸屏接收在所述第一图像或所述第二图像的预览图像中选择特定对象的触摸输入;
经由所述控制器将在所述立体图像中选择的对象的深度设置为基准深度;
经由所述控制器根据所述基准深度来同时控制所述立体图像的整个区域中包括的其他对象的深度;以及
经由所述控制器控制所述显示单元来显示反映了被控制深度的所述立体图像的预览图像。
21.如权利要求20所述的方法,其中:
接收所述特定对象的选择包括:接收在所述触摸屏上显示的所述第一图像或所述第二图像的特定点上的触摸输入并且把在所述第一图像或所述第二图像的所述触摸点处的对象指定为所述特定对象。
22.如权利要求20所述的方法,进一步包括:经由所述控制器根据所述多个照相机模块的变焦状况的变化来调整受控的所述立体图像的深度。
23.如权利要求20所述的方法,还包括:
经由所述控制器接收所述特定对象的移动的输入;并且
经由所述控制器控制所述显示单元以根据选择的特定对象的移动来调整显示的立体图像的受控深度。
CN201110156750.4A 2010-06-14 2011-05-31 电子设备及其控制方法 Expired - Fee Related CN102333228B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0055943 2010-06-14
KR1020100055943A KR101673409B1 (ko) 2010-06-14 2010-06-14 전자 기기 및 전자 기기의 제어 방법
KR1020100078412A KR101666919B1 (ko) 2010-08-13 2010-08-13 전자 기기 및 전자 기기의 제어 방법
KR10-2010-0078412 2010-08-13

Publications (2)

Publication Number Publication Date
CN102333228A CN102333228A (zh) 2012-01-25
CN102333228B true CN102333228B (zh) 2015-04-01

Family

ID=44650478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110156750.4A Expired - Fee Related CN102333228B (zh) 2010-06-14 2011-05-31 电子设备及其控制方法

Country Status (3)

Country Link
US (1) US9596453B2 (zh)
EP (1) EP2395761B1 (zh)
CN (1) CN102333228B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120007819A1 (en) * 2010-07-08 2012-01-12 Gregory Robert Hewes Automatic Convergence Based on Touchscreen Input for Stereoscopic Imaging
WO2012091526A2 (ko) * 2010-12-31 2012-07-05 한국전자통신연구원 카메라를 구비한 휴대용 영상 통화 장치 및 그 방법
JP5640155B2 (ja) * 2011-09-30 2014-12-10 富士フイルム株式会社 立体画像撮像装置及びその合焦状態確認用画像表示方法
JP5884421B2 (ja) * 2011-11-14 2016-03-15 ソニー株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
US9558575B2 (en) 2012-02-28 2017-01-31 Blackberry Limited Methods and devices for selecting objects in images
EP2634772A1 (en) * 2012-02-28 2013-09-04 BlackBerry Limited Methods and devices for selecting objects in images
CN102802007A (zh) * 2012-04-06 2012-11-28 杭州群核信息技术有限公司 一种交互式展示物体立体效果的方法
US9137517B2 (en) * 2012-10-05 2015-09-15 Blackberry Limited Methods and devices for generating a stereoscopic image
WO2014077046A1 (ja) * 2012-11-13 2014-05-22 ソニー株式会社 画像表示装置及び画像表示方法、移動体装置、画像表示システム、並びにコンピューター・プログラム
US9860510B2 (en) * 2013-03-15 2018-01-02 Intuitive Surgical Operations, Inc. Depth based modification of captured images
JP6244655B2 (ja) * 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
KR102072509B1 (ko) * 2013-06-03 2020-02-04 삼성전자주식회사 그룹 리코딩 방법, 저장 매체 및 전자 장치
US9137459B2 (en) * 2013-10-03 2015-09-15 Olympus Corporation Image processing device, display device, image processing method, and computer-readable recording medium for generating composite image data
US11019323B2 (en) * 2015-02-06 2021-05-25 Tara Chand Singhal Apparatus and method for 3D like camera system in a handheld mobile wireless device
CN104639754A (zh) * 2015-02-09 2015-05-20 胡光南 用手机拍摄和显示三维影像的方法和三维影像手机
CN106303498B (zh) 2015-05-30 2018-10-16 北京智谷睿拓技术服务有限公司 视频显示控制方法和装置、显示设备
CN106303315B (zh) * 2015-05-30 2019-08-16 北京智谷睿拓技术服务有限公司 视频显示控制方法和装置、显示设备
CN106303499B (zh) 2015-05-30 2018-10-16 北京智谷睿拓技术服务有限公司 视频显示控制方法和装置、显示设备
US10389948B2 (en) 2016-12-06 2019-08-20 Qualcomm Incorporated Depth-based zoom function using multiple cameras
CN107222737B (zh) * 2017-07-26 2019-05-17 维沃移动通信有限公司 一种深度图像数据的处理方法及移动终端
CN109167861B (zh) * 2018-11-16 2021-05-25 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653790B2 (ja) 1995-05-23 2005-06-02 松下電器産業株式会社 立体電子ズーム装置及び立体画質制御装置
JPH08336165A (ja) * 1995-06-09 1996-12-17 Canon Inc 複眼撮像装置
US6310733B1 (en) * 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
DE69733233T2 (de) * 1996-09-11 2006-01-19 Canon K.K. Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts
US6208348B1 (en) * 1998-05-27 2001-03-27 In-Three, Inc. System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
US7102633B2 (en) * 1998-05-27 2006-09-05 In-Three, Inc. Method for conforming objects to a common depth perspective for converting two-dimensional images into three-dimensional images
JP2001326947A (ja) 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
JP2003018617A (ja) 2001-07-03 2003-01-17 Olympus Optical Co Ltd 撮像装置
US7043701B2 (en) * 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
US7466336B2 (en) * 2002-09-05 2008-12-16 Eastman Kodak Company Camera and method for composing multi-perspective images
KR100505334B1 (ko) * 2003-03-28 2005-08-04 (주)플렛디스 운동 시차를 이용한 입체 영상 변환 장치
WO2004093467A1 (ja) 2003-04-17 2004-10-28 Sharp Kabushiki Kaisha 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
WO2005043218A1 (ja) * 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha 画像表示装置
GB0328005D0 (en) 2003-12-03 2004-01-07 Koninkl Philips Electronics Nv 2D/3D Displays
JP4125252B2 (ja) 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
US20060087556A1 (en) * 2004-10-21 2006-04-27 Kazunari Era Stereoscopic image display device
KR100798551B1 (ko) 2005-03-01 2008-01-28 비브콤 인코포레이티드 인포머셜 제공 방법
US7523405B2 (en) * 2005-11-16 2009-04-21 Microsoft Corporation Displaying 2D graphic content using depth wells
US20070248330A1 (en) * 2006-04-06 2007-10-25 Pillman Bruce H Varying camera self-determination based on subject motion
CN1912736A (zh) 2006-04-21 2007-02-14 钟磊 立体数码摄像装置及方法
JP4406937B2 (ja) * 2006-12-01 2010-02-03 富士フイルム株式会社 撮影装置
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法
JP4692770B2 (ja) * 2006-12-27 2011-06-01 富士フイルム株式会社 複眼デジタルカメラ
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP4720785B2 (ja) * 2007-05-21 2011-07-13 富士フイルム株式会社 撮像装置、画像再生装置、撮像方法及びプログラム
KR101373333B1 (ko) * 2007-07-11 2014-03-10 엘지전자 주식회사 터치인식을 통한 영상촬영 기능을 구비한 휴대 단말기 및그 촬영방법
JP2009048181A (ja) * 2007-07-25 2009-03-05 Fujifilm Corp 立体画像撮像装置
US8471844B2 (en) * 2008-01-18 2013-06-25 Sony Corporation Streaming geometry for use in displaying and editing 3D imagery
KR20090084633A (ko) 2008-02-01 2009-08-05 엘지전자 주식회사 영상 관리 방법 및 장치
US8228327B2 (en) * 2008-02-29 2012-07-24 Disney Enterprises, Inc. Non-linear depth rendering of stereoscopic animated images
JP4657313B2 (ja) * 2008-03-05 2011-03-23 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
JP2010068182A (ja) 2008-09-10 2010-03-25 Fujifilm Corp 3次元撮影装置および方法並びにプログラム
JP4625515B2 (ja) 2008-09-24 2011-02-02 富士フイルム株式会社 3次元撮影装置および方法並びにプログラム
KR101542742B1 (ko) 2008-11-18 2015-08-07 삼성전자주식회사 디지털 영상 처리기의 고속 부팅 장치 및 방법
KR101008176B1 (ko) 2008-12-30 2011-01-13 한국항공우주연구원 반작용휠과 추력기 기반 자세제어기를 동시에 이용한 자세기동 및 가제어성 향상 방법
US8355554B2 (en) * 2009-04-14 2013-01-15 Sonosite, Inc. Systems and methods for adaptive volume imaging
CN101938670A (zh) * 2009-06-26 2011-01-05 Lg电子株式会社 图像显示装置及其操作方法
JP2011075675A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 複眼撮像装置
US8947422B2 (en) * 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
CN101729918A (zh) 2009-10-30 2010-06-09 无锡景象数字技术有限公司 一种实现双目立体图像校正和显示优化的方法
US8638329B2 (en) * 2009-12-09 2014-01-28 Deluxe 3D Llc Auto-stereoscopic interpolation
US9042636B2 (en) * 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
US9046988B2 (en) * 2010-05-17 2015-06-02 Eric Leebow System for recording, suggesting, and displaying fans of a subject
JP5186715B2 (ja) * 2010-06-14 2013-04-24 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム
US20120069143A1 (en) * 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images

Also Published As

Publication number Publication date
US20110304697A1 (en) 2011-12-15
EP2395761B1 (en) 2016-11-23
EP2395761A2 (en) 2011-12-14
CN102333228A (zh) 2012-01-25
US9596453B2 (en) 2017-03-14
EP2395761A3 (en) 2014-04-09

Similar Documents

Publication Publication Date Title
CN102333228B (zh) 电子设备及其控制方法
US9813691B2 (en) 3D camera assembly having a bracket for cameras and mobile terminal having the same
KR102080746B1 (ko) 이동 단말기 및 그것의 제어 방법
KR101727899B1 (ko) 휴대 단말기 및 그 동작 제어방법
CN102736843B (zh) 移动终端及其三维(3d)多角度视图控制方法
KR102063102B1 (ko) 이동 단말기 및 그것의 제어방법
US9374447B2 (en) Mobile terminal and control method thereof
CN104423878A (zh) 显示装置以及控制该显示装置的方法
CN104049740A (zh) 移动终端及其控制方法
KR102080743B1 (ko) 이동 단말기 및 그것의 제어 방법
KR20120057696A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20150032054A (ko) 이동 단말기 및 그것의 제어방법
CN103942040A (zh) 移动终端及其控制方法
KR20150055448A (ko) 이동 단말기 및 그것의 제어방법
KR20120122314A (ko) 이동단말기 및 이의 제어방법
US20130147928A1 (en) Electronic device and payment method thereof
US20140193133A1 (en) Mobile terminal and control method thereof
KR20150068823A (ko) 이동 단말기
KR20140102936A (ko) 이동 단말기 및 그것의 제어 방법
KR20140079063A (ko) 이동 단말기의 제어 장치 및 그 방법
KR20150032056A (ko) 안경형 단말기 및 그 제어방법
KR20140099736A (ko) 이동 단말기 및 그것의 제어 방법
KR20110136132A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20110135133A (ko) 이동 단말기 및 이동 단말기의 제어방법
KR20120017107A (ko) 이동 단말기 및 이동 단말기의 영상 표시 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150401

Termination date: 20200531