CN113875215B - 移动终端及其3d图像转换方法 - Google Patents

移动终端及其3d图像转换方法 Download PDF

Info

Publication number
CN113875215B
CN113875215B CN201980096651.6A CN201980096651A CN113875215B CN 113875215 B CN113875215 B CN 113875215B CN 201980096651 A CN201980096651 A CN 201980096651A CN 113875215 B CN113875215 B CN 113875215B
Authority
CN
China
Prior art keywords
image
light emitting
camera
mobile terminal
emitting device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980096651.6A
Other languages
English (en)
Other versions
CN113875215A (zh
Inventor
李昌焕
申允燮
池石万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN113875215A publication Critical patent/CN113875215A/zh
Application granted granted Critical
Publication of CN113875215B publication Critical patent/CN113875215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明涉及一种移动终端及其控制方法,该移动终端包括:相机,其用于记录视频;显示单元,其用于显示通过相机记录的视频的记录画面;以及控制单元,当所记录的视频的一部分满足可从移动终端提供的至少一个视频上传服务的视频上传要求时,该控制单元用于控制显示指示满足要求的视频上传服务的项目。本发明提供了允许用户快速地识别当前正实时记录的视频的记录部分可被上传至的SNS,并且容易地将记录部分上传至SNS的效果。

Description

移动终端及其3D图像转换方法
技术领域
本公开涉及一种移动终端及其控制方法,通过其可进一步考虑用户的便利来实现终端使用。
背景技术
通常,终端可根据其移动性被分类为移动/便携式终端和固定终端。移动终端可根据用户直接携带的可能性进一步分类为手持终端和车载终端。
移动终端已变得越来越多功能。这些功能的示例包括数据和语音通信、通过相机捕获图像和视频、录音、通过扬声器系统回放音乐文件以及通过显示单元显示图像和视频。一些移动终端包括作为多媒体播放器用于支持玩游戏和工作的附加功能。具体地,当前的移动终端可接收包括诸如视频和电视节目的视觉内容的多播信号。
随着移动终端的功能多样化,移动终端成为具有捕获图像或视频、回放音乐文件或视频文件、游戏和接收广播节目的多个功能的多媒体播放器。
为了支持和增加终端的功能,可考虑终端的结构部分和/或软件部分的改进。
另一方面,安装在传统移动终端上的相机仅生成二维(以下称为“2D”)图像而无法获得生成三维(以下称为“3D”)图像所需的深度信息。
因此,最近,存在如下两种方式来获得对象的深度信息。
1.第一方法:通过将以特定图案编码的激光施加到对象并计算从对象返回的反射光的图案的移位量来测量关于对象的深度信息。
2.第二方法:通过以飞行时间(TOF)方式将光直接施加到对象并计算从对象返回的反射光的时间来测量关于对象的深度信息。
然而,尽管第一方法具有确保深度信息的稳定性的优点,但是由于补片级测量的问题和存在视野差异,2D图像的稳定性不稳定。此外,第一方法通常使用定焦镜头和被动编码元件,这使得难以在各种环境中优化深度分辨率。
接下来,由于仅ToF传感器(其计算与施加到对象而被反射的往复光的距离成比例的时间)的高价格和亮度调制发光LED的高功耗,第二方法具有被限制性地使用的问题。换言之,由于像素级测量以及没有视野差异,2D图像的稳定性高,但深度的稳定性不稳定。
发明内容
技术任务
为了满足上述需要并解决上述问题,本公开的一个技术任务是提供一种移动终端及其3D图像转换方法,通过其使用红外光获得2D图像的深度信息并且使用所获得的深度信息将2D图像转换为3D图像。
技术方案
在本公开的一个技术方面,提供了一种移动终端,该移动终端包括:第一相机,其接收2D图像;发光单元,其包括多个发光器件阵列并且对与所接收的2D图像对应的空间施加光;第二相机,其接收从空间反射的光;以及控制器,其被配置为基于所接收的光来获得关于2D图像的深度信息并且基于所获得的深度信息来将2D图像转换为3D图像。
在本公开的另一技术方面,提供了一种用于3D图像转换的方法,该方法包括:经由第一相机接收2D图像;经由包括多个发光器件阵列的发光单元对与所接收的2D图像对应的空间施加光;经由第二相机接收从空间反射的光;基于所接收的光来获得关于2D图像的深度信息;以及基于所获得的深度信息来将2D图像转换为3D图像。
有益效果
根据本公开的移动终端及其控制方法如下描述。
根据本公开的至少一个实施方式,可使用红外光获得2D图像的深度信息并且可使用所获得的深度信息将2D图像转换为3D图像。
附图说明
图1a是根据本公开的移动终端的框图。
图1b和图1c是从不同方向看时移动终端的一个示例的概念图。
图2是描述根据本公开的移动终端的3D图像转换装置的框图。
图3是描述根据本公开的移动终端的3D图像转换装置的结构的图。
图4是描述根据本公开的多个发光器件阵列的图。
图5是示出根据本公开的移动终端的3D图像转换装置的3D图像转换处理的流程图。
图6是描述根据本公开的2D图像、红外图像和3D图像的图。
图7是示出根据本公开的将应用广角拍摄方案的2D图像转换为3D图像的处理的流程图。
图8至图10是示出根据本公开的将应用广角拍摄方案的2D图像转换为3D图像的处理的图。
图11是示出根据本公开的将应用长焦拍摄方案的2D图像转换为3D图像的处理的流程图。
图12至图14是描述根据本公开的将应用长焦拍摄方案的2D图像转换为3D图像的处理的图。
图15是描述根据本公开的广角拍摄或长焦拍摄模式下的自动对焦操作的图。
图16是描述根据本公开的相机模块和红外相机被组合成单个模块的结构的图。
具体实施方式
现在将参照附图,根据本文公开的示例性实施方式详细给出描述。为了参照附图简要描述,可为相同或等同的组件提供相同的标号,其描述将不再重复。通常,诸如“模块”和“单元”的后缀可用于指代元件或组件。本文使用这种后缀仅是为了方便说明书的描述,后缀本身并非旨在给予任何特殊含义或功能。在本公开中,为了简明起见,相关领域的普通技术人员熟知的内容已被省略。使用附图来帮助容易地理解各种技术特征,应该理解,本文呈现的实施方式不受附图的限制。因此,除了附图中具体示出的那些以外,本公开应该被解释为扩展至任何更改形式、等同形式和替代形式。
将理解,尽管本文中可使用术语第一、第二等来描述各种元件,这些元件不应受这些术语限制。这些术语通常仅用于将一个元件与另一元件相区分。
将理解,当元件被称作“与”另一元件“连接”时,该元件可与该另一元件连接,或者也可存在中间元件。相比之下,当元件被称作“与”另一元件“直接连接”时,不存在中间元件。
单数表示可包括复数表示,除非它根据上下文表示明确不同的含义。
诸如“包括”或“具有”的术语应该被理解为它们旨在指示存在本说明书中所公开的多个组件、功能或步骤,还应该理解为同样可使用更多或更少的组件、功能或步骤。
本文呈现的移动终端可利用各种不同类型的终端来实现。这些终端的示例包括蜂窝电话、智能电话、用户设备、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、石板PC、平板PC、超级本、可穿戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等。
仅通过非限制性示例,参照特定类型的移动终端进行进一步的描述。然而,这些教导同样适用于其它类型的终端,例如上述那些类型。另外,这些教导也可适用于诸如数字TV、台式计算机等的固定终端。
现在参照图1a至图1c,其中图1a是根据本公开的移动终端的框图,图1b和图1c是从不同方向看时移动终端的一个示例的概念图。
移动终端100被示出为具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180和电源单元190的组件。将理解,不要求实现所示的所有组件,可另选地实现更多或更少的组件。
现在参照图1a,移动终端100被示出为具有配置有多个通常实现的组件的无线通信单元110。例如,无线通信单元110通常包括允许移动终端100与移动终端所在的无线通信系统或网络之间的无线通信的一个或更多个组件。
无线通信单元110通常包括允许通信(例如,移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端之间的通信、移动终端100与外部服务器之间的通信)的一个或更多个模块。另外,无线通信单元110通常包括将移动终端100连接到一个或更多个网络的一个或更多个模块。为了方便这些通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线互联网模块113、短距离通信模块114和位置信息模块115中的一个或更多个。
输入单元120包括用于获得图像或视频的相机121、麦克风122(用于输入音频信号的一种音频输入装置)以及用于使得用户能够输入信息的用户输入单元123(例如,触摸键、按键、机械键、软键等)。数据(例如,音频、视频、图像等)通过输入单元120来获得,并且可根据装置参数、用户命令及其组合来由控制器180分析和处理。
感测单元140通常利用被配置为感测移动终端的内部信息、移动终端的周围环境、用户信息等的一个或更多个传感器来实现。例如,在图1a中,感测单元140被示出为具有接近传感器141和照度传感器142。
如果需要,感测单元140可另选地或另外地包括其它类型的传感器或装置,例如触摸传感器、加速度传感器、磁传感器、重力传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池电量计、环境传感器(例如,气压计、湿度计、温度计、辐射检测传感器、热传感器和气体传感器等)和化学传感器(例如,电子鼻、保健传感器、生物传感器等)等。移动终端100可被配置为利用从感测单元140获得的信息,具体地讲,从感测单元140的一个或更多个传感器获得的信息及其组合。
输出单元150通常被配置为输出各种类型的信息,例如音频、视频、触觉输出等。输出单元150被示出为具有显示单元151、音频输出模块152、触觉模块153和光学输出模块154。
显示单元151可具有与触摸传感器的中间层结构或集成结构,以便方便触摸屏。触摸屏可在移动终端100与用户之间提供输出接口,并且用作在移动终端100与用户之间提供输入接口的用户输入单元123。
接口单元160用作与可联接到移动终端100的各种类型的外部装置的接口。例如,接口单元160可包括任何有线或无线端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。在一些情况下,移动终端100可响应于外部装置连接到接口单元160而执行与连接的外部装置关联的各种控制功能。
存储器170通常被实现为存储用于支持移动终端100的各种功能或特征的数据。例如,存储器170可被配置为存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或指令等。这些应用程序中的一些应用程序可经由无线通信从外部服务器下载。其它应用程序可在制造或出厂时安装在移动终端100内,针对移动终端100的基本功能(例如,接电话、打电话、接收消息、发送消息等),通常是这种情况。常见的是,应用程序被存储在存储器170中,被安装在移动终端100中,并由控制器180执行以执行移动终端100的操作(或功能)。
除了与应用程序关联的操作以外,控制器180通常还用于控制移动终端100的总体操作。控制器180可通过处理经由图1a所描绘的各种组件输入或输出的信号、数据、信息等或者激活存储在存储器170中的应用程序来提供或处理适合于用户的信息或功能。作为一个示例,控制器180根据存储在存储器170中的应用程序的执行来控制图1a至图1c所示的一些或所有组件。
电源单元190可被配置为接收外部电力或提供内部电力,以便供应对包括在移动终端100中的元件和组件进行操作所需的适当电力。电源单元190可包括电池,所述电池可被配置为嵌入终端主体中,或者被配置为可从终端主体拆卸。
仍参照图1a,现在将更详细地描述该图中所描绘的各种组件。关于无线通信单元110,广播接收模块111通常被配置为经由广播频道从外部广播管理实体接收广播信号和/或广播相关信息。广播频道可包括卫星频道、地面频道或这二者。在一些实施方式中,可使用两个或更多个广播接收模块111以方便同时接收两个或更多个广播频道或者支持在广播频道之间切换。
生成并发送广播信号和/或广播相关信息的系统或者接收预先生成的广播信号和/或广播相关信息并将这些项目发送给移动终端的服务器。除了别的以外,广播信号可利用TV广播信号、无线电广播信号、数据广播信号及其组合中的任一个来实现。在一些情况下,广播信号还可包括与TV或无线电广播信号组合的数据广播信号。
广播信号可根据用于数字广播信号的发送和接收的各种技术标准或广播方法(例如,国际标准化组织(ISO)、国际电工委员会(IEC)、数字视频广播(DVB)、高级电视系统委员会(ATSC)等)中的任一种来编码。广播接收模块111可利用适合于使用的发送方法的方法来接收数字广播信号。
广播相关信息的示例可包括与广播频道、广播节目、广播事件、广播服务提供商等关联的信息。广播相关信息还可经由移动通信网络来提供,并且在这种情况下由移动通信模块112来接收。
广播相关信息可按照各种格式来实现。例如,广播相关信息可包括数字多媒体广播(DMB)的电子节目指南(EPG)、手持数字视频广播(DVB-H)的电子服务指南(ESG)等。经由广播接收模块111接收的广播信号和/或广播相关信息可被存储在诸如存储器170的合适的装置中。
移动通信模块112可向一个或更多个网络实体发送无线信号和/或从其接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等。这些网络实体形成移动通信网络的一部分,所述移动通信网络根据移动通信的技术标准或通信方法(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA 2000(码分多址2000)、EV-DO(增强语音数据优化或仅增强语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(长期演进-高级)等)来构建。经由移动通信模块112发送和/或接收的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号或者支持文本和多媒体消息的通信的各种格式的数据。
无线互联网模块113被配置为方便无线互联网接入。此模块可从内部或外部联接到移动终端100。无线互联网模块113可根据无线互联网技术经由通信网络发送和/或接收无线信号。
这种无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(WiBro)、全球微波接入互操作性(WiMAX)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(长期演进-高级)等。无线互联网模块113可根据这些无线互联网技术以及其它互联网技术中的一个或更多个来发送/接收数据。
在一些实施方式中,当根据(例如)WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LTE、LTE-A等实现无线互联网接入时,作为移动通信网络的一部分,无线互联网模块113执行这种无线互联网接入。因此,互联网模块113可与移动通信模块112协作或用作移动通信模块112。
短距离通信模块114被配置为方便短距离通信。用于实现这些短距离通信的合适的技术包括BLUETOOTHTM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、ZigBee、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等。短距离通信模块114通常经由无线局域网支持移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端100之间的通信或者移动终端与另一移动终端100(或外部服务器)所在的网络之间的通信。无线局域网的一个示例是无线个域网。
在一些实施方式中,另一移动终端(可类似于移动终端100来配置)可以是能够与移动终端100交换数据(或者与移动终端100协作)的可穿戴装置(例如,智能手表、智能眼镜或头戴式显示器(HMD))。短距离通信模块114可感测或识别可穿戴装置,并允许可穿戴装置与移动终端100之间的通信。另外,当所感测到的可穿戴装置是被验证为与移动终端100进行通信的装置时,例如,控制器180可经由短距离通信模块114将在移动终端100中处理的数据发送给可穿戴装置。因此,可穿戴装置的用户可在可穿戴装置上使用在移动终端100中处理的数据。例如,当在移动终端100中接到电话时,用户可利用可穿戴装置来回电话。另外,当在移动终端100中接收到消息时,用户可利用可穿戴装置来查看所接收到的消息。
位置信息模块115通常被配置为检测、计算、推导或者标识移动终端的位置。作为示例,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块或这二者。如果需要,位置信息模块115可另选地或另外地与无线通信单元110的任何其它模块一起工作,以获得与移动终端的位置有关的数据。作为一个示例,当移动终端使用GPS模块时,可利用从GPS卫星发送的信号来获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,可基于与无线接入点(AP)有关的信息来获取移动终端的位置,所述无线接入点(AP)向Wi-Fi模块发送无线信号或者从Wi-Fi模块接收无线信号。
输入单元120可被配置为允许对移动终端100的各种类型的输入。这些输入的示例包括音频、图像、视频、数据和用户输入。图像和视频输入常常利用一个或更多个相机121来获得。这些相机121可对在视频或图像拍摄模式下通过图像传感器获得的静止画面或视频的图像帧进行处理。经处理的图像帧可被显示在显示单元151上或存储在存储器170中。在一些情况下,相机121可按照矩阵配置布置,以使得具有各种角度或焦点的多个图像能够被输入至移动终端100。作为另一示例,相机121可按照立体布置方式来设置,以获取用于实现立体图像的左图像和右图像。
麦克风122通常被实现为允许对移动终端100的音频输入。音频输入可根据移动终端100中执行的功能来按照各种方式处理。如果需要,麦克风122可包括各种噪声去除算法以去除在接收外部音频的过程中生成的不期望的噪声。
用户输入单元123是允许用户输入的组件。这种用户输入可使得控制器180能够控制移动终端100的操作。用户输入单元123可包括机械输入元件(例如,位于移动终端100的正面和/或背面或侧面的键、按钮、薄膜开关、滚轮、触合式开关等)或者触敏输入等中的一个或更多个。作为一个示例,触敏输入可以是通过软件处理显示在触摸屏上的虚拟键或软键、或者设置在移动终端上的触摸屏以外的位置处的触摸键。另一方面,虚拟键或视觉键可按照各种形状(例如,图形、文本、图标、视频或其组合)显示在触摸屏上。
感测单元140通常被配置为感测移动终端的内部信息、移动终端的周围环境信息、用户信息等中的一个或更多个。控制器180通常与感测单元140协作以基于由感测单元140提供的感测来控制移动终端100的操作或者执行与安装在移动终端中的应用程序关联的数据处理、功能或操作。可利用各种传感器中的任何传感器来实现感测单元140,现在将更详细地描述其中一些传感器。
接近传感器141可包括在没有机械接触的情况下,利用电磁场、红外线等来感测是否存在靠近表面的物体或者位于表面附近的物体的传感器。接近传感器141可布置在移动终端被触摸屏覆盖的内侧区域处或触摸屏附近。
例如,接近传感器141可包括透射型光电传感器、直接反射型光电传感器、反射镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等中的任何传感器。当触摸屏被实现为电容型时,接近传感器141可通过电磁场响应于导电物体的靠近而发生的变化来感测指点器相对于触摸屏的接近。在这种情况下,触摸屏(触摸传感器)也可被归类为接近传感器。
本文中常常将提及术语“接近触摸”以表示指点器被设置成在没有接触触摸屏的情况下接近触摸屏的情景。本文中常常将提及术语“接触触摸”以表示指点器与触摸屏进行物理接触的情景。对于与指点器相对于触摸屏的接近触摸对应的位置,这种位置将对应于指点器垂直于触摸屏的位置。接近传感器141可感测接近触摸以及接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等)。通常,控制器180对与接近传感器141所感测的接近触摸和接近触摸模式对应的数据进行处理,并在触摸屏上输出视觉信息。另外,控制器180可根据对触摸屏上的点的触摸是接近触摸还是接触触摸来控制移动终端100执行不同的操作或处理不同的数据。
触摸传感器可利用各种触摸方法中的任何触摸方法来感测施加到触摸屏(例如,显示单元151)的触摸。这些触摸方法的示例包括电阻型、电容型、红外型和磁场型等。
作为一个示例,触摸传感器可被配置为将施加到显示单元151的特定部分的压力的变化或者在显示单元151的特定部分处发生的电容的变化转换为电输入信号。触摸传感器还可被配置为不仅感测触摸位置和触摸面积,而且感测触摸压力和/或触摸电容。通常使用触摸物体来对触摸传感器施加触摸输入。典型的触摸物体的示例包括手指、触摸笔、手写笔、指点器等。
当通过触摸传感器感测到触摸输入时,可将对应信号发送给触摸控制器。触摸控制器可对所接收到的信号进行处理,然后将对应数据发送给控制器180。因此,控制器180可感测显示单元151的哪一区域被触摸。这里,触摸控制器可以是独立于控制器180的组件、控制器180及其组合。
在一些实施方式中,控制器180可根据对触摸屏或者除触摸屏以外设置的触摸键进行触摸的触摸物体的类型来执行相同或不同的控制。例如,根据提供触摸输入的物体是执行相同的控制还是不同的控制可基于移动终端100的当前操作状态或者当前执行的应用程序来决定。
触摸传感器和接近传感器可单独实现或者组合实现,以感测各种类型的触摸。这些触摸包括短(或轻敲)触摸、长触摸、多触摸、拖曳触摸、轻拂触摸、缩小触摸、放大触摸、轻扫触摸、悬停触摸等。
如果需要,可实现超声传感器以利用超声波来识别与触摸物体有关的位置信息。例如,控制器180可基于由照度传感器和多个超声传感器感测的信息来计算波生成源的位置。由于光远比超声波快,所以光到达光学传感器的时间远比超声波到达超声传感器的时间短。可利用这一事实来计算波生成源的位置。例如,可基于光作为基准信号利用相对于超声波到达传感器的时间的时间差来计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等)、光电传感器(或图像传感器)和激光传感器。
利用激光传感器实现相机121可允许检测物理对象相对于3D立体图像的触摸。光电传感器可被层压在显示装置上或者与显示装置交叠。光电传感器可被配置为对接近触摸屏的物理对象的移动进行扫描。更详细地讲,光电传感器可包括成行和列的光电二极管和晶体管,以利用根据施加的光的量而变化的电信号来对光电传感器处接收的内容进行扫描。即,光电传感器可根据光的变化来计算物理对象的坐标,从而获得物理对象的位置信息。
显示单元151通常被配置为输出在移动终端100中处理的信息。例如,显示单元151可显示在移动终端100处执行的应用程序的执行画面信息或者响应于执行画面信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施方式中,显示单元151可被实现为用于显示立体图像的立体显示单元。
典型的立体显示单元可采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等的立体显示方案。
音频输出模块152通常被配置为输出音频数据。这些音频数据可从多种不同的源中的任何源获得,使得所述音频数据可从无线通信单元110接收或者可存储在存储器170中。所述音频数据可在诸如信号接收模式、呼叫模式、录制模式、语音识别模式、广播接收模式等的模式下输出。音频输出模块152可提供与移动终端100所执行的特定功能有关的可听输出(例如,呼叫信号接收音、消息接收音等)。音频输出模块152还可被实现为受话器、扬声器、蜂鸣器等。
触觉模块153可被配置为产生用户感觉、感知或者体验的各种触觉效果。由触觉模块153产生的触觉效果的典型示例是振动。由触觉模块153产生的振动的强度、模式等可通过用户选择或控制器的设定来控制。例如,触觉模块153可按照组合方式或顺序方式输出不同的振动。
除了振动以外,触觉模块153可产生各种其它触觉效果,包括诸如插针排列向接触皮肤垂直移动、通过喷射孔或抽吸开口的空气的喷射力或抽吸力、对皮肤的触摸、电极的接触、静电力等的刺激效果、利用能够吸热或发热的元件再现冷和热的感觉的效果等。
除了通过直接接触传递触觉效果以外,触觉模块153还可被实现为使得用户能够通过诸如用户的手指或手臂的肌肉觉来感觉到触觉效果。可根据移动终端100的特定配置设置两个或更多个触觉模块153。
光学输出模块154可输出用于利用光源的光指示事件的发生的信号。移动终端100中发生的事件的示例可包括消息接收、呼叫信号接收、未接呼叫、闹钟、日程通知、电子邮件接收、通过应用的信息接收等。
由光学输出模块154输出的信号可被实现为使得移动终端发射单色光或多种颜色的光。例如,随着移动终端感测到用户已查看所发生的事件,信号输出可被终止。
接口单元160用作要与移动终端100连接的外部装置的接口。例如,接口单元160可接收从外部装置发送来的数据,接收电力以输送给移动终端100内的元件和组件,或者将移动终端100的内部数据发送给这种外部装置。接口单元160可包括有线或无线头戴式耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
所述标识模块可以是存储用于验证移动终端100的使用权限的各种信息的芯片,并且可包括用户标识模块(UIM)、订户标识模块(SIM)、全球订户标识模块(USIM)等。另外,具有标识模块的装置(本文中也称作“标识装置”)可采取智能卡的形式。因此,标识装置可经由接口单元160与终端100连接。
当移动终端100与外部托架连接时,接口单元160可用作使得能够将来自托架的电力供应给移动终端100的通道,或者可用作使得能够用来将由用户从托架输入的各种命令信号输送给移动终端的通道。从托架输入的各种命令信号或电力可用作用于识别出移动终端被正确安装在托架上的信号。
存储器170可存储用于支持控制器180的操作的程序,并存储输入/输出数据(例如,电话簿、消息、静止图像、视频等)。存储器170可存储与响应于触摸屏上的触摸输入而输出的各种模式的振动和音频有关的数据。
存储器170可包括一种或更多种类型的存储介质,包括闪存、硬盘、固态盘、硅磁盘、微型多媒体卡型、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等。移动终端100还可与在诸如互联网的网络上执行存储器170的存储功能的网络存储装置有关地操作。
控制器180通常可控制移动终端100的一般操作。例如,当移动终端的状态满足预设条件时,控制器180可设定或解除用于限制用户相对于应用输入控制命令的锁定状态。
控制器180还可执行与语音呼叫、数据通信、视频呼叫等关联的控制和处理,或者执行模式识别处理以将触摸屏上进行的手写输入或绘画输入分别识别为字符或图像。另外,控制器180可控制那些组件中的一个或其组合,以便实现本文公开的各种示例性实施方式。
电源单元190接收外部电力或提供内部电力,并且供应对包括在电子装置100中的各个元件和组件进行操作所需的适当电力。电源单元190可包括电池,该电池通常是可再充电的或者以可拆卸的方式联接到终端主体以便于充电。
电源单元190可包括连接端口。该连接端口可被配置为接口单元160的一个示例,用于供应电力以对电池进行再充电的外部充电器可电连接到该连接端口。
作为另一示例,电源单元190可被配置为以无线方式(而不使用连接端口)对电池进行再充电。在此示例中,电源单元190可利用基于磁感应的电感耦合方法或基于电磁共振的磁共振耦合方法中的至少一种来接收从外部无线电力发射器输送的电力。
本文所述的各种实施方式可利用(例如)软件、硬件或其任何组合来在计算机可读介质、机器可读介质或类似介质中实现。
现在参照图1b和图1c,参考直板型终端主体描述移动终端100。然而,另选地,移动终端100可按照各种不同配置中的任何配置来实现。这些配置的示例包括手表型、夹子型、眼镜型或者折叠型、翻盖型、滑盖型、旋转型和摆动型(其中两个和更多个主体按照能够相对移动的方式彼此组合)或其组合。
本文的讨论将常常涉及特定类型的移动终端(例如,直板型、手表型、眼镜型等)。然而,关于特定类型的移动终端的这些教导将通常也适用于其它类型的移动终端。
移动终端100将通常包括形成终端的外观的壳体(例如,框架、外壳、盖等)。在此实施方式中,壳体利用前壳体101和后壳体102形成。各种电子组件被并入前壳体101与后壳体102之间所形成的空间中。另外,可在前壳体101与后壳体102之间设置至少一个中间壳体。
显示单元151被示出为设置在终端主体的前侧以输出信息。如所示,显示单元151的窗口151a可被安装到前壳体101以与前壳体101一起形成终端主体的前表面。
在一些实施方式中,电子组件也可被安装到后壳体102。这些电子组件的示例包括可拆卸电池191、标识模块、存储卡等。后盖103被示出为盖住电子组件,该盖可以可拆卸地联接到后壳体102。因此,当将后盖103从后壳体102拆卸时,安装到后壳体102的电子组件暴露于外。
如所示,当后盖103联接到后壳体102时,后壳体102的侧表面部分地暴露。在一些情况下,在联接时,后壳体102也可被后盖103完全遮蔽。在一些实施方式中,后盖103可包括开口以用于将相机121b或音频输出模块152b暴露于外。
壳体101、102、103可通过合成树脂的注塑成型来形成,或者可由例如不锈钢(STS)、铝(Al)、钛(Ti)等的金属形成。
作为多个壳体形成用于容纳组件的内部空间的示例的另选方式,移动终端100可被配置为使得一个壳体形成该内部空间。在此示例中,具有单一体的移动终端100被形成为使得合成树脂或金属从侧表面延伸至后表面。
如果需要,移动终端100可包括用于防止水进入终端主体中的防水单元(未示出)。例如,防水单元可包括位于窗口151a与前壳体101之间、前壳体101与后壳体102之间、或者后壳体102与后盖103之间的防水构件,以在那些壳体联接时将内部空间密封。
移动终端100可包括显示单元151、第一音频输出模块152a和第二音频输出模块152b、接近传感器141、照明传感器142、光学输出模块154、第一相机121a和第二相机121b、第一操纵单元123a和第二操纵单元123b、麦克风122、接口单元160等。
在以下描述中,如图1b和图1c所示,显示单元151、第一音频输出模块152a、接近传感器141、照明传感器142、光学输出模块154、第一相机121a和第一操纵单元123a设置在终端主体的正面,第二操纵单元123b、麦克风122和接口单元160设置在终端主体的侧面,第二音频输出模块152b和第二相机12b设置在终端主体的背面。在以下描述中将以这种移动终端100为例。
然而,将理解,替代布置方式是可能的并且在本公开的教导内。一些组件可被省略或重新布置。例如,第一操纵单元123a可设置在终端主体的另一表面上,第二音频输出模块152b可设置在终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。例如,显示单元151可显示在移动终端100中运行的应用程序的执行画面信息或者根据这种执行画面信息的用户界面(UI)/图形用户界面(GUI)信息。
显示单元151可使用一个或更多个合适的显示装置来实现。这些合适显示装置的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、电子墨水显示器及其组合。
显示单元151可使用可实现相同或不同的显示技术的两个显示装置来实现。例如,多个显示单元151可被布置在一侧(彼此间隔开或者这些装置可被集成),或者这些装置可被布置在不同的表面上。
显示单元151还可包括感测在显示单元处接收的触摸输入的触摸传感器。当触摸被输入到显示单元151时,触摸传感器可被配置为感测该触摸,并且控制器180例如可生成与触摸对应的控制命令或其它信号。以触摸方式输入的内容可以是文本或数值,或者可在各种模式下指示或指定的菜单项。
触摸传感器可按照具有触摸图案并设置在窗口151a与窗口151a的后表面上的显示器之间的膜或者直接在窗口151a的后表面上构图的金属丝的形式配置。另选地,触摸传感器可与显示器一体地形成。例如,触摸传感器可设置在显示器的基板上或显示器内。
显示单元151还可与触摸传感器一起形成触摸屏。这里,触摸屏可用作用户输入单元123(参见图1a)。因此,触摸屏可代替第一操纵单元123a的至少一些功能。
第一音频输出模块152a可按照将呼叫声音传送至用户的耳朵的受话器的形式实现。第二音频输出模块152b可按照输出各种报警音、多媒体音频再现音等的扬声器的形式实现。
显示单元151的窗口151a通常将包括允许第一音频输出模块152a所生成的音频通过的孔径。一个替代形式是允许音频沿着结构体之间的装配间隙(例如,窗口151a与前壳体101之间的间隙)释放。在这种情况下,就外观而言,独立地形成以输出音频音的孔不可见或者说被隐藏,从而进一步简化移动终端100的外观和制造。
光学输出模块154可被配置为输出用于指示事件发生的光。这些事件的示例可包括消息接收、呼叫信号接收、未接呼叫、闹钟、日程通知、电子邮件接收、通过应用的信息接收等。当用户已查看发生的事件时,控制器可控制光学输出单元154停止光输出。
第一相机121a可处理由图像传感器在拍摄模式或视频呼叫模式下获得的图像帧(例如,静止图像或运动图像)。然后,经处理的图像帧可被显示在显示单元151上或者被存储在存储器170中。
第一操纵单元123a和第二操纵单元123b是用户输入单元123的示例,其可由用户操纵以对移动终端100提供输入。第一操纵单元123a和第二操纵单元123b还可被共同称为操纵部分,并且可采用允许用户执行诸如触摸、推按、滚动等的操纵的任何触觉方法。第一操纵单元123a和第二操纵单元123b还可采用允许用户执行诸如接近触摸、悬停等的操纵的任何非触觉方法。
图1b将第一操纵单元123a示出为触摸键,但是可能的替代方案包括机械键、推按键、触摸键及其组合。
在第一操纵单元123a和第二操纵单元123b处接收的输入可按各种方式使用。例如,用户可使用第一操纵单元123a来提供对菜单、本位键、取消、搜索等的输入,用户可使用第二操纵单元123b来提供控制从第一音频输出模块152a或第二音频输出模块152b输出的音量、切换到显示单元151的触摸识别模式等的输入。
作为用户输入单元123的另一示例,后输入单元(未示出)可位于终端主体的后表面上。用户可操纵后输入单元以提供对移动终端100的输入。输入可按照各种不同的方式使用。例如,用户可使用后输入单元来提供用于电源开/关、开始、结束、滚动、控制从第一音频输出模块152a或第二音频输出模块152b输出的音量、切换到显示单元151的触摸识别模式等的输入。后输入单元可被配置为允许触摸输入、推按输入或其组合。
后输入单元可被设置为在终端主体的厚度方向上与正面的显示单元151交叠。作为一个示例,后输入单元可位于终端主体的背面的上端部,使得当用户用一只手抓住终端主体时用户可利用食指容易地操纵它。另选地,后输入单元可被设置在终端主体的背面的几乎任何位置。
包括后输入单元的实施方式可将第一操纵单元123a的一些或所有功能实现在后输入单元中。因此,在从正面省略第一操纵单元123a的情况下,显示单元151可具有更大的屏幕。
作为另外的替代方案,移动终端100可包括扫描用户的指纹的手指扫描传感器。控制器180然后作为认证过程的一部分可使用手指扫描传感器所感测的指纹信息。手指扫描传感器还可被安装在显示单元151中或实现于用户输入单元123中。
麦克风122被示出为位于移动终端100的端部,但其它位置也是可能的。如果需要,可实现多个麦克风,这种布置方式允许接收立体声。
接口单元160可用作允许移动终端100与外部装置接口的路径。例如,接口单元160可包括用于连接到另一装置(例如,耳机、外部扬声器等)的连接端子、用于近场通信的端口(例如,红外数据协会(IrDA)端口、蓝牙端口、无线LAN端口等)、或者用于向移动终端100供电的电源端子中的一个或更多个。接口单元160可按照用于容纳外部卡(例如,订户标识模块(SIM)、用户标识模块(UIM)、或者用于信息存储的存储卡)的插槽的形式来实现。
第二相机121b被示出为位于终端主体的背面并且包括与第一相机单元121a的图像捕获方向基本上相反的图像捕获方向。如果需要,第二相机121a可另选地位于其它位置,或者使其可移动,以便具有与所示不同的图像捕获方向。
第二相机121b可包括沿着至少一条线布置的多个镜头。所述多个镜头也可按照矩阵配置布置。这些相机可被称为“阵列相机”。当第二相机121b被实现为阵列相机时,可使用多个镜头以各种方式拍摄图像以及质量更好的图像。
如图1c所示,闪光灯124被示出为与第二相机121b相邻。当利用相机121b拍摄对象的图像时,闪光灯124可对对象进行照明。
如图1b所示,第二音频输出模块152b可位于终端主体上。第二音频输出模块152b可与第一音频输出模块152a结合实现立体声功能,并且还可用于实现用于呼叫通信的免提模式。
用于无线通信的至少一个天线可位于终端主体上。天线可被安装在终端主体中或由壳体形成。例如,配置广播接收模块111的一部分的天线可缩回到终端主体中。另选地,天线可使用附接到后盖103的内表面的膜或包含导电材料的壳体来形成。
用于向移动终端100供电的电源单元190可包括电池191,电池191被安装在终端主体中或者可拆卸地联接到终端主体的外部。
电池191可经由连接到接口单元160的电源线缆来接收电力。另外,电池191可使用无线充电器以无线方式再充电。无线充电可通过磁感应或电磁共振来实现。
后盖103被示出为联接到后壳体102以用于遮蔽电池191,以防止电池191分离并保护电池191免受外部冲击或异物的影响。当电池191可从终端主体拆卸时,后壳体103可以可拆卸地联接到后壳体102。
用于保护外观或者辅助或扩展移动终端100的功能的附件也可设置在移动终端100上。作为附件的一个示例,可设置用于覆盖或容纳移动终端100的至少一个表面的盖或袋。所述盖或袋可与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于辅助或扩展对触摸屏的触摸输入的触摸笔。
将参照图2至图16如下详细描述根据本公开的移动终端100的3D图像转换设备和处理。
下面图2所示的3D图像转换设备的组件以不同于图1a所示的组件的方式来描述,标号仅是为了清楚且简明地描述3D图像转换处理,但是图1a和图2中具有相同名称或功能的组件可执行相同的操作。另外,可在图2中执行图1a中的所有组件的操作。
参照图2至图16,3D图像转换设备200包括:相机模块210,其具有用于根据多个拍摄方案进行2D图像拍摄的多个相机211、212和213;发光单元220,其包括多个发光器件阵列并对与经由相机模块210接收的2D图像对应的空间施加红外光;红外相机230,其接收包括从空间反射的红外光的红外图像;以及控制器240,其使用经由红外相机230接收的红外光来获得关于经由相机模块210接收的2D图像的深度信息并使用所获得的深度信息将2D图像转换为3D图像。
深度信息可意指与包括在2D图像中的像素对应的对象(例如,被摄体)与移动终端(更具体地,相机模块210)之间的距离(或距离值)。
例如,如果2D图像中的对象(被摄体)与移动终端100之间的距离为d,则特定像素的深度信息可以是与d对应的特定值。与d对应的特定值可包括d或通过预设算法转换的值。
如果在x轴和垂直于x轴的y轴上设定2D图像的坐标,则深度信息可意指与垂直于x轴和y轴中的每一个的z轴对应的值。深度信息的绝对值可与2D图像中的对象(被摄体)与移动终端之间的距离成比例增加。
在一些实现方式中,多个拍摄方案可包括以广角拍摄包括短距离内的对象的场景的广角拍摄方案。在这种情况下,相机模块210可包括用于广角拍摄的广角相机211。
多个拍摄方案可包括用于正常2D图像拍摄的正常拍摄方案。在这种情况下,相机模块210可包括用于正常拍摄的正常相机212。
多个拍摄方案可包括通过拉近来拍摄远距离的对象的长焦拍摄方案。在这种情况下,相机模块210可包括用于广角拍摄的长焦相机213。
上述相机模块210包括广角相机211和长焦相机213。在一些情况下,广角相机211和长焦相机213之一可起到正常相机212的作用。
另一方面,为了简单且清楚地描述根据本公开的3D图像转换处理,相机模块210仅与图1a所示的相机121不同地描述,但是相机模块210可包括图1a所示的相机。
在这种情况下,相机121中的第一相机121a和第二相机121b可分别起到广角相机211和长焦相机213的作用。如果是这样,则第一相机121a和第二相机121b可安装在同一面,例如正面或背面。
另一方面,为了简单且清楚地描述根据本公开的3D图像转换处理,图2所示的控制器240仅与图1a所示的前一控制器180不同地描述,但图2所示的控制器240的所有操作可由图1a所示的控制器180执行。
当进行2D图像拍摄时,如果经由图1a所示的触摸屏151或用户输入单元123选择广角拍摄方案、正常拍摄方案和长焦拍摄方案之一,则控制器240可启用相机模块210的广角相机211、正常相机212和长焦相机213当中的与所选拍摄方案对应的相机,然后经由启用的相机接收2D图像。
发光单元220包括各自具有“m(行)×n(列)”的多个红外发光器件阵列,并且将红外光施加到与经由相机模块210接收的2D图像对应的空间。
在这种情况下,发光单元220可安装在相机模块210或红外相机230周围。在一些情况下,发光单元220可与相机模块210或红外相机230形成为一体。
多个红外发光器件阵列可包括将电信号转换为红外光信号的激光二极管,例如VCSEL。多个红外发光器件阵列可朝着空间中的对象(或被摄体)施加红外光。
与2D图像对应的空间可意指在移动终端100所占据的空间以外的空间(即,真实空间)中通过相机模块210拍摄的空间(即,场景视野)。例如,可基于相机模块210的视角(或视场角)来确定空间。
另外,多个红外发光器件阵列中的特定发光器件可被配置为对与经由相机模块210接收的2D图像中的特定像素(局部图像或部分)对应的空间施加红外光。
此外,本公开的3D图像转换设备200可按各种方式提取经由相机模块210接收的2D图像的深度信息。
例如,控制器240可使用以下方法来提取深度信息:结构光方法,使用设置为形成预设图案的发光器件来提取深度信息;飞行时间(ToF)方法,基于从发光器件发射的光反射并返回所花费的时间来提取深度信息;或其组合。
根据结构光方法,通过控制设置为具有预设图案的多个发光器件阵列来对对象(被摄体)施加红外光,检测从对象(被摄体)反射并返回的红外光,然后基于所检测的红外光或红外光的图案来计算深度信息。
即,控制器240控制设置为具有预设图案的多个发光器件阵列,以将红外光施加到对象(被摄体)。
然后,控制器240可经由红外相机230来检测在从对象(被摄体)反射之后返回的红外光。
在这种情况下,控制器240可基于检测结果来提取经由相机模块210接收的2D图像的深度信息。例如,控制器240可通过将反射和返回的红外光所形成的图案与预设图案进行比较或者比较施加的红外光的反射和返回时间/强度等来提取经由相机模块210接收的2D图像的深度信息。
红外相机230可包括接收从对象(被摄体)反射的红外光并使所接收的红外光通过的红外线(IR)通过滤光器以及能够红外检测的图像传感器。图像传感器可被实现为电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)。
另外,红外相机230可被配置为通过与相机模块210互通来操作,并且具有与广角相机211相同的广角。
参照图3,本公开的相机模块210、发光单元220和红外相机230可相对设置在各种位置。
对于一个示例,如图3的(a)所示,以相机模块210为中心,红外相机230和发光单元220可分别设置在左侧和右侧。
对于另一示例,图3中未示出,以相机模块210为中心,发光单元220和红外相机230可分别设置在左侧和右侧。
对于另一示例,图3中未示出,以红外相机230为中心,相机模块210和发光单元220可分别设置在左侧和右侧。
对于另一示例,图3中未示出,以红外相机230为中心,发光单元220和相机模块210可分别设置在左侧和右侧。
对于另一示例,图3中未示出,以发光单元220为中心,相机模块210和红外相机230可分别设置在左侧和右侧。
对于另一示例,图3中未示出,以发光单元220为中心,红外相机230和相机模块210可分别设置在左侧和右侧。
对于另一示例,如图3的(b)所示,以相机模块210为中心,红外相机230和发光单元220可分别设置在顶侧和底侧。
对于另一示例,图3中未示出,以相机模块210为中心,发光单元220和红外相机230可分别设置在顶侧和底侧。
对于另一示例,图3中未示出,以红外相机230为中心,相机模块210和发光单元220可分别设置在顶侧和底侧。
对于另一示例,图3中未示出,以红外相机230为中心,发光单元220和相机模块210可分别设置在顶侧和底侧。
对于另一示例,图3中未示出,以发光单元220为中心,相机模块210和红外相机230可分别设置在顶侧和底侧。
对于另一示例,图3中未示出,以发光单元220为中心,红外相机230和相机模块210可分别设置在顶侧和底侧。
在一些实现方式中,如图4所示,控制器240可根据本公开控制包括在发光单元220中的多个红外发光器件中的每一个的开启/关闭,并且还以组为单位控制至少两个发光器件的开启/关闭。
例如,各自包括至少一个红外发光器件的多个组D1至Dn当中的第一组D1可被配置为向与经由相机模块210接收并显示在显示单元151上的图像410的第一区域R1对应的空间发射红外光。
此外,各自包括至少一个红外发光器件的多个组D1至Dn当中的第二组D2可被配置为向与经由相机模块210接收并显示在显示单元151上的图像410中的第二区域R2对应的空间发射红外光。
此外,控制器240可根据应用于图像410的拍摄方案来不同地控制包括在发光单元220中的红外发光器件的驱动。
对于一个示例,如果广角拍摄方案应用于图像410,则控制器240可开启发光单元220中的所有多个红外发光器件,然后控制所有红外发光器件向与图像410对应的空间发出红外光。
对于另一示例,如果长焦拍摄方案应用于图像410,则控制器240仅可开启发光单元220中的所有多个红外发光器件当中的与应用长焦拍摄方案的图像410的像素区域对应的一些红外发光器件并且关闭其余红外发光器件。此后,控制器240可控制一些红外发光器件向与应用长焦拍摄方案的图像410的像素区域对应的空间发出红外光。
参照图5,如果经由触摸屏151或用户输入单元123接收到图像拍摄命令,则控制器240经由相机模块210接收2D图像[S510]。控制器240然后可将所接收的2D图像显示在触摸屏151上。
如果经由触摸屏151或用户输入单元123接收到将2D图像转换为3D图像的命令,为了获得包括在2D图像中的至少一个对象(被摄体)的深度信息,控制器240启用红外相机230并且控制发光单元220的多个红外发光器件阵列对位于与2D图像对应的空间中的至少一个实际对象(被摄体)施加红外光[S520]。
如果显示在触摸屏151上的2D图像中的指定区域被选择,则控制器240可仅控制多个红外发光器件阵列中与所选区域对应的至少一个红外发光器件对与所选区域对应的空间施加红外光。
控制器240经由红外相机230接收从空间反射并返回的红外光[S530],并且通过将由所接收的红外光形成的图案与预设图案进行比较或者比较所施加的红外光反射并返回所花费的时间和反射后返回的红外光的强度中的至少一个来获得关于包括在2D图像中的至少一个对象的深度信息[S540]。
然后,控制器240通过将所获得的深度信息反映在2D图像中的至少一个对象中来将2D图像转换为3D图像。
在这样做时,控制器240可将显示在触摸屏151上的2D图像切换为转换的3D图像,然后显示转换的3D图像。另外,控制器240可将2D图像和转换的3D图像二者显示在触摸屏151上。此外,控制器240可将2D图像、经由红外相机230接收的红外图像和转换的3D图像一起显示。
例如,图6的(a)示出经由相机模块210拍摄的2D图像610,图6的(b)示出经由红外相机230拍摄的2D图像610的红外图像620,图6的(c)示出反映了关于2D图像610的深度信息的3D图像630。
另一方面,如图7至图14所示,控制器240可根据应用于图像410的拍摄方案来控制包括在发光单元220中的红外发光器件不同地驱动。
在广角拍摄方案应用于2D图像的情况下,将2D图像转换为3D图像的处理将如下参照图7至图10详细描述。
参照图7至图10,如果经由触摸屏151或用户输入单元123接收到图像拍摄命令,则控制器240经由相机模块210接收2D图像[S510]。控制器240然后可将所接收的2D图像显示在触摸屏151上。
随后,如果经由触摸屏151或用户输入单元123接收到对2D图像应用广角拍摄方案的命令,则控制器启用广角相机211并将经由广角相机211接收的广角2D图像显示在触摸屏上[S710]。广角2D图像可意指以比经由正常相机212接收的正常2D图像更宽的角度拍摄的图像。
此后,如果经由触摸屏151或用户输入单元123接收到将广角2D图像转换为3D图像的命令,为了获得包括在广角2D图像中的至少一个对象(被摄体)的深度信息,控制器240启用红外相机230,如图8所示,开启包括在发光单元220的多个红外发光器件阵列中的所有红外发光器件,并且控制所有开启的红外发光器件对位于与广角2D图像对应的空间中的至少一个实际对象(被摄体)施加红外光[S720]。
在这种情况下,由发光单元220施加的红外光的光量没有必要在使用广角拍摄方案拍摄短程对象时变得最大。
因此,在广角拍摄模式下控制发光单元220的光量的情况下,发光单元220的全部红外发光器件被开启,但全部红外发光器件的光量被调节为小于预设基准量,由此在电池寿命很重要的移动终端100的环境中不必要的功耗可减少[S730]。
例如,控制器240可将全部红外发光器件的光量的脉冲宽度设定为短于预设基准宽度[图9的(a)],或者将全部红外发光器件的光量的脉冲宽度的强度设定为大于预设基准强度[图9的(b)]。
随后,控制器240经由红外相机230接收从空间反射并返回的红外光[S740],并且通过将由所接收的红外光形成的图案与预设图案进行比较或者比较所施加的红外光反射并返回所花费的时间和反射后返回的红外光的强度中的至少一个来获得关于包括在广角2D图像中的至少一个对象的深度信息[S750]。
然后,控制器240通过将所获得的深度信息反映在广角2D图像中的至少一个对象中来将广角2D图像转换为3D图像[S760]。
例如,图10的(a)示出经由广角相机211拍摄的广角2D图像1010,图10的(b)示出对于广角2D图像1010经由红外相机230拍摄的红外图像1020,图10的(c)示出在广角2D图像1010中反映了深度信息的3D图像1030。
在长焦拍摄方案应用于2D图像的情况下,将2D图像转换为3D图像的处理将如下参照图11至图14详细描述。
参照图11至图14,如果经由触摸屏151或用户输入单元123接收到图像拍摄命令,则控制器240经由相机模块210接收2D图像。控制器240然后可将所接收的2D图像显示在触摸屏151上。
随后,如果经由触摸屏151或用户输入单元123接收到对2D图像应用长焦拍摄方案的命令,则控制器启用长焦相机213并且将经由长焦相机213接收的长焦2D图像显示在触摸屏上[S1110]。长焦2D图像可意指通过比经由正常相机212接收的正常2D图像以望远镜方式更加拉近而拍摄的图像。
此后,如果经由触摸屏151或用户输入单元123接收到将长焦2D图像转换为3D图像的命令,则为了获得包括在长焦2D图像中的至少一个对象(被摄体)的深度信息,控制器240启用红外相机230,如所图12示,仅开启发光单元220中的所有红外发光器件当中的与长焦2D图像的像素区域对应的一些红外发光器件并且关闭其余红外发光器件。控制器240然后控制一些红外发光器件对位于与长焦2D图像的像素区域对应的空间中的至少一个实际对象(被摄体)施加红外光[S1120]。
即,长焦拍摄模式下的长焦相机213具有小于广角相机211的视角,并且被配置为通过在长焦拍摄模式下拉近来拍摄远距离的对象(被摄体)。长焦相机213仅开启并使用发光单元220的红外发光器件当中的位于中央区域以用于对与拉近的对象对应的空间施加红外光的红外发光器件,而关闭对未能与拉近的对象对应的空间施加红外光的红外发光器件,由此功耗可降低。
在这种情况下,控制器240将位于中央区域的一些红外发光器件的光量调节为大于预设基准量,从而进一步提高深度信息的获得率[S1130]。
即,如图13的(a)所示,控制器240可将一些红外发光器件的光量的脉冲宽度设定为比预设基准宽度长。如图13的(b)所示,控制器240可增加一些红外发光器件的光量的脉冲宽度并将脉冲宽度的强度调节为比预设基准强度弱。
在一些实现方式中,控制器240可裁剪从红外相机230接收的红外图像内的与长焦2D图像对应的指定区域,并从裁剪的指定图像获得深度信息。
另外,控制器240可对红外相机230的中心部分的像素执行合并(binning),然后使用合并的像素来提高远距离的目标对象的灵敏度。
此外,尽管在中间视角的正常拍摄模式下驱动方法类似于长焦拍摄方法,但是由于正常相机212的视角大于长焦相机213的视角但小于广角相机211的视角,所以发光单元220的红外发光器件可使用多于长焦拍摄模式或者等于或小于广角拍摄模式。
另一方面,控制器240经由红外相机230接收从空间反射并返回的红外光[S1140],并且通过将由所接收的红外光形成的图案与预设图案进行比较或者比较所施加的红外光反射并返回所花费的时间和反射后返回的红外光的强度中的至少一个来获得关于包括在长焦2D图像中的至少一个对象的深度信息[S1150]。
然后,控制器240通过将所获得的深度信息反映在长焦2D图像中的至少一个对象中来将长焦2D图像转换为3D图像[S1160]。
例如,图14的(a)示出经由长焦相机213拍摄的长焦2D图像1410,图14的(b)示出通过在经由红外相机230拍摄的红外图像中裁剪与长焦2D图像对应的指定区域而生成的图像1420,图14的(c)示出在长焦2D图像1410中反映了深度信息的3D图像1430。
图15是描述根据本公开的广角或长焦拍摄模式下的自动对焦操作的图。
如图15的(a)所示,如果发光单元220的多个红外发光器件阵列施加红外光的视角小于预设视角并且阵列中的红外发光器件的数量少于预设数量,则尽管相机模块210和红外相机230以彼此互通的方式驱动,但是它们显示出不同的特性。
即,由于阵列的视角较小,所以无法使广角相机211的广角拍摄模式的所有区域同步。然而,由于阵列的视角较小并且阵列中的红外发光器件的数量较少,所以模块可利用低制造成本制成。
此外,在这种情况下,与相机模块210和红外相机230同步测量到对象(被摄体)的距离,由此可提供相机模块210的准确自动对焦功能。
在这种情况下,通过减小阵列的视角和阵列中的红外发光器件的数量,将聚焦于测量对象(被摄体)的中心距离。
即,如果经由相机模块210接收到预览图像,则控制器240可控制具有较少数量和较小视角的阵列中的红外发光器件,以对前方的对象施加红外光,经由红外相机230接收通过从对象反射而返回的红外光,使用所接收的红外光来测量对象与红外相机230之间的距离,并且控制根据所测量的距离对从相机模块210接收的预览图像中的对象执行自动对焦。
可以说,尽管存在各种自动对焦方法,但是如果采用类似于本公开的使用发光单元220和红外相机230的直接距离测量方法,则可提供更准确且更快速的自动对焦功能。
在这种情况下,通过减小IR补充光的视角和VCSEL的光斑数量,可聚焦于测量目标的中心部分的距离。
此外,如图15的(b)所示,尽管发光单元220的多个红外发光器件阵列施加红外光的视角大于预设视角,但是如果阵列中的红外发光器件的数量少于预设数量,则由于虽然相机模块210和红外相机230以彼此互通的方式驱动,阵列中的红外发光器件的数量较少,所以深度信息获得的性能降低。
在这种情况下,类似于上述图15的(a)的情况,其可用于相机模块210的自动对焦,但不同之处在于,图像的中央区域仅支持自动对焦。另一方面,图15的(b)所示的情况的优点在于,自动对焦可用于广角图像的周围区域。因此,由于自动对焦可用于周围区域以及广角图像的中心,所以可向用户提供整体平衡的对焦图像。
即,如果经由相机模块210接收到预览图像,则控制器240可控制阵列中的红外发光器件对整个前方施加红外光,经由红外相机230接收通过从整个前方反射而返回的红外光,使用所接收的红外光来测量整个前方与红外相机230之间的距离,并且控制根据所测量的距离的平均对从相机模块210接收的预览图像执行自动对焦。
图16是描述根据本公开的相机模块和红外相机被组合成单个模块的结构的图。
如图16所示,本公开的相机模块210和红外相机230可被制造成单个组合模块。
在这种情况下,可以帧为单位依次从相机模块210接收2D图像,并且可从红外相机230接收红外图像。
例如,可在奇数帧中从相机模块210接收2D图像,并且可在偶数帧中从相机模块210接收2D图像。
如上所述,由于相机模块210和红外相机230具有单个统一模块结构,所以尺寸和制造成本可有利地降低。
本领域技术人员将理解,在不脱离本发明的精神或范围的情况下,可对本公开进行各种修改和变化。
以上描述中提及的本公开可作为计算机可读代码实现于程序记录介质中。计算机可读介质可包括存储有计算机系统可读的数据的所有类型的记录装置。计算机可读介质可包括例如HDD(硬盘驱动器)、SSD(固态盘)、SDD(硅磁盘驱动器)、ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置等,并且还包括载波型实现方式(例如,经由互联网的传输)。此外,计算机可包括终端的控制器180。
因此,上述实施方式仅是示例性的,不应被视为限制本公开。因此,本公开旨在涵盖落在所附权利要求及其等同物的范围内的本公开的修改和变化。

Claims (15)

1.一种移动终端,该移动终端包括:
第一相机,该第一相机接收2D图像;
发光单元,该发光单元包括多个发光器件阵列并且对与经由所述第一相机接收的所述2D图像对应的空间施加光;
第二相机,该第二相机接收从所述空间反射的光;以及
控制器,该控制器被配置为基于所接收的光来获得关于所述2D图像的深度信息并且基于所获得的深度信息来将所述2D图像转换为3D图像,
其中,所述控制器根据应用于所述2D图像的拍摄方案来控制所述多个发光器件阵列不同地驱动,并且
其中,所述拍摄方案包括广角拍摄方案,并且其中,如果所述广角拍摄方案应用于所述2D图像,则所述控制器全部开启所述多个发光器件阵列。
2.根据权利要求1所述的移动终端,其中,所述深度信息包括关于包括在所述2D图像中的至少一个对象的深度信息。
3.根据权利要求1所述的移动终端,其中,所述发光单元包括多个红外发光器件阵列,并且其中,所述第二相机包括接收从所述空间反射的红外光的红外相机。
4.根据权利要求1所述的移动终端,其中,所述控制器将所有所述多个发光器件阵列的光量调节为低于预设光量的水平。
5.根据权利要求3所述的移动终端,该移动终端还包括显示单元,其中,所述控制器将所述2D图像、针对所述2D图像的经由所述第二相机接收的红外图像和所述3D图像一起显示在所述显示单元上。
6.一种移动终端,该移动终端包括:
第一相机,该第一相机接收2D图像;
发光单元,该发光单元包括多个发光器件阵列并且对与经由所述第一相机接收的所述2D图像对应的空间施加光;
第二相机,该第二相机接收从所述空间反射的光;以及
控制器,该控制器被配置为基于所接收的光来获得关于所述2D图像的深度信息并且基于所获得的深度信息来将所述2D图像转换为3D图像,
其中,所述控制器根据应用于所述2D图像的拍摄方案来控制所述多个发光器件阵列不同地驱动,并且其中,所述拍摄方案包括长焦拍摄方案,并且其中,如果所述长焦拍摄方案应用于所述2D图像,则所述控制器仅开启所述多个发光器件阵列中的一些发光器件阵列。
7.根据权利要求6所述的移动终端,其中,所述多个发光器件阵列中的所述一些发光器件阵列包括所述多个发光器件阵列当中的与中央区域对应的发光器件阵列。
8.根据权利要求6所述的移动终端,其中,所述控制器将所述多个发光器件阵列中的所述一些发光器件阵列的光量调节为高于预设光量的水平。
9.根据权利要求6所述的移动终端,其中,所述深度信息包括关于包括在所述2D图像中的至少一个对象的深度信息。
10.根据权利要求6所述的移动终端,其中,所述发光单元包括多个红外发光器件阵列,并且其中,所述第二相机包括接收从所述空间反射的红外光的红外相机。
11.根据权利要求10所述的移动终端,该移动终端还包括显示单元,其中,所述控制器将所述2D图像、针对所述2D图像的经由所述第二相机接收的红外图像和所述3D图像一起显示在所述显示单元上。
12.一种用于3D图像转换的方法,该方法包括以下步骤:
经由第一相机接收2D图像;
经由包括多个发光器件阵列的发光单元对与经由所述第一相机接收的所述2D图像对应的空间施加光;
经由第二相机接收从所述空间反射的光;
基于所接收的光来获得关于所述2D图像的深度信息;
基于所获得的深度信息来将所述2D图像转换为3D图像;以及
根据应用于所述2D图像的拍摄方案来控制所述多个发光器件阵列不同地驱动,
其中,所述拍摄方案包括广角拍摄方案,并且其中,如果所述广角拍摄方案应用于所述2D图像,则控制步骤全部开启所述多个发光器件阵列并且将所有所述多个发光器件阵列的光量调节为低于预设光量的水平。
13.根据权利要求12所述的方法,其中,所述发光单元包括多个红外发光器件阵列,并且其中,所述第二相机包括接收从所述空间反射的红外光的红外相机。
14.一种用于3D图像转换的方法,该方法包括以下步骤:
经由第一相机接收2D图像;
经由包括多个发光器件阵列的发光单元对与经由所述第一相机接收的所述2D图像对应的空间施加光;
经由第二相机接收从所述空间反射的光;
基于所接收的光来获得关于所述2D图像的深度信息;
基于所获得的深度信息来将所述2D图像转换为3D图像;以及
根据应用于所述2D图像的拍摄方案来控制所述多个发光器件阵列不同地驱动,
其中,所述拍摄方案包括长焦拍摄方案,并且其中,如果所述长焦拍摄方案应用于所述2D图像,则控制步骤仅开启所述多个发光器件阵列中的一些发光器件阵列并且将所述多个发光器件阵列中的所述一些发光器件阵列的光量调节为高于预设光量的水平。
15.根据权利要求14所述的方法,其中,所述发光单元包括多个红外发光器件阵列,并且其中,所述第二相机包括接收从所述空间反射的红外光的红外相机。
CN201980096651.6A 2019-06-12 2019-06-12 移动终端及其3d图像转换方法 Active CN113875215B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/007088 WO2020251075A1 (ko) 2019-06-12 2019-06-12 이동 단말기 및 그의 3d 영상 변환 방법

Publications (2)

Publication Number Publication Date
CN113875215A CN113875215A (zh) 2021-12-31
CN113875215B true CN113875215B (zh) 2023-05-05

Family

ID=73781057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980096651.6A Active CN113875215B (zh) 2019-06-12 2019-06-12 移动终端及其3d图像转换方法

Country Status (5)

Country Link
US (1) US11756262B2 (zh)
EP (1) EP3985954A4 (zh)
KR (1) KR102637419B1 (zh)
CN (1) CN113875215B (zh)
WO (1) WO2020251075A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090035191A (ko) * 2007-10-05 2009-04-09 엘지전자 주식회사 입체 영상 데이터 획득 장치 및 방법
CN102333227A (zh) * 2010-07-12 2012-01-25 Lg电子株式会社 移动终端以及其中的3d图像控制方法
CN102377875A (zh) * 2010-08-18 2012-03-14 Lg电子株式会社 移动终端及其图像显示方法
CN107637058A (zh) * 2015-06-17 2018-01-26 Lg电子株式会社 移动终端及其控制方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3905697B2 (ja) * 2000-11-07 2007-04-18 ペンタックス株式会社 3次元画像検出ユニット
JP2007043248A (ja) * 2005-07-29 2007-02-15 Eastman Kodak Co 撮像装置
JP2007298665A (ja) * 2006-04-28 2007-11-15 Matsushita Electric Ind Co Ltd プロジェクタ
KR101430474B1 (ko) * 2008-02-19 2014-08-18 엘지전자 주식회사 입체 영상 디스플레이 방법 및 장치
CN103167225A (zh) * 2011-12-19 2013-06-19 安讯士有限公司 监控摄像机
KR20130080909A (ko) * 2012-01-06 2013-07-16 삼성전자주식회사 수술 로봇 및 그 제어 방법
KR101273534B1 (ko) 2013-01-31 2013-06-17 (주)브이아이앰 입체영상 프로젝션을 위한 자동 화면보정 시스템을 이용한 화면보정방법
US20150002734A1 (en) * 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US20160182891A1 (en) 2014-12-22 2016-06-23 Google Inc. Integrated Camera System Having Two Dimensional Image Capture and Three Dimensional Time-of-Flight Capture With A Partitioned Field of View
US10453185B2 (en) * 2015-11-12 2019-10-22 Aquifi, Inc. System and method for high dynamic range depth capture using multiple cameras
WO2018038340A2 (en) * 2016-08-24 2018-03-01 Samsung Electronics Co., Ltd. Electronic device including light-emitting elements and method of operating electronic device
US10957119B2 (en) * 2017-03-15 2021-03-23 Facebook, Inc. Visual editor for designing augmented-reality effects
CN108303708B (zh) * 2018-01-03 2022-07-29 京东方科技集团股份有限公司 三维重建系统及方法、移动设备、护眼方法、ar设备
CN108449529B (zh) * 2018-02-07 2020-12-18 深圳奥比中光科技有限公司 深度计算处理器及移动终端
EP3810028A1 (en) * 2018-06-21 2021-04-28 3Shape A/S Method, device and system for correlating at least one additional 2d-image to a 3d-representation of at least a part of tooth

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090035191A (ko) * 2007-10-05 2009-04-09 엘지전자 주식회사 입체 영상 데이터 획득 장치 및 방법
CN102333227A (zh) * 2010-07-12 2012-01-25 Lg电子株式会社 移动终端以及其中的3d图像控制方法
CN102377875A (zh) * 2010-08-18 2012-03-14 Lg电子株式会社 移动终端及其图像显示方法
CN107637058A (zh) * 2015-06-17 2018-01-26 Lg电子株式会社 移动终端及其控制方法

Also Published As

Publication number Publication date
EP3985954A1 (en) 2022-04-20
EP3985954A4 (en) 2023-01-25
KR20220020241A (ko) 2022-02-18
CN113875215A (zh) 2021-12-31
KR102637419B1 (ko) 2024-02-16
US20220148259A1 (en) 2022-05-12
WO2020251075A1 (ko) 2020-12-17
US11756262B2 (en) 2023-09-12

Similar Documents

Publication Publication Date Title
CN107637058B (zh) 移动终端及其控制方法
US10341529B2 (en) Terminal and controlling method thereof
US10291833B2 (en) Mobile terminal for image capturing and method for controlling the same
CN111727596B (zh) 移动终端
KR101785458B1 (ko) 카메라 모듈 및 이를 구비하는 이동 단말기
US9942453B2 (en) Mobile terminal and method for controlling the same
US10095085B2 (en) Mobile terminal
CN106850395B (zh) 移动终端及其控制方法
CN106412221B (zh) 移动终端及其控制方法
CN105721666B (zh) 移动终端及其控制方法
CN107852435B (zh) 移动终端及其控制方法
CN107948394B (zh) 移动终端
US20170034449A1 (en) Mobile terminal and method for controlling same
CN105718187B (zh) 移动终端及控制移动终端的内容的方法
CN108093125B (zh) 终端及其控制方法
CN105306625B (zh) 移动终端及其控制方法
KR20170139408A (ko) 듀얼 카메라가 장착된 동영상 촬영 장치
US20180267663A1 (en) Terminal and method of controlling therefor
KR20170005649A (ko) 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기
KR101783773B1 (ko) 듀얼 카메라 모듈 및 이를 구비하는 이동 단말기
US10057463B2 (en) Mobile terminal and control method therefor
CN106201299B (zh) 移动终端及其控制方法
US20170124549A1 (en) Terminal and controlling method thereof
CN113875215B (zh) 移动终端及其3d图像转换方法
US20230184952A1 (en) Mobile terminal and control method therefor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant