CN102376101A - 用于编辑三维图像的方法和利用该方法的移动终端 - Google Patents
用于编辑三维图像的方法和利用该方法的移动终端 Download PDFInfo
- Publication number
- CN102376101A CN102376101A CN2011101049685A CN201110104968A CN102376101A CN 102376101 A CN102376101 A CN 102376101A CN 2011101049685 A CN2011101049685 A CN 2011101049685A CN 201110104968 A CN201110104968 A CN 201110104968A CN 102376101 A CN102376101 A CN 102376101A
- Authority
- CN
- China
- Prior art keywords
- image
- portable terminal
- controller
- drawing object
- compiling objective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72427—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
Abstract
用于编辑三维图像的方法和利用该方法的移动终端。一种用于控制移动终端的方法包括:通过移动终端上的控制器来提供第一图像和第二图像,第一图像和第二图像反映双眼视差以形成三维图像;从三维图像识别编辑目标;编辑被识别的编辑目标的第一图像;以及将经过编辑的第一图像和与经过编辑的第一图像相对应的第二图像应用于三维图像。
Description
技术领域
本发明涉及图像处理方法,更具体地说,涉及用于编辑三维图像的方法以及利用该方法的移动终端。
背景技术
通常,根据终端是否可移动可以将终端分成移动或便携式终端和固定终端。此外,根据移动终端的用户是否可以直接随身携带可以将移动终端分成手持终端和车载终端。
随着终端的功能越来越多样化,终端可以支持诸如拍摄图像或视频、再现音乐或视频文件、玩游戏、接收广播信号等更复杂的功能。通过综合并且集中实现这些功能,以多媒体播放器或装置的形式来实施移动终端。为了支持并且增加终端的功能,可以考虑改善终端的结构部分和/或软件部分。
总体上来说,终端正在朝着超过显示二维图像的水平并具有显示允许深度感知或立体视觉的三维立体图像的功能方向发展。用户可以通过三维立体图像享受更逼真的用户接口(UI)或内容。
但是能够显示三维立体图像的现有技术的终端未提供一种使用户能够方便地插入或编辑三维文本等形式的期望文本的方法。
发明内容
因此,本发明的一个目的是提供一种具有与常规输入法不同的输入法的移动终端。
本发明的另一个目的是提供一种用于编辑三维图像的方法以及利用该方法的移动终端,该方法能够将三维对象插入到三维图像中或者编辑三维对象,然后将该三维对象插入到三维图像中。
为了实现上述目的,提供了一种用于编辑包括反映双眼视差的第一图像和第二图像的三维图像的方法,该方法包括:从三维图像识别编辑目标;对被识别的编辑目标的第一图像进行编辑;以及将经过编辑的第一图像和与经过编辑的第一图像相对应的第二图像应用于三维图像。
为了实现上述目的,提供了一种用于编辑包括反映双眼视差的第一图像和第二图像的三维图像的方法,该方法包括:接收要合成的图形对象;从三维图像中识别合成目标;以及将接收到的图形对象合成到被识别的合成目标。
为了实现上述目的,提供了一种用于编辑包括反映双眼视差的第一图像和第二图像的三维图像的方法,该方法包括:获取从三维图像识别的人物的第一图像;从数据库中搜索寻找与所述第一图像相对应的二维人物照片图像;以及当搜索成功时,从数据库获取与二维人物照片图像相关联的信息,将获取的信息合成到第一图像,并且将合成后的第一图像和与合成后的第一图像相对应的第二图像应用于三维图像。
为了实现上述目的,提供了一种用于编辑包括反映双眼视差的第一图像和第二图像的三维图像的方法,该方法包括:接收要合成的图形对象;从三维图像识别分别具有不同的深度比例的多个合成目标;以及将图形对象合成到多个合成目标,以使得所述图形对象在该图形对象的、与所述合成目标重叠的部分上具有不同的深度。
为了实现上述目的,提供了一种编辑包括反映双眼视差的第一图像和第二图像的三维图像的移动终端,该移动终端包括:显示单元,其显示三维图像;以及控制器,其从三维图像识别编辑目标、对被识别的编辑目标的第一图像进行编辑,并且将经过编辑的第一图像和与经过编辑的第一图像相对应的第二图像应用于三维图像。
在根据本发明的示例性实施方式的用于编辑3D图像的方法和利用该方法的移动终端中,插入或编辑3D对象,使得3D对象与3D立体图像一致。因此,可以消除将2D对象插入到3D图像时的不便,并且从用户的角度来说可以提供更自然的图像。
根据下文中给出的详细描述,本发明的可应用性的进一步范围将变得显而易见。但是,应该理解,由于根据该详细描述,本发明的精神和范围内的各种变化和修改对于本领域技术人员来说将变得显而易见,因此仅通过例示而给出表示本发明的优选实施方式的详细描述和具体示例。
附图说明
根据下面给出的详细描述和附图,将更全面地理解本发明,这些详细描述和附图仅作为例示给出,因此本发明不限于此,其中:
图1是根据本发明的一个示例性实施方式的移动终端的示意性框图;
图2是示出了根据本发明的一个示例性实施方式的移动终端处于3D图像编辑模式时的画面图像的图;
图3是示出了根据本发明的一个示例性实施方式的关于通过移动终端识别的编辑目标的功能菜单的图;
图4是示出了根据本发明的一个示例性实施方式的将文本合成到通过移动终端识别的编辑目标的图;
图5是示出了根据本发明的一个示例性实施方式的通过利用脸部识别方案将文本合成到由移动终端识别的编辑目标的图;
图6是示出了根据本发明的一个示例性实施方式的将线条合成到通过移动终端识别的编辑目标的图;
图7是示出了根据本发明的一个示例性实施方式的将线条合成到通过移动终端识别的、由用户选择的编辑目标的图;
图8是示出了根据本发明的一个示例性实施方式的将由用户输入的文本合成到通过移动终端选择的编辑目标的图;
图9是示出了根据本发明的一个示例性实施方式的通过由移动终端区分线条部分的深度将由用户输入的线条合成到编辑目标的图;
图10是示出了根据本发明的一个示例性实施方式的用于调节图像的深度比例的方法的流程图;
图11是示出了根据本发明的另一个示例性实施方式的用于调节图像的深度比例的方法的流程图;
图12是示出了根据本发明的再一个示例性实施方式的用于调节图像的深度比例的方法的流程图;以及
图13是示出了根据本发明的又一个示例性实施方式的用于调节图像的深度比例的方法的流程图。
具体实施方式
下面将参照附图详细描述本发明的实施方式,其中,对相同或相应的组件使用相同的附图标记,而不考虑附图编号,并且省略冗余解释。在描述本发明时,如果对相关的已知功能或构造的详细解释被认为不必要地转移了本发明的要点,但本领域中的技术人员理解该要点,则略去这样的说明。在下面的描述中,仅为了便于对本发明的说明,使用了用于表示要素的后置用语“模块”、“部件”或“单元”,这些后置用语本身并不具有任何重要含义。如果对相关的已知功能或构造的详细解释被认为不必要地转移了本发明的要点,但本领域中的技术人员理解该要点,则略去这样的说明。本发明的附图旨在便于理解本发明,并且不应将本发明理解为受到附图的限制。
移动终端的整体构造
与本发明相关联的移动终端可以包括移动电话、智能电话、笔记本计算机、数字广播接收器、PDA(个人数字助理)、PMP(便携式多媒体播放器)和导航装置等。本领域中的人员应当理解,除了专门针对移动功能而构造的任何组件以外,根据本发明实施方式的构造还可以应用于固定类型的终端(例如数字电视机、台式计算机等)。
图1是根据本发明的一个实施方式的移动终端的示意性框图。
移动终端100可以包括无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190等。图1示出了具有各种组件的移动终端,但是应该理解并不需要实现所有示出的组件。可以实现更多或较少的组件。
将如下具体地描述移动终端的元件。
无线通信单元110通常包括使得移动终端100能够与该移动终端所在的无线通信系统或网络之间进行无线通信的一个或更多个组件。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114以及位置定位模块115中的至少一个。
广播接收模块111通过广播信道从外部的广播管理服务器(或其它网络实体)接收广播信号和/或广播相关信息。广播相关信息可以是指与广播信道、广播节目或广播服务提供商相关联的信息。也可以经由移动通信网络来提供广播相关信息,在此情况下,可以由移动通信模块112接收该广播相关信息。通过广播接收模块111接收到的广播信号和/或广播相关信息可以存储在存储器160(或其他类型的存储介质)中。
移动通信模块112向基站(例如,接入点、Node B等)、外部终端(例如,其它用户设备)和服务器(或其它网络实体)中的至少一个发送无线信号和/或从基站(例如,接入点、Node B等)、外部终端(例如,其它用户设备)和服务器(或其它网络实体)中的至少一个接收无线信号。根据文本和/或多媒体消息的接收和/或发送,这些无线信号可以包括语音呼叫信号、视频呼叫信号或各种类型的数据。
无线因特网模块113支持移动终端的无线因特网接入。该模块可以在内部或外部连接到终端。所实现的无线因特网接入技术可以包括WLAN(无线局域网)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)、LTE(长期演进)、或LTE-A(长期演进-高级)等。
短距离通信模块114是用于支持短距离通信的模块。短距离通信模块的一些示例包括蓝牙TM、射频识别(RFID:radio frequency identification)、红外数据协会(IrDA:Infrared data association)、超宽带(UWB:ultra-wideband)和ZIGBEE等。
位置定位模块115是用于检查或获得移动终端的定位(或位置)的模块。位置定位模块的一个典型示例是GPS(全球定位系统)。
参考图1,A/V输入单元120接收音频或图像信号。A/V输入单元120可以包括照相机121(或其他图像拍摄装置)或麦克风122(或其它声音采集装置)。照相机121对由处于视频拍摄模式或图像拍摄模式中的图像拍摄装置所获得的静止图像或视频的图像图框进行处理。可以在显示单元151(或其它视觉输出装置)上显示处理后的图像图框。
经过照相机121处理的图像图框可以存储在存储器160(或其它存储介质)中,或者通过无线通信单元110发送。根据移动终端的构造,可以设置两个或更多个照相机121。
在电话呼叫模式、记录模式和语音识别模式等中,麦克风122可以经由麦克风或其他装置接收声音,并将该声音处理为音频数据。可以转换经过处理的音频(语音)数据以输出为能够在电话呼叫模式的情况下经由移动通信模块112发送到移动通信基站(或其它网络实体)的格式。麦克风122可以执行各种类型的噪声去除(或抑制)算法以去除(或抑制)在接收和发送音频信号的过程中产生的噪声或干扰。
用户输入单元130(或其他用户输入装置)可以根据用户输入的命令而产生输入数据,以控制移动终端的各种操作。用户输入单元130可以包括键区、薄膜开关(domeswitch)、触摸板(例如,检测由于接触而产生的电阻、压力、和电容等的变化的触敏构件)、滚轮(jog wheel)和拨动开关(jog switch)等。
感测单元140(或其它检测装置)检查移动终端100的当前状况(或状态),诸如移动终端100的打开/闭合状态、移动终端100的位置、用户是否与移动终端100接触、移动终端100的取向、和移动终端100的加速或减速移动和方向等,并生成用于控制移动终端100的操纵的命令或信号。例如,当把移动终端100实现为滑盖式移动电话时,感测单元140可以感测该滑盖式电话是打开的还是闭合的。另外,感测单元140可以检测电源单元190是否提供电力、或接口单元170是否与外部设备耦接。感测单元140可以包括接近单元141。
输出单元150被配置为以视觉、听觉和/或触觉方式(例如,音频信号、图像信号、告警信号、振动信号等)提供输出。输出单元150可以包括显示单元151、音频输出模块152、告警单元153、和触觉模块154等。
显示单元151可以显示(输出)在移动终端100中经过处理的信息。例如,当移动终端100处于电话呼叫模式中时,显示单元151可以显示与呼叫或其它通信(诸如文本消息收发、和多媒体文件下载等)相关联的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频呼叫模式或图像拍摄模式时,显示单元151可以显示拍摄的图像和/或接收到的图像、和示出了视频或图像以及与该视频或图像相关的功能的UI或GUI等。
显示单元151可以包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器、和电子墨水(e-ink)显示器等中的至少一个。
这些显示器中的一些显示器可以被构造为使得能够看到外部的透明或透光显示器,因此可以被称为透明显示器。典型的透明显示器例如可以是TOLED(透明有机发光二极管)显示器等。通过这样的构造,用户可以通过由终端机体的显示单元151占据的区域看到位于终端机体后侧的物体。
根据移动终端100的尤其优选的实施方式,移动终端100可以包括两个或更多个显示单元(或其它显示装置)。例如,多个显示单元可以分开或一体地布置在移动终端的一个表面上,或者可以分开地布置在彼此不同的表面上。
同时,当显示单元151与检测触摸操作的传感器(此后称为“触摸传感器”)以分层的方式交叠以形成触摸屏时,显示单元151可以既用作输入装置又用作输出装置。触摸传感器可以具有触摸膜、触摸片和/或触摸板等形式。
触摸传感器可以将施加到显示单元151的特定部分的压力或在显示单元151的特定部分产生的电容或其他参数的变化转换成电输入信号。触摸传感器可以检测施加触摸时的压力以及触摸的位置或面积。
当存在对触摸传感器的触摸输入时,相对应的一个信号(多个信号)被发送到触摸控制器。触摸控制器处理该信号并将相对应的数据发送到控制器180。因此,控制器180可以识别出显示单元151的哪个部分被触摸。
参照图1,接近单元141可以被设置在触摸屏内或触摸屏附近。接近单元141是在没有物理接触的情况下利用电磁力或红外线来检测是否存在相对于特定检测表面的物体或位于特定检测表面附近的物体的传感器。因此,与接触式传感器相比,接近单元141具有长得多的寿命,并且接近单元141可以用于各种用途。
接近单元141的示例可以包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、RF振荡型接近传感器、电容式接近传感器、磁接近传感器、和红外接近传感器等。如果触摸屏是电容式接近传感器,则利用电场随着指针的接近而发生的变化来检测指针的接近。在此情况下,可以将触摸屏(触摸传感器)归类为接近单元。
音频输出模块152可以在呼叫信号接收模式、呼叫模式、录制模式、语音识别模式、或广播接收模式等中转换并输出从无线通信单元110接收到的或存储在存储器160中的声音音频数据。此外,音频输出模块152可以提供与移动终端100所执行的特定功能相关的音频输出(例如,呼叫信号接收音、消息接收音等)。音频输出模块152可以包括接收器、扬声器、蜂鸣器和/或其它声音产生装置。
告警单元153(或其它类型的用户通知装置)可以提供输出以通知移动终端100的事件的发生。典型的事件可以包括呼叫接收、消息接收、按键信号输入、触摸输入等。除了音频或视频输出外,告警单元153可以按照不同的方式来提供输出,以通知事件的发生。例如,告警单元153可以以振动的形式提供输出(或者其它触觉或感觉输出)。当接收到呼叫、消息和/或一些其它的入局通信时,告警单元153可以提供触觉输出(即,振动)以通知用户。通过提供这样的触觉输出,即使用户的移动电话放在衣袋中,用户也能够识别出各种事件的发生。通知事件的发生的输出也可以通过显示单元151或音频输出模块152来提供。显示单元151与音频输出模块152可以被分类成告警单元153的一部分。
触觉模块154产生用户可以感觉到的各种触觉效果。触觉模块产生的触觉效果的一种典型示例是振动。可以对触觉模块154的强度和模式进行控制。例如,不同的振动可以组合地输出或顺序输出。
除了振动以外,触觉模块154可以产生如刺激效果的多种其它触觉效果,诸如由针列对接触皮肤表面垂直移动、空气通过喷射孔或吸入孔的喷射力或吸力、与皮肤的接触、与电极的接触、静电力等和利用能够吸收或产生热的组件来再现冷或热的感觉而产生的效果。
触觉模块154可以实现为使用户能够通过诸如用户的手指或手臂等的肌觉来感觉触觉效果,并且通过直接接触来传递触觉效果。根据移动终端100的构造,可以设置两个或更多个触觉模块154。
存储器160可以存储用于由控制器180执行的处理和控制操作的软件程序,或可以临时地存储输入或输出的数据(例如,电话薄、消息、静态图像等)。此外,存储器160还可以存储关于当向触摸屏输入触摸时输出的各种模式的振动和音频信号的数据。
存储器160可以包括以下类型的存储介质中的至少一项:闪存、硬盘、多媒体卡式微型存储器、卡式存储器(例如,SD或XD存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘和/或光盘。此外,移动终端100可以与在因特网上执行存储器160的存储功能的网络存储器相关地工作。
接口单元170充当与连接到该移动终端的每个外部设备的接口。例如,接口单元可以向外部设备发送数据,接收并向移动终端100的各个组件传输电力,或将移动终端100的内部数据发送到外部设备。例如,接口单元170可以包括有线/无线耳机端口、外部电源端口、有线/无线数据端口、存储卡端口、用于连接具有身份模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、和/或耳机端口等。
身份模块可以是存储用于对使用移动终端100的人员的权限进行认证的多种信息的芯片,并且可以包括用户身份模块(UIM:user identity module)、订户身份模块(SIM:subscriber identity module)和通用订户身份模块(USIM:universal subscriberidentify module)等。另外,具有身份模块的装置(此后将其称为“身份装置”)可以采用智能卡的形式。因此,身份装置可以通过端口与终端100连接起来。
当移动终端100与外部支架连接时,接口单元170可以充当允许从支架通过该接口单元向移动终端100提供电力的通道,或可以充当允许将用户从支架输入的各种命令传输到移动终端的通道。从支架输入的各种命令信号或电力都可以起到识别移动终端被正确地固定在支架上的信号的作用。
控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音呼叫、数据通信和视频呼叫等相关的控制和处理。控制器180可以包括用于再现多媒体数据的多媒体模块181。多媒体模块181可以被构造在控制器180内,或可以被构造为与控制器180分立设置。
控制器180可以执行图案识别处理,以分别将在触摸屏上执行的手写输入或绘图输入识别为字符或图像。
电源单元190接收外部电力或内部电力,并且在控制器180的控制下提供用于操作各个元件和组件所需的适当电力。
本文中描述的各种实施方式可以利用例如软件、硬件或它们的任意组合在计算机可读介质或其类似介质内实现。
对于硬件实现来说,本文中所述的实施方式可以利用以下器件中的至少一个来实现:专用集成电路(ASIC:application specific integrated circuits)、数字信号处理器(DSP:digital signal processor)、数字信号处理装置(DSPD:digital signal processingdevice)、可编程逻辑器件(PLD:programmable logic device)、现场可编程门阵列(FPGA:field programmable gate arrays)、处理器、控制器、微控制器、微处理器、被设计为执行本文中所述的功能的其它电子单元。在一些情况下,这些实施方式可以由控制器180本身来实现。
对于软件实现来说,本文所描述的诸如过程和功能的实施方式可以使用单独的软件模块来实现。每一个软件模块都可以执行本文所述的一个或更多个功能或操作。软件代码可以使用以任意适当的编程语言编写的软件应用来实现。软件代码可以存储在存储器160中并由控制器180执行。
用于处理针对移动终端的用户输入的方法
用户输入单元130被操作为接收用于控制移动终端100的操作的命令,并且可以包括多个操作单元131和132。操作单元131和132通常被称为操作部,并且可以针对操作部采用多种方法和技术,只要用户能够以触觉的方式操作该操作部即可。
显示单元151可以显示多种类型的可视信息。该信息可以以字符、数字、符号、图形或图标的形式显示出来。为了输入这样的信息,可以以键区的形式按照预定的排列显示字符、数字、符号、图形和图标中的至少一项。此外,键区可以被称为“软键”。
显示单元151可以作为整个区域而工作,或者可以分成多个区域工作。在后一种情况下,多个区域可以被构造为互相关联地被操作。
例如,输出窗口和输入窗口可以显示在显示单元151的上部和下部。输出窗口和输入窗口是被分别分配给输出信息或输入信息的区域。以数字标记的用于输入电话号码或其他信息的软键可以输出到输入窗口。当触摸软键时,可以在输出窗口上显示与被触摸的软键相对应的数字或其他信息。当操作操作单元时,可以尝试对输出窗口上显示的电话号码的呼叫连接,或者将在输出窗口上显示的文本可以输入给应用程序。
显示单元151或触摸板可以被配置成接收滚动触摸。用户可以通过触摸板上的滚动操作来移动在显示单元151上显示的实体(例如,位于图标等上的光标或指针)。另外,当用户在显示单元151或触摸板上移动其手指时,可以在显示单元151上可视地显示出用户的手指移动的路径。这在编辑显示单元151上显示的图像时是有用的。
当在特定时间范围内一起触摸了显示单元151(或触摸屏)和触摸板时,可以执行终端的特定功能。例如,当用户利用其拇指和食指夹住终端机体时,可以一起触摸到显示单元151和触摸板。特定功能可以是对显示单元151或触摸板的启用或禁用。
示例性实施方式涉及一种能够在如上所述地构造的终端中实现的控制方法。现在将参照附图来描述这些实施方式。将予以描述的示例性实施方式可以单独使用或者可以组合使用。此外,将予以描述的示例性实施方式可以与前述的用户界面(UI)结合以供使用。
将描述说明本发明的示例性实施方式所需的概念或术语。
三维(3D)立体图像
三维(3D)立体图像是这样的图像:用户可以用按照与真实空间相同的方式来感受对象位于监测器或屏幕上的一个部分的渐进深度和真实性。通过利用双眼视差(disparity)来实现3D立体图像。双眼视差指的是通过互相相隔大约65毫米的用户的两眼的位置所获得的视差(parallax)。当双眼看见互相不同的2D图像时,并且当图像传递到大脑并合成时,用户可以感受3D立体图像的深度和真实性。
3D显示方法包括立体方法(眼镜方法)、自动立体方法(无眼镜方法)、投影法(全息法)等。主要用于家庭电视接收器的立体方法包括惠斯通(Wheatstone)立体方法等。主要用于移动终端等的自动立体方法包括视差屏障方法、透镜方法等。投影法包括反射全息法、透射式全息法等。
3D立体图像的构造和显示
通常,3D立体图像包括左图像(左眼图像)和右图像(右眼图像)。构成3D立体图像的方法可以被分成上-下方案(其中,左图像和右图像上下设置在一个图框中)、L-R(左右、并排)方案(其中,左图像和右图像左右设置在一个图框中)、棋盘方案(其中,左图像片段和右眼片段以片(tile)形式设置)、交错方案(其中,按照列或行交替设置左图像和右图像)、时分(时序、逐图框)方案(其中,按照时间交替显示左眼图像和右眼图像)等。
3D深度比例
3D深度、3D深度比例或3D深度值指的是表示图像内物体之间的3D距离的指示符。例如,当深度比例被定义为256个级,因此最大值是255而最小值是0时,数值越大,代表位置离观看者或用户越近。
通常,包括通过两个照相机镜头拍摄到的左图像和右图像的3D立体图像使观看者感受由于上述双眼视差所生成的左图像和右图像之间的视差导致的深度比例(depth scaling)。多视角图像还使观看者通过利用由多个照相机镜头拍摄到的多个图像(各图像具有不同的视差)来感受深度比例。
与起初便生成为具有深度比例的图像的3D立体图像或多视角图像不同,可以根据2D图像生成具有深度比例的图像。
例如,基于深度图像绘制(DIBR)方案是这样的方法:通过利用一个或更多个2D图像和相应的深度映射来创建尚未存在的新视点图像。深度映射提供关于图像中各像素的深度比例信息。图像制作者可以通过利用深度映射来计算2D图像上显示的物体的视差,并且可以向左或右使相应的物体偏移或移动计算出的视差,以生成新视点图像。
本示例性实施方式可以应用于2D图像(图像、图形对象、局部画面图像等)以及起初便生成为具有深度比例的图像的3D立体图像(图像、图形对象、局部画面图像等)。例如,在本发明的示例性实施方式中,可以通过利用已知的3D图像创建方案根据2D图像来生成3D信息(即,深度映射),通过利用上述DIBR等可以生成新视点图像(即,左图像和右图像),然后可以对图像进行组合以生成3D图像。
在下面的描述中,假设通过移动终端100来调节3D图像的深度比例。但是,通过移动终端100调节3D图像的情况仅用于说明该发明中公开的示例性实施方式并且应当理解本发明中所公开的示例性实施方式的技术概念并不限于此。
即,当要通过移动终端100调节2D图像的深度比例时,可以通过生成如上所述的深度映射或3D图像的过程来三维方式显示2D图像。因此,在后面描述“3D图像”时,应当解释3D图像意味着包括“2D”图像(尽管没有提到2D图像)。这里,2D图像可以是2D图形对象、以及2D局部画面图像等。
用于编辑3D图像的方法和利用该方法的移动终端
本发明提出了一种根据本发明的一个示例性实施方式的用于编辑3D图像的方法,在该方法中,插入或编辑3D对象,以与3D图像或3D立体图像一致,由此在用户的角度上提供视觉上更自然的图像。这里,3D对象指的是诸如3D文本(3D对话泡泡)、3D图标、3D图像、3D视频、3D图等的3D图形对象。
在根据本发明的一个示例性实施方式的用于编辑3D图像的方法中,在将3D对象插入到3D图像中时,将3D图像内的插入目标改变为编辑状态,然后可以输入3D对象,或者在向3D图像输入3D对象之后,可以指定插入目标。
在根据本发明的一个示例性实施方式的用于编辑3D图像的方法中,在3D图像内存在的人物的左图像或右图像可以与之前获取的2D人物图像比较,以执行脸部识别,并且当脸部识别成功时,关于该人物的信息可以插入到3D图像中。
在根据本发明的一个示例性实施方式的用于编辑3D图像的方法中,在将3D对象插入到3D图像内的多个对象(各对象具有不同的深度比例)中时,根据各对象的深度比例可以相应地调节要插入的3D对象的各部分的深度比例,然后进行插入。
同时,在3D对象中,在执行诸如“文本”、“对话泡泡”等的功能菜单(控制菜单)之后,可以根据多种方法(如,键盘输入、虚拟键盘输入、手写识别、手势识别、预定文本选择等)来输入文本。
同样地,在执行诸如“图章”、“专辑”、“图库”等的功能菜单之后,可以根据多种方法(如,选择预定图标或选择在专辑或图库中包括的照片图像、图片或视频)输入3D对象中的图标、图像或视频。同样地,在执行诸如“绘画”、“书写”等的功能菜单之后,可以根据多种方法(如,触摸输入或选择预定图)输入3D对象中的线条或图。
根据本发明的一个示例性实施方式的用于编辑3D图像的方法可以应用于编辑包括多个图像(各图像具有不同视点(view point))的立体图像。例如,根据本发明的一个示例性实施方式的用于编辑3D图像的方法可以应用于包括左图像和右图像的立体图像、包括多个图像(各图像具有照相机镜头的不同视点)的多视点图像等。
在下面的描述中,假设根据本发明的一个示例性实施方式的移动终端对包括左图像和右图像的立体图像进行编辑。但是,应当理解,通过移动终端100编辑立体图像的构造仅用于说明本发明的一个示例性实施方式,而本文中所公开的本发明的技术概念不限于这样的示例性实施方式。
例如,根据本发明的一个示例性实施方式的通过移动终端100来编辑立体图像的左图像或右图像的过程可以应用于编辑在多视点图像(multi-view image)中包括的一个视点图像。
下文中,将根据以下方法来描述根据本发明的一个示例性实施方式的移动终端100的操作:将3D图像内的插入目标改变为编辑状态,然后输入3D对象的方法、将3D对象插入到3D图像上,然后指定插入目标的方法、以及当设置了多个插入目标对象时调节深度比例的方法。
首先,将描述移动终端100将3D图像内的插入目标改变为编辑状态,然后输入3D对象的情况。
将3D图像内的插入目标改变为编辑状态之后输入3D对象
根据本发明的一个示例性实施方式的移动终端100可以将3D图像内的插入目标改变为编辑模式,然后插入或编辑3D对象。
具体地说,控制器180从3D图像识别编辑目标。为此,显示单元151显示3D图像,并且控制器180根据用户输入或用户选择来识别编辑目标。
例如,当显示单元151显示3D图像并且用户从3D图像中选择或输入编辑目标时,控制器180可以显示使用户插入或编辑图形对象的功能菜单。
这里,编辑目标指的是要插入3D对象的画面区域或图形对象、要编辑插入的3D对象的画面区域或图形对象等。例如,当3D图像示出美术馆、图片、雕塑、观众、门、窗、椅子、桌子等的整个内部视野时,美术馆内部的可以是编辑目标。
例如,当用户通过触摸输入或接近触摸来选择编辑目标时,控制器180可以将出现触摸输入或接近触摸的区域或图形对象识别为编辑目标。另选地,当用户通过使用多次触摸经过拖动在屏幕上的特定区域上进行输入等时,控制器180可以将特定区域或位于特定区域内的图形对象识别为编辑目标。
在这种情况下,控制器180可以按区域(如,四边形区域、圆形区域、椭圆形区域等)来识别编辑目标,或者可以按在画面上显示的对象来识别编辑目标。当基于矢量图形来构造3D图像时,控制器180可以容易地单独将选择的对象识别为编辑目标。另选地,当基于位图图形来构造3D图像时,控制器180可以根据诸如边缘检测等的图像处理算法单独将选择的对象识别为编辑目标。
图2是示出了根据本发明的一个示例性实施方式的当移动终端处于3D图像编辑模式时的画面图像的图。
如图2所示,当用户选择在图库的画面图像上显示的一个3D图像时(210),移动终端100可以显示能够针对所选3D图像执行的功能菜单(220)。在图2中,移动终端100显示如“编辑”、“调节”、“过滤”、“绘画”、“文本”、“返回”、“保存”、“恢复”、“图框”和“图章”的功能菜单。
图3是示出了根据本发明的一个示例性实施方式的关于通过移动终端识别的编辑目标的功能菜单的图。
如图3所示,当用户触摸特定区域或图形对象(图3中的图片)(310)时,或者当用户输入特定区域或包括图形对象的区域时(320),移动终端100可以显示能够针对所选特定区域或所选图形对象执行的功能菜单(330)。
控制器180对被识别的编辑目标的第一图像进行编辑。这里,第一图像指的是被识别的编辑目标的左图像或右图像。第二图像是与第一图像相对应的图像,并且第二图像指的是与被识别的编辑目标的左图像相对应的右图像,或者与被识别的编辑目标的右图像相对应的左图像。
在编辑第一图像时,显示单元151可以显示被识别的编辑目标的第一图像,并且控制器180可以根据用户输入或用户选择对显示的第一图像执行编辑功能。
或者,当控制器180显示能够针对被识别的编辑目标执行的功能菜单时,已经从功能菜单选择特定功能的用户可以执行特定编辑并且显示单元151可以显示应用了该特定编辑的第一图像。
具体地说,控制器180可以将图形对象合成到第一图像。例如,控制器180可以将图形对象插入到第一图像,或者对第一图像中插入的图形对象进行编辑。这里,图形对象可以是文本、线条、图形(diagram)、图标、图像(image)、视频等。
考虑到双眼视差,控制器180可将已经合成到第一图像的图形对象合成到第二图像。同样地,控制器180可以将合成后的第一图像和合成后的第二图像应用到3D图像中。
或者,在编辑第一图像时,控制器180可以计算被识别的编辑目标的、与被识别的编辑目标的第一观察角度相对应的3D位置信息。例如,第一观察角度可以是用户在前面观看原始3D图像的角度。控制器180可以根据3D位置信息来生成3D图形对象。控制器180可以将生成的3D图形对象合成到第一图像。
或者,在编辑第一图像时,控制器180可以计算被识别的编辑目标的、与被识别的编辑目标的第一观察角度相对应的3D位置信息。并且,控制器180可以通过使用3D位置信息来将被识别的编辑目标变换为使得被识别的编辑目标与第二观察角度相对应。例如,第二观察角度可以是用户观看被识别的编辑目标的正面的角度。
控制器180可以根据用户输入对经过变换的编辑目标的第一图像进行编辑。考虑到双眼视差,控制器180可以将与针对经过变换的编辑目标的第一图像的编辑相同的编辑应用于第二图像。并且,控制器180通过使用3D位置信息可以再一次变换经过变换的编辑目标,使得经过变换的编辑目标与原始第一观察角度相对应。
下文中,作为一个示例,将通过利用下述情况来描述控制器180的操作:在这种情况中,第一观察角度是用户在前面观看示出了美术馆的内部整个视野的3D图像的角度,而第二观察角度是3D图像内的观众在前面观看挂在墙上的图片的角度。
控制器180可以根据被识别的编辑目标的左图像或右图像来计算与编辑目标的第一观察角度相对应的3D位置信息。这里,计算出的3D位置信息可以是编辑目标的X轴旋转角度X1、Y轴旋转角度Y1和Z轴深度值Z1。
控制器180可以变换左图像或右图像,使得通过使用该3D位置信息来使左图像或右图像与第二观察角度相对应。即,控制器180可以根据X轴旋转角度X2、Y轴旋转角度Y2和Z轴深度值Z2(即,与第二观察角度相对应的3D位置信息)来变换编辑目标的左图像或右图像。
控制器180可以根据用户输入将诸如3D文本等的图形对象插入到或编辑为经过变换的编辑目标的左图像或右图像。将图形对象合成到相应的右图像或左图像,以及经过变换的编辑目标的左图像或右图像。在这种情况下,考虑到双眼视差,控制器180将图形对象合成到右图像或左图像。
控制器180可以再一次变换经过变换的编辑目标,使得经过变换的编辑目标与第一观察角度相对应。在这种情况下,控制器180可以根据编辑目标的X轴旋转角度X1、Y轴旋转角度Y1和Z轴深度值Z1来重置经过变换的编辑目标,或者通过X1/Y1/Z1和X2/Y2/Z2之间的变化(variation)来恢复设置。已经根据原始第一观察角度再一次变换的编辑目标可以被反映(或合成)为3D图像,以进行三维显示。
此外,控制器180可以根据用户的触摸输入、接近触摸、触摸和拖动、多次触摸输入等来调节插入或编辑的图形对象的位置或方向(X轴旋转角度、Y轴旋转角度、Z轴深度值)。
如上所述,因为控制器180变换被识别的编辑目标,使得被识别的编辑目标与合适的第二观察角度相对应,因此用户能够针对被识别的编辑目标执行在精确位置处的图形对象输入。
在上面的描述中,控制器180将图形对象合成到编辑目标的第一和第二图像,但是考虑到双眼视差,控制器180可以仅将图形对象合成到经过变换的编辑目标的第一图像,并且针对合成后的第一图像生成第二图像。
例如,控制器180可以仅将图形对象插入到编辑目标的左图像并且根据基于深度图像绘制(DIBR)方案来生成相应的右图像。控制器180可以变换经过变换的编辑目标,使得经过变换的编辑目标通过使用3D位置信息与初始第一观察角度相对应。
在对编辑目标进行编辑之后,控制器180将编辑后的第一图像和与编辑后的第一图像相对应的第二图像应用于3D图像。具体地说,控制器180可以将包括第一和第二图像的编辑目标图像合成为3D图像。
图4是示出了根据本发明的一个示例性实施方式的将文本合成到通过移动终端识别的编辑目标的图。
如图4所示,当用户从针对被识别的编辑目标显示的功能菜单选择文本输入(图4中的图片图框)(410)并且通过使用虚拟键盘输入文本(420)时,移动终端100将包括输入文本的对话泡泡合成到放大显示的编辑目标并且对合成后的编辑目标进行显示(430),并且当完成编辑时,显示合成有对话泡泡的3D图像(440)。
在这种情况下,移动终端100可以根据用户选择或用户输入来设置文本的字体或颜色或者设置对话泡泡的种类、颜色或背景,或者放大或缩小画面上的编辑目标,或者可以以拖放的方式移位或移动编辑目标的位置。
在图4中,移动终端100未加改变地放大和显示图框(即,显示被识别的编辑目标),但是如上所述,移动终端100可以沿着用户在前面观看图框的图片的方向来变换图框的图片,并且放大和显示图框的图片。
同时,移动终端100可以自动调节文本的位置和方向,使得文本与编辑目标的3D位置或方向一致(在图4中,移动终端100根据图框(编辑目标)的倾斜方向来自动调节文本方向)或者可以根据用户输入来调节文本的位置或方向。
下文中,作为移动终端100将3D图像内部的插入目标改变为编辑状态然后输入该编辑对象的修改例,将描述使用脸部识别方案来编辑3D图像的方法。
显示单元151显示包括人物的3D图像。
控制器180从3D图像获取经过识别的人物的第一图像(左图像或右图像)。具体地,控制器180可以从3D图像识别由用户通过触摸输入等选择的人物,或者在3D图像的所选区域中包括的人物。
控制器180从数据库中搜索与第一图像相对应(即,与第一图像类似或相同)的2D人物照片图像。数据库可以是在移动终端100中安装的地址列表、联系电话、电话薄等的内部数据库,或者可以是可以通过无线通信单元110连接的外部数据库。
当搜索成功并且找到了与第一图像相对应的2D人物照片图像时,控制器180从数据库获取与2D人物照片图像相关联的信息。与2D人物照片图像相关联的信息可以包括姓名、地址、有线/无线电话号码、电子邮件地址、即使通讯软件(messenger)ID、备忘录、生日等。
控制器180将获取信息视觉合成到第一图像并且将合成后的第一图像和与合成后的第一图像相对应的第二图像合成为3D图像。在这种情况下,控制器180考虑到双眼视差可以将获取信息合成到第二图像并且将合成后的第一图像与合成后的第二图像应用于3D图像。
控制器180可以将以3D图形对象(如,3D文本(或3D对话泡泡)、3D图标、3D图像、3D视频、3D图等)形式的获取信息视觉合成到第一图像。
图5是示出了根据本发明的一个示例性实施方式的通过利用脸部识别方案将文本合成到由移动终端识别的编辑目标的图。
如图5所示,当用户从3D图像选择人物(具体地,脸部)作为编辑目标(510)时,移动终端100通过使用脸部识别方案来从数据库中搜索与3D人物图像的左图像或右图像相对应的2D人物图像(照片图像)(520)。
当找到了与3D人物图像的左图像或右图像相对应的2D人物图像(照片图像)时,移动终端100将与对话泡泡形式的相应的2D人物图像(照片图像)相关联的信息(在图5中,“Jun”,人物姓名)合成为3D图像(530)。
控制器180将合成后的第一图像和与合成后的第一图像相对应的第二图像应用于3D图像的过程可以与如上面参照图1至图4所述的移动终端100将3D图像内的插入目标改变为编辑状态并且输入3D对象的情况类似地进行理解,因此将省略其详细描述。
现在将描述移动终端100在3D图像上输入3D对象然后指定插入目标的情况。
在3D图像上输入3D对象然后指定插入目标
根据本发明的一个示例性实施方式的移动终端100可以在3D图像上输入3D对象,然后指定3D图像内的插入目标。
具体地说,显示单元151显示3D图像。
控制器180接收要合成的图形对象,并且从3D图像识别合成目标。在这种情况下,控制器180对图形对象被合成到的目标进行区分显示,并且将通过用户选择或输入的目标识别为合成目标。
具体地说,当通过用户以触摸并拖动方式等在3D图像上移位或移动图形对象时,控制器180可以通过边缘显示、高亮显示、激活显示等来区分显示在靠近图形对象的目标中的、能够合成的目标。
控制器180可以从用户接收要插入到3D图像的图形对象,并且考虑到输入的图形对象的位置或方向而自动识别合成目标,或者根据用户输入或用户选择来识别合成目标。
然后,控制器将输入的图形对象合成到经过识别的合成目标。控制器180可以根据用户的触摸输入、接近输入、触摸和拖动、多次触摸等调节合成目标在3D图像中的3D位置或方向(X轴旋转角度、Y轴旋转角度、Z轴深度值)。
图6是示出了根据本发明的一个示例性实施方式的将线条合成到通过移动终端识别的编辑目标的图。
如图6所示,当用户选择“绘画”功能菜单(610)并且以绘画模式在3D图像上出现的图片图框上绘制水平线(620)时,移动终端100根据图片图框的3D位置(X轴旋转角度、Y轴旋转角度、Z轴深度值)来调节水平线的角度,并且将水平线合成到图片图框(630)。
或者,尽管图6中未示出,但是当用户以绘画模式在3D图像的特定位置绘制水平线并且以拖放方式等使水平线移位到图片图框时,移动终端100可以调节水平线的角度并且以与如上所述方式类似的方式将调整后的水平线合成到图片图框。
图7是示出了根据本发明的一个示例性实施方式的将线条合成到通过移动终端识别的、由用户选择的编辑目标的图。
如图7所示,当用户以绘画模式在3D图像的特定位置画线条时(710),移动终端100用标号(“1”、“2”、“3”、“4”)来标记在3D图像上出现的区域或对象中的可以作为编辑目标(在图7中,天花板玻璃)的那些区域或对象(720)。
当用户选择其中一个标记(720)时,移动终端100根据编辑目标的3D位置(X轴旋转角度、Y轴旋转角度、Z轴深度值)相应地自动调节线条的位置或角度,并且将线条合成到编辑目标(730)。
图8是示出了根据本发明的一个示例性实施方式的将由用户输入的文本合成到通过移动终端选择的编辑目标的图。
如图8所示,当用户选择“文本”功能菜单(810)并且以文本输入模式输入文本(820)时,移动终端100在3D图像的特定位置显示包括文本的对话泡泡(830)。当用户以拖放方式使对话泡泡移位或移动到编辑目标(830)时,移动终端100根据编辑目标的3D位置(X轴旋转角度、Y轴旋转角度、Z轴深度值)来自动调节对话泡泡的位置或角度,并且将对话泡泡合成到编辑目标(840)。
移动终端100在3D图像上输入3D对象,然后指定插入目标的情况可以与如上面参照图1至图5所述的移动终端100将3D图像内的插入目标改变为编辑状态并且输入3D对象的情况类似地进行理解,所以将省略其详细描述。
现在将描述当提供多个编辑目标对象时移动终端100调节要插入的对象的深度比例的情况。
在多个编辑目标对象的情况下对深度比例进行调节
在将3D对象插入到3D图像内的具有不同比例的多个对象中时,根据本发明的另一个示例性实施方式的移动终端可以调节3D对象的各部分的深度比例,使得3D对象的各部分的深度比例与各对象的深度比例相对应,并且插入调整后的3D对象。
具体地说,显示单元151显示3D图像。控制器180接收要合成的图形对象,并且识别3D图像中具有不同的深度比例的多个编辑目标。
控制器180将输入的图形对象合成到编辑目标,以使得图形对象的深度比例在与各个合成目标重叠的部分具有不同深度比例。在这种情况下,控制器180可以将图形对象视觉合成到编辑目标的第一图像和第二图像。
图9是示出了根据本发明的一个示例性实施方式的通过由移动终端区分线条部分的深度将由用户输入的线条合成到编辑目标的图。
如图9所示,当圆圈(即,3D图像的编辑目标对象)的深度比例不同(深度比例分别为100、80、60、40和20)时(910),用户可以以绘画模式在圆圈上输入线条(920)。
在这种情况下,移动终端100可以合成线条,以使得根据各圆圈的深度,按照线条的部分逐渐区分深度比例。在图9中,移动终端100可以通过将从线条的一端到另一端的深度比例设置为100、99、98、......、22、21和20来执行合成。
图10是示出了根据本发明的一个示例性实施方式的用于调节图像的深度比例的方法的过程的流程图。
参照图10,首先,移动终端100从3D图像识别编辑目标(步骤S1010)。这里,3D图像包括反映双眼视差的第一图像和第二图像。具体地说,移动终端100可以识别通过用户的触摸输入、接近触摸或区域输入所选择的编辑目标。
下面,移动终端100编辑被识别的编辑目标的第一图像(步骤S1020)。这里,第一图像可以是被识别的编辑目标的左图像或右图像。
具体地说,移动终端100可以将图形对象合成到第一图像。图形对象可以是文本、线条、图形、图标、图像或视频。
同时,移动终端100计算与被识别的编辑目标的第一观察角度相对应的被识别的编辑目标的3D位置信息,根据3D位置信息生成3D图形对象,然后将生成的3D图形对象合成到第一图像。
或者,移动终端可以计算与被识别的编辑目标的第一观察角度相对应的被识别的编辑目标的3D位置信息,通过使用3D位置信息变换被识别的编辑目标,使得被识别的编辑目标与第二观察角度相对应,然后编辑经过变换的编辑目标的第一图像。
然后,移动终端100将经过编辑的第一图像和与经过编辑的第一图像相对应的第二图像应用于3D图像(S1030)。这里,第二图像可以是分别与左图像或右图像相对应的右图像或左图像。
在这种情况下,移动终端100考虑到双眼视差可以将图形对象合成到第二图像,并且将经过合成的第一图像和经过合成的第二图像应用于3D图像。
在这种情况下,移动终端100考虑到双眼视差可以将与针对经过变换的编辑目标的第一图像的编辑相同的编辑应用于第二图像,并且通过使用3D位置信息再一次变换经过变换的编辑目标,使得经过变换的编辑目标与第一观察角度相对应。
或者,移动终端100考虑到双眼视差可以根据经过变换的编辑目标的第一图像生成第二图像,并且通过使用3D位置信息再一次变换经过变换的编辑目标,使得经过变换的编辑目标与第一观察角度相对应。
随后,移动终端100可以根据用户输入来调节3D图像中的编辑目标的位置或方向(步骤S1040)。
图11是示出了根据本发明的另一个示例性实施方式的用于调节图像的深度比例的方法的过程的流程图。
参照图11,首先,移动终端100接收要合成的图形对象(步骤S1110)。
移动终端100从3D图像识别合成目标(步骤S1120)。在这种情况下,移动终端100可以对图形对象可以合成到的目标进行区分显示,并且将由用户选择的目标识别为合成目标。具体地说,当移位或移动图形对象时,移动终端100可以对在靠近图形对象的目标中的、图形对象可以合成到的目标进行区分显示。
下面,移动终端100将输入的图形对象合成到经过识别的合成目标(步骤S1130)。
然后,移动终端100可以根据用户输入来调节3D图像中图形对象的位置或方向(步骤S1140)。
图12是示出了根据本发明的再一个示例性实施方式的用于调节图像的深度比例的方法的过程的流程图。
参照图12,首先,移动终端100获取从3D图像识别出的人物的第一图像(步骤S1020)。并且,移动终端100从数据库中搜索与第一图像相对应的2D人物照片图像(步骤S1220)。
然后,当搜索成功时,移动终端100从数据库获取与该2D人物照片图像相关联的信息(步骤S1240),将获取信息视觉合成到第一图像(步骤S1250),并且将合成后的第一图像和与合成后的第一图像相对应的第二图像应用于3D图像(步骤S1260)。
在这种情况下,移动终端考虑到双眼视差可以将获取信息合成到第二图像,并且将合成的第一图像和合成的第二图像应用于3D图像。
然后,移动终端100可以根据用户输入来调节表示3D图像中的获取信息的图形对象的位置或方向(步骤S1270)。
图13是示出了根据本发明的又一个示例性实施方式的用于调节图像的深度比例的方法的过程的流程图。
参照图13,首先,移动终端100接收要合成的图形对象(步骤S1310)。并且,移动终端识别3D图像中的、具有不同的深度比例的多个合成目标(步骤S1320)。
然后,移动终端100将图形对象合成到合成目标,使得图形对象按照与各个合成目标重叠的部分而具有不同的深度比例(步骤S1330)。在这种情况下,移动终端100可以将图形对象视觉合成到合成目标的第一图像和与第一图像相对应的第二图像。
根据本发明的一个示例性实施方式的调节图像的深度比例的方法可以与如上面参照图1至图9所述的关于根据本发明的示例性实施方式的移动终端的描述类似地进行理解,因此将省略其详细描述。
在本发明的实施方式中,上述方法可以实现为可以在程序记录介质中由处理器读取的代码。处理器可读介质包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储装置等。处理器可读介质还包括按照载波或信号形式的实现方式(如,通过因特网的发送)。
根据本发明的实施方式的移动终端不限于构造和方法的应用,而可以选择性地组合全部或部分实施方式,以被构造成各种修改例。
已经参照附图描述了本发明的示例性实施方式。
本申请中使用的术语仅用于描述特定实施方式,而不旨在限制本发明。
由于在不偏离这些实施方式的特性的情况下可以以多种形式实施这些实施方式,因此应当理解上述实施方式不限于上述描述的任何细节,除非特别指出,而应当在所附权利要求中限定的范围之内进行宽泛地解释。因此,希望所附权利要求包括落入权利要求的范围或这样的范围的等同物之内的各种修改例和变型例。
Claims (27)
1.一种用于控制移动终端的方法,该方法包括以下步骤:
通过所述移动终端上的控制器来提供第一图像和第二图像以形成三维图像,所述第一图像和所述第二图像反映双眼视差;
通过所述控制器从所述三维图像识别编辑目标;
通过所述控制器对被识别的编辑目标的第一图像进行编辑;以及
通过所述控制器将经过编辑的第一图像和与所述经过编辑的第一图像相对应的第二图像应用于所述三维图像。
2.根据权利要求1所述的方法,该方法还包括以下步骤:
通过用户的触摸输入、接近触摸、或区域输入来识别所选择的编辑目标。
3.根据权利要求1所述的方法,该方法还包括以下步骤:
将图形对象合成到所述第一图像。
4.根据权利要求3所述的方法,其中,所述图形对象是文本、线条、图形、图标、图像或视频。
5.根据权利要求3所述的方法,该方法还包括以下步骤:考虑到所述双眼视差,将所述图形对象合成到所述第二图像;以及
将合成后的第一图像和合成后的第二图像应用于所述三维图像。
6.根据权利要求1所述的方法,该方法还包括以下步骤:
在将所述第一图像和所述第二图像应用于所述三维图像之后,根据用户输入来调节所述编辑目标在所述三维图像上的位置或方向。
7.根据权利要求1所述的方法,该方法还包括以下步骤:
计算所述被识别的编辑目标的、与所述被识别的编辑目标的第一观察角度相对应的三维位置信息;
根据所述三维位置信息来生成三维图形对象;以及
将所生成的三维图形对象合成到所述第一图像。
8.根据权利要求1所述的方法,该方法还包括以下步骤:
计算所述被识别的编辑目标的、与所述被识别的编辑目标的第一观察角度相对应的三维位置信息;
通过使用所述三维位置信息来将所述被识别的编辑目标变换为与第二观察角度相对应;以及
对经过变换的编辑目标的第一图像进行编辑。
9.根据权利要求8所述的方法,该方法还包括以下步骤:
考虑到所述双眼视差,将与针对所述经过变换的编辑目标的第一图像的编辑相同的编辑应用于所述第二图像;以及
通过使用所述三维位置信息来将所述经过变换的编辑目标变换为与所述第一观察角度相对应。
10.根据权利要求8所述的方法,该方法还包括以下步骤:
考虑到所述双眼视差,从所述经过变换的编辑目标的第一图像生成所述第二图像;以及
通过使用所述三维位置信息将所述经过变换的编辑目标变换为使得所述经过变换的编辑目标与所述第一观察角度相对应。
11.一种用于控制移动终端的方法,该方法包括以下步骤:
通过所述移动终端上的控制器来提供第一图像和第二图像以形成三维图像,所述第一图像和所述第二图像反映双眼视差;
通过所述控制器接收要合成的图形对象;
通过所述控制器从所述三维图像中识别合成目标;以及
通过所述控制器将接收到的图形对象合成到被识别的合成目标。
12.根据权利要求11所述的方法,该方法还包括以下步骤:
以可区分所述目标的方式显示所述图形对象能够合成到的目标;以及
将由用户选择的目标识别为所述合成目标。
13.根据权利要求12所述的方法,其中,在区分显示所述目标的步骤中,当所述图形对象移动时,区分显示在靠近所述图形对象的目标中的、能够合成到所述图形对象的目标。
14.根据权利要求11所述的方法,该方法还包括以下步骤:
将从所述三维图像识别的人物的第一图像获取为所述图形对象;
从数据库中搜索与所述第一图像相对应的二维照片图像;以及
从所述数据库获取与所述二维照片图像相关联的信息;
将所获取信息合成到所述第一图像;以及
将合成后的第一图像和与所述合成后的第一图像相对应的第二图像应用于所述三维图像。
15.根据权利要求11所述的方法,该方法还包括以下步骤:
从所述三维图像识别多个合成目标,各合成目标具有不同的深度比例;以及
将所述图形对象合成到所述多个合成目标,以使得所述图形对象在该图形对象的、与所述合成目标重叠的部分上具有不同的深度。
16.一种移动终端,该移动终端包括:
显示单元,其被构造为显示三维图像;以及
控制器,其被构造为从所述三维图像识别编辑目标、对所述编辑目标的第一图像进行编辑、并且将经过编辑的第一图像和与所述经过编辑的第一图像相对应的第二图像应用于所述三维图像,
其中,所述第一图像和所述第二图像反映双眼视差,以形成所述三维图像。
17.根据权利要求16所述的移动终端,其中,所述控制器还被构造为通过用户的触摸输入、接近触摸、或区域输入来识别所选择的编辑目标。
18.根据权利要求16所述的移动终端,其中,所述控制器还被构造为将图形对象合成到所述第一图像。
19.根据权利要求18所述的移动终端,其中,所述控制器还被构造为考虑到所述双眼视差,将所述图形对象合成到所述第二图像,并且将所述第一图像和所述第二图像合成到所述三维图像。
20.根据权利要求16所述的移动终端,其中,所述控制器还被构造为根据用户输入来调节所述编辑目标在所述三维图像上的位置或方向。
21.根据权利要求16所述的移动终端,其中,所述控制器还被构造为计算识别出的编辑目标的、与所述识别出的编辑目标的第一观察角度相对应的三维位置信息,通过使用所述三维位置信息将所述识别出的编辑目标变换为与第二观察角度相对应,以及显示经过变换的编辑目标的所述第一图像。
22.根据权利要求21所述的移动终端,其中,所述控制器还被构造为对所述经过变换的编辑目标的所述第一图像进行编辑,考虑到所述双眼视差将与针对所述第一图像的编辑相同的编辑应用于所述第二图像,以及通过使用所述三维位置信息来将所述经过变换的编辑目标变换为与所述第一观察角度相对应。
23.一种移动终端,该移动终端包括:
显示单元,其被构造为显示三维图像;以及
控制器,其被构造为接收要合成的图形对象、从所述三维图像识别合成目标、并且将所述图形对象合成到所述合成目标。
24.根据权利要求23所述的移动终端,其中,所述控制器还被构造为以可区分方式显示所述图形对象要被合成到的目标,并且将由用户选择的目标识别为所述合成目标。
25.根据权利要求23所述的移动终端,其中,所述控制器还被构造为当所述图形对象移动时,区分显示在靠近所述图形对象的目标中的、能够合成到所述图形对象的目标。
26.根据权利要求23所述的移动终端,其中,所述控制器还被构造为将从所述三维图像识别的人物的第一图像获取为所述图形对象,从数据库中搜索与所述第一图像相对应的二维照片图像,从所述数据库获取与所述二维照片图像相关联的信息,将所获取信息合成到所述第一图像,以及将所述第一图像和与所述第一图像相对应的第二图像应用于所述三维图像。
27.根据权利要求23所述的移动终端,其中,所述控制器还被构造为:从所述三维图像识别多个合成目标,各合成目标具有不同的深度比例;以及将所述图形对象合成到所述多个合成目标,以使得所述图形对象在该图形对象的、与所述合成目标重叠的部分上具有不同的深度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100077452A KR101688153B1 (ko) | 2010-08-11 | 2010-08-11 | 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기 |
KR10-2010-0077452 | 2010-08-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102376101A true CN102376101A (zh) | 2012-03-14 |
CN102376101B CN102376101B (zh) | 2015-09-09 |
Family
ID=44117215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110104968.5A Expired - Fee Related CN102376101B (zh) | 2010-08-11 | 2011-04-26 | 用于编辑三维图像的方法和利用该方法的移动终端 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120038626A1 (zh) |
EP (1) | EP2418858B1 (zh) |
KR (1) | KR101688153B1 (zh) |
CN (1) | CN102376101B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105190562A (zh) * | 2013-03-13 | 2015-12-23 | 英特尔公司 | 用于三维图像编辑的改进的技术 |
CN108242082A (zh) * | 2016-12-26 | 2018-07-03 | 粉迷科技股份有限公司 | 立体空间的场景编辑方法与系统 |
CN108510576A (zh) * | 2017-02-23 | 2018-09-07 | 中央大学 | 多镜头影像深度的3d空间绘制系统 |
CN108701352A (zh) * | 2016-03-23 | 2018-10-23 | 英特尔公司 | 使用基于三维对象模型的识别的图像修改与增强 |
CN108876932A (zh) * | 2017-05-10 | 2018-11-23 | 富士施乐株式会社 | 用于三维形状数据的编辑装置和编辑三维形状数据的方法 |
CN108876933A (zh) * | 2017-05-11 | 2018-11-23 | 富士施乐株式会社 | 三维形状数据的编辑装置和编辑三维形状数据的方法 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5326912B2 (ja) * | 2009-07-31 | 2013-10-30 | ブラザー工業株式会社 | 印刷装置、合成画像データ生成装置、及び、合成画像データ生成プログラム |
US20130222363A1 (en) * | 2012-02-23 | 2013-08-29 | Htc Corporation | Stereoscopic imaging system and method thereof |
KR101872865B1 (ko) * | 2012-03-05 | 2018-08-02 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
KR20140063272A (ko) * | 2012-11-16 | 2014-05-27 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
CN104813230A (zh) * | 2012-11-30 | 2015-07-29 | 汤姆逊许可公司 | 使用单个相机捕捉三维图像的方法和系统 |
JP6179889B2 (ja) * | 2013-05-16 | 2017-08-16 | パナソニックIpマネジメント株式会社 | コメント情報生成装置およびコメント表示装置 |
US9823824B2 (en) * | 2013-08-19 | 2017-11-21 | Kodak Alaris Inc. | Context sensitive adaptable user interface |
KR102089624B1 (ko) * | 2013-09-02 | 2020-03-16 | 삼성전자주식회사 | 이미지를 합성하기 위한 방법 및 그 전자 장치 |
IN2013CH05313A (zh) * | 2013-11-18 | 2015-05-29 | Nokia Corp | |
KR20150057100A (ko) * | 2013-11-18 | 2015-05-28 | 삼성전자주식회사 | 3d 객체 편집을 위한 전자 장치 및 방법 |
WO2015102469A1 (ko) * | 2014-01-06 | 2015-07-09 | 삼성전자주식회사 | 제어 장치 및 그 제어 방법 |
CN104410882A (zh) * | 2014-11-28 | 2015-03-11 | 苏州福丰科技有限公司 | 一种具有三维人脸扫描功能的智能电视机 |
US20160239191A1 (en) * | 2015-02-13 | 2016-08-18 | Microsoft Technology Licensing, Llc | Manipulation of content items |
TWI567691B (zh) * | 2016-03-07 | 2017-01-21 | 粉迷科技股份有限公司 | 立體空間的場景編輯方法與系統 |
US10567739B2 (en) | 2016-04-22 | 2020-02-18 | Intel Corporation | Synthesis of transformed image views |
KR102498815B1 (ko) * | 2016-07-21 | 2023-02-13 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 비디오 편집 방법 |
CN108632597B (zh) * | 2018-05-06 | 2020-01-10 | Oppo广东移动通信有限公司 | 三维视频通信方法及系统、电子装置和可读存储介质 |
KR102133735B1 (ko) * | 2018-07-23 | 2020-07-21 | (주)지니트 | 파노라마 크로마키 합성 시스템 및 방법 |
US11039113B2 (en) | 2019-09-30 | 2021-06-15 | Snap Inc. | Multi-dimensional rendering |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030067536A1 (en) * | 2001-10-04 | 2003-04-10 | National Research Council Of Canada | Method and system for stereo videoconferencing |
US6912293B1 (en) * | 1998-06-26 | 2005-06-28 | Carl P. Korobkin | Photogrammetry engine for model construction |
CN1679346A (zh) * | 2002-08-29 | 2005-10-05 | 夏普株式会社 | 易于进行可立体视的内容的制作及编辑的装置 |
CN101013507A (zh) * | 2006-01-30 | 2007-08-08 | 日本电气株式会社 | 三维处理装置、信息终端、计算机程序和三维处理方法 |
US20090154759A1 (en) * | 2007-12-17 | 2009-06-18 | Nokia Corporation | Method, user interface, apparatus and computer program product for providing a graphical code pattern |
KR20090064832A (ko) * | 2007-12-17 | 2009-06-22 | 엘지전자 주식회사 | 이동통신 단말기 및 이것의 영상 편집 방법 |
EP2128823A1 (en) * | 2008-05-26 | 2009-12-02 | Lg Electronics Inc. | Mobile terminal using proximity sensor and method of controlling the mobile terminal |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590573B1 (en) * | 1983-05-09 | 2003-07-08 | David Michael Geshwind | Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems |
US5754179A (en) * | 1995-06-07 | 1998-05-19 | International Business Machines Corporation | Selection facilitation on a graphical interface |
EP0838068B1 (en) * | 1995-07-10 | 2005-10-26 | Sarnoff Corporation | Method and system for rendering and combining images |
US6208348B1 (en) * | 1998-05-27 | 2001-03-27 | In-Three, Inc. | System and method for dimensionalization processing of images in consideration of a pedetermined image projection format |
JP3619063B2 (ja) * | 1999-07-08 | 2005-02-09 | キヤノン株式会社 | 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 |
MXPA03001029A (es) * | 2000-08-04 | 2003-05-27 | Dynamic Digital Depth Res Pty | Tecnica de codificacion y conversion de imagen. |
US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
US20030146973A1 (en) * | 2001-11-09 | 2003-08-07 | Swift David C | 3D stereoscopic enabling methods for a monoscopic application to support 3D stereoscopic imaging |
US20070035562A1 (en) * | 2002-09-25 | 2007-02-15 | Azuma Ronald T | Method and apparatus for image enhancement |
US7116342B2 (en) * | 2003-07-03 | 2006-10-03 | Sportsmedia Technology Corporation | System and method for inserting content into an image sequence |
US20050091578A1 (en) * | 2003-10-24 | 2005-04-28 | Microsoft Corporation | Electronic sticky notes |
US8751156B2 (en) * | 2004-06-30 | 2014-06-10 | HERE North America LLC | Method of operating a navigation system using images |
JP4864713B2 (ja) * | 2004-09-30 | 2012-02-01 | パイオニア株式会社 | 立体的二次元画像表示装置 |
EP1820159A1 (en) * | 2004-11-12 | 2007-08-22 | MOK3, Inc. | Method for inter-scene transitions |
KR100713531B1 (ko) * | 2005-05-17 | 2007-04-30 | 삼성전자주식회사 | 영상데이터에 특정효과 표시방법 |
US10198521B2 (en) * | 2005-06-27 | 2019-02-05 | Google Llc | Processing ambiguous search requests in a geographic information system |
KR100649523B1 (ko) * | 2005-06-30 | 2006-11-27 | 삼성에스디아이 주식회사 | 입체 영상 표시 장치 |
JP4625781B2 (ja) * | 2006-03-22 | 2011-02-02 | 株式会社東芝 | 再生装置 |
EP2052552A4 (en) * | 2006-07-16 | 2011-12-28 | Seambi Ltd | SYSTEM AND METHOD FOR POSITIONING VIRTUAL CONTENT |
US8970680B2 (en) * | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
US20080043038A1 (en) * | 2006-08-16 | 2008-02-21 | Frydman Jacques P | Systems and methods for incorporating three-dimensional objects into real-time video feeds |
US20080225040A1 (en) * | 2007-03-12 | 2008-09-18 | Conversion Works, Inc. | System and method of treating semi-transparent features in the conversion of two-dimensional images to three-dimensional images |
US9131078B2 (en) * | 2007-07-27 | 2015-09-08 | Lagavulin Limited | Apparatuses, methods, and systems for a portable, image-processing transmitter |
KR101513616B1 (ko) * | 2007-07-31 | 2015-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 영상정보 관리방법 |
US20090074258A1 (en) * | 2007-09-19 | 2009-03-19 | James Cotgreave | Systems and methods for facial recognition |
US8576228B2 (en) * | 2008-01-18 | 2013-11-05 | Sony Corporation | Composite transition nodes for use in 3D data generation |
KR101516361B1 (ko) * | 2008-05-26 | 2015-05-04 | 엘지전자 주식회사 | 근접센서를 이용하는 휴대 단말기 및 그 제어방법 |
US20090324022A1 (en) * | 2008-06-25 | 2009-12-31 | Sony Ericsson Mobile Communications Ab | Method and Apparatus for Tagging Images and Providing Notifications When Images are Tagged |
US9191238B2 (en) * | 2008-07-23 | 2015-11-17 | Yahoo! Inc. | Virtual notes in a reality overlay |
US8698841B2 (en) * | 2009-07-10 | 2014-04-15 | Georeplica, Inc. | System, method and process of identifying and advertising organizations or other entities by overlaying image files on cartographic mapping applications |
US20120212484A1 (en) * | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | System and method for display content placement using distance and location information |
US20110279445A1 (en) * | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for presenting location-based content |
US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
-
2010
- 2010-08-11 KR KR1020100077452A patent/KR101688153B1/ko active IP Right Grant
-
2011
- 2011-01-19 US US13/009,593 patent/US20120038626A1/en not_active Abandoned
- 2011-02-08 EP EP11153623.1A patent/EP2418858B1/en not_active Not-in-force
- 2011-04-26 CN CN201110104968.5A patent/CN102376101B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6912293B1 (en) * | 1998-06-26 | 2005-06-28 | Carl P. Korobkin | Photogrammetry engine for model construction |
US20030067536A1 (en) * | 2001-10-04 | 2003-04-10 | National Research Council Of Canada | Method and system for stereo videoconferencing |
CN1679346A (zh) * | 2002-08-29 | 2005-10-05 | 夏普株式会社 | 易于进行可立体视的内容的制作及编辑的装置 |
CN101013507A (zh) * | 2006-01-30 | 2007-08-08 | 日本电气株式会社 | 三维处理装置、信息终端、计算机程序和三维处理方法 |
US20090154759A1 (en) * | 2007-12-17 | 2009-06-18 | Nokia Corporation | Method, user interface, apparatus and computer program product for providing a graphical code pattern |
KR20090064832A (ko) * | 2007-12-17 | 2009-06-22 | 엘지전자 주식회사 | 이동통신 단말기 및 이것의 영상 편집 방법 |
EP2128823A1 (en) * | 2008-05-26 | 2009-12-02 | Lg Electronics Inc. | Mobile terminal using proximity sensor and method of controlling the mobile terminal |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105190562A (zh) * | 2013-03-13 | 2015-12-23 | 英特尔公司 | 用于三维图像编辑的改进的技术 |
CN108701352A (zh) * | 2016-03-23 | 2018-10-23 | 英特尔公司 | 使用基于三维对象模型的识别的图像修改与增强 |
CN108242082A (zh) * | 2016-12-26 | 2018-07-03 | 粉迷科技股份有限公司 | 立体空间的场景编辑方法与系统 |
CN108510576A (zh) * | 2017-02-23 | 2018-09-07 | 中央大学 | 多镜头影像深度的3d空间绘制系统 |
CN108876932A (zh) * | 2017-05-10 | 2018-11-23 | 富士施乐株式会社 | 用于三维形状数据的编辑装置和编辑三维形状数据的方法 |
CN108876932B (zh) * | 2017-05-10 | 2023-06-13 | 富士胶片商业创新有限公司 | 用于三维形状数据的编辑装置和编辑三维形状数据的方法 |
CN108876933A (zh) * | 2017-05-11 | 2018-11-23 | 富士施乐株式会社 | 三维形状数据的编辑装置和编辑三维形状数据的方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2418858A2 (en) | 2012-02-15 |
KR20120015168A (ko) | 2012-02-21 |
KR101688153B1 (ko) | 2016-12-20 |
US20120038626A1 (en) | 2012-02-16 |
CN102376101B (zh) | 2015-09-09 |
EP2418858B1 (en) | 2016-04-20 |
EP2418858A3 (en) | 2013-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102376101B (zh) | 用于编辑三维图像的方法和利用该方法的移动终端 | |
CN104111772B (zh) | 移动终端及其控制方法 | |
CN102375673A (zh) | 用于控制图像深度的方法以及利用该方法的移动终端 | |
CN102377873B (zh) | 显示信息的方法和使用该方法的移动终端 | |
CN105278855B (zh) | 移动终端及其控制方法 | |
CN104284088B (zh) | 移动终端及其控制方法 | |
CN104125332A (zh) | 移动终端和控制移动终端的方法 | |
CN103019504B (zh) | 电子设备及其内容生成方法 | |
CN104049740A (zh) | 移动终端及其控制方法 | |
CN104049885A (zh) | 移动终端和控制移动终端的方法 | |
CN104281402A (zh) | 移动终端及其控制方法 | |
US10719197B2 (en) | Mobile terminal extracting contents with a calendar for generating and displaying an electronic note and method thereof | |
CN104423878A (zh) | 显示装置以及控制该显示装置的方法 | |
CN103973840A (zh) | 移动终端 | |
CN102467343A (zh) | 移动终端以及控制移动终端的方法 | |
CN104823434A (zh) | 移动终端及其控制方法 | |
CN104731471A (zh) | 移动终端及其控制方法 | |
KR101810468B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
CN104284219A (zh) | 移动终端和控制该移动终端的方法 | |
CN102981751A (zh) | 移动终端和用于提供其用户界面的方法 | |
CN104346098A (zh) | 终端及其控制方法 | |
KR102124524B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR101709500B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101850391B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR101753033B1 (ko) | 이동 단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150909 Termination date: 20190426 |