CN103019504B - 电子设备及其内容生成方法 - Google Patents
电子设备及其内容生成方法 Download PDFInfo
- Publication number
- CN103019504B CN103019504B CN201210323334.3A CN201210323334A CN103019504B CN 103019504 B CN103019504 B CN 103019504B CN 201210323334 A CN201210323334 A CN 201210323334A CN 103019504 B CN103019504 B CN 103019504B
- Authority
- CN
- China
- Prior art keywords
- controller
- electronic equipment
- content
- area
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
提供一种电子设备及其内容生成方法。提供第一模式和第二模式。在第一模式中,响应于至少一个对象的深度信息来确定至少一个对象的位置,并且在被确定的位置处显示至少一个对象。在第二模式中,包括至少一个对象的内容被显示为立体图像。基于电子设备的运动来控制第一模式和第二模式之间的切换。
Description
相关申请的交叉引用
依据35U.S.C§119(a),本申请要求2011年9月21提交的韩国专利申请No.10-2011-0095113的权益,其全部内容通过引用结合于此。
技术领域
本发明涉及一种电子设备及其内容生成方法。
背景技术
电子设备可以被分类为移动终端和固定终端。基于用户是否能够亲自携带终端,可以将移动终端分类为手持式终端或者车载终端。
随着具有支持立体图像显示的功能的电子设备的最近增加,用户对于享受的各种立体内容的期望也增长。
然而,难以享受各种3D内容,因为高百分比的3D内容的供应仍然取决于外部内容提供商。
因此,对电子设备的结构部分和/或软件部分的修改进行考虑,以使得用户能够使用电子设备自由地生成并且分布3D内容。
发明内容
根据本发明的一个方面的电子设备包括:
显示模块,该显示模块配备有面板,该面板用于生成立体视觉;以及控制器,该控制器被配置为进入用于编辑内容的第一模式,在响应于对象的深度信息而确定的位置处显示在内容中包括的对象,并且响应于对象的移动而更改对象的深度信息。
根据本发明的另一方面的电子设备,包括:感测单元,该感测单元被配置为感测电子设备的运动;以及显示模块,该显示模块配备有用于生成立体视觉的面板;以及控制器,该控制器被配置为提供用于在响应于对象的深度信息而确定的位置处显示在内容中包括的对象的第一模式、以及用于显示内容作为立体图像的第二模式,以及基于电子设备的运动来控制第一模式和第二模式之间的切换。
根据本发明的另一方面的电子设备,包括:显示模块,该显示模块被配备有面板,该面板用于生成立体视觉;以及控制器,该控制器被配置为提供其中至少一个立体对象被显示的第一区域以及其中通过显示模块显示内容的预览图像的第二区域,并且当从第一区域选择的立体对象被从第一区域复制到第二区域时,在第二区域中显示选择的立体对象作为2D对象。
根据本发明的一个方面的用于在电子设备中生成内容的方法,包括:在根据对象和预定基准线之间的距离而确定的位置处显示对象,其中响应于对象的深度信息来确定对象与预定基准线之间的距离;以及当通过电子设备的运动接收特定用户输入时显示包括对象的内容作为立体图像。
附图说明
附图被包括以提供被描述的本发明实施例的进一步理解,并且被并入到本申请中并且组成本申请的一部分,所述附图示出本发明的实施例并且连同描述一起用作解释本发明的方面和特征。
图1是根据本发明实施例的移动终端的框图。
图2和图3是用于解释使用根据本发明实施例的双眼视差的立体图像显示方法的图。
图4是示出用于在根据本发明的第一实施例的电子设备100中生成内容的方法的流程图。
图5示出在根据本发明的第一实施例的电子设备100中选择在内容中包括的对象的示例。
图6和图7示出在根据本发明的第一实施例的电子设备100中将立体对象添加到内容的示例。
图8是用于解释根据本发明的第一实施例的虚拟立体空间的图。
图9示出在根据本发明的第一实施例的电子设备100中显示虚拟立体空间的示例。
图10示出当在根据本发明的第一实施例的电子设备100中被包括在内容中的对象是2D对象时的第一模式下的示例性图像。
图11和图12示出更改根据本发明的第一实施例的电子设备100中的虚拟立体空间中的对象的深度信息的示例。
图13和图14示出在根据本发明的第一实施例的电子设备100中在第一模式下将预览图像显示在屏幕的一部分上的示例。
图15示出在根据本发明的第一实施例的电子设备100中在第二模式下显示内容的预览图像的示例。
图16示出在根据本发明的第一实施例的电子设备100中在第一模式下添加内容的示例。
图17是示出用于在根据本发明的第二实施例的电子设备100中生成内容的方法的流程图;以及
图18和图19示出将从第一区域中选择的3D对象安排在根据本发明第二实施例的电子设备100中的应用执行屏幕上的示例。
具体实施方式
现在将会参考附图来更加全面地描述本发明,其中本发明的示例性实施例被示出。然而,本发明可以以多种不同的形式实现,并且不应被解释为限制在此提出的实施例;而是,实施例被提供以使得本公开将会是彻底的并且全面的,并且对本领域的技术人员来说将会完整地传达本发明的概念。
在下面的描述中,仅出于方便描述的考虑而将后缀“模块”和“单元”给予电子设备的组件,但是其不具有被相互区别的意义或者功能。
例如,在说明书中描述的电子设备可以包括智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放机(PMP)、数字TV、桌上型计算机、机顶盒、数码照相机、以及导航系统。
图1是根据本发明实施例的电子设备100的框图。也可以提供其他的实施例、配置以及布置。如所示出的,电子设备100包括无线电通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口170、控制器180、和电源190。不是图1中示出的所有的组件可能是必要的部件,并且在电子设备100中包括的组件的数目可以变化。现在将描述电子设备100的组件。
通信单元110可以包括至少一个模块,该至少一个模块使能在电子设备100和通信系统之间或在电子设备100和电子设备100所在的网络之间的通信。例如,通信单元110能够包括广播接收模块111、移动通信模块112、无线因特网模块113、局域通信模块114、以及位置信息模块115。
广播接收模块111通过广播信道来从外部广播管理服务器接收广播信号和/或广播相关信息。
广播信道能够包括卫星信道和陆地信道。广播管理服务器能够是生成和传送广播信号和/或广播相关信息的服务器,或者是接收预先产生的广播信号和/或广播相关信息并且将广播信号和/或广播相关信息传送到电子设备的服务器。广播信号不仅能够包括TV广播信号、无线电广播信号、以及数据广播信号,而且能够包括以TV广播信号和无线电广播信号的组合形式的信号。
广播相关信息能够是关于广播信道、广播节目、或广播服务提供商的信息。甚至通过移动通信网络能够提供广播相关信息。在这样情况下,能够通过移动通信模块112来接收广播相关信息。
广播相关信息能够以各种形式存在。例如,广播相关信息能够以数字多媒体广播(DMB)的电子节目指南(EPG)的形式或手持数字视频广播(DVB-H)的电子服务指南(ESG)的形式存在。
广播接收模块111使用各种广播系统来接收广播信号。具体地,广播接收模块111能够使用诸如陆地数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、仅媒体前向链路(MediaFLO)、DVB-H和陆地综合业务数字广播(ISDB-T)的数字广播系统来接收数字广播信号。广播接收模块111能够被构造为适合于提供除了上述数字广播系统之外的广播信号的广播系统。
通过广播接收模块111接收到的广播信号和/或广播相关信息能够被存储在存储器160中。
移动通信模块112将无线电信号传输到在移动通信网络上的基站、外部终端和服务器中的至少一个/从在移动通信网络上的基站、外部终端和服务器中的至少一个接收无线电信号。无线电信号能够包括根据文本/多媒体消息的发送和接收的、各种形式的语音呼叫信号、视频电话呼叫信号或者数据。
无线因特网模块113意指用于无线因特网接入的模块,并且能够被包括在电子设备100中,或可以从外部附接到电子设备100。无线LAN(WLAN)(Wi-Fi)、无线宽带(Wibro)、全球微波接入互操作性(Wimax)、高速下行链路分组接入(HSDPA)等能够被用作无线因特网技术。
局域通信模块114意指用于局域通信的模块。蓝牙、射频标识(RFID)、红外线数据协会(IrDA)、超宽带(UWB)和ZigBee能够被用作局域通信技术。
位置信息模块115确认或者获得电子设备的位置。全球定位系统(GPS)模块是位置信息模块115的代表性示例。根据当前技术,GPS模块115能够计算关于一个点(对象)和至少三个卫星之间的距离的信息、以及关于当距离信息被测量时的时间的信息,并且将三角法应用于获得的距离信息以在预定的时间、根据维度、经度以及海拔获得关于点(对象)的三维位置信息。此外,使用三个卫星来计算位置和时间信息,并且使用另一卫星校正被计算的位置和时间信息的方法也被使用。另外,GPS模块115连续地实时计算当前位置并且使用该位置信息来计算速度信息。
参见图1,A/V输入单元120被用于输入音频信号或视频信号,并且能够包括照相机121和麦克风122。照相机121处理由图像传感器在视频电话模式或拍摄模式中获得的静止图像或移动图像的图像帧。该处理的图像帧能够被显示在显示单元151上。
通过照相机121处理的图像帧能够被存储在存储器160中,或通过通信单元110被传送到外部设备。电子设备100能够根据电子设备100的构成而包括至少两个照相机。
麦克风122在呼叫模式、记录模式、或语音识别模式中接收外部音频信号,并且将接收到的音频信号处理为电子音频数据。音频数据能够被转换为通过移动通信模块112被传送到移动通信基站并且在呼叫模式下输出的形式。麦克风122能够采用用于去除当接收到外部音频信号时产生的噪声的噪声去除算法。
用户输入单元130接收来自于用户的用于控制电子设备100的操作的输入数据。用户输入单元130能够包括键区、圆顶开关(dome switch)、触摸板(恒压/电容)、转向轮(jobwheel)、转向开关(job switch)等。
感测单元140感测电子设备100的当前状态,诸如,电子设备100的开/关状态、电子设备100的位置、用户是否接触电子设备100、电子设备100的方向、以及电子设备100的加速/减速,并且生成用于控制电子设备100的操作的感测信号。例如,当电子设备100是滑盖电话时,感测单元140能够感测滑盖电话是否打开或关闭。此外,感测单元140能够感测电源190是否供电,并且接口170是否被连接到外部设备。感测单元140能够包括接近传感器。
输出单元150产生视觉、听觉或触觉输出,并且能够包括显示单元151、音频输出模块152、警报153、和触觉模块154。
显示单元151显示由电子设备100处理的信息。例如,当电子设备在呼叫模式中时,显示单元151显示与电话呼叫相关的UI或图形用户界面(GUI)。当电子设备100在视频电话模式或拍摄模式中时,显示单元151显示所捕获和/或接收的图像、UI或GUI。
显示单元151能够包括液晶显示器、薄膜晶体管液晶显示器、有机发光二极管显示器、柔性显示器和三维显示器中的至少一种。
一些显示器能够是透明型或透光型。这能够被称为透明显示器。透明显示器包括透明的液晶显示器。显示单元151的后结构也能够是透光型。根据此结构,用户能够通过显示单元151占用的电子设备100的主体的区域来看到位于电子设备100的主体之后的对象。
根据电子设备100的构造,电子设备100能够包括至少两个显示器151。例如,电子设备100能够包括在预定距离处被布置在单面上或者被一体化的多个显示器。否则,多个显示器能够被布置在不同侧上。
在显示单元151和感测触摸的传感器(在下文中,被称为触摸传感器)形成此后被称为触摸屏的分层结构的情况下,除了输出装置之外,显示单元151能够用作输入装置。触摸传感器能够是例如触摸膜、触摸片和触摸板的形式。
触摸传感器能够被构造为使得将施加到显示单元151的特定部分的压力的变化或在显示单元151的特定部分处产生的电容的变化转换为电输入信号。触摸传感器能够被构造为使得其能够感测触摸的压力以及触摸的位置和区域。
如果向触摸传感器应用触摸输入,则与触摸输入相对应的信号被传送到触摸控制器。触摸控制器处理该信号,并且向控制器180传送与被处理的信号相对应的数据。因此,控制器180能够检测显示器151的被触摸的部分。
参见图1,接近传感器141能够位于由触摸屏围绕或接近触摸屏的电子设备的内部区域中。接近传感器在不具有机械接触的情况下使用电磁力或红外线来感测接近预定感测表面的物体或在位于接近传感器附近的物体。接近传感器具有比接触传感器长的寿命并且具有广泛的应用。
接近传感器包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡型接近传感器、电容接近传感器、磁接近传感器、红外接近传感器等。
电容触摸屏被构造为使得根据指示器的接近、通过电场的变化来检测指示器的接近。在该情况下,能够将触摸屏(即,触摸传感器)分类为接近传感器。
为了容易描述,在下面的描述中,使指示器接近触摸屏同时指示器没有接触触摸屏以使得触摸屏上的指示器的位置被识别的行为被称为“接近触摸”,并且使指示器接触触摸屏的行为被称为“触摸输入”。触摸屏上的指示器的接近触摸点意指当指示器接近触摸该触摸屏时,指示器与触摸屏垂直相对应的触摸屏的点。
接近传感器感测接近触摸和接近触摸模式(例如,接近触摸距离、接近触摸方向、接近触摸速率、接近触摸时间、接近触摸位置、和接近触摸移动状态等)。能够在触摸屏上显示与感测到的接近触摸行为和接近触摸模式相对应的信息。
音频输出模块152能够在呼叫信号接收模式、电话呼叫模式、记录模式、语音识别模式、以及广播接收模式中,输出从通信单元110接收或在存储器160中存储的音频数据。音频输出模块152输出与在电子设备100中执行的功能有关的语音信号(例如,呼叫信号到来音调、消息到来音调等)。音频输出模块152能够包括接收器、扬声器、蜂鸣器等。
警报153输出用于指示电子设备100的事件的产生的信号。在电子设备中产生的事件的示例包括呼叫信号的接收、消息的接收、按键信号的输入、触摸的输入等。警报153能够以不同于视频信号或者音频信号的形式输出信号,例如,用于通过振动指示事件的产生的信号。通过显示单元151或音频输出模块152也能够输出视频信号或者音频信号。
触觉模块154产生用户能够感觉的各种触摸效果。触摸效果的代表性示例是振动。能够控制通过触觉模块154产生的振动的强度和模式。例如,不同的振动能够被组合并且输出,或者将其顺序地输出。
除了振动之外,触觉模块154能够产生下述各种触觉效果,其包括:根据为了接触皮肤表面而垂直地移动的针(pin)的布置的刺激的效果、根据通过喷射孔或吸入孔的空气的喷射力或吸入力的刺激的效果、摩擦皮肤的刺激的效果、根据电极的接触的刺激的效果、使用静电力的刺激的效果和根据使用吸收或辐射热的元件的冷/热的再现的效果。
触觉模块154不仅能够通过直接接触来传送触觉效果,而且也允许用户通过手指或手臂的肌肉运动知觉感知来感觉触觉效果。根据电子设备的构造,电子设备100能够包括至少两个触觉模块154。
存储器160能够存储用于控制器180的操作的程序,并且暂时存储输入/输出数据(例如,电话簿、消息、静止图像、移动图像等)。存储器160能够存储关于当触摸输入被施加到触摸屏时而输出的各种模式的振动和声音的数据。
存储器160能够包括闪存、硬盘型存储器、多媒体卡微型存储器、卡型存储器(例如,SD或XD存储器)、随机存取存储器(RAM)、静态RAM(SRAM)、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、可编程ROM(PROM)、磁存储器、磁盘和光盘中的至少一个。电子设备100能够与在因特网上执行存储器160的存储功能的网络存储相关地操作。
接口170用作到连接到电子设备100的所有外部设备的路径。接口170从外部设备接收数据或接收电力,并且将该数据或者电力传送到电子设备100,或将电子设备100的数据传送到外部设备。例如,接口170能够包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于连接到具有用户标识模块的装置的端口、音频I/O端口、视频I/O端口、耳机端口等。
识别模块是存储用于认证使用电子设备100的权限的信息的芯片,并且能够包括用户识别模块(UIM)、订户身份模块(SIM)和通用订户身份模块(USIM)。能够以智能卡型的形式来制造包括识别模块的装置(在下文中被称为识别装置)。因此,识别装置能够通过端口被连接到电子设备100。
当电子设备100连接到外部托架时,接口170能够用作通过其来自外部托架的电力被提供给电子设备100的路径,或通过其用户将各种命令信号从托架输入到电子设备100的路径。从托架输入的各种命令信号或电力能够被用作用于确认是否电子设备100被正确地安装在托架中的信号。
控制器180控制电子设备的整体操作。例如,控制器180执行用于语音通信、数据通信和视频电话的处理和控制。控制器180能够包括多媒体模块181,该多媒体模块181用于播放多媒体。多媒体模块181能够被包括在控制器180中,或者与控制器180分离。
控制器180能够执行模式识别处理,该处理能够将被应用于触摸屏的手写输入或图像绘制输入分别识别为字符或图像。
电源190在控制器180的控制下接收外部电力和内部电力,并且提供电子设备的组件的操作所要求的电力。
例如,使用软件、硬件或其组合,在计算机或与类似的装置可读记录介质中能够实现本发明的各个实施例。
根据硬件实现,能够使用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、用于执行其他功能的电气单元中的至少一个来实现本发明的实施例。在一些情况下,通过控制器180能够实现该实施例。
根据软件实现,可以利用执行至少一个功能或操作的单独的软件模块来实现诸如程序或功能的实施例。能够根据以适当的程序语言编写的软件应用来实现软件代码。此外,软件代码能够被存储在存储器160中,并且被控制器180执行。
图2和图3是用于描述根据本发明实施例的、使用双目视差的立体图像显示方法的图。图2示出使用柱状透镜阵列的方法,并且图3示出使用视差屏障的方法。
双目视差涉及沿着两条不同的视线查看的对象的视位置中的差。当在人的大脑中组成通过人的左眼看到的图像和通过他的右眼看到的图像时,人看到作为立体图像的被组成的图像。
在下面的描述中,由于人类双目视差的深度的视觉感知被称为“立体视觉:并且引起立体视觉的图像被称为“立体图像”。另外,当被包括在图像中的特定对象造成立体视觉时,此对象被称为“立体对象”。此外,被生成以引起立体视觉的内容被称为“立体内容”。立体内容可以包括立体图像、立体对象等。
使用双目视觉的立体图像显示方法被分类为要求特殊眼镜的立体显示方法和不要求有眼镜的自动立体显示。
立体显示方法包括使用有色眼镜、使用由于偏振光差而导致的阴影效果的偏振眼镜、在眼睛的余像时间内交替地提供左右图像的场序列眼镜等的方法。另外,存在使用具有用于用户的左眼和右眼的不同的透射率的滤波器,以根据由透射率差引起的视觉系统的时间差而相对于水平运动获得立体效果的方法。
从除了观察者之外的图像显示侧获得立体效果的自动立体显示方法包括使用视差屏障的方法、使用柱状透镜的方法、使用显微透镜阵列的方法等。
参考图2,显示单元151包括柱状透镜阵列11a以显示立体图像。柱状透镜阵列11a位于左眼和右眼12a和12b与在其上被输入到左眼12a的像素L和被输入到右眼12b的像素R被交替地布置在水平方向中的显示平面13之间,并且提供相对于被输入到左眼12a的像素L和被输入到右眼12b的像素R的光学区别方向性。因此,已经经过柱状透镜阵列11a的图像是分离的并且被左眼12a和右眼12b看到,并且通过左眼12a看到的图像和通过右眼12b看到的图像在人脑中被构成以被看到作为立体图像。
参考图3,用于显示立体图像的显示模块151包括以垂直晶格的形式的视差屏障11b。视差屏障11b位于左眼和右眼12a和12b与在其上被输入到左眼12a的像素L和被输入到右眼12b的像素R被交替的布置在水平方向中的显示平面13之间,并且包括垂直地布置的孔径以允许图像对于左眼12a和右眼12b而言是分离的,并且可以通过其看到。因此,通过左眼12a看到的图像和通过右眼12b看到的图像被组成在人脑中,以被看成立体图像。仅当立体图像需要被显示时,视差屏障11b被导通以分离输入图像,并且当2D图像需要被显示时其被关闭以使得输入图像在没有被分离的情况下使其通过。
已经描述上述立体图像显示方法以解释本发明的实施例,并且本发明不限于此。本发明能够通过除了上述方法之外的各种方法使用双目视差来显示立体图像。
在参考图1、图2以及图2描述的电子设备100中能够实现在说明书中描述的实施例。将会描述本发明的实施例。
在说明书中,显示单元151可以包括用于实现立体视觉的面板。此面板可以具有用于使用如上所述的柱状透镜或者视差屏障中的一个以实现立体视觉的结构。
在下面的描述中,其中为了将被显示在屏幕上的图像显示为立体图像,而激活在显示单元151中包括的面板的状态被称为“立体图像显示模式”并且其中通过被禁用的面板来显示图像的状态被称为“2D显示模式”。
根据本发明的实施例,用于实现立体视觉的面板能够被局部地激活或者禁用,并且因此显示单元151可以控制面板,以驱动屏幕使得屏幕在立体图像显示模式或者2D图像显示模式下局部地操作。
此外,在说明书中显示单元151被假定为是触摸屏。如上所述,触摸屏151能够执行信息显示功能和信息输入功能。然而,注意,本发明不限于此。
在说明书中,触摸手势意指直接地触摸触摸屏151或者接近触摸触摸屏151的手势,并且触摸输入意指根据触摸手势而接收到的输入。
触摸手势被分类为轻敲、拖拉、轻弹(flicking)、按压、多触摸、挤压、伸展等。
轻敲是稍微地按压触摸屏151并且然后释放,并且对应于通用计算机中的鼠标点击的手势。
拖拉是对触摸屏151进行触摸,将触摸移向特定点、并且然后释放触摸的手势。当对象被拖拉时,对象能够在拖拉方向中连续地移动并且显示。
轻弹是对触摸屏151进行触摸、将触摸移向特定方向(到顶部、底部、左、右、或者对角线方向)并且然后释放触摸的手势。当根据轻敲接收触摸输入时,电子设备100基于轻弹方向、速率等来处理特定操作。例如,电子设备100能够在轻弹方向中翻动电子书的页。
按压是对触摸屏151进行触摸和在预定的时间内连续地保持触摸的手势。
多触摸是连续地触摸触摸屏151的多个点的手势。
挤压是在其中指示器靠近的方向中拖拉是多触摸触摸屏151的多个指示器的手势。即,挤压对应于从触摸屏151的多个触摸点中的至少一个开始并且在其中多触摸点靠近的方向上移动的拖拉。
伸展是在其中指示器变得相互远离的方向中拖拉作为多触摸触摸屏151的多个指示器的手势。即,伸展对应于从触摸屏151上的多个触摸点中的至少一个开始并且在其中多触摸点变得相互远离方向上移动的拖拉。
在说明书中,感测单元140可以包括陀螺仪、加速计、以及磁传感器。
陀螺仪能够根据在其轴上的电子设备100的旋转来获取旋转的速度或者角速度。加速计能够根据电子设备100的运动来感测重力加速。磁传感器能够像罗盘一样感测电子设备100的方向。
控制器180能够基于通过感测单元130的陀螺仪获得的角速度、通过加速计获取的重力加速、以及由磁传感器感测的电子设备100的方向中的至少一个来感测电子设备100的运动。在此,电子设备的运动可以包括倾斜、保持水平状态、电子设备的旋转等。
将会参考附图描述用于在电子设备100中生成内容的方法,以及用于实现根据本发明的第一实施例的方法的电子设备100的操作。
在本发明的第一实施例中,为了有助于描述,根据对象的立体视觉,响应于对象的深度信息,至少一个对象位于虚拟的立体空间中。在虚拟的立体空间中使用其位置来更改每个对象的深度信息的模式被称为“第一模式”,并且显示包括至少一个对象的内容的预览图像作为立体图像的模式被称为“第二模式”。
图4是示出根据本发明的第一实施例的、在电子设备100中生成内容的方法的流程图,并且图5至图16是用于描述根据本发明的第一实施例的用于生成内容的方法的图。
参考图4,控制器180基于用户输入来选择被用于生成内容的至少一个对象,并且将所选择的对象定位到屏幕上(S101)。
所选择的对象可以是先前被存储在存储器160中的对象,或者通过无线电通信单元100从外部服务器下载的对象。此外,对象可以是3D对象或者2D对象。
图5示出选择在内容中包括的对象的示例。
参考图5(a),控制器180基于用户输入来显示可用于在第一区域A1中生成内容的对象的列表。
在从对象列表中选择一个对象OB1,并且将所选择的对象OB1拖拉到第二区域A2时,控制器180将对象OB1添加到内容。即,控制器180将所选择的对象OB1定位到被用于编辑内容的第二区域A2中,如图5(b)中所示。
图5示出选择被用于生成内容的对象的示例,并且本发明不限于此。根据本发明,控制器180能够基于各种用户输入而选择被用于生成内容的对象。
另外,虽然图5示出的是将对象添加到内容的示例,控制器180可以根据本发明的第一实施例,基于用户输入而从内容中删除在内容中包括的一些对象。即,控制器180能够从在第二区域A2中布置的对象中去除用户选择的对象。
再次参考图4,在S101中选择被用于生成内容的对象时,控制器180可以基于用户输入而显示所选择的对象的特性。在此,显示特性可以包括显示尺寸、显示位置等。
例如,控制器180可以基于用户输入而更改位于屏幕上的对象的显示尺寸,以生成内容。
此外,控制器180能够基于用户输入,在屏幕上移动对象的位置。
当在S101中,控制器180选择立体对象以生成内容时,控制器180能够在内容的生成中反映立体对象的深度信息,或者将立体对象转换为2D对象并且在内容中包括2D对象。在后者情况下,控制器180能够将立体对象的深度更改为与显示平面相对应的“深度0”,以将所选择的立体对象转换为2D对象并且在内容中包括2D对象。
图6和图7示出将立体对象添加到内容的示例。
参考图6(a),用户选择的立体对象SOB1被拖拉到用于内容添加的第二区域A2。因此,控制器180将拖拉的立体对象SOB1定位到如图6(b)中所示的第二区域A2中。这时,控制器180在立体对象SOB1的布置中反映立体对象SOB1的深度信息,并且将立体对象SOB1显示在第二区域A2中。
参考图7(a),用户选择的立体对象SOB1被拖拉到用于内容编辑的第二区域A2。因此,控制器180能够将所选择的立体对象SOB1转换为2D对象OB1,并且将2D对象OB1定位到如图7(b)中所示的第二区域A2中。即,控制器180将所选择的立体对象SOB1的深度更改为与2D对象相对应的值,并且将2D对象布置在第二区域A2中。
再次参考图4,在S101中选择图像作为被用于生成内容的对象时,控制器180可以从所选择的图像中提取至少一个对象,并且使用该对象以生成内容。
当对象被从图像中提取并且被用于生成如上所述的内容时,可以在进行内容编辑时,仅单独地编辑特定对象。换言之,可以移动内容中的特定对象的位置,或者仅扩大/缩小特定对象。此外,可以单独地控制每个对象的深度信息。
当被选择作为用于生成内容的对象的图像是立体图像时,从图像中提取的对象可以是立体对象。
在这样的情况下,当提取对象时,控制器180也能够提取对象的深度信息。此外,控制器180能够响应于被提取的深度信息而布置被提取的立体对象,或者将被提取的立体对象转换为2D对象并且布置该2D对象。
再次参考图4,在已经选择被包括在内容中的至少一个对象的状态下接收第一用户输入(S102)时,控制器180进入用于更改每个对象的深度信息的第一模式。
在第一模式下,控制器180显示用于将每个对象的深度信息直观地显示在显示区域中的虚拟立体空间。另外,控制器180响应于每个对象的深度信息来确定虚拟立体空间中的每个对象的位置,并且基于被确定的位置来布置每个对象(S103)。
在步骤S102中,通过下述各种方法能够产生第一输入。
根据电子设备100的运动能够产生第一用户输入。
例如,当电子设备100在特定方向中旋转时,能够输入第一用户输入。即,当通过感测单元140感测到电子设备100到特定方向的旋转运动时,控制器180确定第一用户输入被产生。
当电子设备100的位置在诸如水平状态的特定状态下时,能够输入第一用户输入。为此,控制器180能够通过感测单元140感测电子设备100的倾斜,并且基于电子设备100的倾斜状态来确定电子设备100的位置。
通过操作在用户输入单元130中包括的特定键按钮,能够产生第一用户输入。
此外,通过触摸显示区域的特定区域能够输入第一用户输入。
另外,通过轻敲电子设备100的主体的特定部分能够输入第一用户输入。例如,通过轻敲电子设备100的主体的背侧能够输入第一用户输入。
在步骤S103中,虚拟立体空间意指当在立体图像显示模式显示图像时,根据用户的双眼视差而由用户看到的虚拟空间。
图8是用于解释从侧面看到的、显示虚拟立体空间的图像的虚拟立体空间的图。
参考图8,当在立体图像显示模式下包括对象OB11、OB12以及OB13的立体图像被显示在显示区域中时,立体图像产生立体视觉,以在基于显示平面151a具有从前到后的预定深度的虚拟立体空间VS1中,使得具有不同深度的对象OB11、OB12以及OB13被用户看到。
根据本发明的第一实施例,当用户在特定方向中看到虚拟立体空间VS1时,控制器180可视化图像,并且当进入第一模式时显示图像。
参考图8,当控制器180可视化用户在第一注视方向,即,用户的眼睛直视的方向中看到的立体空间VS1的图像时,用户能够基于立体图像中的它们位置而识别对象OB11、OB12以及OB13的宽度和高度。然而,基于立体图像中的对象OB11、OB12、OB13的位置难以直观地识别对象OB11、OB12、OB13的深度。
因此,本发明的第一实施例通过可视化用户在第二注视方向中,即,用户向下看的方向中查看的虚拟立体空间VS1的图像并且显示图像,基于它们在立体图像中的位置而支持对象OB11、OB12以及OB13的深度的直观识别。
图9示出显示在第二注视方向中看到的虚拟立体空间的图像的示例。
参考图9,在显示区域中,控制器180显示在第二注视方向中看到的在图8中示出的虚拟立体空间VS1的图像。
如果在第二注视方向中看到虚拟立体空间,在注视方向中旋转对象OB11、OB12以及OB13时获得的图像,替代它们前面的图像能够被用户看到。因此,当在第二注视方向中看到的虚拟立体空间的图像被显示在屏幕上时,当根据注视方向在特定方向旋转时,对象OB11、OB12以及OB13能够被显示为图像。
根据图9能够看到,通过对象OB11、OB12以及OB13的深度信息确定在第二注视方向中看到的虚拟立体空间VS1的图像上的对象OB11、OB12以及OB13的显示位置。此外,能够理解的是,通过它们相对深度来确定对象OB11、OB12以及OB13的相对位置。
例如,第一对象OB11位于图9中的第二对象OB12下方,并且因此能够获知第一对象OB11具有使第一对象OB11被看成仿佛其位于第二对象OB12的前面的深度信息。
另外,因为第三对象OB13位于图9中的第二对象OB12上面,能够获知第三对象OB13具有使第三对象OB13被看成仿佛其位于第二对象OB12后面的深度信息。
如上所述,当在第二注视方向中看到的虚拟立体空间的图像被显示在屏幕上时,基于在虚拟立体空间中的每个对象的位置,用户能够直观地识别每个对象的深度信息。
根据本发明的第一实施例,控制器180能够设置显示区域中的基准线,以便于使用对象的深度信息来确定对象的显示位置。
被用于显示深度信息的基准线是连接特定深度处的点的线,并且被用作用于确定每个对象的位置的标准。在本发明的第一实施例中,为了便于解释,基准线被假定为是连接显示平面上的点的线,即,连接在“深度0”处的点的线。
根据本发明,控制器180能够通过在屏幕上显示在显示区域中设置的基准线而允许用户直观地识别显示平面。此外,控制器180能够基于显示平面而允许用户直观地识别虚拟立体空间中的每个对象的深度。
参考图9,控制器180在屏幕上显示与显示平面151a相对应的基准线RL1。控制器180响应于对象OB11、OB12以及OB13的深度,来确定基准线RL1与对象OB11、OB12以及OB13之间的距离,并且基于被确定的距离来布置对象OB11、OB12以及OB13。
因此,用户能够直观地识别已经设置的第一对象OB11和第三对象OB13的深度,以使得第一对象OB11看起来仿佛其从显示平面突出,并且第三对象OB13看起来仿佛从显示平面凹进。
虽然基于用户在图8和图9中的第二注视方向中看到虚拟立体空间的假设,虚拟立体空间的图像被显示在屏幕上,但是注意到本发明不限于此。
此外,虽然在图9的显示区域的中心处设置与显示平面相对应的基准线,但是能够更改基准线的位置。
再次参考图4,控制器180能够确定屏幕上的来自于在内容中包括的对象之中的具有深度信息的立体对象的位置,使得在步骤S103中在其位置中反映立体对象的深度信息,如图9中所示。
相反地,控制器180能够将不具有深度信息的2D对象的深度设置为默认值,并且基于默认值布置2D对象。例如,控制器180能够将不具有深度信息的2D对象的深度设置为与显示平面相对应的“深度0”,并且将2D对象定位到与屏幕上的“深度0”相对应的位置处。
图10示出当被选择以生成内容的对象是2D对象时,被显示在第一模式中的示例性图像。
参考图10(a),控制器180响应于用户输入,将被用于生成内容的2D对象OB21、OB22、以及OB23布置在屏幕上。
在进入第一模式时,控制器180将2D对象OB21、OB22以及OB23布置在虚拟立体空间中,如图10(b)中所示。即,控制器180将2D对象OB21、OB22以及OB23的深度设置为“深度0”,并且在与“深度0”相对应的位置处显示2D对象OB21、OB22以及OB23。
再次参考图4,控制器180能够响应于用户输入而在第一模式下移动每个对象。此外,当每个对象被移动时,控制器180基于被移动的位置来更改每个对象的深度信息(S104)。
在步骤S104中,响应于用户输入移动每个对象时,控制器180能够获取包括每个对象的移动方向、移动距离等的运动信息,并且基于运动信息来增加或者减少每个对象的深度。
例如,控制器180能够更改对象的深度信息,使得当对象被移向屏幕的底部时,所述对象看起来像离用户更近。
另外,控制器180能够更改对象的深度信息,使得当对象被移向屏幕的顶部时,对象看起来远离用户。
当在显示区域中设置基准线时,控制器180能够根据其中基于基准线移动对象的方向来更改对象的深度信息,使得对象被看起来仿佛从显示平面突出或者从显示平面凹进。
图11和图12示出更改虚拟立体空间中的对象的深度信息的示例。
参考图11,当响应于用户输入,对象OB22被移向屏幕的底部时,控制器180获取特定对象OB22的运动信息。控制器180更改对象OB22的深度信息,使得基于运动信息来获得使对象OB22看起来像离用户更近的立体视觉。
参考图12,当响应于用户输入,对象OB22被移向屏幕的顶部时,控制器180获取对象OB22的运动信息,并且更改对象OB22的深度信息,使得基于运动信息来获得使对象OB22被看起来像远离用户的立体视觉。
根据本发明的第一实施例,当深度信息变化时,控制器180能够基于对象的变化深度信息来自动地更改每个对象的显示尺寸,如图11和图12中所示。
例如,当对象的深度信息被更改使得对象被看起来像离用户更近时,控制器180能够增加对象的显示尺寸,如图11中所示。
相反地,当对象的深度信息被更改使得对象被看起来像远离用户时,控制器180能够增加对象的显示尺寸,如图12中所示。
根据本发明的第一实施例,当对象被移动时,控制器180能够更改内容中的对象的位置,如图11和图12中所示。
参考图11,当用户在水平方向和垂直方向中移动第二对象OB22时,控制器180能够移动第二对象OB22的显示位置。具体地,当在如图11中所示的屏幕上第二对象OB22被移向右边时,控制器180将内容中的第二对象OB22的位置移向右边。
因此,用户不仅能够自由地更改对象的深度信息,而且能够更改它们在虚拟立体空间中的位置。
再次参考图4,控制器180能够提供图像的一部分作为预览图像,使得用户能够直观地识别每个对象的位置中的变化。即,控制器180能够在屏幕的预定部分上显示包括图像中布置的对象的预览图像。
在此,当生成当前被布置在虚拟立体空间中的对象作为内容时,被显示在预览区域中的预览图像是实际上被用户看到的内容的预览图像。在立体图像显示模式或者2D图像显示模式下能够显示预览图像。当在立体图像显示模式下显示预览图像时,能够选择性地激活面板,使得仅为预览区域产生立体视觉。
图13和图14示出在第一模式中在屏幕的预定部分上显示预览图像的示例。
参考图13,在进入第一模式时,控制器180响应于其深度信息来布置对象OB21至OB24,并且移动对象OB21至OB24以在屏幕上显示用于变化对象OB21至OB24的深度信息的虚拟立体空间VS1。
控制器180在屏幕的预定预览区域A3上显示包括对象OB21至OB24的内容的预览图像。预览图像向用户显示当前被布置在虚拟立体空间中的对象OB21至OB24。
在更改在虚拟立体空间VS1中显示对象OB21至OB24的尺寸和位置时,控制器180响应于被更改的位置和显示尺寸来显示预览图像。
例如,当因为对象被移动而更改对象的显示尺寸时,控制器180能够基于被更改的对象的显示尺寸而变化预览图像中的对象的显示尺寸。当在立体图像显示模式中显示预览图像时,控制器180能够响应于当对象移动时更改的对象的深度信息而控制要被显示在预览图像中的对象。
参考图14,控制器180更改对象OB22的深度信息,以生成当在屏幕上将对象OB22向下移向右边时使对象OB22看起来像离用户更近的立体视觉。另外,在确定对象OB22变得离用户更近时,控制器180增加对象OB22的显示尺寸并且将对象OB22的显示位置移向右边。
控制器180控制根据被更改的显示尺寸而被显示在要变化的预览区域A3中的对象OB22的显示特性、以及对象OB22的显示位置。即,因为被显示在虚拟立体空间中的对象OB22的显示尺寸已经被增加,所以控制器180增加与被显示在预览区域A3中的对象OB22相对应的对象OB22’的显示尺寸。
此外,因为被显示在虚拟立体空间中的对象OB22已经被移向右边,所以控制器180将在预览区域A3中显示的对象OB22’移向右边。
虽然在图14中的2D显示模式下显示预览图像,但是在立体图像显示模式下也能够显示预览图像。当在立体图像显示模式下能够显示预览图像时,如果更改OB22的深度信息,如图14中所示,控制器180能够响应于被更改的深度信息将对象OB22’显示在预览区域A3中。
再次参考图4,当在其中基于对象的深度信息而在虚拟立体空间中显示对象的第一模式中应用第二用户输入(S105)时,控制器180将在第一模式中设置的对象的深度信息和显示位置存储在存储器160中。
当控制器180进入用于在屏幕的整个区域上显示内容的预览图像的第二模式时,控制器180基于在第一模式中设置的对象的显示位置和深度信息生成包括对象的内容。然后,控制器180在立体图像显示模式中,在屏幕上显示被生成的内容的预览图像(S106)。
在步骤S105中,还能够通过各种方法产生第二用户输入。
通过电子设备100的运动能够产生第二单元输入。
例如,当在特定方向中旋转电子设备100时,能够产生第二用户输入。具体地,当通过感测单元140感测到特定方向的电子设备100的旋转时,控制器180确定第二用户输入被产生。
此外,当电子设备100的位置变成诸如垂直状态的特定状态时,能够产生第二用户输入。为了实现此,控制器180能够通过感测单元140感测电子设备100的倾斜,并且基于被感测的结果来确定电子设备100的位置。
通过在用户输入单元130中包括的特定键按钮的操作,能够产生第二用户输入。
此外,当显示区域的特定部分被触摸时,能够产生第二用户输入。
另外,通过轻敲电子设备100的主体的特定部分能够产生第二用户输入。例如,通过轻敲电子设备100的主体的背侧,能够产生第二用户输入。
图15示出在第二模式中显示内容的预览图像的示例。
参考图15,当控制器180进入第二模式时,控制器180响应于在第一模式中设置的对象OB21至OB24的显示位置和深度信息来生成内容C1。即,控制器180基于对象OB21至OB24的深度信息和显示位置而生成包括对象OB21至OB24的内容C1。控制器180在屏幕的整个区域中显示内容C1的预览图像。
再次参考图4,当用户检查在第二模式中生成并且被显示在屏幕上的内容,并且请求存储内容(S107)时,控制器180将在屏幕上显示的内容存储在存储器160中(S108)。
在本发明的第一实施例中,在内容中包括的至少一个对象被选中,然后在第一模式中更改对象的深度信息、显示位置等。然而,本发明不限于此。
根据本发明,控制器180能够在用于显示虚拟立体空间的第一模式下选择在内容中包括的对象。在这样的情况下,控制器180能够在进入第二模式之后将用户选择的对象添加到虚拟立体空间/从虚拟立体空间中删除用户选择的对象,以便将对象添加到内容/从内容删除对象。
图16示出在第一模式下添加内容的示例。
参考图16(a),控制器180响应于其深度信息来布置对象,并且在屏幕上显示在其中被移动到其处的对象的深度信息被更改的虚拟立体空间VS1。
控制器180响应于用户输入而显示能够被添加到第一区域S1中的内容的对象的列表,如图16(b)中所示。当从列表中选择对象OB25,并且将其拖拉到虚拟立体空间VS1时,控制器180将对象OB25布置在虚拟立体空间VS1中,如图16(b)中所示。
图16(b)示出其中根据对象OB25被拖拉到的位置而设置对象OB25的深度信息的情况。换言之,与对象OB25被拖拉到的位置相对应的深度信息被初始地设置为对象OB25的深度信息。然而,本发明不限于此。
根据本发明,当对象OB25被拖拉到虚拟立体空间VS1时,控制器180可以响应于先前设置到对象OB25的深度信息而定位对象OB25,而不管对象OB25被拖拉的位置。否则,控制器180能够将对象OB25的深度设置为默认值并且定位对象OB25。
如上所述,本发明的第一实施例能够允许用户容易地选择被包括在生成立体视觉的内容中的对象。此外,本发明的第一实施例能够仅通过在虚拟立体空间中移动对象而更改对象的深度信息。此外,本发明的第一实施例能够基于与显示平面相对应的基准线和对象之间的距离和对象的相对位置,而允许用户直观地识别每个对象的深度信息,从而增强用户便利。
另外,可以在屏幕的预定部分上显示预览图像,使得由于对象的显示尺寸和深度信息的更改,用户能够直观地识别内容中的变化,以便允许用户便利地编辑内容。
现在参考附图,将详细地描述在电子设备100中生成内容的方法和要实现根据本发明的第二实施例的方法的电子设备100的操作。
图17是示出根据本发明的第二实施例的用于在电子设备100中生成内容的方法的流程图,并且图18和图19是根据本发明的第二实施例的用于解释用于生成内容的方法的图。
参考图17,控制器180响应于用户输入,向显示区域提供用于显示至少一个立体对象的第一区域以及用于显示内容的预览图像的第二区域(S201)。
第一区域能够在立体显示模式下显示至少一个立体对象。
第二区域被用于事先布置在第一区域中显示的对象,并且检查对象的显示尺寸。第二区域显示用户选择的内容的预览图像。
在步骤S201中,在第二区域中内容的预览图像能够被显示为2D图像。在这样的情况下,控制器180能够通过选择性地禁用在显示单元151中包括的面板的部分,或者将在第二区域中显示的预览图像的深度信息设置为与显示平面相对应的“深度0”使得第二区域在2D图像显示模式下操作,将内容的预览图像显示为2D图像。
再次参考图17,在接收用户输入,以将从第一区域选择的立体对象复制到第二区域(S202)时,控制器180将所选择的立体对象转换为2D对象并且在第二区域中显示2D对象(S203)。具体地,控制器180将被选择的立体对象的深度信息更改为与显示平面相对应的“深度0”,以将立体对象转换为2D对象并且将2D对象添加在第二区域中显示的预览图像。
在此,通过各种方法能够产生用于将在第一区域中显示的立体对象复制到第二区域的用户输入。
例如,当立体对象被拖拉到第二区域时,能够产生用于将从第一区域中选择的立体对象复制到第二区域的用户输入。
图18和图19示出将从第一区域中选择的立体对象布置在应用执行屏幕上的示例。
参考图18,控制器180在第一区域A11中显示立体对象OB31和OB32,并且在第二区域A12中显示通过用户编辑的内容的预览图像。
控制器180通过在第一区域A11中显示包括立体对象的内容或者在第一区域中显示先前存储的立体对象的列表的方法,在第一区域A11中显示立体对象OB31和OB32。
控制器180复制与在第一区域A11中显示的立体图像相对应的第一立体对象OB31,在接收用于将立体对象OB31复制到第二区域S 12的用户输入时,将立体图像OB31转换为如图18中所示的2D图像OB31’,并且将2D图像OB31’添加到在第二区域A12中显示的内容。
参考图19,控制器180复制来自于在第一区域A11中显示的立体对象OB31和OB32之中的、与立体文本相对应的第二立体对象OB32,并且响应于用于将立体对象OB32复制到第二区域A12的用户输入,将立体对象OB32转换为2D文本OB32’,并且将2D文本OB32’布置在第二区域A12中。
再次参考图17,在将来自于第一区域的对象复制到第二区域时,控制器180能够响应于与对象有关的用户输入来更改最新添加到第二区域的对象的显示特性(S204)。在此,对象的显示特性可以包括对象的显示位置、显示尺寸等。
当最新添加到第二区域的对象的显示尺寸被更改时,基于被更改的显示尺寸可以自动地更改与对象相对应的深度信息。例如,如果用户增加最新添加到第二区域的对象的显示尺寸,那么控制器180能够更改对象的深度信息,使得朝着用户移动对象并且将其显示。
再次参考图17,当用户请求存储在包括从第一区域选择的立体对象以及被添加到其的第二区域中显示的内容(S205)时,控制器180将内容存储在存储器160中(S206)。
在步骤S206中,控制器180用原始内容替代被显示为2D图像的预览图像,将其存储在存储器160中的第二区域中。因此,从第一区域复制到第二区域的对象能够被包括在内容中并且被存储为立体对象。
当被复制的对象的显示特性和深度信息被更改,同时在第二显示区域中被显示为预览图像时,对象能够被包括在具有被更改的显示特性和深度信息的内容中。
在产生立体视觉的立体对象的复制和粘贴中,由于其立体效果,用户通常在识别立体对象如何被显示在显示平面上具有困难。即,用户不能够容易地识别立体对象的显示尺寸和位置。
因此,本发明的第二实施例将被添加到内容中的立体对象转换为2D对象,并且将2D对象布置在内容的预览图像中,如上所述,使得用户能够检查立体对象,并且直观地识别立体对象如何实际地显示在显示平面上。
上述电子设备的内容生成方法可以被写成计算机程序,并且可以在使用计算机可读的记录介质来执行程序的数字微处理器中实现。可以通过软件来执行电子设备的内容生成方法。软件可以包括执行所要求的任务的代码段。程序或代码段也可以被存储在处理器可读介质中,或可以根据通过传输介质或通信网络与载波相组合的计算机数据信号来传送。
计算机可读记录介质可以是能够存储其后能被计算机系统读取的数据的任意数据存储装置。计算机可读记录介质的示例可以包括只读存储器(ROM),随机存取存储器(RAM)、CD-ROM、DVD±ROM、DVD-RAM、磁带、软盘、光数据存储装置。计算机可读记录介质也可以被分布在网络耦合的计算机系统上,使得以分布式的方式存储和执行计算机可读代码。
前述实施例和优点仅是示例性的并且没有被解释为限制本发明。本教导能够被容易地应用于其他类型的设备。前述实施例的描述旨在是示意性的,并且没有限制权利要求的范围。对本领域的技术人员来说许多的替代、修改、以及变化将会是显而易见的。
Claims (13)
1.一种电子设备,包括:
显示模块,所述显示模块配备有用于生成立体视觉的面板;以及控制器,所述控制器被配置为:
在所述显示模块的第一区域中显示多个对象;
接收第一输入以将所述多个对象中的至少一个对象从所述显示模块的第一区域移动到第二区域;
在所述显示模块的第二区域中显示被移动的至少一个对象;
接收用户输入以在包括所述被移动的至少一个对象的虚拟立体空间中进入用于编辑内容的第一模式;
显示在特定方向中可视的虚拟立体空间的图像,其中所述图像包括在所述特定方向中可视的所述被移动的至少一个对象,其中基于所述被移动的至少一个对象的深度信息,在所述图像中布置所述被移动的至少一个对象;
接收第二输入以将所述被移动的至少一个对象的第一对象从所述图像中的第一位置移动到第二位置;以及
基于所述第二位置来更改所述内容中用于显示所述第一对象的深度信息。
2.根据权利要求1所述的电子设备,其中,所述控制器被进一步配置为进入用于显示包括所述被移动的至少一个对象的内容的第二模式,其中,基于更改的深度信息,所述内容被显示为立体图像。
3.根据权利要求2所述的电子设备,进一步包括:感测单元,所述感测单元被配置为感测所述电子设备的运动,以及
其中,所述控制器被进一步配置为基于所述电子设备的运动来控制在所述第一模式和所述第二模式之间的切换。
4.根据权利要求1所述的电子设备,其中,当在所述第一模式中更改所述深度信息时,所述控制器基于被更改的深度信息来更改所述第一对象的显示尺寸。
5.根据权利要求1所述的电子设备,进一步包括:用户输入单元,所述用户输入单元被配置为接收用户输入,
其中,所述控制器被进一步配置为响应于在所述第一模式中接收到的用户输入,将对象添加到内容或者删除在所述内容中包括的对象。
6.根据权利要求5所述的电子设备,其中,当在所述第一模式中将立体对象添加到所述内容时,所述控制器被进一步配置为在响应于所述立体对象的深度信息而确定的位置处显示所述立体对象。
7.根据权利要求5所述的电子设备,其中,当在所述第一模式中将2D对象添加到所述内容时,所述控制器被进一步配置为在根据预定的深度信息而确定的位置处显示2D对象。
8.根据权利要求1所述的电子设备,其中,所述控制器响应于所述被移动的至少一个对象的深度信息来确定在显示所述被移动的至少一个对象的位置与预定基准线之间的距离。
9.根据权利要求1所述的电子设备,其中,所述控制器被进一步配置为在所述第一模式中,在所述显示模块的预定区域上显示包括所述对象的内容的预览图像。
10.根据权利要求9所述的电子设备,其中,当在所述第一模式中将所述第一对象移动到所述第二位置时,所述控制器被进一步配置为基于被更改的深度信息来更改所述第一对象的显示特性,以及显示所述内容的预览图像以反映被更改的所述第一对象的显示特性。
11.一种电子设备,包括:
显示模块,所述显示模块配备有面板,所述面板用于生成立体视觉;以及
控制器,所述控制器被配置为:
提供在其中至少一个立体对象被显示的第一区域以及在其中通过所述显示模块显示内容的预览图像的第二区域,以及
当从所述第一区域选择的立体对象被从所述第一区域复制到所述第二区域时,在所述第二区域中将被选择的立体对象显示为2D对象。
12.根据权利要求11所述的电子设备,其中,所述控制器通过更改被选择的立体对象的深度,将所选择的立体对象更改为所述2D对象。
13.一种用于在电子设备中生成内容的方法,所述方法包括:
在显示模块的第一区域中显示多个对象;
接收第一输入以将所述多个对象中的至少一个对象从所述显示模块的第一区域移动到第二区域;
在所述显示模块的第二区域中显示被移动的至少一个对象;
接收用户输入以在包括所述被移动的至少一个对象的虚拟立体空间中进入用于编辑内容的第一模式;
显示在特定方向中可视的虚拟立体空间的图像,其中所述图像包括在所述特定方向中可视的所述被移动的至少一个对象,其中基于所述被移动的至少一个对象的深度信息,在所述图像中布置所述被移动的至少一个对象;
接收第二输入以将所述被移动的至少一个对象的第一对象从所述图像中的第一位置移动到第二位置;
基于所述第二位置来更改所述内容中用于显示所述第一对象的深度信息;以及
基于被更改的深度信息来生成所述内容作为立体图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110095113A KR101830966B1 (ko) | 2011-09-21 | 2011-09-21 | 전자 기기 및 전자 기기의 컨텐츠 생성 방법 |
KR10-2011-0095113 | 2011-09-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103019504A CN103019504A (zh) | 2013-04-03 |
CN103019504B true CN103019504B (zh) | 2017-07-04 |
Family
ID=46754841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210323334.3A Expired - Fee Related CN103019504B (zh) | 2011-09-21 | 2012-09-04 | 电子设备及其内容生成方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9459785B2 (zh) |
EP (1) | EP2574061A3 (zh) |
KR (1) | KR101830966B1 (zh) |
CN (1) | CN103019504B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8988578B2 (en) | 2012-02-03 | 2015-03-24 | Honeywell International Inc. | Mobile computing device with improved image preview functionality |
USD752099S1 (en) * | 2012-10-31 | 2016-03-22 | Lg Electronics Inc. | Television screen with graphic user interface |
EP2806404B1 (en) * | 2013-05-23 | 2018-10-10 | AIM Sport AG | Image conversion for signage |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
US10592064B2 (en) | 2013-09-17 | 2020-03-17 | Amazon Technologies, Inc. | Approaches for three-dimensional object display used in content navigation |
US20150082145A1 (en) * | 2013-09-17 | 2015-03-19 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US10067634B2 (en) | 2013-09-17 | 2018-09-04 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US9591295B2 (en) * | 2013-09-24 | 2017-03-07 | Amazon Technologies, Inc. | Approaches for simulating three-dimensional views |
US9437038B1 (en) | 2013-09-26 | 2016-09-06 | Amazon Technologies, Inc. | Simulating three-dimensional views using depth relationships among planes of content |
CN103995361B (zh) * | 2014-06-17 | 2017-01-11 | 上海新视觉立体显示科技有限公司 | 裸眼3d显示像素单元及多视图裸眼3d图像显示设备 |
US10073600B1 (en) * | 2014-12-22 | 2018-09-11 | Dassault Systemes Solidworks Corporation | Selecting large and small entities on a computer display |
KR102423175B1 (ko) | 2017-08-18 | 2022-07-21 | 삼성전자주식회사 | 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법 |
CN109542307B (zh) * | 2018-11-27 | 2021-12-03 | 维沃移动通信(杭州)有限公司 | 一种图像处理方法、设备和计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1679346A (zh) * | 2002-08-29 | 2005-10-05 | 夏普株式会社 | 易于进行可立体视的内容的制作及编辑的装置 |
CN1809863A (zh) * | 2003-05-16 | 2006-07-26 | 纯深有限公司 | 显示控制系统 |
CN101632102A (zh) * | 2007-01-10 | 2010-01-20 | 真实图像公司 | 用于通过使用网格图依据二维图像生成立体图像的方法和装置 |
WO2010045498A1 (en) * | 2008-10-15 | 2010-04-22 | Invensense Inc. | Mobile devices with motion gesture recognition |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1460243A (zh) * | 2000-06-19 | 2003-12-03 | 株式会社岛精机制作所 | 预览图像的显示方法和预览图像显示装置 |
US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
SE523636C2 (sv) * | 2001-07-22 | 2004-05-04 | Tomer Shalit Ab | Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt |
US7043701B2 (en) * | 2002-01-07 | 2006-05-09 | Xerox Corporation | Opacity desktop with depth perception |
GB0328005D0 (en) * | 2003-12-03 | 2004-01-07 | Koninkl Philips Electronics Nv | 2D/3D Displays |
EP1804154A3 (en) * | 2005-12-27 | 2012-08-08 | Poston Timothy | Computer input device enabling three degrees of freedom and related input and feedback methods |
US20080094398A1 (en) * | 2006-09-19 | 2008-04-24 | Bracco Imaging, S.P.A. | Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap") |
US8471873B2 (en) * | 2006-10-17 | 2013-06-25 | Oracle America, Inc. | Enhanced UI operations leveraging derivative visual representation |
JP2008108200A (ja) * | 2006-10-27 | 2008-05-08 | Canon Inc | 情報抽出装置及び方法、並びにプログラム及び記憶媒体 |
TWI322969B (en) * | 2006-12-15 | 2010-04-01 | Quanta Comp Inc | Method capable of automatically transforming 2d image into 3d image |
US20090002368A1 (en) | 2007-06-26 | 2009-01-01 | Nokia Corporation | Method, apparatus and a computer program product for utilizing a graphical processing unit to provide depth information for autostereoscopic display |
US8416268B2 (en) * | 2007-10-01 | 2013-04-09 | Pioneer Corporation | Image display device |
JP5213500B2 (ja) * | 2008-04-04 | 2013-06-19 | 任天堂株式会社 | 画像変換プログラムおよび画像変換装置 |
US8289316B1 (en) * | 2009-04-01 | 2012-10-16 | Perceptive Pixel Inc. | Controlling distribution of error in 2D and 3D manipulation |
JP4587237B1 (ja) * | 2009-06-17 | 2010-11-24 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
US20110157155A1 (en) * | 2009-12-31 | 2011-06-30 | Disney Enterprises, Inc. | Layer management system for choreographing stereoscopic depth |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
JP5572494B2 (ja) * | 2010-07-07 | 2014-08-13 | 任天堂株式会社 | 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法 |
US8972879B2 (en) * | 2010-07-30 | 2015-03-03 | Apple Inc. | Device, method, and graphical user interface for reordering the front-to-back positions of objects |
US8913056B2 (en) * | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US20120176413A1 (en) * | 2011-01-11 | 2012-07-12 | Qualcomm Incorporated | Methods and apparatuses for mobile device display mode selection based on motion direction |
-
2011
- 2011-09-21 KR KR1020110095113A patent/KR101830966B1/ko active IP Right Grant
-
2012
- 2012-07-06 EP EP12005041.4A patent/EP2574061A3/en not_active Withdrawn
- 2012-07-06 US US13/543,087 patent/US9459785B2/en not_active Expired - Fee Related
- 2012-09-04 CN CN201210323334.3A patent/CN103019504B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1679346A (zh) * | 2002-08-29 | 2005-10-05 | 夏普株式会社 | 易于进行可立体视的内容的制作及编辑的装置 |
CN1809863A (zh) * | 2003-05-16 | 2006-07-26 | 纯深有限公司 | 显示控制系统 |
CN101632102A (zh) * | 2007-01-10 | 2010-01-20 | 真实图像公司 | 用于通过使用网格图依据二维图像生成立体图像的方法和装置 |
WO2010045498A1 (en) * | 2008-10-15 | 2010-04-22 | Invensense Inc. | Mobile devices with motion gesture recognition |
Also Published As
Publication number | Publication date |
---|---|
KR20130031499A (ko) | 2013-03-29 |
EP2574061A3 (en) | 2015-12-02 |
EP2574061A2 (en) | 2013-03-27 |
KR101830966B1 (ko) | 2018-02-22 |
CN103019504A (zh) | 2013-04-03 |
US20130069937A1 (en) | 2013-03-21 |
US9459785B2 (en) | 2016-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103019504B (zh) | 电子设备及其内容生成方法 | |
KR101728728B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR102080746B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR101674957B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101728725B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101688153B1 (ko) | 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기 | |
CN102088510B (zh) | 显示广播数据的方法和针对该方法的移动终端 | |
KR20140016495A (ko) | 휴대 단말기 및 그 제어 방법 | |
KR20120015165A (ko) | 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기 | |
KR20130074943A (ko) | 이동 단말기 및 그 제어방법 | |
KR20110054256A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120007195A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120048116A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120034303A (ko) | 이동 단말기 및 그 제어방법 | |
KR101723413B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101709500B1 (ko) | 이동 단말기 및 그 제어방법 | |
US8941648B2 (en) | Mobile terminal and control method thereof | |
KR20150068823A (ko) | 이동 단말기 | |
KR102026639B1 (ko) | 이동 단말기 및 그것의 제어방법 | |
KR101753033B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101850391B1 (ko) | 이동 단말기 및 그것의 제어 방법 | |
KR20130053476A (ko) | 휴대 단말기 및 그 제어 방법 | |
KR101289527B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR20110060125A (ko) | 이동 단말기 및 그 제어방법 | |
KR101882262B1 (ko) | 이동 단말기 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170704 Termination date: 20190904 |