CN106371782A - 移动终端及其控制方法 - Google Patents
移动终端及其控制方法 Download PDFInfo
- Publication number
- CN106371782A CN106371782A CN201610171899.2A CN201610171899A CN106371782A CN 106371782 A CN106371782 A CN 106371782A CN 201610171899 A CN201610171899 A CN 201610171899A CN 106371782 A CN106371782 A CN 106371782A
- Authority
- CN
- China
- Prior art keywords
- image
- controller
- mobile terminal
- shooting
- touch screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
移动终端及其控制方法。本发明涉及一种包括相机和触摸屏并且可在触摸屏上输出由相机捕获的图像的移动终端以及该移动终端的控制方法。该移动终端包括相机、传感器、存储器、触摸屏和控制器,该控制器被配置为使得触摸屏显示经由相机接收的第一图像,使得存储器暂时存储显示在触摸屏上的第一图像,响应于通过传感器感测到移动终端围绕包括在第一图像中的目标的第一运动来生成第二图像,该第二图像包括第一图像的至少部分与经由相机依次接收的多个连续图像的合并,并且该控制器使得存储器存储第二图像。
Description
技术领域
本公开涉及一种包括相机和触摸屏并且可在触摸屏上输出由相机捕获的图像的移动终端以及该移动终端的控制方法。
背景技术
通常,终端可根据可移动状态分成移动(便携式)终端和固定终端。移动终端还可根据用户的携带方法分成手持终端和车载终端。
随着终端的功能变得更多样化,终端可支持诸如捕获图像或视频、再现音乐或视频文件、玩游戏以及接收广播信号的更复杂的功能。通过全面地和共同地实现这些功能,移动终端可按照多媒体播放器或装置的形式具体实现。已做出各种尝试来利用硬件或软件在这种多媒体装置中实现复杂功能。
由于这种改进,移动终端利用设置在其主体中的相机来提供各种拍摄功能。全景拍摄用作所述各种拍摄功能的示例。全景拍摄是指一种拍摄在左、右、上和下方向上比一般照片长的照片以便在一张照片中拍摄大风景的技术。通常,将通过依次部分地拍摄目标而获得的多张照片在横向或纵向方向上彼此附接来完成全景照片。
由于通过将多张照片二维地合成来显示全景照片,所以全景照片无法提供足够的透视。另外,全景照片无法表现目标的三维空间感。原因在于,在全景拍摄中,不是通过绕目标旋转,而是通过绕相机旋转来拍摄目标周围的景物。
发明内容
因此,详细描述的一方面在于提供一种移动终端以及该移动终端的控制方法,其在没有任何特定控制命令的情况下通过拍摄连续图像来生成用户可感觉到目标的透视的处理图像(processed image)。
详细描述的另一方面在于提供一种移动终端以及该移动终端的控制方法,其可显示目标的多个图像并且基于用户的手势来控制所述多个图像。
详细描述的另一方面在于提供一种移动终端以及该移动终端的控制方法,其可根据包括在图像中的目标的类型来调节多个图像的再现速度。
为了实现这些和其它优点并且根据本说明书的目的,如本文具体实现和广义描述的,一种移动终端可包括相机、传感器、存储器、触摸屏和控制器,其中,控制器被配置为使得触摸屏显示经由相机接收的第一图像,使得存储器暂时存储显示在触摸屏上的第一图像,响应于通过传感器感测到移动终端围绕包括在第一图像中的目标的第一运动来生成第二图像,该第二图像包括第一图像的至少部分与经由相机依次接收的多个连续图像的合并,并且使得存储器存储第二图像。
根据实施方式,所述控制器还被配置为识别所述多个连续图像当中的第三图像,该第三图像是在第一运动结束的时间点接收的图像,并且当识别第三图像时,所述控制器使得触摸屏显示指引信息,该指引信息指示正在生成第二图像。
根据实施方式,所述多个连续图像中的每一个包括目标的图像,并且第一运动是围绕所述目标的至少阈值角度的旋转运动。
根据实施方式,所述控制器还被配置为响应于通过传感器感测到移动终端围绕目标的第二运动来完成第二图像的生成,所述第一运动在顺时针方向上,所述第二运动在逆时针方向上,或者所述第一运动在逆时针方向上,所述第二运动在顺时针方向上。
根据实施方式,所述控制器还被配置为使得触摸屏显示指示第二图像的指示物。
根据实施方式,所述控制器还被配置为围绕包括在第一图像中的目标的图像设定虚拟拍摄区域,并且将该虚拟拍摄区域划分成基于移动终端的运动执行拍摄的第一区域以及不执行拍摄的第二区域,并且使得触摸屏显示与第二图像对应的指示物,其中,所述指示物被配置为指引移动终端的向第一区域或第二区域中的至少一个中的运动。
根据实施方式,当指示物被配置为指引向第二区域中的运动时,目标被以各种角度拍摄。
根据实施方式,所述控制器还被配置为响应于在生成第二图像的同时从用户接收的拍摄命令,使得存储器存储通过相机捕获并且独立于第二图像显示在触摸屏上的第三图像,所述第三图像是静止图像。
根据实施方式,所述控制器还被配置为在预览图像显示在触摸屏上的同时使得触摸屏显示与独立地存储的第三图像对应的缩略图图像,并且所述缩略图图像随指示物一起显示在触摸屏上。
根据实施方式,所述控制器还被配置为当第二图像的生成完成时,使得存储器将第二图像与和第一区域或第二区域中的至少一个有关的信息一起存储,并且所述第二图像作为单个文件被存储。
根据实施方式,所述控制器还被配置为使得存储器存储与第一区域和第二区域有关的信息,使得所存储的信息与所存储的第二图像关联,所述控制器识别出通过相机捕获的预览图像包括与所存储的第二图像中所包括的目标图像匹配的目标图像,并且基于与第一区域和第二区域有关的所述信息使得触摸屏显示包括在第二图像中的所述多个连续图像当中的最后图像,以使得能够从所述最后图像继续目标的拍摄。
根据实施方式,所述预览图像和所述最后图像彼此交叠地显示。
根据实施方式,所述控制器还被配置为当预览图像与最后图像匹配时,响应于移动终端围绕目标的进一步运动,基于所存储的第二图像来生成第三图像。
根据实施方式,所述控制器还被配置为响应于用户输入通过以下步骤来使得触摸屏显示所存储的第二图像:获得包括在所存储的第二图像中的所述多个连续图像的虚拟中心点,并且使得触摸屏基于所述虚拟中心点依次显示所述多个连续图像。
根据实施方式,所述控制器还被配置为在第二图像被显示的同时使得触摸屏显示图形对象,并且所述图形对象被配置为针对所存储的第二图像的所有再现区段指引各个再现区段的拍摄属性。
根据实施方式,所述拍摄属性包括由相机和目标限定的拍摄角度、相机的移动方向、相机的移动速度或者相机的放大倍率中的至少一个。
根据实施方式,所述控制器还被配置为当所存储的第二图像被显示时,基于拍摄属性调节所述多个连续图像的再现速度。
根据实施方式,所述控制器还被配置为检测在所存储的第二图像被显示的同时通过传感器感测的移动终端的运动,并且使得触摸屏基于虚拟中心点按照与所检测的运动对应的顺序来显示包括在第二图像中的图像。
根据实施方式,所述控制器还被配置为在所存储的第二图像被显示的同时,当所检测到的运动满足预定条件时,使得触摸屏停止显示第二图像,并且显示所述多个连续图像和第一图像当中的一个图像。
根据实施方式,所述移动终端包括设置有触摸屏的前侧以及与所述前侧相对的后侧,所述相机包括设置在所述前侧的第一相机以及设置在所述后侧的第二相机,并且所述控制器还被配置为利用经由第二相机接收的图像来生成第二图像,同时利用通过第一相机捕获的图像来生成通过捕获外部环境而获得的全景图像。
根据实施方式,所述控制器还被配置为将第二图像与所述全景图像中的包括目标的图像的一部分组合。
根据本公开的移动终端及其控制方法具有如下优点。
根据本公开,可显示目标的多个图像,使得用户可感觉到目标的透视或空间感。因此,可提供更加立体的显示。另外,根据本公开的移动终端可响应于用户的手势直观地显示在各种角度拍摄的多个图像,并且与用户互相地显示所述多个图像。
另外,根据本公开,当在拍摄目标之后感测到在目标周围移动的主体的运动时,拍摄包括目标的多个图像。因此,可在不应用特定控制命令的情况下向用户提供用户可感觉到目标的透视的处理图像。
本申请的进一步的适用范围将从下文给出的详细描述而变得更明显。然而,应该理解,仅示意性地在指示本公开的优选实施方式的同时给出详细描述和具体示例,因为对于本领域技术人员而言,通过该详细描述,在本公开的精神和范围内的各种改变和修改将变得明显。
附图说明
附图被包括以提供对本公开的进一步理解,并且被并入本说明书并构成本说明书的一部分,附图示出了示例性实施方式并与说明书一起用于说明本公开的原理。
附图中:
图1A是根据示例性实施方式的移动终端的框图;
图1B和图1C是示出根据示例性实施方式的在不同方向看时移动终端的示例的概念图;
图2A和图2B是详细示出相机在目标周围移动的同时拍摄目标的情况的示图;
图3是示出生成并输出处理图像的控制方法的流程图;
图4A至图4D是示出连续地生成目标的多个图像的示例的示图;
图5A和图5B是示出基于用户的手势来控制处理图像的输出的方法的示图;
图6A是示出自动进入处理图像拍摄模式的移动终端的控制方法的流程图;
图6B是示出图6A的控制方法的概念图;
图7A至图7C是示出当连续地生成多个图像时提供指示物的方法的示图;
图8A至图8C是示出接着先前拍摄的处理图像之后拍摄新的处理图像的方法的示图;
图9是示出移动终端进入处理图像拍摄模式的示例性实施方式的示图;
图10A至图10E是示出当输出处理图像时指引拍摄属性的方法的示图;
图11A是示出显示要与另一类型的图像相区分的处理图像的方法作为输出图库的方法的示图;
图11B至图11D是示出当同时拍摄处理图像和静止图像时同时输出处理图像和静止图像的方法的示图;
图12A至图12C是示出当生成重复拍摄的区段(section)时输出处理图像的方法的示图;
图13A至图13C是示出根据目标的类型来调节处理图像的各个区段的再现速度的方法的示图;
图14A和图14B是示出同时输出不同的处理图像的方法的示图;
图15A是示出处理图像被用作锁定画面的示例性实施方式的示图;
图15B是示出处理图像被用作主画面页的背景画面的示例性实施方式的示图;
图16A和图16B是示出利用通过不同的相机拍摄的图像来生成处理图像的方法的示图;
图17A和图17B是示出将语音备忘录(memo)添加到处理图像的方法的示图;以及
图18A和图18B是示出基于对处理图像施加的触摸输入来控制处理图像的输出的方法的示图。
具体实施方式
现在将参照附图根据本文公开的示例性实施方式详细给出描述。为了参照附图简要描述,可为相同或等同的组件提供相同或相似的附图标号,其描述将不再重复。通常,诸如“模块”和“单元”的后缀可用于指代元件或组件。本文使用这种后缀仅是为了方便说明书的描述,后缀本身并非旨在给予任何特殊含义或功能。在本公开中,为了简明起见,本领域普通技术人员熟知的内容通常被省略。使用附图来帮助容易地理解各种技术特征,应该理解,本文呈现的实施方式不受附图的限制。因此,本公开应该被解释为扩展至附图中具体示出的更改形式、等同形式和替代形式以外的任何更改形式、等同形式和替代形式。
将理解,尽管本文中可能使用术语第一、第二等来描述各种元件,但是这些元件不应受这些术语的限制。这些术语通常仅用于将一个元件与另一元件相区分。
将理解,当元件被称作“与”另一元件“连接”时,该元件可与所述另一元件连接或者还可存在中间元件。相比之下,当元件被称作“与”另一元件“直接连接”时,不存在中间元件。
除非从上下文看出表示明确不同的含义,否则单数表示形式可包括多数表示形式。本文中使用诸如“包括”或“具有”的术语,应该理解它们旨在指示存在说明书中公开的多个组件、功能或步骤,还将理解同样可利用更多或更少的组件、功能或步骤。
本文呈现的移动终端可利用各种不同类型的终端来实现。这些终端的示例包括蜂窝电话、智能电话、用户设备、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、石板PC、平板PC、超级本、可穿戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等。
仅作为非限制性示例,参照特定类型的移动终端进行进一步描述。然而,这些教导同样适用于其它类型的终端,例如上述那些类型。另外,这些教导也可适用于诸如数字TV、台式计算机等的固定终端。
现在参照图1A至图1C,其中图1A是根据本公开的移动终端的框图,图1B和图1C是从不同方向看时移动终端的一个示例的概念图。
移动终端100被示出为具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180和电源单元190的组件。将理解,不要求实现所示的所有组件,可另选地实现更多或更少的组件。
现在参照图1A,移动终端100被示出为具有无线通信单元110,该无线通信单元110配置有多个通常实现的组件。例如,无线通信单元110通常包括允许移动终端100与无线通信系统或者移动终端所在的网络之间的无线通信的一个或更多个组件。
无线通信单元110通常包括允许通信(例如,移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端之间的通信、移动终端100与外部服务器之间的通信)的一个或更多个模块。另外,无线通信单元110通常包括将移动终端100连接到一个或更多个网络的一个或更多个模块。
为了方便这些通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线互联网模块113、短距离通信模块114和位置信息模块115中的一个或更多个。
输入单元120包括用于获得图像或视频的相机121、麦克风122(是用于输入音频信号的一种音频输入装置)以及用于使得用户能够输入信息的用户输入单元123(例如,触摸键、按键、机械键、软键等)。数据(例如,音频、视频、图像等)通过输入单元120来获得,并且可由控制器180根据装置参数、用户命令及其组合来分析和处理。
感测单元140通常利用被配置为感测移动终端的内部信息、移动终端的周围环境、用户信息等的一个或更多个传感器来实现。例如,在图1A中,感测单元140被示出为具有接近传感器141和照明传感器142。
如果需要,感测单元140可另选地或另外地包括其它类型的传感器或装置,例如触摸传感器、加速度传感器、磁传感器、重力传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池电量计、环境传感器(例如,气压计、湿度计、温度计、辐射检测传感器、热传感器和气体传感器等)和化学传感器(例如,电子鼻、保健传感器、生物传感器等)等。移动终端100可被配置为利用从感测单元140获得的信息,具体地讲,从感测单元140的一个或更多个传感器获得的信息,及其组合。
输出单元150通常被配置为输出各种类型的信息,例如音频、视频、触觉输出等。输出单元150被示出为具有显示单元151、音频输出模块152、触觉模块153和光学输出模块154。
显示单元151可具有与触摸传感器的中间层结构或集成结构,以便方便触摸屏。触摸屏可在移动终端100与用户之间提供输出接口,并且用作在移动终端100与用户之间提供输入接口的用户输入单元123。
接口单元160用作与可连接到移动终端100的各种类型的外部装置的接口。例如,接口单元160可包括任何有线或无线端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。在一些情况下,移动终端100可响应于外部装置连接到接口单元160而执行与连接的外部装置关联的各种控制功能。
存储器170通常被实现为存储用于支持移动终端100的各种功能或特征的数据。例如,存储器170可被配置为存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或指令等。这些应用程序中的一些应用程序可经由无线通信从外部服务器下载。其它应用程序可在制造或出厂时安装在移动终端100内,针对移动终端100的基本功能(例如,接电话、打电话、接收消息、发送消息等),通常是这种情况。常见的是,应用程序被存储在存储器170中,被安装在移动终端100中,并由控制器180执行以执行移动终端100的操作(或功能)。
除了与应用程序关联的操作以外,控制器180通常还用于控制移动终端100的总体操作。控制器180可通过对由图1A所示的各种组件输入或输出的信号、数据、信息等进行处理、或者激活存储在存储器170中的应用程序,来提供或处理适合于用户的信息或功能。作为一个示例,控制器180根据存储在存储器170中的应用程序的执行来控制图1A至图1C所示的一些或全部组件。
电源单元190可被配置为接收外部电力或提供内部电力,以便供应对包括在移动终端100中的元件和组件进行操作所需的适当电力。电源单元190可包括电池,所述电池可被配置为嵌入终端主体中,或者被配置为可从终端主体拆卸。
至少一些上述组件可按照协作方式来操作,以实现根据稍后要说明的各种实施方式的眼镜型终端的操作或控制方法。眼镜型终端的操作或控制方法可通过驱动存储在存储器170中的至少一个应用程序来在眼镜型终端上实现。
仍参照图1A,现在将更详细地描述该图中描绘的各种组件。关于无线通信单元110,广播接收模块111通常被配置为经由广播频道从外部广播管理实体接收广播信号和/或广播相关信息。广播频道可包括卫星频道、地面频道或这二者。在一些实施方式中,可使用两个或更多个广播接收模块111以方便同时接收两个或更多个广播频道或支持在广播频道之间切换。
移动通信模块112可向一个或更多个网络实体发送无线信号和/或从其接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等。这些网络实体形成移动通信网络的一部分,所述移动通信网络根据移动通信的技术标准或通信方法(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA 2000(码分多址2000)、EV-DO(增强型优化语音数据或增强型仅语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等)来构建。经由移动通信模块112发送和/或接收的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号或者支持文本和多媒体消息的通信的各种格式的数据。
无线互联网模块113被配置为方便无线互联网接入。此模块可从内部或外部连接到移动终端100。无线互联网模块113可根据无线互联网技术经由通信网络发送和/或接收无线信号。
这种无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(WiBro)、全球微波接入互操作性(WiMAX)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等。无线互联网模块113可根据这些无线互联网技术以及其它互联网技术中的一个或更多个来发送/接收数据。
在一些实施方式中,当根据(例如)WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LET、LTE-A等实现无线互联网接入时,作为移动通信网络的一部分,无线互联网模块113执行这种无线互联网接入。因此,互联网模块113可与移动通信模块112协作或用作移动通信模块112。
短距离通信模块114被配置为方便短距离通信。用于实现这些短距离通信的合适的技术包括BLUETOOTHTM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、ZigBee、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等。短距离通信模块114通常经由无线局域网支持移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端100之间的通信或者移动终端与另一移动终端100(或外部服务器)所在的网络之间的通信。无线局域网的一个示例是无线个域网。
在一些实施方式中,另一移动终端(可类似于移动终端100来配置)可以是能够与移动终端100交换数据(或者与移动终端100协作)的可穿戴装置(例如,智能手表、智能眼镜或头戴式显示器(HMD))。短距离通信模块114可感测或识别可穿戴装置,并允许可穿戴装置与移动终端100之间的通信。另外,当所感测到的可穿戴装置是被验证与移动终端100进行通信的装置时,例如,控制器180可经由短距离通信模块114将在移动终端100中处理的数据发送给可穿戴装置。因此,可穿戴装置的用户可在可穿戴装置上使用在移动终端100中处理的数据。例如,当在移动终端100中接到电话时,用户可利用可穿戴装置来回电话。另外,当在移动终端100中接收到消息时,用户可利用可穿戴装置来查看所接收到的消息。
位置信息模块115通常被配置为检测、计算、推导或者标识移动终端的位置。例如,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块或这二者。如果需要,位置信息模块115可另选地或另外地与无线通信单元110的任何其它模块一起工作,以获得与移动终端的位置有关的数据。
作为一个示例,当移动终端使用GPS模块时,可利用从GPS卫星发送的信号来获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,可基于与无线接入点(AP)有关的信息来获取移动终端的位置,所述无线接入点(AP)向Wi-Fi模块发送无线信号或从Wi-Fi模块接收无线信号。
输入单元120可被配置为允许向移动终端120的各种类型的输入。这种输入的示例包括音频、图像、视频、数据和用户输入。图像和视频输入常常利用一个或更多个相机121来获得。这些相机121可对在视频或图像捕获模式下通过图像传感器获得的静止画面或视频的图像帧进行处理。经处理的图像帧可被显示在显示单元151上或存储在存储器170中。在一些情况下,相机121可按照矩阵配置布置,以使得具有各种角度或焦点的多个图像能够被输入至移动终端100。作为另一示例,相机121可按照立体布置方式来设置,以获取用于实现立体图像的左图像和右图像。
麦克风122通常被实现为允许向移动终端100输入音频。可根据移动终端100中执行的功能来按照各种方式处理音频输入。如果需要,麦克风122可包括各种噪声去除算法以去除在接收外部音频的过程中生成的不期望的噪声。
用户输入单元123是允许用户输入的组件。这种用户输入可使得控制器180能够控制移动终端100的操作。用户输入单元123可包括机械输入元件(例如,位于移动终端100的正面和/或背面或侧面的键、按钮、薄膜开关、滚轮、触合式开关等)或者触敏输入装置等中的一个或更多个。作为一个示例,触敏输入装置可以是通过软件处理显示在触摸屏上的虚拟键或软键、或者设置在移动终端上的触摸屏以外的位置处的触摸键。另一方面,虚拟键或视觉键可按照各种形状(例如,图形、文本、图标、视频或其组合)显示在触摸屏上。
感测单元140通常被配置为感测移动终端的内部信息、移动终端的周围环境信息、用户信息等中的一个或更多个。控制器180通常与感测单元140协作以基于感测单元140所提供的感测来控制移动终端100的操作或者执行与安装在移动终端中的应用程序关联的数据处理、功能或操作。可利用各种传感器中的任何传感器来实现感测单元140,现在将更详细地描述其中一些传感器。
接近传感器141可包括在没有机械接触的情况下,利用电磁场、红外线等来感测是否存在靠近表面的物体或者位于表面附近的物体的传感器。接近传感器141可布置在移动终端的被触摸屏覆盖的内侧区域处或触摸屏附近。
例如,接近传感器141可包括透射型光电传感器、直接反射型光电传感器、反射镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等中的任何传感器。当触摸屏被实现为电容型时,接近传感器141可通过电磁场响应于导电物体的靠近而发生的变化来感测指点器相对于触摸屏的接近。在这种情况下,触摸屏(触摸传感器)也可被归类为接近传感器。
本文中常常将提及术语“接近触摸”以表示指点器被设置成在没有接触触摸屏的情况下接近触摸屏的情景。本文中常常将提及术语“接触触摸”以表示指点器与触摸屏进行物理接触的情景。对于与指点器相对于触摸屏的接近触摸对应的位置,这种位置将对应于指点器垂直于触摸屏的位置。接近传感器141可感测接近触摸以及接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等)。
通常,控制器180对与接近传感器141所感测的接近触摸和接近触摸模式对应的数据进行处理,并在触摸屏上输出视觉信息。另外,控制器180可根据对触摸屏上的点的触摸是接近触摸还是接触触摸来控制移动终端100执行不同的操作或处理不同的数据。
触摸传感器可利用各种触摸方法中的任何触摸方法来感测施加到触摸屏(例如,显示单元151)的触摸。这些触摸方法的示例包括电阻型、电容型、红外型和磁场型等。
作为一个示例,触摸传感器可被配置为将施加到显示单元151的特定部分的压力的变化或者在显示单元151的特定部分处发生的电容的变化转换为电输入信号。触摸传感器还可被配置为不仅感测触摸位置和触摸面积,而且感测触摸压力和/或触摸电容。通常使用触摸物体来对触摸传感器施加触摸输入。典型的触摸物体的示例包括手指、触摸笔、手写笔、指点器等。
当通过触摸传感器感测到触摸输入时,可将对应信号发送给触摸控制器。触摸控制器可对所接收到的信号进行处理,然后将对应数据发送给控制器180。因此,控制器180可感测显示单元151的哪一区域被触摸。这里,触摸控制器可以是独立于控制器180的组件、控制器180及其组合。
在一些实施方式中,控制器180可根据对触摸屏或者除触摸屏以外设置的触摸键进行触摸的触摸物体的类型来执行相同或不同的控制。例如,根据提供触摸输入的物体是执行相同的控制还是不同的控制可基于移动终端100的当前操作状态或者当前执行的应用程序来决定。
触摸传感器和接近传感器可单独实现或者组合实现,以感测各种类型的触摸。这些触摸包括短(或轻敲)触摸、长触摸、多触摸、拖曳触摸、轻拂触摸、缩小触摸、放大触摸、轻扫触摸、悬停触摸等。
如果需要,可实现超声传感器以利用超声波来识别与触摸物体有关的位置信息。例如,控制器180可基于由照明传感器和多个超声传感器感测的信息来计算波生成源的位置。由于光远比超声波快,所以光到达光学传感器的时间远比超声波到达超声传感器的时间短。可利用这一事实来计算波生成源的位置。例如,可基于光作为基准信号利用相对于超声波到达传感器的时间的时间差来计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等)、光电传感器(或图像传感器)和激光传感器。
利用激光传感器实现相机121可允许检测物理对象相对于3D立体图像的触摸。光电传感器可被层合在显示装置上或者与显示装置交叠。光电传感器可被配置为对接近触摸屏的物理对象的移动进行扫描。更详细地讲,光电传感器可包括成行和列的光电二极管和晶体管,以利用根据施加的光的量而变化的电信号来对光电传感器处接收的内容进行扫描。即,光电传感器可根据光的变化来计算物理对象的坐标,从而获得物理对象的位置信息。
显示单元151通常被配置为输出在移动终端100中处理的信息。例如,显示单元151可显示在移动终端100处执行的应用程序的执行画面信息或者响应于执行画面信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施方式中,显示单元151可被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等的立体显示方案。
音频输出模块152通常被配置为输出音频数据。这些音频数据可从多种不同的源中的任何源获得,使得所述音频数据可从无线通信单元110接收或者可存储在存储器170中。所述音频数据可在诸如信号接收模式、呼叫模式、录制模式、语音识别模式、广播接收模式等的模式下输出。音频输出模块152可提供与移动终端100所执行的特定功能有关的可听输出(例如,呼叫信号接收音、消息接收音等)。音频输出模块152还可被实现为受话器、扬声器、蜂鸣器等。
触觉模块153可被配置为产生用户感觉、感知或者体验的各种触觉效果。由触觉模块153产生的触觉效果的典型示例是振动。由触觉模块153产生的振动的强度、模式等可通过用户选择或控制器的设定来控制。例如,触觉模块153可按照组合方式或顺序方式输出不同的振动。
除了振动以外,触觉模块153可产生各种其它触觉效果,包括诸如插针排列向接触皮肤垂直移动、通过喷射孔或抽吸开口的空气的喷射力或抽吸力、对皮肤的触摸、电极的接触、静电力等的刺激效果、利用能够吸热或发热的元件再现冷和热的感觉的效果等。
除了通过直接接触传递触觉效果以外,触觉模块153还可被实现为使得用户能够通过诸如用户的手指或手臂的肌肉觉来感觉到触觉效果。可根据移动终端100的特定配置设置两个或更多个触觉模块153。
光学输出模块154可输出用于利用光源的光指示事件的发生的信号。移动终端100中发生的事件的示例可包括消息接收、呼叫信号接收、未接呼叫、闹钟、日程提醒、电子邮件接收、通过应用的信息接收等。
由光学输出模块154输出的信号可被实现为使得移动终端发射单色光或多种颜色的光。例如,随着移动终端感测到用户已查看所发生的事件,信号输出可被终止。
接口单元160用作要与移动终端100连接的外部装置的接口。例如,接口单元160可接收从外部装置发送来的数据,接收电力以输送给移动终端100内的元件和组件,或者将移动终端100的内部数据发送给这种外部装置。接口单元160可包括有线或无线头戴式耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
所述标识模块可以是存储用于验证移动终端100的使用权限的各种信息的芯片,并且可包括用户标识模块(UIM)、订户标识模块(SIM)、全球订户标识模块(USIM)等。另外,具有标识模块的装置(本文中也称作“标识装置”)可采取智能卡的形式。因此,标识装置可经由接口单元160与终端100连接。
当移动终端100与外部托架连接时,接口单元160可用作使得能够将来自托架的电力供应给移动终端100的通道,或者可用作使得能够用来将由用户从托架输入的各种命令信号输送给移动终端的通道。从托架输入的各种命令信号或电力可用作用于识别出移动终端被正确安装在托架上的信号。
存储器170可存储用于支持控制器180的操作的程序,并且存储输入/输出数据(例如,电话簿、消息、静止图像、视频等)。存储器170可存储与响应于触摸屏上的触摸输入而输出的各种模式的振动和音频有关的数据。
存储器170可包括一种或更多种类型的存储介质,包括闪存、硬盘、固态盘、硅磁盘、微型多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等。移动终端100还可与在诸如互联网的网络上执行存储器170的存储功能的网络存储装置有关地操作。
控制器180通常可控制移动终端100的总体操作。例如,当移动终端的状态满足预设条件时,控制器180可设定或解除用于限制用户相对于应用输入控制命令的锁定状态。
控制器180还可执行与语音呼叫、数据通信、视频呼叫等关联的控制和处理,或者执行模式识别处理以将触摸屏上进行的手写输入或绘画输入分别识别为字符或图像。另外,控制器180可控制那些组件中的一个或其组合,以便实现本文公开的各种示例性实施方式。
电源单元190接收外部电力或提供内部电力,并且供应对包括在移动终端100中的各个元件和组件进行操作所需的适当电力。电源单元190可包括电池,该电池通常是可再充电的或者以可拆卸的方式连接到终端主体以便于充电。
电源单元190可包括连接端口。该连接端口可被配置为接口单元160的一个示例,用于供应电力以对电池进行再充电的外部充电器可电连接到该连接端口。
作为另一示例,电源单元190可被配置为以无线方式对电池进行再充电,而不使用连接端口。在此示例中,电源单元190可利用基于磁感应的电感耦合方法或基于电磁共振的磁共振耦合方法中的至少一种来接收从外部无线电力发射器输送的电力。
本文所述的各种实施方式可利用(例如)软件、硬件或其任何组合来在计算机可读介质、机器可读介质或类似介质中实现。
现在参照图1B和图1C,参照直板型终端主体描述移动终端100。然而,另选地,移动终端100可按照各种不同的配置中的任何配置来实现。这些配置的示例包括手表型、夹子型、眼镜型或者折叠型、翻盖型、滑盖型、旋转型和摆动型(其中两个和更多个主体按照能够相对移动的方式彼此组合)或其组合。本文的讨论将常常涉及特定类型的移动终端(例如,直板型、手表型、眼镜型等)。然而,关于特定类型的移动终端的这些教导将通常也适用于其它类型的移动终端。
移动终端100将通常包括形成终端的外观的壳体(例如,框架、外壳、盖等)。在此实施方式中,壳体利用前壳体101和后壳体102形成。各种电子组件被包含在前壳体101与后壳体102之间所形成的空间中。另外,可在前壳体101与后壳体102之间设置至少一个中间壳体。
显示单元151被示出为在终端主体的前侧以输出信息。如图所示,显示单元151的窗口151a可被安装到前壳体101以与前壳体101一起形成终端主体的前表面。
在一些实施方式中,电子组件也可被安装到后壳体102。这些电子组件的示例包括可拆卸电池191、标识模块、存储卡等。后盖103被示出为盖住电子组件,该盖可以可拆卸地连接到后壳体102。因此,当将后盖103从后壳体102拆卸时,安装到后壳体102的电子组件暴露于外。
如图所示,当后盖103连接到后壳体102时,后壳体102的侧表面部分地暴露。在一些情况下,在连接时,后壳体102也可被后盖103完全遮蔽。在一些实施方式中,后盖103可包括开口以用于将相机121b或音频输出模块152b暴露于外。
壳体101、102、103可通过合成树脂的注塑成型来形成,或者可由例如不锈钢(STS)、铝(Al)、钛(Ti)等的金属形成。
作为多个壳体形成用于容纳组件的内部空间的示例的另选方式,移动终端100可被配置为使得一个壳体形成该内部空间。在此示例中,具有单一体的移动终端100被形成为使得合成树脂或金属从侧表面延伸至后表面。
如果需要,移动终端100可包括用于防止水进入终端主体中的防水单元(未示出)。例如,防水单元可包括位于窗口151a与前壳体101之间、前壳体101与后壳体102之间、或者后壳体102与后盖103之间的防水构件,以在那些壳体连接时将内部空间密封。
图1B和图1C描绘了布置在移动终端上的特定组件。然而,将理解,另选布置方式也是可能的并且在本公开的教导内。一些组件可被省略或重新布置。例如,第一操纵单元123a可设置在终端主体的另一表面上,第二音频输出模块152b可设置在终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。显示单元151可利用一个或更多个合适的显示装置来实现。这些合适的显示装置的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、电子墨水显示器及其组合。
可利用两个显示装置(可实现相同或不同的显示技术)来实现显示单元151。例如,多个显示单元151可被布置在一侧,彼此间隔开或者这些装置可被集成,或者这些装置可被布置在不同的表面上。
显示单元151还可包括触摸传感器,其感测在显示单元处接收的触摸输入。当触摸被输入到显示单元151时,触摸传感器可被配置为感测该触摸,并且控制器180(例如)可生成与该触摸对应的控制命令或其它信号。以触摸方式输入的内容可以是文本或数值或者是可按照各种模式指示或指定的菜单项。
触摸传感器可按照设置在窗口151a与窗口151a的后表面上的显示器之间的具有触摸图案的膜或者直接图案化在窗口151a的后表面上的金属丝的形式来配置。另选地,触摸传感器可与显示器一体地形成。例如,触摸传感器可设置在显示器的基板上或者显示器内。
显示单元151还可与触摸传感器一起形成触摸屏。这里,触摸屏可用作用户输入单元123(参见图1A)。因此,触摸屏可代替第一操纵单元123a的至少一些功能。
第一音频输出模块152a可按照扬声器的形式来实现以输出语音音频、报警音、多媒体音频再现等。
显示单元151的窗口151a通常将包括孔径以允许由第一音频输出模块152a生成的音频通过。一个另选方式是允许音频沿着结构体之间的装配间隙(例如,窗口151a与前壳体101之间的间隙)来释放。在这种情况下,从外观上看,独立地形成以输出音频音的孔不可见或者被隐藏,从而进一步简化移动终端100的外观和制造。
光学输出模块154可被配置为输出用于指示事件发生的光。这些事件的示例包括消息接收、呼叫信号接收、未接呼叫、闹钟、日程提醒、电子邮件接收、通过应用的信息接收等。当用户已查看发生的事件时,控制器可控制光学输出模块154停止光输出。
第一相机121a可处理由图像传感器在捕获模式或者视频呼叫模式下获得的图像帧(例如,静止图像或运动图像)。然后,经处理的图像帧可被显示在显示单元151上或者被存储在存储器170中。
第一操纵单元123a和第二操纵单元123b是用户输入单元123的示例,其可由用户操纵以提供对移动终端100的输入。第一操纵单元123a和第二操纵单元123b还可被共同称作操纵部分,并且可采用允许用户执行诸如触摸、推按、滚动等的操纵的任何触觉方法。第一操纵单元123a和第二操纵单元123b还可采用允许用户执行诸如接近触摸、悬停等的操纵的任何非触觉方法。
图1B将第一操纵单元123a示出为触摸键,但可能的另选方式包括机械键、按键、触摸键及其组合。
在第一操纵单元123a和第二操纵单元123b处接收的输入可按照各种方式来使用。例如,用户可使用第一操纵单元123a来提供对菜单、主屏键、取消、搜索等的输入,用户可使用第二操纵单元123b来提供输入以控制从第一音频输出模块152a或第二音频输出模块152b输出的音量、切换为显示单元151的触摸识别模式等。
作为用户输入单元123的另一示例,后输入单元(未示出)可被设置在终端主体的后表面上。用户可操纵后输入单元以提供对移动终端100的输入。所述输入可按照各种不同的方式来使用。例如,用户可使用后输入单元来提供输入以进行电源开/关、开始、结束、滚动、控制从第一音频输出模块152a或第二音频输出模块152b输出的音量、切换为显示单元151的触摸识别模式等。后输入单元可被配置为允许触摸输入、推按输入或其组合。
后输入单元可被设置为在终端主体的厚度方向上与前侧的显示单元151交叠。作为一个示例,后输入单元可被设置在终端主体的后侧的上端部,使得当用户用一只手抓握终端主体时用户可利用食指容易地操纵后输入单元。另选地,后输入单元可至多被设置在终端主体的后侧的任何位置。
包括后输入单元的实施方式可将第一操纵单元123a的一些或全部功能实现在后输入单元中。因此,在从前侧省略第一操纵单元123a的情况下,显示单元151可具有更大的屏幕。
作为另一另选方式,移动终端100可包括扫描用户的指纹的手指扫描传感器。然后控制器180可使用由手指扫描传感器感测到的指纹信息作为验证程序的一部分。手指扫描传感器也可被安装在显示单元151中或实现在用户输入单元123中。
麦克风122被示出为设置在移动终端100的端部,但是其它位置也是可能的。如果需要,可实现多个麦克风,这种布置方式允许接收立体声。
接口单元160可用作允许移动终端100与外部装置进行接口的路径。例如,接口单元160可包括用于连接到另一装置(例如,耳机、外部扬声器等)的连接端子、用于近场通信的端口(例如,红外数据联盟(IrDA)端口、蓝牙端口、无线LAN端口等)、或者用于向移动终端100供电的电源端子中的一个或更多个。接口单元160可按照用于容纳外部卡(例如,订户标识模块(SIM)、用户标识模块(UIM)或者用于信息存储的存储卡)的插槽的形式来实现。
第二相机121b被示出为设置在终端主体的后侧,并且其图像捕获方向基本上与第一相机单元121a的图像捕获方向相反。如果需要,可另选地将第二相机121b设置在其它位置或者使其能够移动,以便具有不同于所示的图像捕获方向的图像捕获方向。
第二相机121b可包括沿着至少一条线布置的多个镜头。所述多个镜头还可按照矩阵配置来布置。这些相机可被称作“阵列相机”。当第二相机121b被实现为阵列相机时,可利用多个镜头以各种方式捕获图像,并且图像具有更好的质量。
如图1C所示,闪光灯124被示出为与第二相机121b相邻。当利用相机121b捕获目标的图像时,闪光灯124可对目标进行照明。
如图1B所示,可在终端主体上设置第二音频输出模块152b。第二音频输出模块152b可结合第一音频输出模块152a实现立体声功能,并且还可用于实现呼叫通信的免提模式。
用于无线通信的至少一个天线可设置在终端主体上。所述天线可安装在终端主体中或者可由壳体形成。例如,构成广播接收模块111的一部分的天线可收缩到终端主体中。另选地,天线可利用附着到后盖103的内表面的膜或者包含导电材料的壳体来形成。
用于向移动终端100供电的电源单元190可包括电池191,该电池191被安装在终端主体中或者可拆卸地连接到终端主体的外部。电池191可经由连接到接口单元160的电源线来接收电力。另外,电池191可利用无线充电器以无线方式再充电。无线充电可通过磁感应或电磁共振来实现。
后盖103被示出为连接到后壳体102以用于遮蔽电池191,以防止电池191分离并保护电池191免受外部冲击或异物的影响。当电池191能够从终端主体拆卸时,后壳体103可以可拆卸地连接到后壳体102。
在移动终端100上可另外设置用于保护外观或者辅助或扩展移动终端100的功能的附件。作为附件的一个示例,可设置用于覆盖或容纳移动终端100的至少一个表面的盖或袋。所述盖或袋可与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于辅助或扩展对触摸屏的触摸输入的触摸笔。
将再次描述相机121和触摸屏151。通过相机121捕获的图像在控制器180的控制下被实时地输出在触摸屏151上。
控制器180可提供与相机121有关的各种拍摄功能,所述各种拍摄功能之一是全景拍摄。控制器180通过在横向或纵向方向上将相机121在移动的同时捕获的多张照片彼此附接来完成全景照片。另外,控制器180可将在相同的地点拍摄的照片重构为3D全景运动照片。
全景拍摄是一种通过将相机绕拍摄者旋转最多360度来拍摄拍摄者周围的环境的技术。全景拍摄用于拍摄景物。即,用户在移动相机121的同时拍摄远距离处的目标,从而获取全景照片或者全景运动照片。
然而,全景拍摄采用这样的方法:通过相机121捕获的图像被二维地展开,而不管从相机的位置到背景的距离如何,因此拍摄者没有感觉到任何透视。因此,在提供目标的透视或空间感方面存在限制。
例如,随着在线购物变得流行,在线销售的产品的图像的重要性变得更高。由于购买者无法触摸到实际产品,所以购买者仅基于实际产品的图像来确定是否购买该实际产品。因此,用户对能够拍摄或显示产品的多个图像以使得用户可感觉到产品的空间感的移动终端的需求引起关注。
本公开提供了一种可拍摄并输出目标的多个图像,使得用户可感觉到目标的透视的移动终端以及该移动终端的控制方法。具体地讲,本公开提供了一种移动终端以及该移动终端的控制方法,其可围绕目标在左、右、上和下方向上连续地拍摄目标的多个图像,并且输出所拍摄的多个图像以使得用户可感觉到目标的透视。
图2A和图2B是详细示出相机在目标周围移动的同时拍摄目标的情况的示图。
如图2A所示,当拍摄目标200的3D照片时,拍摄者要在围绕目标旋转的同时执行拍摄。即,用户要在围绕目标移动的同时利用设置在移动终端中的相机来拍摄目标的多个图像。
为了通过多个图像形成目标的透视,通过从预定距离以各种角度拍摄目标来获得多个图像。即,在相机维持距目标200预定距离的状态下相机要在左、右、上和下方向上移动的同时执行360度拍摄。例如,如图2B所示,用户可在按照A→F的顺序移动的同时连续地拍摄目标200,或者可不连续地拍摄与A至F对应的图像,而不管拍摄顺序如何。
在这种情况下,当用户在按照A→F的顺序移动的同时连续地拍摄目标200时,用户可拍摄与A或F对应的静止图像,或者可拍摄静止图像作为运动照片。由于运动照片由多个静止图像组成,所以下文将提及的多个图像包括运动照片。
用户在围绕目标200移动的同时拍摄的多个图像形成虚拟视图210,虚拟视图210形成目标200的透视。如果所述多个图像被依次输出在触摸屏151上,则用户感觉到就像用户观看虚拟视图210一样,并且感觉到目标200的透视。
此外,所述多个图像具有唯一的位置信息以用于形成虚拟视图210。具体地讲,控制器180可在拍摄中获取图像,同时计算与所获取的图像对应的位置信息。
作为示例,当用户在按照A→F的顺序移动的同时连续地拍摄目标200的图像时,控制器180可利用感测单元(参见图1A)所生成的信号来感测从A移动至F的主体的运动。控制器180利用感测单元140来提取主体的相对运动值,并且通过分析图像来计算A至F的相对位置。
作为另一示例,当用户按照任意顺序不连续地拍摄与A至F对应的图像时,控制器180可利用位置信息模块115(参见图1A)获取执行拍摄时的位置信息。控制器180利用通过GPS等提供的绝对位置信息来计算多个图像拍摄的位置,因此可形成虚拟视图210,而不管拍摄顺序如何。
为了计算位置信息,感测单元140包括加速度传感器、磁传感器、重力传感器和陀螺仪传感器中的至少一个,从而感测主体的运动。
另外,感测单元140可包括惯性测量单元(IMU)以感测主体的倾斜。IMU感测绕彼此垂直的三个方向轴的旋转。绕Y轴、X轴和Z轴的旋转可分别被定义为横滚运动、俯仰运动和偏航运动。IMU可测量绕三个轴的旋转的角速度。
此外,虚拟视图210可被改变为或被表现为2D处理图像。换言之,控制器180可利用具有唯一位置信息的多个图像来生成处理图像220。处理图像220由基于中心点230布置的多个图像A至F组成。多个图像的布置方式由多个图像的唯一位置信息确定。
在这种情况下,所述多个图像可包括基于目标200交叠的区域,并且处理图像220可被表现为使得所述多个图像交叠。例如,如果用户在缓慢移动的同时拍摄目标200,则所述多个图像包括与目标200交叠的区域。在这种情况下,控制器180可利用创建全景照片的技术来生成处理图像220。
以下,将参照图3和图4A至图4D详细描述生成并输出处理图像的方法。
图3是示出生成并输出处理图像的控制方法的流程图。图4A至图4D是示出连续地生成目标的多个图像的示例的示图。
首先,控制器180将在主体围绕目标移动的同时通过相机121拍摄的多个图像存储在存储器170中(S310)。相机121可对应于移动终端100的前相机121a或后相机121b。
在这种情况下,通过相机121捕获的图像可被实时地输出在触摸屏151上。即,随着通过相机121捕获的预览图像输出在触摸屏151上,用户可识别要拍摄的图像。
接收用于控制相机121的功能的触摸输入的多个图形图像可输出在预览图像上。例如,触摸屏151可包括接收用于将预览图像存储在存储器170中的触摸输入的拍摄图标。
如果对拍摄图标施加触摸输入,则控制器180获取施加触摸输入时的预览图像,并且将所获取的预览图像存储在存储器170中。控制器180可在触摸屏151上输出与所存储的预览图像对应的缩略图图标。在存储预览图像之后,控制器180可在触摸屏151上连续地输出所拍摄的图像,或者可再次输出通过相机121捕获的当前预览图像。
此外,用户可在围绕目标在纬度方向和/或经度方向上移动移动终端100的同时连续地拍摄目标。随着主体在纬度方向和/或经度方向上移动的同时生成多个图像,控制器180利用感测单元140所生成的信号来计算各个图像的位置信息并且将所生成的图像以及与其对应的位置信息存储在存储器170(参见图1)中。
这里,赤道、纬度和经度是指表示具有虚拟轴的虚拟球体的坐标轴。赤道是指被切割以相对于虚拟轴垂直地经过球体中心的平面与球体表面之间的相交线。纬度是指与赤道平行垂直地绘制的线。经度是指与虚拟轴平行横向绘制的线。例如,虚拟轴可以是旋转轴,虚拟球体可以是图2B中描述的虚拟视图201。
纬度方向上的运动是指围绕目标在上/下方向上的运动,经度方向上的运动是指围绕目标在左/右方向上的运动。纬度和经度方向上的运动是指纬度和经度同时改变的运动。
然而,为了描述方便而提供了坐标轴,根据本公开的移动终端不必限于所述坐标轴。即,主体的运动不仅包括在相机121和目标维持预定距离的同时主体旋转地移动的情况,而且包括主体笔直地移动而不管相机121与目标之间的距离的情况。
接下来,控制器180计算所拍摄的图像的中心点(S320)。
需要中心点以使得形成处理图像的多个图像被显示为在一个触摸屏151上具有透视。这是因为根据本公开的移动终端显示多个图像以基于中心点在上/下/左/右/前/后方向上移动。因此,用户可通过目标的多个图像感觉到目标的透视或空间感。
控制器180利用包括在多个图像中的位置信息来计算通过所述多个图像限定的虚拟中心点。
图4A示出在有经度差异,纬度没有任何改变的情况下拍摄目标的示例。如果图4A中拍摄的多个图像被显影,则所述多个图像示出于图4B中。另一方面,图4C示出纬度和经度一起改变的示例。如果图4C中拍摄的多个图像被显影,则所述多个图像示出于图4D中。因此,可以看出,处理图像的中心点C1和C2根据所拍摄的图像而改变。
如果如图4B或图4D所示生成目标的多个图像,则可形成与主体的运动对应的大量静止图像展开的形式的处理图像。具体地讲,控制器180可提取外切多个图像的最小矩形,并且将所提取的矩形的中心点设定为用于输出处理图像的基准点。
接下来,控制器180可基于中心点显示处理图像(S330)。
处理图像(或者虚拟图像)由目标的多个图像组成,所述多个图像基于通过所述多个图像计算的中心点来依次显示。具体地讲,控制器180基于所计算出的中心点在触摸屏151上依次输出包括在处理图像中的所述多个图像。
这里,“显示处理图像”或者“输出处理图像”意指构成处理图像的多个图像中的任一个被显示在触摸屏151上。即,处理图像由通过以各种角度拍摄目标而获得的多个图像组成。在这种情况下,所述多个图像当中的以特定角度拍摄的任一个图像作为处理图像被输出。
构成处理图像的所述多个图像是通过以各种角度拍摄目标而获得的图像,各个图像包括关于目标的相对或绝对位置信息。由于所述多个图像基于中心点被依次显示,所以用户可感觉到目标的透视或空间感。
通过将多个图像合成,处理图像与作为一个图像输出的全景图像相区分。
例如,当图4B所示的多个图像时,可基于中心点C1从位于最左侧的图像到位于最右侧的图像依次输出所述多个图像。即,当用户在经度仅有一些不同,纬度没有任何改变的情况下通过旋转360度来拍摄多个图像时,按照主体从目标的一个表面向右或左方向移动的顺序输出所述多个图像。用户感觉到就像用户在目标的前方在右或左方向上逐步移动的同时观看目标一样。另外,用户感觉到目标的透视或空间感。即,用户根据主体的运动视觉上识别拍摄角度的变化。
基于中心点输出多个图像的顺序可根据示例性实施方式而不同地修改。例如,可基于中心点从左方向向右方向、从右方向向左方向、从上方向向下方向或者从下方向向上方向输出所述多个图像。
另外,基于中心点输出多个图像的顺序可通过从用户施加的手势而变化。当在输出处理图像的状态下输入手势时(S340),控制器180基于输入的手势来控制处理图像(S350)。
当处理图像显示在触摸屏151上时,输出构成处理图像的多个图像当中的任一个图像。在这种状态下,如果输入手势,则控制器180不输出所述一个图像,而是根据输入手势输出另一图像。具体地讲,当在输出处理图像的同时感测到主体的运动时,控制器180控制触摸屏151,使得输出构成处理图像的多个图像当中的基于中心点与主体的运动对应的图像。
手势可对应于功能“上/下/左/右/前/后”中的任一个。上/下/左/右/前/后是指从观察目标的观察者的角度面向目标的视野,即,相机所面向的方向。
作为示例,如果输入与“上”对应的手势,则输出通过在比当前输出的图像更高的位置处拍摄目标而获得的图像。参照图5A,如果在输出图像C的同时输入与“上”对应的手势,则代替图像C输出图像D。即,如果输入与“上”对应的手势,则出现就像视野从观察目标的观察者的角度向上抬高一样的效果。
作为另一示例,如果输入与“前”对应的手势,则当前输出的图像被放大并显示。即,如果输入与“前”对应的手势,则目标被放大并显示就像相机接近目标一样。相反,如果输入与“后”对应的手势,则控制器180缩小并输出当前输出图像。
可按照各种方式来输入手势。
例如,如图5A所示,当主体基于虚拟轴旋转时,可根据主体的旋转方向和旋转角度来控制处理图像。具体地讲,相机所面向的方向根据主体的旋转方向而改变,相机移动的程度根据主体的旋转角度而改变。当主体基于Y轴向右侧旋转时,控制器180可基于中心点在右方向上移动当前输出图像。即,当在输出图像C的状态下主体基于Y轴向右侧旋转时,可输出图像E至F。相反,当主体基于Y轴向左侧旋转时,可代替图像C输出图像B。
在这种情况下,图像被依次输出的速度或者图像被依次输出的量可根据主体旋转的程度而改变。例如,当主体基于Y轴在第一基准角度内向左侧旋转时,可代替图像C输出图像B。当主体以大于第一基准角度的角度旋转时,可代替图像C输出图像A。当代替图像C输出图像A时,可依次输出图像C、B和A。
此外,当包括在处理图像中的多个图像中的任一个的同时感测到主体的运动时,控制器180可基于中心点按照与主体的运动对应的顺序依次输出所述多个图像当中的图像。例如,当在输出图像A的同时主体基于Y轴向右侧旋转时,控制器180可依次输出图像B至F,代替图像A。
如图5B所示,当主体沿着虚拟轴移动时,可根据主体的移动方向和移动距离来控制处理图像。例如,当主体在Z轴的(+)/(-)方向上移动时,控制器180可放大/缩小当前输出的图像。在这种情况下,放大或缩小比率根据主体的移动距离而改变。当主体在Y轴的(+)/(-)方向上移动时,控制器180可基于中心点在上/下方向上移动当前输出的图像。当主体在X轴的(+)/(-)方向上移动时,控制器180可基于中心点在左/右方向上移动当前输出的图像。
当主体的运动满足预定条件时,控制器180可停止依次输出多个图像,并且输出所述多个图像当中的任一个图像。即,可执行控制就像运动照片的再现被暂时停止一样。
这里,所述预定条件意指主体的运动返回到主体的运动开始之前的状态。例如,当主体在第一状态下基于Y轴向右侧旋转以移至第二状态时,代替图像A,依次输出图像B至F。当在输出图像C的同时主体再次从第二状态移至第一状态时,连续地输出图像C就像依次再现被暂时停止一样。
尽管这些图中未示出,功能“上/下/左/右/前/后”中的至少一个可通过诸如拖曳输入的触摸输入来执行。例如,当接收到从第一点连续地移至第二点的触摸输入时,代替所述多个图像当中的任一个,图像控制器180可基于从第一点面向第二点的方向输出另一图像。当触摸输入在第二点处未被释放,而是维持时,可依次输出按照与触摸输入对应的顺序的图像。随后,当触摸输入被释放时,控制器180停止依次输出所述多个图像,并且输出所述多个图像当中的任一个图像。
如上所述,根据本公开的移动终端可显示目标的多个图像以具有透视,并且结合用户的手势来控制所述多个图像。因此,移动终端可提供立体显示,并且与用户相互地显示所述立体显示。
此外,拍摄处理图像的处理和输出所拍摄的处理图像的处理可不连续地执行。以下,将通过示例性实施方式详细描述拍摄处理图像的处理和输出所拍摄的处理图像的处理。
首先,将详细描述拍摄处理图像的处理。
根据本公开的移动终端可提供用于拍摄处理图像的处理图像拍摄模式。处理图像拍摄模式可以是移动终端所提供的多个拍摄模式中的任一个。用户可触摸与处理图像拍摄模式的执行有关的菜单或者图标,从而执行处理图像拍摄模式。
另外,如果即使没有从用户施加直接控制命令,但是满足预定条件,则根据本公开的移动终端可自动地执行处理图像拍摄模式。即,移动终端可自动地进入处理图像拍摄模式。
图6A是示出自动地进入处理图像拍摄模式的移动终端的控制方法的流程图。图6B是示出图6A的控制方法的概念图。
参照图6A和图6B,控制器180控制通过设置在主体中的相机121来捕获外部环境的图像,并且将所捕获的图像输出在触摸屏151上(S610)。相机121可对应于前相机121a或后相机121b。所拍摄的图像被实时地输出在触摸屏151上。即,随着触摸屏151输出通过相机121捕获的预览图像,用户可识别要拍摄的图像。
接下来,控制器180基于用户请求将触摸屏151上输出的第一图像存储在存储器170中(S630)。例如,拍摄图标可显示在预览图像上,并且可响应于对该拍摄图标施加的触摸输入来拍摄第一图像。如果第一图像被存储在存储器170中,则控制器180可在触摸屏151上输出第一图像,或者可再次输出当前通过相机121捕获的预览图像。另外,控制器180可在预览图像上输出与第一图像对应的缩略图图像。
此外,感测单元140可在输出预览图像的同时感测主体的运动。另外,控制器180可利用感测单元140所生成的信号来感测主体的运动。
当感测到主体的预定运动时,控制器180生成由触摸屏151上输出的连续图像组成的处理图像(S650)。
在这种情况下,要在距接收到用户请求的时间点的预定时间内感测主体的预定运动。仅当在距生成第一图像的时间点的预定时间内感测到主体的预定运动时,生成处理图像。即,当在所述预定时间逝去之后感测到主体的预定运动时,不生成处理图像。这是为了防止违背用户的意图生成处理图像。
此外,控制器180利用感测单元140所生成的信号来跟踪随着主体移动形成的虚拟轨迹,并且确定该虚拟轨迹是否对应于主体的预定运动。作为示例,主体的所述预定运动可以是主体围绕第一图像中所包括的目标移动的运动。作为另一示例,主体的预定运动可意指主体的移动路径创建相对规则的曲线的情况或者主体的运动随着时间逝去恒定的情况。
另外,当主体在围绕同一目标移动的同时拍摄该同一目标的两个或更多个静止图像时,控制器180也可生成处理图像。
此外,当生成处理图像时,控制器180控制存储器170连续地存储在主体移动的同时通过相机121捕获的图像。例如,控制器180可在主体移动的同时按照预定时间间隔存储图像。在这种情况下,所述时间间隔可以恒定,或者可根据主体移动或旋转的速度而改变。
控制器180利用在主体移动的同时存储的多个图像以及关于主体的运动的信息来生成处理图像。控制器180可将多个连续图像与关于主体的相对运动的位置信息和/或表示主体的绝对位置的位置信息一起存储,并且基于位置信息列出所述多个图像,从而形成处理图像。
根据本公开,尽管没有施加用于生成处理图像的单独的控制命令,但是基于主体的运动检测用户的意图并且基于主体的运动生成处理图像。另外,用户没有必要单独地改变拍摄模式,可向用户提供用户可感觉到目标的透视的处理图像。
此外,控制器180可在后台生成处理图像。具体地讲,控制器180可在前台输出通过相机121捕获的预览图像,并且在后台存储通过相机捕获(或者在触摸屏151上输出)的连续图像。控制器180可利用连续存储的图像来生成处理图像。
例如,如图6B所示,当在目标600周围的第一位置P1处从用户施加拍摄命令时,控制器180拍摄第一图像610。所拍摄的第一图像可作为缩略图图像612输出在预览图像上。随后,如果在距施加拍摄命令的时间点的预定时间内感测到围绕目标600移动的主体的运动,则控制器180在后台生成处理图像。
用户可在输出预览图像的状态(或者相机被打开的状态)下移至第一位置P1,并且在第二位置P2处停止运动。当在主体的运动结束的时间点目标600被包括在触摸屏151上输出的第二图像620中时,控制器180控制触摸屏151输出用于指引处理图像被生成的指引信息630。因此,用户可识别出处理图像在控制器180的控制下自动地生成,并且确定是否要连续地拍摄处理图像。
此外,控制器180可根据主体的运动暂时停止或者结束生成处理图像。例如,当主体的运动结束时,控制器180暂时停止生成处理图像。这是为了防止移动终端的资源被不必要地浪费。随后,如果感测到主体的新的运动,则控制器180再次生成暂时停止生成的处理图像。另一方面,在假设主体的运动是主体在第一方向上绕目标移动的运动时,当感测到改变至不同于第一方向的第二方向的运动时控制器180结束生成处理图像。所述第二方向可以是与第一方向相反的方向。
尽管这些图中未示出,但是当在输出预览图像的状态下感测到在左/右或上/下方向上围绕包括在预览图像中的目标移动的主体的运动时,控制器180可输出与生成处理图像的功能有关的处理图像拍摄图标。如果对处理图像拍摄图标施加触摸输入,则控制器180可开始生成处理图像。由于处理图像拍摄图标被自动地提供,所以用户可立即执行生成处理图像的功能。
此外,当生成处理图像时,根据本公开的移动终端可在预览图像上输出与处理图像对应的指示物。
此外,在根据本公开的移动终端的控制方法中,基于用户请求将第一图像存储在存储器中的步骤(S630)可被省略。换言之,如果在通过相机捕获的图像输出在触摸屏上的同时感测到主体的预定运动(S610),则控制器180可生成由连续图像组成的处理图像(S650)。尽管没有输入任何用户请求,但是移动终端可基于主体的预定运动自动地生成处理图像。
具体地讲,控制器180控制触摸屏151输出从相机接收的第一图像,并且控制存储器170暂时存储第一图像。
第一图像可由多个帧组成。在这种情况下,控制器180可将从相机接收的帧存储在存储器中达基准时间。例如,如果在基准时间t内拍摄n个帧,则当第(n+1)帧被存储时删除第一帧,当第(n+2)帧被存储时删除第二帧。换言之,基于当前时间点在基准时间内拍摄的帧被暂时存储在存储器170中。
如果在第一图像被暂时存储的同时感测到满足预定条件的主体的运动,则控制器180生成处理图像。
所述预定条件意指基于虚拟轴从感测到第一图像的点围绕包括在第一图像中的目标旋转基准角度或更多的运动。例如,当终端的主体从拍摄第一图像的点围绕包括在第一图像中的目标旋转的角度大于10度时,控制器180可生成处理图像。
处理图像包括被暂时存储在存储器中的第一图像的至少一部分以及在拍摄第一图像之后从相机依次接收的连续图像。
如果主体的运动不满足所述预定条件,则控制器180继续暂时存储从相机接收的第一图像。在这种情况下,不生成处理图像。
如果处理图像的生成结束,则与处理图像对应的一个文件被存储在存储器170中。
图7A至图7C是示出当连续地生成多个图像时提供指示物的方法的示图。
参照图7A,当生成处理图像时,控制器180可在预览图像上输出与处理图像对应的指示物。
具体地讲,控制器180围绕包括在预览图像中的目标设定虚拟拍摄区域,并且将该虚拟拍摄区域划分成基于主体的运动进行拍摄的区域以及不进行拍摄的区域。该指示物被配置为指引进行拍摄的区域和不进行拍摄的区域中的至少一个。另外,指示物可被配置为指引主体向不进行拍摄的区域的运动,从而以各种角度拍摄目标。
虚拟拍摄区域可由拍摄角度来限定。拍摄角度是指基于目标所形成的虚拟轴由相机与虚拟轴形成的角度。所述虚拟轴可通过经由初始地拍摄目标而获得的初始图像来计算。具体地讲,控制器180可将拍摄初始图像时连接相机与目标的直线设定为虚拟轴,并且基于该虚拟轴来计算多个图像的拍摄角度。
例如,如果拍摄目标700的初始图像,如图7A所示,则围绕目标700设定虚拟拍摄区域。该拍摄区域在从0度至360度的范围内,0度(或者360度)位于连接拍摄初始图像的位置与目标的直线上。如果处理图像的拍摄开始,则控制器180输出指示物710,指示物710被配置为指引进行拍摄的区域和不进行拍摄的区域中的至少一个。
随着进行处理图像的拍摄,进行拍摄的区域和不进行拍摄的区域变化。
控制器180可在预览图像上输出能够暂时停止或结束处理图像的生成的图形对象712。用户对图形对象712施加触摸输入,使得处理图像的生成可暂时停止或结束。
当处理图像的生成暂时停止或结束时,控制器180将处理图像存储在存储器170中。另外,控制器180将关于进行拍摄的区域和不进行拍摄的区域中的至少一个的信息随处理图像一起存储。
此外,参照图7B,可在生成处理图像的同时从用户施加拍摄命令。在这种情况下,控制器180可独立于处理图像的生成来拍摄通过相机捕获的图像,并且生成静止图像。例如,当在生成处理图像的同时对触摸屏151施加触摸输入时,控制器180可将触摸屏151上输出的第三图像720独立于处理图像进行存储。另外,控制器180可在预览图像上显示第三图像的独立存储的缩略图722。
因此,在以各种角度拍摄处理图像以具有透视的同时,可随处理图像一起拍摄静止图像。当在拍摄处理图像的同时从目标检测到重要部分时,用户可利用静止图像来保存对应部分的记录。
此外,即使当处理图像的拍摄中的拍摄方向改变时,根据本公开的移动终端也可连续地拍摄处理图像。
参照图7C的(a),在用户在围绕目标700在第一方向D1上移动的同时拍摄处理图像的同时,用户可能期望再次拍摄目标700的一部分。即,用户可能期望重复地拍摄先前所拍摄的部分。在这种情况下,在用户在第一方向D1上移动的同时拍摄处理图像的同时,处理图像的拍摄方向可改变为第二方向D2。另外,拍摄方向可再次从第二方向D2改变为第三方向D3。
控制器180可基于主体的运动和GPS信息中的至少一个来感测拍摄方向,并且将用于指引拍摄方向的拍摄方向信息随指示物一起输出。
拍摄方向信息可包括发生方向改变的拍摄角度、正进行拍摄的方向、曾进行拍摄的方向、拍摄方向改变的次数以及拍摄方向改变的顺序中的至少一个。
例如,如图7C的(b)所示,当在用户在第一方向D1上移动的同时没有输出拍摄方向信息,然后拍摄方向改变为第二方向D2时,可输出拍摄方向信息以指引已进行第一方向改变。
在这种情况下,拍摄方向信息中可包括关于先前进行拍摄的第一方向的信息以及关于当前进行拍摄的第二方向的信息。关于第二方向的信息可指引在虚拟拍摄区域中方向改变为第二方向的点的拍摄角度。例如,如图7C的(b)所示,当在目标的拍摄角度为220度的点方向改变时,可在指示物的整个区域中与220度对应的点处输出关于第二方向的信息。
随后,当拍摄方向改变为第三方向D3时,控制器180可允许与第二方向改变有关的信息被进一步包括在拍摄方向信息中。由于与第一方向改变有关的信息以及与第二方向改变有关的信息二者被包括在拍摄方向信息中,所以用户可一眼识别出当生成处理图像时拍摄方向的改变。
图8A至图8C是示出接着先前拍摄的处理图像之后拍摄新的处理图像的方法的示图。
如图8A的(a)所示,当处理图像的拍摄暂时停止或结束时,处理图像被存储在存储器170中。在这种状态下,处理图像包括关于进行拍摄的区域和不进行拍摄的区域的信息。
当在至少一个处理图像被存储在存储器170中的状态下相机121被激活以使得通过相机121捕获的预览图像输出在触摸屏151上时,控制器180搜索包括预览图像中所包括的目标的处理图像。
当所搜索的处理图像具有不进行拍摄的区域时,如图8A的(b)所示,控制器180可在触摸屏上输出所搜索的处理图像中包括的图像当中的最后图像,使得所搜索的处理图像可被连续地拍摄。在这种情况下,预览图像和最后图像可被显示为彼此交叠。
如图8B所示,首先存储第一处理图像(S810)以便于处理图像被连续地拍摄。第一处理图像可以是从外部终端或者服务器接收的处理图像或者通过设置在主体中的相机拍摄的处理图像。
接下来,当通过相机捕获包括在第一处理图像中的第一目标时,控制器180在触摸屏上输出包括在第一处理图像中的图像当中的最后图像,使得第一处理图像可被连续地拍摄(S830)。这里,最后图像是指构成处理图像的多个图像当中的最后拍摄的图像。
最后图像被显示为与通过相机捕获的图像交叠。为此,控制器180可调节最后图像和通过相机捕获的图像中的至少一个的透明度。
如图8C所示,控制器180可计算为了使得最后图像和通过相机捕获的图像匹配,主体要移动的方向、主体要移动的距离以及角度中的至少一个,并且将所计算出的信息提供给用户。所计算出的信息可按照视觉方式、听觉方式和触觉方式中的至少一种来输出。
因此,用户可移动移动终端,使得最后图像和通过相机捕获的图像匹配。
接下来,当在最后图像和通过相机捕获的图像匹配的状态下感测到围绕第一目标移动的主体的运动时,控制器180生成第二处理图像(S850)。第二处理图像接着第一处理图像之后被拍摄。控制器180可利用第一处理图像来生成第二处理图像,并且将第二处理图像独立于第一处理图像存储在存储器170中。
此外,当搜索到没有不进行拍摄的区域的处理图像时(或者当通过拍摄目标的所有区域而获得的处理图像时),控制器180可指引没有必要拍摄任何处理图像。另一方面,当没有搜索到任何处理图像时,控制器180控制触摸屏151输出预览图像。
因此,可预先防止同一目标被重复地拍摄,并且存储器170可被有效地使用。另外,用户可彻底地拍摄目标,使得不存在不进行拍摄的区域。
如上所述,根据本公开的移动终端可在没有任何特定控制命令的情况下通过拍摄连续图像来生成处理图像。另外,根据本公开的移动终端可响应于用户请求来执行用于生成处理图像的处理图像拍摄模式。例如,主画面页中包括与处理图像拍摄模式的执行有关的图标,如果对该图标施加触摸输入,则控制器可执行处理图像拍摄模式。用于执行处理图像拍摄模式的用户请求可被不同地修改。
图9是示出移动终端进入处理图像拍摄模式的示例性实施方式的示图。
用户可利用消息应用来向伙伴发送消息/从伙伴接收消息。消息应用的执行画面显示在触摸屏151上,并且发送/接收的消息显示在该执行画面上。
控制器180可通过检测发送/接收的消息的内容来确定是否执行处理图像拍摄模式。更具体地讲,当从伙伴接收请求用户拍摄特定对象的消息时,控制器180可执行处理图像拍摄模式,或者可输出与处理图像拍摄模式的执行有关的图标。
作为示例,从伙伴接收消息“请拍一张鞋的照片”,控制器180可控制触摸屏151在消息应用的执行画面上输出与处理图像拍摄模式有关的图标912。作为另一示例,如果在输出从伙伴接收的消息的同时对消息“请拍一张鞋的照片”施加触摸输入,则输出与该消息有关的菜单910。在这种情况下,与处理图像拍摄模式有关的菜单可被包括在菜单910中。用户对与处理图像拍摄模式有关的图标912或者菜单施加触摸输入,从而执行处理图像拍摄模式。
当通过从伙伴接收的消息执行处理图像拍摄模式时,代替消息应用的执行画面,控制器180控制触摸屏151输出通过相机捕获的图像920。如果在输出通过相机捕获的图像920的同时从伙伴终端960接收到新的消息930,则控制器180控制触摸屏151在通过相机捕获的图像920上输出该新的消息930。
例如,如果在生成处理图像的同时从伙伴接收到消息“请拍一张鞋背后细节的照片”,则控制器180控制触摸屏151将所接收到的消息随生成的处理图像一起输出。因此,用户可在识别从伙伴接收的消息的同时精确地拍摄伙伴旨在识别的目标的特定部分。
与该图中所示不同,当通过从伙伴接收的消息执行处理图像拍摄模式时,消息应用的执行画面和通过相机捕获的图像920可被输出在触摸屏151的不同区域中。
此外,控制器180可实时地将所生成的处理图像发送给伙伴终端960。如果在显示消息应用的执行画面的同时接收到处理图像,则伙伴终端960可在执行画面的一部分处输出所接收到的处理图像。
图10A至图10E是示出当输出处理图像时指引拍摄属性的方法的示图。
当输出处理图像时,根据本公开的移动终端可输出用于指引在处理图像的拍摄中获取的拍摄属性的图形对象。例如,如图10A所示,图形对象表示围绕目标设定的虚拟拍摄区域。虚拟拍摄区域被划分成基于主体的运动进行拍摄的区域和不进行拍摄的区域。图形对象被配置为指引进行拍摄的区域和不进行拍摄的区域中的至少一个。
由于基于拍摄角度来限定拍摄区域,所以用户可一眼识别出围绕目标拍摄了哪一区域,并且以限定拍摄区域的角度选择性地再现用户旨在首先观看的部分。具体地讲,如果对图形对象的一个点施加触摸输入,则控制器180计算与施加触摸输入的点对应的拍摄角度,并且控制触摸屏151输出以所计算出的拍摄角度拍摄的图像。
图形对象可被配置为指引各个区段的拍摄速度。作为示例,在计算所有拍摄区段的平均拍摄速度之后,拍摄速度比所计算出的平均拍摄速度快的区段可利用暗色来显示,拍摄速度比所计算出的平均拍摄速度慢的区段可利用亮色来显示。作为另一示例,可按照文本的形式来指引各个区段的对应拍摄速度。因此,用户可直观地识别拍摄速度。
拍摄速度是指主体移动的速度。
控制器180利用具有唯一位置信息的多个图像来生成处理图像。在这种情况下,控制器180每单位时间拍摄图像,并且利用所拍摄的多个图像来生成处理图像。随着预定拍摄角度下的拍摄速度增加,以该预定角度拍摄的图像的数量减少。例如,当针对90度至180度的区段以第一拍摄速度进行拍摄时,生成n个图像。然而,当以比第一拍摄速度快的第二拍摄速度进行拍摄时,生成m个图像(m小于n)。随着拍摄速度变慢,拍摄更大数量的图像,因此随着拍摄速度变慢,可生成目标的运动变得更自然的处理图像。
另一方面,再现速度是指包括在处理图像中的多个图像被输出在触摸屏151上的速度。
例如,可生成第一处理图像,其中针对0度至180度的区段以第一拍摄速度进行拍摄,针对180度至360度的区段以第二拍摄速度进行拍摄。当第一处理图像被再现时,以预定再现速度进行再现。尽管以相同的再现速度进行再现,但是第一拍摄速度比第二拍摄速度慢。因此,用户感觉到就像目标在0度至180度的区段中缓慢移动一样,并且感觉到就像目标在180度至360度的区段中快速移动一样。
此外,处理图像的再现速度可通过用户请求来改变。类似于由用户来调节运动图像的回放速度,可由用户来调节处理图像的再现速度。例如,可通过用户请求来改变再现速度,例如1倍速、2倍速、0.5倍速。
此外,当在拍摄处理图像的同时拍摄静止图像时,可在图形对象中拍摄静止图像的点处显示与静止图像对应的图标1020a至1020c。例如,当针对0度至180度的区段拍摄处理图像,并且在100度的点处拍摄静止图像时,与静止图像对应的图标可显示在图形对象中与100度对应的点处。
另外,图形对象中可包括用于指引处理图像的基本拍摄方向的信息1010。当在处理图像的拍摄中拍摄方向改变时,用于指引改变的拍摄方向的信息1030可被另外包括在图形对象中。
此外,图形对象可按照表示处理图像的所有再现区段以及触摸屏上输出的图像的再现点的进度条的形式来配置。
例如,如图10B所示,如果处理图像的再现开始,则可输出进度条1050,并且表示当前再现点的图形图像1052可输出在进度条1050上。
如果对进度条1050施加长触摸输入,则控制器180可输出用于指引在处理图像的拍摄中获取的拍摄属性的指引信息。该指引信息可包括进行拍摄的区域、不进行拍摄的区域、各个区段的拍摄速度、各个区段的拍摄方向以及以特定角度拍摄的静止图像中的至少一个。在图10A中,可以看出上述圆形图形对象改变为带状图形对象。
此外,用于指引处理图像的拍摄暂时停止,然后在预定时间逝去之后再次开始的点的信息可被进一步包括在指引信息中。另外,用于通过在处理图像的拍摄期间调高音量使其比基准音量更响来指引进行拍摄的区段的信息1060以及用于指引在预定时间内拍摄角度改变为大于基准角度的区段的信息1062可被进一步包括在指引信息中。
此外,如果在显示带状图形对象的同时对图形对象施加预定第一用户输入,如图10C所示,在处理图像的拍摄期间测量的主体的垂直运动可作为曲线图输出。所述第一用户输入可以是放大输入。
带状图形对象能够很好地表示主体的横向运动,但是难以表示主体的垂直运动。为了解决该问题,根据本公开的移动终端可通过每单位时间测量主体的垂直运动并且利用地平面作为基准点将所测量的垂直运动以数值表示为高度来输出高度图。高度图的X轴使用时间(或者拍摄角度)作为变量,高度图的Y轴使用在对应时间测量的主体的高度作为变量。
指引信息还可包括用于指引各个区段的相机的变焦比的信息。例如,如果在显示图形对象的同时对带状图形对象施加预定的第二用户输入,则如图10D所示,在拍摄处理图像的同时相机的变焦改变可作为变焦图输出。变焦图的X轴使用时间作为变量,变焦图的Y轴使用在对应时间相机的变焦比作为变量。
指引信息还可包括用于指引各个区段的拍摄速度的信息。更具体地讲,控制器180可基于拍摄速度将处理图像的整个区段划分成多个区段。例如,如图10E所示,当以第一拍摄速度或者第二拍摄速度拍摄处理图像时,控制器180可将整个区段划分成以第一拍摄速度拍摄处理图像的第一区段以及以第二拍摄速度拍摄处理图像的第二区段。另外,控制器180可在每一个区段中提取预定数量的代表性图像,并且按照它们拍摄的顺序输出所提取的代表性图像。
所述预定数量可根据对应区段中的拍摄速度而改变。例如,如果第一拍摄速度比第二拍摄速度快1.5倍,则第一区段中的第一预定数量可被设定为比第二区段中的第二预定数量大1.5倍。因此,在具有快的拍摄速度的区段中输出大量的主图像从而可识别目标的详细外观,在具有慢的拍摄速度的区段中输出少量主图像从而可防止相同或相似的图像被重复地输出。
此外,指引信息还可包括用于指引处理图像拍摄的地点的信息。处理图像可通过进行一次的拍摄来生成,或者可通过进行多次的拍摄来生成。当处理图像通过进行一次的拍摄来生成时,控制器180生成处理图像,使得通过从先前拍摄结束的点重新进行的拍摄而生成的图像被连续地附接。当处理图像通过多次拍摄来进行时,用于指引对应区段中的拍摄时间和拍摄地点中的至少一个的信息可被进一步包括在指引信息中。
图11A是示出作为输出图库的方法,显示要与另一类型的图像相区分的处理图像的方法的示图。
控制器180可按照列表形式输出存储在存储器170中的照片1160、运动照片1170和处理图像1180中的至少一个。具体地讲,如果用于提供所存储的图像的应用被执行,则控制器180可提供存储在存储器170中的图像的缩略图视图。
在这种情况下,控制器180控制触摸屏151将照片1160、运动照片1170和处理图像1180彼此相区分地显示。例如,控制器180可在运动照片1170的缩略图图像上显示与运动照片再现有关的图形对象1172。在处理图像1180的缩略图图像的情况下,控制器180可控制触摸屏151,使得缩略图图像在周期性地摇摆的同时移动。因此,用户可识别图像的类型。
当处理图像1180的缩略图图像被输出时,控制器180可依次输出处理图像1180中所包括的多个图像。所述多个图像是通过以不同的角度拍摄同一目标而获得的图像,因此,用户可感觉到就像目标在触摸屏151上旋转一样。
图11B至图11D是示出当同时拍摄处理图像和静止图像时同时输出处理图像和静止图像的方法的示图。
如上面图7B中所述,可在生成处理图像的同时拍摄静止图像。所拍摄的静止图像被独立于处理图像存储。
此外,当处理图像或静止图像被输出在触摸屏151上时,如图11B所示,控制器180可将触摸屏151的整个区域划分成第一区域1110和第二区域1112,并且控制触摸屏151在第一区域1110中输出处理图像并且在第二区域1112中输出静止图像。即,构成处理图像的多个图像被依次显示在第一区域1110中,在拍摄处理图像的同时拍摄的静止图像被显示在第二区域1112中。
此外,当在处理图像的再现中再现拍摄了静止图像的点时,控制器180可改变再现速度。更具体地讲,控制器180以第一再现速度再现处理图像,并且以第二再现速度再现包括拍摄静止图像的点的预定区段。例如,当控制器180以1倍速再现处理图像,然后再现包括拍摄静止图像的点的预定区段时,以0.5倍速再现该预定区段。如果预定区段的再现结束,则再次以1倍速再现处理图像。由于拍摄了静止图像的部分被自动地缓慢再现,所以用户可详细地观察到对应部分。
分别在第一区域1110和第二区域1112中输出的处理图像和静止图像被独立地控制。具体地讲,控制器180利用对第一区域1110施加的触摸输入来控制处理图像的输出,并且利用对第二区域1112施加的触摸输入来控制静止图像的输出。例如,通过缩小输入或者放大输入来将图像放大或缩小。在这种情况下,第一区域1110的控制不影响第二区域1112。
此外,当对静止图像施加触摸输入时,控制器180可调节处理图像的再现点。更具体地讲,当在输出处理图像的同时对静止图像施加触摸输入时,控制器180可将处理图像的再现点移至拍摄静止图像的点。
如图11C所示,作为示例将描述在拍摄处理图像的同时拍摄了总共三个静止图像1130a至1130c的情况。当输出处理图像时,控制器180可输出包括在处理图像中的多个图像中的任一个作为处理图像的代表性图像1120a,或者可根据再现顺序来依次输出所述多个图像。在这种情况下,静止图像1130a至1130c中的至少一个可随处理图像一起输出。
此外,当对静止图像1130a至1130c中的任一个施加触摸输入时,控制器180将处理图像的再现点移至拍摄所述一个静止图像的点。因此,处理图像的代表性图像可改变(1120a→1120b),或者可从拍摄所述一个静止图像的点进行再现。
参照图11D,当输出处理图像时,控制器180可在处理图像上输出用于指引拍摄静止图像的部分的图形对象。更具体地讲,控制器180可输出包括在处理图像中的多个图像中的任一个作为代表性图像,并且在代表性图像上输出用于指引拍摄静止图像的部分的图形对象。例如,当拍摄目标的正面、右面和背面的静止图像时,与正面静止图像对应的第一图形对象可显示在代表性图像的整个区域中的与目标的正面对应的区域中,与右面静止图像对应的第二图形对象可显示在代表性图像的整个区域中的与目标的右面对应的区域中,与背面静止图像对应的第三图形对象可显示在代表性图像的整个区域中的与目标的背面对应的区域中。如果对第一图形对象至第三图形对象中的任一个施加触摸输入,则控制器180将处理图像的再现点移至拍摄所述一个静止图像的点。因此,处理图像的代表性图像改变。
图12A至图12C是示出当生成重复拍摄的区段时输出处理图像的方法的示图。
如上面图7C中所述,随着在拍摄处理图像的同时拍摄方向改变,可生成重复拍摄的区段。当输出具有重复拍摄的区段的处理图像时,控制器180可基于拍摄方向提供区段详细视图功能。
当执行区段详细视图功能时,控制器180可输出拍摄方向信息1210。拍摄方向信息1210包括关于特定拍摄方向上的拍摄起始角度、拍摄结束角度、总拍摄区段(或总拍摄角度)和特定拍摄方向的信息。例如,当如图12A的(a)所示拍摄处理图像时,拍摄方向信息可包括第一拍摄方向信息D1至第三拍摄方向信息D3。
控制器180可在与任意拍摄方向对应的部分区段中再现处理图像。例如,如图12A的(b)所示,与第一拍摄方向信息对应的第一区段以及与第二拍摄方向信息对应的第二区段可分别显示在触摸屏151的不同的区域1220和1230中。即,控制器180可同时再现在第一方向上移动的同时拍摄的图像以及在第二方向上移动的同时拍摄的图像。因此,用户可一眼识别出重复拍摄的区段。
此外,如图12B的(a)所示,可能由于拍摄方向的变化而生成不必要地重复的区段。例如,第一拍摄方向信息D1和第三拍摄方向信息D3分别具有重复地拍摄的区段1230和1240。在这种情况下,控制器180可将在同一方向上拍摄的重复区段放在一起作为一个区段。在这种情况下,控制器180可选择性地提取在没有抖动的情况下良好拍摄的图像,并且将其它图像从处理图像排除。另选地,如图12B的(b)所示,控制器180可基于用户输入选择重复区段中的任一个,并且将其它重复区段从处理图像排除。
此外,当输出处理图像时,控制器180可输出用于指引拍摄处理图像时所获取的拍摄属性的图形对象。该图形对象表示围绕目标设定的虚拟拍摄区域。
当由于拍摄方向的变化而存在重复地拍摄的区段时,控制器180可基于拍摄方向将重复地拍摄的区段划分成子区段。例如,如图12C所示,重复地拍摄的区段A可根据拍摄方向被划分成第一子区段至第三子区段。
当重复地拍摄的区段A被再现时,控制器180可连续地再现重复地拍摄的区段A的所有区域,或者可仅限制性地再现包括在重复地拍摄的区段A中的子区段当中的任一个。作为示例,如果选择“全部再现”,则控制器180连续地再现重复地拍摄的区段A的所有区域。作为另一示例,如果选择“选择性再现”,则控制器180基于用户输入选择包括在重复地拍摄的区段A中的子区段中的任一个。当重复地拍摄的区段A被再现时,控制器180仅限制性地再现所选择的子区段。所选择的子区段可被高亮处理,以与未选择的子区段相区分。
图13A至图13C是示出根据目标的类型调节处理图像的各个区段的再现速度的方法的示图。
由用户拍摄处理图像,因此可针对各个区段改变拍摄速度。拍摄速度可意指单位时间变化的拍摄角度(或者角速度)。例如,如图13A的(a)所示,当在时间t内从第一点P11到第二点P12拍摄处理图像时,第一区段中的拍摄速度可以是“θ/t”。
就以各种角度拍摄的处理图像的特性而言,拍摄速度需要针对整个区段是恒定的。这是因为当拍摄速度一致时由处理图像形成的透视最大。
当输出处理图像时,根据本公开的移动终端可基于预定基准来调节处理图像的再现速度。另选地,当处理图像被生成并存储在存储器170中时,根据本公开的移动终端可与预定基准对应地调节处理图像的再现速度。例如,如图13A的(a)所示拍摄的处理图像可如图13A的(b)所示再现,或者可被改变并存储在存储器170中以如图13A的(b)所示再现。
参照图13B,控制器180可根据包括在处理图像中的目标的类型来设定各个区段的最优再现速度(S1310)。
作为示例,当目标是人时,包括眼睛、鼻子和嘴巴的脸部是主要关注对象。因此,当输出脸部时,需要比输出除脸部以外的部分时更缓慢地再现脸部。可设定针对该人的预定基准以使得包括眼睛的区域以第一速度再现,包括除眼睛以外的脸部的区域以比第一速度快的第二速度再现,除脸部以外的区域以比第二速度快的第三速度再现。
作为另一示例,当目标不是人,而是固定物时,需要等同地再现所有区段。可设定针对该固定物的预定基准以使得所有区段以第四速度再现。
作为另一示例,当目标不是人,而是活动物时,需要比活动的区段更快地再现没有活动的区段。因此,可设定针对活动物的预定基准,使得活动的区段以第五速度再现,没有活动的区段以比第五速度慢的第六速度再现。
作为另一示例,当在拍摄处理图像的同时同时拍摄静止图像时,可调节处理图像的再现速度,使得包括拍摄静止图像的点的预定区段比其它区段更慢地再现。
作为另一示例,当在预定区段中以比最小基准速度更慢的速度进行拍摄时,或者当在预定区段中以比最大基准速度更快的速度进行拍摄时,控制器180可调节预定区段的再现速度以对应于除该预定区段以外的其它区段的平均速度。
目标的类型以及与其对应的预定基准可由终端提供商在终端出厂时设定,或者可通过用户输入来重置。然而,本公开不限于上述示例,目标的类型以及与其对应的预定基准可根据示例性实施方式来不同地修改。
接下来,控制器180可基于包括在处理图像中的目标的类型来针对各个区段调节处理图像的再现速度(S1330)。
控制器180可与拍摄速度对应地再现处理图像。另外,当接收到用户请求时,控制器180可通过根据包括在处理图像中的目标的类型调节处理图像的再现速度来再现处理图像。
具体地讲,控制器180在一个或更多个预定基准当中选择与包括在处理图像中的目标对应的任一个基准,并且与所选择的基准对应地调节处理图像的再现。
例如,如图13C所示,当输出处理图像1300时,可输出与处理图像1300对应的指示物1320。指示物1320包括用于指引各个区段的处理图像的拍摄速度的速度信息以及用于指引构成处理图像的多个图像当中的输出在触摸屏151上的任一个图像的指引信息1322。
用户可对移动终端100施加用户手势,从而控制处理图像1300的输出。例如,用户可通过垂直地/横向地轻拂处理图像1300或者通过垂直地/横向地旋转主体来以各种角度视觉上识别目标。即,目标可被旋转。
尽管没有从用户施加单独的用户手势,但是控制器180可基于处理图像的中心点依次输出构成处理图像1300的多个图像。在这种情况下,处理图像1300的输出速度与拍摄速度对应。
此外,用户可对触摸屏151施加长触摸输入或者连续地轻敲触摸屏151多次以施加用户请求,使得处理图像1300的再现速度对应于预定基准。控制器180可响应于用户请求来控制处理图像1300的输出,使得处理图像1300的再现速度对应于预定基准。
控制器180在一个或更多个预定基准当中选择与包括在处理图像中的目标对应的任一个基准,并且与所选择的基准对应地调节处理图像的再现速度。
另外,控制器180可响应于用户请求来显示所述一个或更多个预定基准1340。在这种情况下,控制器180对与处理图像中所包括的目标对应的至少一个基准执行高亮处理以区分于不与包括在处理图像中的目标对应的基准。例如,当所述一个或更多个预定基准包括“固定物”、“人”和“活动物”并且输出在触摸屏151上的处理图像1300与“人”有关时,控制器180可对“人”执行高亮处理以区分于“固定物”和“活动物”。
所选择的基准可通过用户输入而改变为另一基准。例如,如果在基于与“人”对应的基准再现处理图像1300的同时用户选择“固定物”,则基于与“固定物”对应的基准来再现处理图像1300。
如上所述,根据本公开的移动终端可根据包括在处理图像中的目标的类型来调节各个区段的处理图像的再现速度。因此,根据包括在处理图像中的目标的类型来以最优再现速度再现处理图像。
此外,各个区段的处理图像的再现速度可根据包括在处理图像中的拍摄属性而改变。即,当输出处理图像时,控制器180可基于拍摄属性来调节构成处理图像的多个图像的再现速度。
拍摄属性包括由相机和目标限定的拍摄角度、相机的移动方向、相机的移动速度以及相机的放大倍率中的至少一个。作为示例,控制器180可根据相机的放大倍率来以不同的速度再现处理图像,或者可根据拍摄角度来以不同的速度再现处理图像。作为另一示例,当在拍摄处理图像的同时独立地存储静止图像时,在拍摄静止图像的点处处理图像的再现速度可变得相对慢。
图14A和图14B是示出同时输出不同的处理图像的方法的示图。
根据本公开的移动终端100可在触摸屏151上同时输出不同的处理图像,并且基于用户手势同时控制不同的处理图像。例如,控制器180可控制触摸屏151同时输出通过拍摄第一目标而获得的第一处理图像以及通过拍摄第二目标而获得的第二处理图像。另外,控制器180可基于用户手势同时控制第一处理图像和第二处理图像,使得输出以特定拍摄角度拍摄的图像。
例如,参照图14A,触摸屏151在用于提供所存储的图像的应用的执行画面上显示分别与第一处理图像和第二处理图像对应的第一缩略图视图1410和第二缩略图视图1420。
控制器180基于对第一缩略图视图1410和第二缩略图视图1420施加的触摸输入控制触摸屏151使得同时输出第一处理图像1412和第二处理图像1422。例如,当施加从第一缩略图视图1410和第二缩略图视图1420中的任一个移至另一个的拖曳输入时,第一处理图像1412和第二处理图像1422可同时输出。
控制器180提取构成第一处理图像1412的多个图像当中的第一基准图像,并且控制触摸屏151输出第一基准图像。在这种情况下,控制器180提取构成第二处理图像1422的多个图像当中的第二基准图像,并且控制触摸屏151随第一基准图像一起同时输出第二基准图像。
基准图像可意指包括在处理图像中的目标的正面图像。例如,可提取通过拍摄鞋而获得的第一处理图像1412的正面图像作为第一基准图像,可提取通过拍摄人而获得的第二处理图像1422的正面图像作为第二基准图像。根据本公开的移动终端可设置有用于提取特定目标的正面图像的预定算法。
另选地,基准图像可意指构成处理图像的多个图像当中的当拍摄处理图像时捕获的初始图像。当拍摄处理图像时捕获的初始图像可被设定为基准图像。
当第一处理图像1412和第二处理图像1422被同时输出时,控制器180可调节第一处理图像1412和第二处理图像1422中的至少一个的尺寸,使得第一处理图像1412和第二处理图像1422二者被输出在一个画面上。
第一处理图像1412和第二处理图像1422可被显示为根据包括在各个处理图像中的目标的类型彼此至少部分地交叠。例如,如图14A所示,当第一处理图像1412中包括鞋,第二处理图像1422中包括人时,第一处理图像1412可被显示在第二处理图像1422上以与第二处理图像1422交叠,使得该鞋显示在该人的脚踝处。尽管该图中未示出,当包括该人的第二处理图像1422和包括风衣的第三处理图像被同时输出时,第二处理图像1422和第三处理图像可通过调节第三处理图像的尺寸以使得风衣贴合人来彼此交叠地显示。
第一处理图像1412和第二处理图像1422中的至少一个的位置和尺寸可通过用户输入来调节。例如,如图14B所示,当对第一处理图像1412施加长触摸输入时,可提供第一处理图像1412的编辑模式。控制器180可改变第一处理图像1412的位置,或者可基于对第一处理图像1412施加的触摸输入来放大或缩小第一处理图像的尺寸(1412→1412’)。
此外,当不同的处理图像被同时显示时,不同的处理图像中所包括的目标在同一方向上旋转。换言之,当第一处理图像和第二处理图像同时输出时,控制第一处理图像和第二处理图像的输出,使得第一目标和第二目标在同一方向上旋转。
目标的旋转方向和旋转角度通过用户手势来确定。旋转方向和旋转角度被等同地应用于不同的处理图像。
由于不同的处理图像被同时显示,所以用户可在比较不同的对象的同时一眼看到不同的对象,并且以各种角度观察不同的对象。当所述方法应用于在线购物时,用户可获得就像用户穿着实际产品一样的效果。
图15A是示出处理图像用作锁定画面的示例性实施方式的示图。
如果移动终端的状态满足预定条件,则控制器180可执行用于限制对应用的用户输入的锁定状态。如果在锁定状态下打开触摸屏151的显示器,则触摸屏151输出锁定画面。控制器180利用在锁定状态下对触摸屏施加的触摸输入来解除锁定状态。如果在锁定状态下施加触摸输入,则控制器180将所施加的触摸输入与用于解除锁定状态的预定触摸输入进行比较,并且基于比较结果来解除或维持锁定状态。具体地讲,当预定触摸输入和所施加的触摸输入彼此匹配时,可解除锁定状态,并且主画面或者最近执行的应用的执行画面可显示在触摸屏151上。另一方面,当预定触摸输入和所施加的触摸输入彼此不匹配时,维持锁定状态,并且继续输出锁定画面。
此外,锁定画面可包括背景图像。在这种情况下,处理图像可通过用户选择或者控制器180的设置作为锁定画面的背景图像输出。当处理图像作为锁定画面的背景图像输出时,构成处理图像的多个图像当中的任一个图像作为锁定画面的背景图像输出。当在所述一个图像输出的同时感测到主体的运动时,控制器180基于主体的运动来输出所述多个图像当中的另一图像作为锁定画面的背景图像。
例如,当触摸屏的显示器被关闭,然后在锁定状态下被打开时,处理图像中的通过拍摄目标的正面而获得的正面图像1500b作为锁定画面的背景图像输出。当主体绕虚拟轴Y向左侧旋转时,控制器180输出通过拍摄目标的左侧而获得的左侧图像1500a。当主体基于虚拟轴Y向右侧旋转时,控制器180输出通过拍摄目标的右侧而获得的右侧图像1500c。
随着锁定画面的背景图像基于主体的运动而变化,因此用户可允许锁定画面的背景图像根据用户的爱好按照各种方式输出。
图15B是示出处理图像用作主画面页的背景画面的示例性实施方式的示图。
主画面页可输出在移动终端的显示单元151上。主画面页可包括至少一个对象,所述对象可以是安装在移动终端中的应用的图标或者微件(widget)。另外,主画面页包括背景图像,并且所述对象显示在主画面页的背景图像上。
如上所述,处理图像可作为主画面页的背景图像输出。当处理图像作为主画面页的背景图像输出时,构成处理图像的多个图像当中的任一个图像作为主画面页的背景图像输出。当在所述一个图像输出的同时感测到主体的运动时,控制器180基于主体的运动输出构成处理图像的多个图像当中的另一图像作为主画面页的背景图像。
控制器180可基于对主画面页的背景图像施加的触摸输入来将输出的背景图像从构成处理图像的多个图像当中的任一个图像改变为另一图像。更具体地讲,当感测到围绕包括在背景图像中的目标连续地顺时针或逆时针移动的触摸输入时,控制器180基于所感测到的触摸输入来改变主画面页的背景图像。
例如,如图15B所示,当在包括在处理图像中的多个图像当中的第一图像1510a作为主画面页的背景输出的同时顺时针连续地移动触摸输入时,控制器180输出所述多个图像当中的第二图像1510b作为主画面页的背景图像,使得用户感觉到就像目标顺时针旋转一样。每当触摸输入移动了预定距离时,主画面页的背景图像改变。
图16A和图16B是示出利用通过不同的相机拍摄的图像来生成处理图像的方法的示图。
根据本公开的移动终端包括设置有触摸屏151的正面以及与正面相对的背面。另外,第一相机模块121a设置在正面,第二相机模块121b设置在背面。
当用户利用第二相机模块121b来生成目标的处理图像时,通过第一相机模块121a捕获目标的周围环境(或者外部环境)。
例如,如图16A所示,用户可在用户持握主体使得第二相机模块121b面向目标1600的状态下围绕目标1600移动的同时拍摄目标1600。在这种情况下,通过由第二相机模块121b连续地捕获的多个图像来生成处理图像。
此外,可通过第一相机模块121a连续地捕获存在于目标1600外部的周围环境,并且控制器180可利用通过第一相机模块121a捕获的多个图像来生成全景图像。即,控制器180可利用通过第一相机模块121a捕获的多个图像以及通过第二相机模块121b捕获的多个图像来同时生成处理图像和全景图像。
具体地讲,参照图16B,利用设置在正面的第一相机模块121a来生成全景图像,利用设置在背面的第二相机模块121b来生成处理图像(S1610)。接下来,将处理图像和全景图像合成(S1630)。
同时生成的处理图像和全景图像可被合成为一个图像。即,控制器180可将处理图像和全景图像合成。具体地讲,控制器180可将处理图像的整个区域划分成包括目标的区域和不包括目标的区域。控制器180可提取包括目标的区域,并且将所提取的区域与全景图像的一个区域合成。
全景图像的所述一个区域可以是全景图像的整个区域中的预定区域。所述预定区域可根据示例性实施方式来不同地修改。所述预定区域可通过用户输入来编辑。
尽管这些图中未示出,但是处理图像可通过第一相机模块121a来生成,全景图像可利用第二相机模块121b来生成。
根据示例性实施方式,可将在基本上相同的空间中以不同的方式拍摄的图像合成。另外,可生成新的图像,使得用户可不仅感觉到目标的透视,而且感觉到目标的周围环境的透视。
图17A和图17B是示出将语音备忘录添加到处理图像的方法的示图。
根据本公开的移动终端可将语音备忘录或文本备忘录插入到所生成的处理图像中,或者可将语音备忘录或文本备忘录与所生成的处理图像合成。具体地讲,当在输出处理图像的同时施加预定的用户输入时,控制器180可提供用于将备忘录与处理图像合成的界面。另外,控制器180可将从用户输入的备忘录与处理图像合成,使得当构成处理图像的多个图像当中的任一个图像输出在触摸屏151上时,备忘录随处理图像一起输出。
将参照附图详细描述将备忘录与处理图像合成的方法以及输出与备忘录合成的处理图像的方法。
首先,参照图17A,处理图像1700输出在触摸屏151上。当输出处理图像1700时,可输出与处理图像1700对应的指示物1710。指示物1710可包括用于指引构成处理图像1700的多个图像当中的输出在触摸屏上的任一个图像的指引信息1712。
此外,在处理图像1700输出在触摸屏151上的状态下,可在触摸屏151上输入与备忘录输入有关的用户输入。例如,该用户输入可以是在基准时间内长久地触摸触摸屏151的长触摸输入或者在基准时间内连续地轻敲触摸屏151的预定区域多次的双触摸输入。该用户输入可根据示例性实施方式来不同地修改。
控制器180基于用户输入来选择构成处理图像的多个图像当中的任一个图像,并且提供用于将备忘录与处理图像合成的界面。
在输出所选择的图像的状态下提供用于接收从用户输入的语音备忘录或文本备忘录的界面。在语音备忘录的情况下,可输出与开始语音备忘录或者暂时停止或结束语音备忘录的功能有关的图形对象1720。在文本备忘录的情况下,可输出虚拟键盘。用户可利用该界面来输入语音备忘录或文本备忘录。文本备忘录可被配置成文本和图像(例如,表情符号)中的至少一个。
如果输入备忘录,则控制器180将所输入的备忘录设定为与所选择的图像对应。换言之,控制器180可将所输入的备忘录设定为仅当构成处理图像的多个图像当中的所选择的图像输出在触摸屏151上时才输出。
此外,如图17B所示,指示物1710可输出用于指引所输入的备忘录的备忘录信息。具体地讲,当输出在触摸屏151上的处理图像中包括备忘录时,控制器180可允许备忘录信息被包括在指示物中,使得当输出与处理图像对应的指示物时,所输入的备忘录被指引给用户。用户可利用备忘录信息来识别备忘录的存在以及输入备忘录的点。
如果对备忘录信息1714施加触摸输入,则构成处理图像1700的多个图像当中的与备忘录信息1714对应的任一个图像被输出在触摸屏151上。另外,备忘录随所述一个图像一起输出在触摸屏151上。当备忘录是语音备忘录时,通过设置在移动终端中的音频输出模块152来输出语音备忘录。当备忘录是文本备忘录时,文本备忘录随所述一个图像一起输出在触摸屏151上。
用户可利用处理图像感觉到目标的透视,并且将与目标有关的备忘录插入到处理图像中。因此,用户可记录并存储关于以特定拍摄角度拍摄的目标的想法和感觉,并且与其他人分享该想法和感觉。
图18A和图18B是示出基于对处理图像施加的触摸输入来控制处理图像的输出的方法的示图。
当输出处理图像时,控制器180控制触摸屏151输出包括在处理图像中的多个图像当中的任一个图像。
另外,控制器180可基于对处理图像施加的触摸输入来控制处理图像的输出。
例如,如图18A所示,当感测到从第一点连续地移至第二点的轻拂输入时,控制器180可将输出的任一个图像改变为包括在处理图像中的另一图像。
在这种情况下,所述另一图像可根据轻拂输入的方向、速度和移动距离而改变。用户施加垂直/横向轻拂输入,以按照各种角度来查看包括在处理图像中的目标。
此外,控制器180可将输出在触摸屏151上的图像的整个区域划分成与目标对应的目标区域以及不与目标对应的背景区域。另外,当施加轻拂输入时,控制器180可控制触摸屏151在背景区域维持原样的状态下仅改变目标区域。
例如,当处理图像由第一图像和第二图像组成时,第一图像可被划分成第一目标区域和第一背景区域,并且第二图像可被划分成第二目标区域和第二背景区域。如果在显示第一图像的状态下施加轻拂输入,则控制器180在第一背景区域维持原样的状态下将第一目标区域改变为第二目标区域。即,能够获得就像在背景维持原样的状态下仅目标旋转一样的效果。
此外,如果在包括在处理图像中的多个图像当中的任一个图像输出的同时施加放大输入,则控制器180可控制触摸屏151将包括在处理图像中的多个图像当中的另一图像随所述一个图像一起输出。这里,放大输入是指这样的触摸输入,其中,施加第一触摸输入和第二触摸输入,并且第一触摸输入和第二触摸输入中的至少一个在使得第一触摸输入和第二触摸输入彼此远离的方向上移动。例如,如图18B所示,如果在输出包括在处理图像中的第一图像的同时感测到放大输入,则控制器180可控制触摸屏151原样输出第一图像,并且将包括在处理图像中的第二图像输出在触摸屏151的部分区域中。因此,用户可同时识别以不同角度拍摄的多个图像。
各种实施方式可利用存储有指令的机器可读介质来实现,所述指令由处理器执行以执行本文呈现的各种方法。可能的机器可读介质的示例包括HDD(硬盘驱动器)、SSD(固态盘)、SDD(硅磁盘驱动器)、ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置、本文呈现的其它类型的存储介质及其组合。如果需要,机器可读介质可按照载波的形式实现(例如,经由互联网的传输)。所述处理器可包括移动终端的控制器180。
上述实施方式和优点仅是示例性的,不应被解释为限制本公开。本教导可容易地应用于其它类型的设备。此说明书旨在为例示性的,而非限制权利要求的范围。对于本领域技术人员而言,许多另选形式、修改形式和变化形式将是显而易见的。本文所述的示例性实施方式的特征、结构、方法和其它特性可按照各种方式来组合以获得附加和/或另选的示例性实施方式。
由于本发明的特征可在不脱离其特性的情况下按照多种形式具体实现,所以还应该理解,除非另外指明,否则上述实施方式不受以上描述的任何细节的限制,而是应该在所附权利要求书中限定的范围内广义地解释,因此,落入权利要求书的范围或其等同范围内的所有变化和修改旨在被所附权利要求书涵盖。
Claims (20)
1.一种移动终端,该移动终端包括:
相机;
传感器;
存储器;
触摸屏;以及
控制器,该控制器被配置为:
使得所述触摸屏显示经由所述相机接收的第一图像;
使得所述存储器暂时存储显示在所述触摸屏上的所述第一图像;
响应于通过所述传感器感测到所述移动终端的围绕包括在所述第一图像中的目标的第一运动来生成第二图像,该第二图像包括所述第一图像的至少部分与经由所述相机依次接收的多个连续图像的合并;并且
使得所述存储器存储所述第二图像。
2.根据权利要求1所述的移动终端,其中,所述控制器还被配置为:
识别所述多个连续图像当中的第三图像,该第三图像是在所述第一运动结束的时间点接收的图像;并且
当识别出所述第三图像时使得所述触摸屏显示指引信息,该指引信息指示正生成所述第二图像。
3.根据权利要求1所述的移动终端,其中,
所述多个连续图像中的每一个包括所述目标的图像;并且
所述第一运动是围绕所述目标的至少阈值角度的旋转运动。
4.根据权利要求1所述的移动终端,其中,所述控制器还被配置为使得所述触摸屏显示指示所述第二图像的指示物。
5.根据权利要求4所述的移动终端,其中,所述控制器还被配置为:
围绕包括在所述第一图像中的所述目标的图像设定虚拟拍摄区域;
将所述虚拟拍摄区域划分成基于所述移动终端的运动执行拍摄的第一区域以及不执行拍摄的第二区域;并且
使得所述触摸屏显示与所述第二图像对应的指示物,
其中,所述指示物被配置为指引所述移动终端的向所述第一区域或所述第二区域中的至少一个中的运动。
6.根据权利要求5所述的移动终端,其中,当所述指示物被配置为指引向所述第二区域中的运动时,所述目标被以各种角度拍摄。
7.根据权利要求5所述的移动终端,其中,所述控制器还被配置为响应于在生成所述第二图像的同时从用户接收的拍摄命令,使得所述存储器存储通过所述相机捕获的并且独立于所述第二图像显示在所述触摸屏上的第三图像,所述第三图像是静止图像。
8.根据权利要求7所述的移动终端,其中,
所述控制器还被配置为在预览图像被显示在所述触摸屏上的同时使得所述触摸屏显示与独立地存储的所述第三图像对应的缩略图图像;并且
所述缩略图图像与所述指示物一起显示在所述触摸屏上。
9.根据权利要求5所述的移动终端,其中,
所述控制器还被配置为当所述第二图像的生成完成时,使得所述存储器将所述第二图像与和所述第一区域或所述第二区域中的至少一个有关的信息一起存储;并且
所述第二图像作为单个文件被存储。
10.根据权利要求9所述的移动终端,其中,所述控制器还被配置为:
使得所述存储器存储与所述第一区域和所述第二区域有关的信息,使得所存储的信息与所存储的第二图像关联;
识别出通过所述相机捕获的预览图像包括与所存储的第二图像中所包括的目标的图像匹配的目标的图像;并且
基于与所述第一区域和所述第二区域有关的所述信息使得所述触摸屏显示包括在所述第二图像中的所述多个连续图像当中的最后图像,以使得能够从所述最后图像继续所述目标的拍摄。
11.根据权利要求10所述的移动终端,其中,所述预览图像和所述最后图像彼此交叠地显示。
12.根据权利要求11所述的移动终端,其中,所述控制器还被配置为当所述预览图像与所述最后图像匹配时,响应于所述移动终端的围绕所述目标的进一步运动,基于所存储的第二图像来生成第三图像。
13.根据权利要求1所述的移动终端,其中,所述控制器还被配置为响应于用户输入如下使得所述触摸屏显示所存储的第二图像:
获得包括在所存储的第二图像中的所述多个连续图像的虚拟中心点;以及
使得所述触摸屏基于所述虚拟中心点依次显示所述多个连续图像。
14.根据权利要求13所述的移动终端,其中,
所述控制器还被配置为在所述第二图像被显示的同时使得所述触摸屏显示图形对象;并且
所述图形对象被配置为针对所存储的第二图像的所有再现区段指引各个再现区段的拍摄属性。
15.根据权利要求14所述的移动终端,其中,所述拍摄属性包括由所述相机和所述目标限定的拍摄角度、所述相机的移动方向、所述相机的移动速度或者所述相机的放大倍率中的至少一个。
16.根据权利要求15所述的移动终端,其中,所述控制器还被配置为当所存储的第二图像被显示时,基于所述拍摄属性来调节所述多个连续图像的再现速度。
17.根据权利要求13所述的移动终端,其中,所述控制器还被配置为:
检测在所存储的第二图像被显示的同时通过所述传感器感测到的所述移动终端的运动;并且
使得所述触摸屏基于所述虚拟中心点按照与所检测到的运动对应的顺序来显示包括在所述第二图像中的图像。
18.根据权利要求17所述的移动终端,其中,所述控制器还被配置为在所存储的第二图像被显示的同时,当所检测到的运动满足预定条件时,使得所述触摸屏停止显示所述第二图像并且显示所述多个连续图像和所述第一图像当中的一个图像。
19.根据权利要求1所述的移动终端,其中,
所述移动终端包括设置有所述触摸屏的前侧以及与所述前侧相对的后侧;
所述相机包括设置在所述前侧的第一相机以及设置在所述后侧的第二相机;并且
所述控制器还被配置为利用经由所述第二相机接收的图像来生成所述第二图像,同时利用通过所述第一相机捕获的图像来生成通过捕获外部环境而获得的全景图像。
20.根据权利要求19所述的移动终端,其中,所述控制器还被配置为将所述第二图像与所述全景图像中的包括所述目标的图像的一部分组合。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0103311 | 2015-07-21 | ||
KR1020150103311A KR20170011190A (ko) | 2015-07-21 | 2015-07-21 | 이동 단말기 및 그것의 제어방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106371782A true CN106371782A (zh) | 2017-02-01 |
CN106371782B CN106371782B (zh) | 2021-03-19 |
Family
ID=54477817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610171899.2A Expired - Fee Related CN106371782B (zh) | 2015-07-21 | 2016-03-24 | 移动终端及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10021297B2 (zh) |
EP (1) | EP3163401B1 (zh) |
KR (1) | KR20170011190A (zh) |
CN (1) | CN106371782B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106791455A (zh) * | 2017-03-31 | 2017-05-31 | 努比亚技术有限公司 | 全景拍摄方法及装置 |
CN110830704A (zh) * | 2018-08-07 | 2020-02-21 | 纳宝株式会社 | 旋转图像生成方法及其装置 |
CN112637491A (zh) * | 2020-12-18 | 2021-04-09 | 维沃移动通信(杭州)有限公司 | 拍摄方法和拍摄装置 |
CN114822269A (zh) * | 2022-06-27 | 2022-07-29 | 深圳市联诚发科技股份有限公司 | 飘带状显示屏的智能显示方法、装置、设备及存储介质 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104765886A (zh) * | 2015-04-29 | 2015-07-08 | 百度在线网络技术(北京)有限公司 | 一种基于图像的信息获取方法和装置 |
WO2016203282A1 (en) | 2015-06-18 | 2016-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to capture photographs using mobile devices |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
KR102155895B1 (ko) * | 2015-11-26 | 2020-09-14 | 삼성전자주식회사 | 객체를 추적하여 영상을 수신하는 방법 및 장치 |
KR20170096499A (ko) * | 2016-02-16 | 2017-08-24 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN106096349A (zh) * | 2016-06-07 | 2016-11-09 | 惠州Tcl移动通信有限公司 | 一种基于锁屏快速开启应用的方法及移动终端 |
US10037780B1 (en) | 2016-07-13 | 2018-07-31 | Gracenote, Inc. | Computing system with video content generation feature |
JP6742869B2 (ja) * | 2016-09-15 | 2020-08-19 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
KR102598082B1 (ko) * | 2016-10-28 | 2023-11-03 | 삼성전자주식회사 | 영상 표시 장치, 모바일 장치 및 그 동작방법 |
US10665024B2 (en) * | 2016-12-12 | 2020-05-26 | Fyusion, Inc. | Providing recording guidance in generating a multi-view interactive digital media representation |
KR102650189B1 (ko) * | 2016-12-26 | 2024-03-22 | 삼성전자주식회사 | 전자 장치 및 전자 장치 제어 방법 |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US10620779B2 (en) * | 2017-04-24 | 2020-04-14 | Microsoft Technology Licensing, Llc | Navigating a holographic image |
TWI636316B (zh) * | 2017-05-05 | 2018-09-21 | 致伸科技股份有限公司 | 通訊裝置及其光學裝置 |
US10313651B2 (en) * | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
USD837807S1 (en) * | 2017-06-30 | 2019-01-08 | Microsoft Corporation | Display screen with animated graphical user interface |
CN108038820B (zh) * | 2017-11-14 | 2021-02-02 | 影石创新科技股份有限公司 | 一种实现子弹时间拍摄效果的方法、装置及全景相机 |
TWI642902B (zh) * | 2017-11-28 | 2018-12-01 | 寶成工業股份有限公司 | 鞋面打粗的視覺檢測裝置 |
CN111615832B (zh) * | 2018-01-22 | 2022-10-25 | 苹果公司 | 用于生成平面视频内容的合成现实重构的方法和设备 |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
CN108829482B (zh) * | 2018-06-20 | 2022-04-05 | 广州视源电子科技股份有限公司 | 数据传输协作控制系统、方法、存储介质及交互设备 |
USD892136S1 (en) | 2018-10-19 | 2020-08-04 | Microsoft Corporation | Display screen with animated graphical user interface |
USD891442S1 (en) | 2018-10-21 | 2020-07-28 | Microsoft Corporation | Display screen with animated graphical user interface |
KR20200101226A (ko) * | 2019-02-19 | 2020-08-27 | 삼성전자주식회사 | 촬영된 이미지를 처리하기 위한 방법 및 그 전자 장치 |
CN112825013A (zh) * | 2019-11-20 | 2021-05-21 | 百度在线网络技术(北京)有限公司 | 终端设备的控制方法和装置 |
KR20210101697A (ko) * | 2020-02-10 | 2021-08-19 | 삼성전자주식회사 | 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치 |
KR102159834B1 (ko) * | 2020-07-13 | 2020-09-24 | 주식회사 제너럴이노베이션즈 | 카메라 이미지 합성 시스템 |
US20220406003A1 (en) * | 2021-06-17 | 2022-12-22 | Fyusion, Inc. | Viewpoint path stabilization |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090021576A1 (en) * | 2007-07-18 | 2009-01-22 | Samsung Electronics Co., Ltd. | Panoramic image production |
US20130165194A1 (en) * | 2011-12-22 | 2013-06-27 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling a game device, and information storage medium |
CN103795851A (zh) * | 2012-10-31 | 2014-05-14 | Lg电子株式会社 | 移动终端及其控制方法 |
US20140267387A1 (en) * | 2013-03-14 | 2014-09-18 | Samsung Electronics Co., Ltd. | Area selection processing apparatus and method for media editing and computer readable recording medium |
US20140300693A1 (en) * | 2011-11-07 | 2014-10-09 | Sony Computer Entertainment Inc. | Image generation apparatus and image generation method |
CN104243805A (zh) * | 2013-06-20 | 2014-12-24 | Lg电子株式会社 | 移动终端和控制移动终端的方法 |
US20150022559A1 (en) * | 2013-07-18 | 2015-01-22 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying images in portable terminal |
CN104349052A (zh) * | 2013-07-23 | 2015-02-11 | Lg电子株式会社 | 移动终端及其全景拍摄方法 |
US20150049019A1 (en) * | 2009-06-04 | 2015-02-19 | Sony Corporation | Control device, input device, control system, handheld device, and control method |
US20150062289A1 (en) * | 2013-08-28 | 2015-03-05 | Samsung Electronics Co., Ltd. | Method for shooting image and electronic device thereof |
CN104780262A (zh) * | 2014-01-15 | 2015-07-15 | Lg电子株式会社 | 移动终端及其控制方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102176217B1 (ko) * | 2013-12-31 | 2020-11-09 | 주식회사 케이티 | 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치 |
US20150215532A1 (en) * | 2014-01-24 | 2015-07-30 | Amazon Technologies, Inc. | Panoramic image capture |
-
2015
- 2015-07-21 KR KR1020150103311A patent/KR20170011190A/ko not_active Application Discontinuation
- 2015-10-29 EP EP15003094.8A patent/EP3163401B1/en not_active Not-in-force
- 2015-10-30 US US14/929,025 patent/US10021297B2/en not_active Expired - Fee Related
-
2016
- 2016-03-24 CN CN201610171899.2A patent/CN106371782B/zh not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090021576A1 (en) * | 2007-07-18 | 2009-01-22 | Samsung Electronics Co., Ltd. | Panoramic image production |
US20150049019A1 (en) * | 2009-06-04 | 2015-02-19 | Sony Corporation | Control device, input device, control system, handheld device, and control method |
US20140300693A1 (en) * | 2011-11-07 | 2014-10-09 | Sony Computer Entertainment Inc. | Image generation apparatus and image generation method |
US20130165194A1 (en) * | 2011-12-22 | 2013-06-27 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling a game device, and information storage medium |
CN103795851A (zh) * | 2012-10-31 | 2014-05-14 | Lg电子株式会社 | 移动终端及其控制方法 |
US20140267387A1 (en) * | 2013-03-14 | 2014-09-18 | Samsung Electronics Co., Ltd. | Area selection processing apparatus and method for media editing and computer readable recording medium |
CN104243805A (zh) * | 2013-06-20 | 2014-12-24 | Lg电子株式会社 | 移动终端和控制移动终端的方法 |
US20150022559A1 (en) * | 2013-07-18 | 2015-01-22 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying images in portable terminal |
CN104349052A (zh) * | 2013-07-23 | 2015-02-11 | Lg电子株式会社 | 移动终端及其全景拍摄方法 |
US20150062289A1 (en) * | 2013-08-28 | 2015-03-05 | Samsung Electronics Co., Ltd. | Method for shooting image and electronic device thereof |
CN104780262A (zh) * | 2014-01-15 | 2015-07-15 | Lg电子株式会社 | 移动终端及其控制方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106791455A (zh) * | 2017-03-31 | 2017-05-31 | 努比亚技术有限公司 | 全景拍摄方法及装置 |
CN110830704A (zh) * | 2018-08-07 | 2020-02-21 | 纳宝株式会社 | 旋转图像生成方法及其装置 |
CN112637491A (zh) * | 2020-12-18 | 2021-04-09 | 维沃移动通信(杭州)有限公司 | 拍摄方法和拍摄装置 |
CN114822269A (zh) * | 2022-06-27 | 2022-07-29 | 深圳市联诚发科技股份有限公司 | 飘带状显示屏的智能显示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3163401B1 (en) | 2019-07-03 |
CN106371782B (zh) | 2021-03-19 |
US20170026574A1 (en) | 2017-01-26 |
EP3163401A1 (en) | 2017-05-03 |
KR20170011190A (ko) | 2017-02-02 |
US10021297B2 (en) | 2018-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106371782A (zh) | 移动终端及其控制方法 | |
CN105278855B (zh) | 移动终端及其控制方法 | |
CN106257909B (zh) | 移动终端及其控制方法 | |
US10356398B2 (en) | Method for capturing virtual space and electronic device using the same | |
CN104461410B (zh) | 移动通信系统、移动终端及其控制方法 | |
CN105259654B (zh) | 眼镜式终端及其控制方法 | |
US10104312B2 (en) | Mobile terminal and method for controlling the same | |
US10044928B2 (en) | Mobile terminal and method for controlling the same | |
CN106850938A (zh) | 移动终端及其控制方法 | |
EP3367648B1 (en) | Automatic photographing dependent on positioning on preview screen | |
CN105453444B (zh) | 移动终端及其控制方法 | |
CN107580693A (zh) | 移动终端及其控制方法 | |
CN108600605A (zh) | 移动终端及其控制方法 | |
CN107040646A (zh) | 移动终端及其控制方法 | |
CN106210184A (zh) | 移动终端及其控制方法 | |
CN107637058A (zh) | 移动终端及其控制方法 | |
CN106412230A (zh) | 移动终端及其控制方法 | |
CN106406688B (zh) | 移动终端及其控制方法 | |
CN106201391B (zh) | 移动终端系统及其控制方法 | |
CN105549870A (zh) | 移动终端及其控制方法 | |
CN106686206A (zh) | 移动终端及其控制方法 | |
CN105892472A (zh) | 移动终端及其控制方法 | |
CN106713738A (zh) | 移动终端及其控制方法 | |
CN105718187A (zh) | 移动终端及控制移动终端的内容的方法 | |
CN106899801A (zh) | 移动终端及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210319 |