CN106488323A - 移动终端及其控制方法 - Google Patents
移动终端及其控制方法 Download PDFInfo
- Publication number
- CN106488323A CN106488323A CN201610739471.3A CN201610739471A CN106488323A CN 106488323 A CN106488323 A CN 106488323A CN 201610739471 A CN201610739471 A CN 201610739471A CN 106488323 A CN106488323 A CN 106488323A
- Authority
- CN
- China
- Prior art keywords
- frame
- mobile terminal
- input
- video
- playback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000033001 locomotion Effects 0.000 claims description 58
- 230000004044 response Effects 0.000 claims description 44
- 238000005096 rolling process Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 abstract description 347
- 238000004891 communication Methods 0.000 description 58
- 230000008859 change Effects 0.000 description 25
- 230000008901 benefit Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 11
- 230000000712 assembly Effects 0.000 description 9
- 238000000429 assembly Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000005452 bending Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 108090000565 Capsid Proteins Proteins 0.000 description 7
- 239000011469 building brick Substances 0.000 description 7
- 210000003811 finger Anatomy 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000007774 longterm Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 239000012528 membrane Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229920003002 synthetic resin Polymers 0.000 description 3
- 239000000057 synthetic resin Substances 0.000 description 3
- 241000256844 Apis mellifera Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000010408 film Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 229920001296 polysiloxane Polymers 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000007430 reference method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 239000010936 titanium Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000001962 electrophoresis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000000178 monomer Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000741 silica gel Substances 0.000 description 1
- 229910002027 silica gel Inorganic materials 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及移动终端及其控制方法。更具体地说,本发明涉及能够改变包括360的视角的多视点视频中的回放时间点和回放视角的移动终端及其控制方法。
Description
本申请要求2015年8月26日提交的U.S.临时申请No.62/209,901以及2015年11月9日提交的韩国申请No.10-2015-0156686的优先权,其全部内容在此引入以供参考。
技术领域
本发明涉及移动终端及其控制方法。更特别地说,本发明涉及能够改变包括360度视角的多视点视频的回放时间和回放角度的移动终端及其控制方法。
背景技术
根据它们的移动性,终端通常可以被分类成移动/便携式终端或者固定终端。根据是否用户能够直接地携带终端,移动终端也可以被分类成手持式终端或者车载终端。
移动终端已经变成日益增长更多的功能。这样的功能的示例包括数据和语音通信、经由相机捕获图像和视频、记录音频、经由扬声器系统播放音乐文件、以及在显示器上显示图像和视频。一些移动终端包括支持玩游戏的附加的功能性,而其它的终端被配置为多媒体播放器。最近,移动终端已经被配置成接收允许观看诸如视频和电视节目的内容的广播和多播信号。
随着其变成多功能的,能够允许移动终端捕获静止图像或者运动图像,播放音乐或者视频文件、玩游戏、接收广播等等,使得被实现为一体化多媒体播放器。
正在不断进行努力以支持和增加移动终端的功能性。这样的努力包括软件和硬件改进,以及在结构组件中的变化和改进。
当用户使用包括360度视角的VR(虚拟现实)视频时,要求能够在进度条上容易且直观地不仅改变回放时间,而且改变回放角度的方法。当用户观看包括360度视角的视频时,如果用户能够看到仅在360度中的部分角度的视频,则用户会不知道在不同视角中捕获的对象或人。
发明内容
因此,本发明针对基本上消除由于现有技术的限制和缺点导致的一个或多个问题的装置及其方法。
本发明的目的是解决上述问题和获得另外的益处。当在捕获360度的视频中,仅显示部分视角区时,本发明的另一目的是提供能够通过输入到进度条或帧上的输入信号,使用相同时间的不同回放角度的移动终端及其控制方法。
本发明的另一目的是提供当在捕获360度的多视点视频中的部分视角区的基础上播放视频时,能提供有关其他视角区中的对象或人的运动的信息的移动终端及其控制方法。
本发明的另外的益处、目的和特征将部分在下述说明书中阐述以及部分对本领域的普通技术人员来说,在研究下文后,将变得显而易见,或可以从实施本发明来了解。本发明的目的和其他益处可以通过在撰写的说明书及其权利要求以及附图中具体指出的结构实现或获得。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据一个实施例,一种控制终端包括显示单元、感测输入信号的感测单元以及控制器,该控制器控制显示单元和感测单元来显示多视点视频的进度条和与来自多视点视频的在第一时间点处的第一视角区相对应的第一帧,响应于在进度条上感测到的第一输入信号,将显示的时间指示符从与第一时间点相对应的在进度条上的位置移动到与进度条上的第二时间点相对应的位置,并且显示与第二时间点处的第一视角区相对应的第一缩略图图像,以及根据在第二缩略图图像上感测到的第二输入信号,显示与第二时间点处的第二视角区相对应的第二缩略图图像。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到第二缩略图图像的输入,显示对应于第二缩略图图像的帧。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于在施加到第一缩略图图像的输入之前感测到的相应输入,在第一缩略图图像上显示缩略图编辑指示符。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到第一缩略图图像的第二输入,显示对应于与第一缩略图图像的回放时间点相同的回放时间点处的不同回放角度的第三缩略图图像。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到第一帧的输入,显示对应于在第一回放时间点处不同于第一回放角度的第三回放角度的第二帧。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器控制显示单元响应于施加到第一帧的输入,同时显示在第一回放时间点处的第一帧和与不同于第一回放角度的第三回放角度相对应的第二帧。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到第一帧的第二输入,显示对应于不同于第一帧的回放角度的回放角度的第三帧,以及显示对应于不同于第二帧的回放角度的回放角度的第四帧。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于相应输入,显示具有缩小的显示尺寸的第一帧。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元显示指示第一帧的第一回放角度的角度指示符。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到角度指示符的输入,显示指示不同于第一帧的回放角度的回放角度的第二帧。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到第一帧的输入,显示对应于360度的回放角度的第二帧和用于编辑回放角度的编辑指示符。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,当在显示第一帧的同时感测到施加到回放图标的输入时,控制器控制显示单元顺序地滚动以及显示与360度多视点视频的每个回放角度相对应的每个帧,并且在顺序地滚动和显示每个帧后,播放对应于第一帧的第一视频,其中,被显示的帧的每个在第一回放时间点开始,其中,被显示的帧的每个对应于预定倾角,以及其中,对应于每个帧的每个回放角度组成360度多视点视频的一部分。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,当顺序地显示帧,感测到施加到帧中的一个的相应输入时,控制器控制显示单元在顺序地显示对应于360度多视点视频的每个回放角度的每个帧后,播放对应于在其上感测到相应输入的帧的第二视频。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,控制器进一步控制显示单元响应于施加到在第一帧中显示的对象的输入,显示与在第三回放时间点处在其中出现多视点视频的对象的第二帧相对应的第三缩略图图像。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,如果在播放对应于第一帧的第一视频的同时,在除第一回放角度外的回放角度处识别对象的运动,则控制器进一步控制显示单元显示运动指示符。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,如果在播放对应于第一帧的第一视频的同时,在除第一回放角度外的回放角度处识别对象的运动,则控制器进一步控制显示单元显示包含对象的运动缩略图,并且响应于施加到运动缩略图的输入,播放指示对应于运动缩略图的回放角度的第二视频。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,在播放视频的同时,在除第一回放角度外的回放角度处识别对象的运动时,控制器进一步控制显示单元显示包含对象的运动缩略图,并且其中,如果感测到施加到运动缩略图的输入,则控制器停止视频的播放,并且控制显示单元顺序地滚动并且显示与多视点视频的360不同角度的每个相对应的每个帧,其中,被显示的帧中的每个对应于输入被施加到运动缩略图的回放时间点,其中,被显示的帧的每个对应于预定倾角,以及其中,对应于每个帧的每个回放角度组成360度多视点视频的一部分。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,多视点视频对应于以预定倾角由多个相机捕获360度的视频。
为实现这些目的和其他益处并且根据本发明的目的,如本文体现和广泛所述,根据不同实施例,一种控制移动终端的方法包括步骤:显示与多视点视频相对应的进度条和与来自多视点视频的在第一时间点处的第一视角区相对应的第一帧,响应于在进度条上感测到的第一输入信号,将时间指示符从与第一时间点相对应的在进度条上的位置移动到与进度条上的第二时间点相对应的位置,并且显示与第二时间点处的第一视角区相对应的第一缩略图图像,以及响应在第二缩略图图像上感测到的第二输入信号,显示与第二时间点的第二视角区相对应的第二缩略图图像。
将理解到,本发明的优选实施例的上述概述和下述详细描述是示例性和说明性的,旨在提供所要求的本发明的进一步说明。
附图说明
附图被包括以提供对本公开的进一步理解,并且被并入且组成本说明书的一部分,附图图示示例性实施例并且连同描述一起用于解释本公开的原理。
在附图中:
图1A是根据本公开的移动终端的框图;
图1B和图1C是从不同方向看的移动终端的一个示例的概念图;
图2是根据本公开的替选实施例的可变形移动终端的概念图;
图3是根据本发明的另一替选实施例的可佩戴移动终端的概念图;
图4是根据本公开的另一替选实施例的可佩戴移动终端的概念图;
图5是根据本发明的一个实施例的在移动终端中显示的多视点频的示例的图;
图6是根据本发明的一个实施例的在移动终端中显示的多视点视频的指示符的示例的图;
图7是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放时间和回放视角的示例的图;
图8是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放时间和回放视角的示例的图;
图9是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的缩略图图像的回放视角的示例的图;
图10是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放视角的示例的图;
图11是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放视角的示例的图;
图12是根据本发明的一个实施例的同时显示在移动终端中显示的多视点视频中包括的多个回放视角的示例的图;
图13是根据本发明的一个实施例的同时显示在移动终端中显示的多视点视频中包括的多个回放视角的示例的图;
图14是根据本发明的一个实施例,根据在移动终端中显示的多视点视频中的角度指示符上输入的输入信号,改变回放视角的示例的图;
图15是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放视角的示例的图;
图16是根据本发明的一个实施例的当播放在移动终端中显示的多视点视频时,显示全部回放视角的示例的图;
图17是根据本发明的一个实施例的当播放在移动终端中显示的多视点视频时,显示全部回放视角的示例的图;
图18是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放视角的示例的图;
图19是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放视角的示例的图;
图20是根据本发明的一个实施例的用于搜索包括在移动终端中显示的多视点视频中的对象的示例的图;
图21和22是根据本发明的一个实施例的用于在播放移动终端中显示的多视点视频中间手动地搜索对象的移动的示例的图;
图23是根据本发明的一个实施例的用于在播放移动终端中显示的多视点视频中间自动地搜索对象的移动的示例的图;
图24是根据本发明的一个实施例的用于在播放移动终端中显示的多视点视频中间自动地搜索对象的移动的示例的图;
图25是根据本发明的一个实施例的提供包括在移动终端中显示的多视点视频的图库的预览的示例的图;
图26是根据本发明的一个实施例的提供包括在移动终端中显示的多视点视频的图库的预览的示例的图;
图27是根据本发明的一个实施例的用于控制移动终端的方法的流程图。
具体实施方式
参考附图,现在将根据在此公开的示例性实施例详细地给出描述。为了参考附图简要描述,相同的或者等效的组件可以被设有相同或者相似的附图标记,并且其描述将不会被重复。通常,诸如“模块”和“单元”的后缀可以被用于指代元件或者组件。这样的后缀的使用在此旨在仅有助于说明书的描述,并且后缀本身旨在没有给予任何特定的意义或者功能。在本公开中,为了简要,通常已经省略了在相关领域中对于普通技术人员来说公知的那些。附图被用于帮助容易地理解各种技术特征并且应理解附图没有限制在此提出的实施例。正因如此,本公开应被解释为延伸到除了在附图中特别陈述的之外的任何改变、等同物以及替代。
将要理解的是,尽管在此可以使用术语第一、第二等等以描述各种元件,但是这些元件不应被这些术语限制。这些术语通常仅被用于区分一个元件与另一个元件。
将要理解的是,当元件被称为“连接”另一元件时,元件能够与另一元件连接或者也可以存在中间元件。相反地,当元件被称为“直接地连接”另一元件时,不存在中间元件。
单数表示可以包括复数表示,除非根据上下文其表示明确不同的意义。在此使用诸如“包括”或者“具有”的术语并且应理解它们旨在指示在本说明书中公开的数个组件、功能或者步骤的存在,并且也理解可以同样地利用更多或者更少的组件、功能或者步骤。
可以使用各种不同类型的终端实现在此提出的移动终端。这样的终端的示例包括蜂窝电话、智能电话、用户装置、膝上型计算机、数字广播终端、个人数字助手(PDA)、便携式多媒体播放器(PMP)、导航仪、便携式计算机(PC)、板式PC、平板PC、超级本、可佩戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等等。
仅通过非限制性示例,将会参考特定类型的移动终端进行进一步的描述。然而,这样的教导同等地应用于其它类型的终端,诸如在上面注明的那些类型。另外,这样的教导也可以被应用于诸如数字TV、桌上型计算机等等的固定终端。
现在参考图1A-1C,其中图1A是根据本公开的移动终端的框图,并且图1B和图1C是从不同的方向看到的移动终端的一个示例的概念视图。
示出移动终端100,其具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180、以及电源单元190的各种组件。理解的是,不要求实现所有图示的组件,并且可以替换地实现更多或者更少的组件。
现在参考图1A,示出移动终端100,该移动终端100具有被配置有数个被共同实现的组件的无线通信单元110。例如,无线通信单元100通常包括允许在移动终端100与无线通信系统或者移动终端位于的网络之间的无线通信的一个或多个组件。
无线通信单元110通常包括一个或者多个模块,其允许诸如在移动终端100和无线通信系统之间的无线通信的通信、在移动终端100和另一移动终端之间的通信、在移动终端100与外部服务器之间通信。此外,无线通信单元110通常包括将移动终端100连接到一个或者多个网络的一个或者多个模块。为了有助于这样的通信,无线通信单元110包括一个或者多个广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、以及位置信息模块115中的一个或者多个。
输入单元120包括:用于获得图像或者视频的相机121;麦克风122,该麦克风122是一种用于输入音频信号的音频输入装置;以及用于允许用户输入信息的用户输入单元123(例如,触摸键、推动键、机械键、软键等等)。数据(例如,音频、视频、图像等等)通过输入单元120被获得并且可以根据装置参数、用户命令、以及其组合通过控制器180分析和处理。
通常使用被配置成感测移动终端的内部信息、移动终端的周围环境、用户信息等等的一个或者多个传感器实现感测单元140。例如,在图1A中,示出具有接近传感器141和照度传感器142的感测单元140。
必要时,感测单元140可以可替选地或者附加地包括其它类型的传感器或者装置,诸如触摸传感器、加速度传感器、磁传感器、G传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池量表、环境传感器(例如,气压计、湿度计、温度计、辐射监测传感器、热传感器、以及气体传感器等)、以及化学传感器(例如,电子鼻、医疗传感器、生物传感器等等),举了一些例子。移动终端100可以被配置成利用从感测单元140获得的信息,并且特别地,从感测单元140的一个或者多个传感器及其组合获得的信息。
输出单元150通常被配置成输出诸如音频、视频、触觉输出等等的各种类型的信息。示出具有显示单元151、音频输出模块152、触觉模块153、以及光学输出模块154的输出单元150。
显示单元151可以具有与触摸传感器的层间结构或者集成结构以便于促成触摸屏幕。触摸屏幕可以在移动终端100和用户之间提供输出接口,并且用作在移动终端100和用户之间提供输入接口的用户输入单元123。
接口单元160用作对接能够被耦合到移动终端100的各种类型的外部装置。例如,接口单元160可以包括任何有线或者无线端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。在一些情况下,响应于被连接到接口单元160的外部装置,移动终端100可以执行与被连接的外部装置相关联的各种控制功能。
存储器170通常被实现为存储数据以支持移动终端100的各种功能或者特征。例如,存储器170可以被配置成存储在移动终端100中执行的应用程序、用于移动终端100的操作的数据或者指令等等。经由无线通信可以从外部服务器下载这些应用程序中的一些。在制造或者装运时其它的应用程序可以被安装在移动终端100内,其通常是用于移动终端100的基本功能(例如,接收呼叫、拨打电话、接收消息、发送消息等等)的情况。通常,应用程序被存储在存储器170中、安装在移动终端100中,并且通过控制器180执行以执行用于移动终端100的操作(或者功能)。
除了与应用程序相关联的操作之外,控制器180通常用作控制移动终端100的整体操作。控制器180能够通过处理通过在图1A中描述的各种组件输入或者输出的信号、数据、信息等等,或者激活被存储在存储器170中的应用程序来提供或者处理适合于用户的信息或者功能。作为一个示例,控制器180根据已经被存储在存储器170中的应用程序的执行控制在图1A-1C中图示的一些组件或者所有组件。
电源单元190能够被配置成接收外部电力或者提供内部电力以便于供应对于操作被包括在移动终端100中的元件和组件所要求的适当的电力。电源单元190可以包括电池,并且电池可以被配置成被嵌入在终端主体中,或者被配置成从终端主体可拆卸。
根据下文所述的各个实施例,上述构成元件的至少一部分能以相互协同以实现移动终端的操作、移动终端的控制或控制移动终端的方法的方式工作。能以执行在存储器170中存储的至少一个或多个应用程序的方式,在移动终端上实现移动终端的操作、移动终端的控制或控制移动终端的方法。
在下文中,在描述通过移动终端100实现的各种实施例之前,将会更加详细地给出参考图1的前述组件的描述。关于无线通信单元110,广播接收模块111通常被配置成经由广播信道从外部广播管理实体接收广播信号和/或广播相关信息。广播信道可以包括卫星信道、陆地信道、或者两者。在一些实施例中,可以利用两个或者更多个广播接收模块111以有助于同时接收两个或者更多个广播信道,或者支持广播信道当中的切换。
系统能够产生和发送广播信号和/或广播相关信息,或者服务器能够接收事先产生的广播信号和/或者广播相关联信息,并且将这样的项目发送到移动终端。广播信号可以使用任何TV广播信号、无线电广播信号、数据广播信号、以及其组合等等来实现。在一些情况下广播信号可以进一步包括与TV或者无线电广播信号相结合的数据广播信号。
可以根据各种技术标准或者广播方法(例如,国际标准化组织(ISO)、国际电工委员会(IEC)、数字视频广播(DVB)、高级电视系统委员会(ATSC)等等)中的任意一个编码广播信号,用于数字广播信号的发送和接收。广播接收模块111能够使用适合于所采用的发送方法的方法接收数字广播信号。
广播相关信息的示例可以包括与广播频道、广播节目、广播事件、广播服务提供商等等相关联的信息。也可以经由移动通信网络提供广播相关信息,并且在这样的情况下,通过移动通信模块112接收。
可以以各种格式实现广播相关信息。例如,广播相关信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等。经由广播接收模块111接收到的广播信号和/或广播相关信息可以被存储在合适的设备,诸如存储器170中。
移动通信模块112能够将无线信号发送到一个或者多个网络实体并且/或者从一个或者多个网络实体接收无线信号。网络实体的典型示例包括基站、外部移动终端、服务器等等。这样的网络实体形成移动通信网络的一部分,其根据用于移动通信(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA 2000(码分多址2000)、EV-DO(增强的语音数据优化或者仅增强的语音数据)、宽带CDMA(WCDMA)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、长期演进(LTE)、高级长期演进(LTE-A)等等)的技术标准或者通信方法构造。
经由移动通信模块112发送和/或接收的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号、或者各种格式的数据以支持文本和多媒体消息的通信。
无线互联网模块113被配置成有助于无线互联网接入。此模块可以被内部地或者外部地耦合到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络发送和/或接收无线信号。
这样的无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(Wibro)、全球微波接入互操作(Wimax)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、长期演进(LTE)、高级LTE(LTE-A)等等。无线互联网模块113可以根据一个或者多个这样的无线互联网技术,或者其它的互联网技术发送/接收数据。
在一些实施例中,当根据作为移动通信网络的一部分的例如WiBro、HSDPA、HSUPA、GSM、CDMA、WCDMA、LTE、LTE-A等等实现无线互联网接入时,无线互联网模块113执行这样的无线互联网接入。这样,无线互联网模块113可以与移动通信模块112协作,或者用作移动通信模块112.
短程通信模块114被配置成有助于短程通信。适合于实现这样的短程通信的技术包括:蓝牙(BLUETOOTHTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(ZigBee)、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等等。经由无线局域网,短程通信模块114通常支持在移动终端100和无线通信系统之间的无线通信,在移动终端100和另一移动终端100之间的通信、或者在移动终端和另一移动终端100(或者外部服务器)位于的网络之间的通信。无线局域网的一个示例是无线个人域网。
在一些实施例中,另一移动终端(可以类似于移动终端100配置)可以是可佩戴设备,例如,智能手表、智能眼镜或者头戴式显示器(HMD),其能够与移动终端100交换数据(或者以其它方式与移动终端100协作)。短程通信模块114可以感测或者识别可佩戴设备,并且允许在可佩戴设备和移动终端100之间的通信。另外,当感测到的可佩戴设备是被授权与移动终端100通信的设备时,例如,控制器180可以使在移动终端100中处理的数据的至少一部分经由短程通信模块114传输到可佩戴设备。因此,可佩戴设备的用户可以在可佩戴设备上使用在移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户可以使用可佩戴设备应答呼叫。而且,当在移动终端100中接收到消息时,用户能够使用可佩戴设备检查接收到的消息。
位置信息模块115通常被配置成检测、计算、导出或者以其它方式识别移动终端的位置。作为示例,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块、或者两者。如有必要,位置信息模块115可以替换地或附加地与无线通信单元110的任何其它模块起作用以获得与移动终端的位置有关的数据。
作为一个示例,当移动终端使用GPS模块时,可以使用从GPS卫星发送的信号获取移动终端的位置。作为另一示例,当移动终端使用Wi-Fi模块时,能够基于将无线信号发送到Wi-Fi模块或者从Wi-Fi模块接收无线信号的无线接入点(AP)有关的信息获取移动终端的位置。
输入单元120可以被配置成允许对移动终端120的各种类型的输入。这样的输入的示例包括音频、图像、视频、数据、以及用户输入。使用一个或者多个相机121经常获得图像和视频输入。这样的相机121可以处理在视频或者图像捕获模式下通过图像传感器获得的静止图片或者视频的图像帧。被处理的图像帧能够被显示在显示单元151上或者被存储在存储器170中。同时,相机121可以以矩阵配置排列以允许具有多个角度或者焦点的多个图像被输入到移动终端100。而且,相机121可以位于立体排列以获取用于实现立体图像的左图像和右图像。
麦克风122一般被实现为准许将音频输入到移动终端100。根据在移动终端100中执行的功能能够以各种方式能够处理音频输入。如有必要,麦克风122可以包括各种噪声去除算法以去除在接收外部音频信号的过程中产生的不想要的噪声。
用户输入单元123是允许用户输入的组件。这样的用户输入可以使控制器180能够控制移动终端100的操作。用户输入单元123可以包括机械输入元件中的一个或者多个(例如,机械键、位于移动终端100的前和/或后表面或者侧表面上的按钮、薄膜开关、滚动轮、滚动开关等等)、或者触摸灵敏的输入元件等等。作为一个示例,触摸灵敏的输入元件可以是通过软件处理被显示在触摸屏上的虚拟键或者软键或者视觉键、或者位于在除了触摸屏之外的位置处的移动终端上的触摸键。另一方面,虚拟键或者视觉键可以以例如,图形、文本、图标、视频、或者其组合的各种形状显示在触摸屏上。
感测单元140通常被配置成感测移动终端的内部信息、移动终端的周围环境信息、用户信息等等中的一个或者多个。控制器180通常与感测单元140协作以基于感测信号控制移动终端100的操作或执行与被安装在移动终端中的应用程序相关联的数据处理、功能或者操作。使用任何种类的传感器可以实现感测单元140,现在将会更加详细地描述其中的一些。
接近传感器141指的是在没有机械接触的情况下通过使用磁场、红外线等等感测接近表面的对象、或者位于表面附近的对象的存在或者不存在的传感器。接近传感器141可以被布置在通过触摸屏覆盖的移动终端的内部区域处,或者触摸屏附近。
例如,接近传感器141可以包括任何透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等等。当触摸屏被实现为电容型时,接近传感器141能够通过电磁场响应于具有导电性的对象的接近的变化来感测指示器相对于触摸屏的接近。在这样的情况下,触摸屏(触摸传感器)也可以被归类成接近传感器。
术语“接近触摸”将会在此被经常引用以表示其中指示器被定位为接近触摸屏而没有接触触摸屏的场景。术语“接触触摸”将会在此被经常引用以表示其中指示器物理接触触摸屏的场景。对于与指示器相对于触摸屏的接近触摸相对应的位置,这样的位置将会对应于其中指示器垂直于触摸屏的位置。接近传感器141可以感测接近触摸,和接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等等)。
通常,控制器180处理与通过接近传感器141感测到的接近触摸和接近触摸模式相对应的数据,并且使在触摸屏上能够输出视觉信息。另外,根据是否相对于触摸屏上的点的触摸是接近触摸或者接触触摸,控制器180能够控制移动终端100执行不同的操作或者处理不同的数据。
使用任何各种触摸方法,触摸传感器能够感测被施加到诸如显示单元151的触摸屏的触摸。这样的触摸方法的示例包括电阻型、电容型、红外型、以及磁场型等等。
作为一个示例,触摸传感器可以被配置成将被施加到显示单元151的特定部分的压力的变化转换成电输入信号,或者将在显示单元151的特定部分处出现的电容转换成电输入信号。触摸传感器也可以被配置成不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力和/或触摸电容。触摸对象通常被用于将触摸输入施加到触摸传感器。典型的触摸对象的示例包括手指、触摸笔、触笔、指示器等等。
当通过触摸传感器感测触摸输入时,相应的信号可以被传送到触摸控制器。触摸控制器可以处理接收到的信号,并且然后将相应的数据传送到控制器180。因此,控制器180可以感测已经触摸显示单元151的哪一个区域。在此,触摸控制器可以是与控制器180分离的组件、控制器180、或者其组合。
在一些实施例中,控制器180可以根据触摸了触摸屏或者除了触摸屏之外被设置的触摸键的触摸对象的类型执行相同或者不同的控制。例如,基于移动终端100的当前操作状态或者当前执行的应用程序,可以决定根据提供触摸输入的对象是否执行相同或者不同的控制。
触摸传感器和接近传感器可以被单独地或者组合实现,以感测各种类型的触摸。这样的触摸包括短(或者轻敲)触摸、长触摸、多点触摸、拖动触摸、轻击触摸、捏缩触摸、捏放触摸、滑动触摸、悬停触摸等等。
如有必要,超声传感器可以被实现以使用超声波识别与触摸对象有关的位置信息。例如,控制器180可以基于通过照度传感器和多个超声传感器感测到的信息计算波生成源的位置。因为光比超声波快得多,所以光到达光学传感器的时间远远比超声波到达超声传感器的时间短。使用此事实可以计算波生成源的位置。例如,可以基于光作为参考信号使用与超声波到达传感器的时间的时间差计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等等)、光传感器(或者图像传感器)、以及激光传感器。
实现具有激光传感器的相机121可以允许相对于3D立体图像的物理对象的触摸的检测。光传感器可以被层压在显示设备上,或者与显示设备重叠。光传感器可以被配置成扫描接近触摸屏的物理对象的移动。更加详细地,光传感器可以包括在行和列处的光电二极管和晶体管以使用根据被施加的光的量改变的电信号扫描在光传感器处接收到的内容。即,光传感器可以根据光的变化计算物理对象的坐标从而获得物理对象的位置信息。
显示单元151通常被配置成输出在移动终端100中处理的信息。例如,显示单元151可以显示在移动终端100处执行的应用程序的执行屏幕信息或者响应于执行屏幕信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施例中,显示单元151可以被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可以采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等等的立体显示方案。
通常,3D立体图像可以包括左图像(例如,左眼图像)和右图像(例如,右眼图像)。根据如何将左和右图像组合成3D立体图像,3D立体成像方法能够被划分为其中左和右图像位于帧中的上和下的上下方法、其中左和右图像位于帧中的左右的左到右(左到右或者并排)方法、其中左和右图像以贴片的形式定位的棋盘方法、其中左和右图像通过列和行可替选地放置的隔行扫交错方法、以及其中基于时间左和右图像被可替选地显示的时间序列(或者逐帧)的方法。
而且,至于3D缩略图图像,从原始的图像帧的左图像和右图像能够分别产生左图像缩略图和右图像缩略图,并且然后被组合以产生单个3D缩略图图像。通常,术语“缩略图”可以被用于指代被缩小的图像或者被缩小的静止图像。通过与屏幕上的左图像和右图像之间的视差相对应的深度,利用其间的水平距离差可以显示被产生的左图像缩略图和右图像缩略图,从而提供立体空间感。
使用立体处理单元可以在立体显示单元上显示用于实现3D立体图像所需的左图像和右图像。立体处理单元能够接收3D图像并且提取左和右图像,或者能够接收2D图像并且将其变成左图像和右图像。
音频输出模块152通常被配置成输出音频数据。可以从任何数量的不同的来源获得这样的音频数据,使得可以从无线通信单元110接收音频数据或者可以已经将其存储在存储器170中。可以在诸如信号接收模式、呼叫模式、记录模式、语音识别模式、广播接收模式等等的模式期间输出音频数据。音频输出模块152能够提供与由移动终端100执行的特定功能(例如,呼叫信号接收声音、消息接收声音等等)有关的音频输出。音频输出模块152也可以被实现为接收器、扬声器、蜂鸣器等等。
触觉模块153能够被配置成产生用户能够感觉、感知、或者以其它方式体验的各种触觉效果。通过触觉模块153产生的触觉效果的典型示例是振动。能够通过用户选择或者通过控制器进行设置来控制通过触觉模块155产生的振动的强度、模式等等。例如,触觉模块153可以以组合的方式或者顺序的方式输出不同的振动。
除了振动之外,触觉模块153还能够生成各种其它的触觉效果,包括通过诸如垂直移动以接触皮肤的针排列的刺激的效果、通过喷孔或者吸入口的空气的喷射力或者吸力、对皮肤的触摸、电极的接触、静电力、通过使用能够吸收或者产生热的元件再现冷和暖的感觉的效果等等。
触觉模块153也能够被实现为允许用户通过诸如用户的手指或者手臂的肌肉感觉来感觉触觉效果,以及通过直接接触传递触觉效果。根据移动终端100的特定配置也可以设置两个或者更多个触觉模块153。
光学输出模块154能够使用光源的光输出用于指示事件产生的信号。在移动终端100中产生的事件的示例可以包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、电子邮件接收、通过应用的信息接收等等。
也可以以移动终端发射单色光或者具有多种颜色的光的方式实现通过光学输出模块154输出的信号。例如,当移动终端感测用户已经检查了产生的事件时信号输出可以被结束。
接口单元160用作用于要连接到移动终端100的外部设备的接口。例如,接口单元160能够接收从外部设备发送的数据,接收电力以传送到移动终端100内的元件和组件,或者将移动终端100的内部数据发送到这样的外部设备。接口单元160可以包括有线或者无线头戴式受话器端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有标识模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。
识别模块可以是存储用于认证使用移动终端100的权限的各种信息的芯片并且可以包括用户识别模块(UIM)、订户识别模块(SIM)、通用订户识别模块(USIM)等等。另外,具有识别模块的设备(在此也被称为“识别设备”)可以采用智能卡的形式。因此,识别设备经由接口单元160能够与终端100相连接。
当移动终端100与外部托架相连接时,接口单元160能够用作允许电力从托架供应到移动终端100的通道或者可以用作允许用户从托架输入的各种命令信号传递到移动终端的通道。从托架输入的各种命令信号或者电力可以作为用于识别移动终端被正确地安装在托架上的信号操作。
存储器170能够存储程序以支持移动终端180的操作并且存储输入/输出数据(例如,电话簿、消息、静止图像、视频等等)。存储器170可以存储与响应于触摸屏上的触摸输入输出的各种模式的振动和音频有关的数据。
存储器170可以包括一种或者多种类型的存储介质,包括闪存型、硬盘型、固态盘(SSD)型、硅盘型、多媒体卡式、卡型存储器(例如,SD或DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等等。也可以关于在诸如互联网的网络上执行存储器170的存储功能的网络存储设备操作移动终端100。
控制器180可以典型地控制移动终端100的一般操作。例如,当移动终端的状态满足预设条件时,控制器180可以设置或者释放用于限制用户输入与应用有关的控制命令的锁定状态。
控制器180也能够执行与语音呼叫、数据通信、视频呼叫等等相关联的控制和处理,或者执行模式识别处理以将在触摸屏上执行的手写输入或者绘图输入分别识别为字符或者图像。另外,控制器180能够控制这些组件中的一个或者组合以便于实现在此公开的各种示例性实施例。
电源单元190接收外部电力或者提供内部电力并且供应对于操作被包括在移动终端100中的各自的元件和组件所需的适当的电力。电源单元190可以包括电池,该电池通常是可充电的或者可拆卸地耦合到终端主体,用于充电。
电源单元190可以包括连接端口。连接端口可以被配置为接口单元160的一个示例,用于供应电力以对电池再充电的外部充电器被电气地连接到该接口单元160。
作为另一示例,电源单元190可以被配置成在没有使用连接端口的情况下以无线的方式对电池再充电。在本示例中,使用以磁感应为基础的感应耦合方法或者以电磁谐振为基础的电磁谐振耦合方法,电源单元190能够接收从外部无线电力发射器传递的电力。
可以使用例如软件、硬件、或者其任何组合,以计算机可读介质、机器可读介质、或者类似介质实现在此描述的各种实施例。
参考图1B和图1C,参考直板式终端主体,描述移动终端100。然而,移动终端100可以替选地已各种不同的配置中的任意一种来实现。这样的配置的示例包括手表式、夹式、眼镜型、或者折叠式、翻盖式、滑盖式、摇摆式、旋转式等的各种结构,其中两个或者更多个主体以相对可移动的方式被相互组合。在此的讨论将常常涉及特定型的移动终端(例如,直板式、手表式、眼睛型等等)。然而关于特定型移动终端的这种教导也将通常应用到其它型移动终端。
移动终端100将通常包括形成终端的外观的壳体(例如,外壳、外罩、盖等)。在本实施例中,壳体可以被划分成前壳体101和后壳体102。各种电子组件可以被合并在前壳体101和后壳体102之间形成的空间中。至少一个中间壳体可以被附加地布置在前壳体和后壳体101和102之间。
显示单元151能够被布置在终端主体的前表面上以输出信息。如所图示的,显示单元151的窗口151a能够被安装到前壳体101使得与前壳体101一起形成终端主体的前表面。
在一些实施例中,电子组件也可以被安装到后壳体102。这样的电子组件的示例可以包括可拆卸的电池、标识模块、存储卡等。用于覆盖电子组件的后盖103可以被可拆卸地耦合到后壳体102。因此,当从后壳体102拆卸后盖103时,被安装到后壳体102的电子组件可以被外部地暴露。
如所图示的,当后盖103被耦合到后壳体102时,后壳体102的侧表面可以被部分地暴露。在一些情况下,在耦合时,后壳体102也可以被后盖103完全地遮盖。在一些实施例中,后盖103可以包括用于外部地暴露相机121b或者音频输出模块152b的开口。
壳体101、102、103可以通过注入成型合成树脂形成或者可以由例如不锈钢(STS)、铝(Al)、钛(Ti)等的金属形成。
作为多个壳体形成用于容纳组件的内部空间的示例的替选,移动终端100可以被配置使得一个壳体形成内部空间。在本实例中,以合成树脂或者金属从侧表面延伸到后表面的方式来形成具有连体的移动终端100。
如有必要,移动终端100可以包括防水单元(未示出),用于防止水引入到终端主体。例如,防水单元可以包括防水构件,其位于窗口151a和前壳体101之间、在壳体101和后壳体102之间、或者后壳体102和后盖103之间,当这些壳体被耦合时密闭地密封内部空间。
移动终端可以包括显示单元151、第一和第二音频输出模块151a/151b、接近传感器141、照度传感器142、光学输出模块154、第一和第二相机121a/121b,、第一和第二操纵单元123a/123b、麦克风122、接口单元160等。
将会针对图1B和图1C示出的的移动终端100进行描述。显示单元151、第一音频输出模块151a、接近传感器141、照度传感器142、光学输出模块154、第一相机121a以及第一操纵单元123a被布置在终端主体的前表面上,第二操纵单元123b、麦克风122以及接口单元160被布置在终端主体的侧表面上,并且第二音频输出模块151b和第二相机121b被布置在终端主体的后表面上。
然而,应当理解,可替选的布置是可能的,并且在本公开的教导内。一些组件可以省略或者重新布置。例如,第一操纵单元123a可以不被布置在终端主体的另一表面上,并且第二音频输出模块152b可以被布置在终端主体的侧表面上。
显示单元151输出在移动终端100中处理的信息。显示单元151能够使用一个或多个合适的显示装置。例如,这样合适的显示装置的示例包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3维(3D)显示器、以及电子墨显示器,以及其组合。
可以使用能够实现相同或者不同显示技术的两个显示装置来实现显示单元151。例如,多个显示单元151可以被布置在一个侧面上以相互分开,或者这些装置可以被集成,或者这些装置可以被布置在不同的表面上。
显示单元151也能够包括触摸传感器,该触摸传感器感测在显示单元处接收到的触摸输入。当触摸被输入到显示单元151时,触摸传感器可以被配置成感测此触摸,并且控制器180(例如)能够生成与触摸相对应的控制命令或者其它信号。以触摸方式输入的内容可以是文本或者数值,或者能够以各种模式指示或者指定的菜单项目。
触摸传感器可以以被布置在窗口151a和窗口151a的后表面上的显示器之间的具有触摸图案的膜的形式,或者被直接地构图在窗口151a的后表面上的金属线来配置。或者,触摸传感器可以与显示器集成地形成。例如,触摸传感器可以被布置在显示器的基板上或者显示器内。
显示单元151也能够与触摸传感器一起形成触摸屏。在此,触摸屏可以用作用户输入单元123(参见图1A)。因此,触摸屏可以替换第一操纵单元123a的功能中的至少一些。
可以以用于输出语音音频、报警声音或者多媒体音频再现的扬声器的形式实现第一音频输出模块152a。
显示单元151的窗口151a将典型地包括用于允许从第一音频输出模块152a产生的音频穿过的孔径。一个备选是允许音频沿着结构主体之间的组装间隙(例如,在窗口151a和前壳体101之间的间隙)释放。在本实例中,被独立地形成以输出音频声音的孔可以不被看到或者在外观上以其它方式被隐藏,从而进一步简化移动终端100的外观的制造。
光学输出模块154可以输出用于指示事件产生的光。在移动终端100中产生的事件的示例包括消息接收、呼叫信号接收、未接来电、报警、日程表通知、电子邮件接收、通过应用的信息接收等。当感测到用户的事件查看时,控制器可以控制光学输出单元154以停止光的输出。
第一相机121可以处理在视频呼叫模式或者捕获模式下通过图像传感器获得的静止或者运动图像的图像帧。因此,处理的图像帧可以被显示在显示单元151上或者被存储在存储器170中。
第一和第二操纵单元123a和123b是用户输入单元123的示例,通过用户可以对其进行操纵以将输入提供给移动终端100。通常,第一和第二操纵单元123a和123b也可以被称为操纵部分,并且可以采用允许用户执行诸如触摸、推动、滚动等等的操纵的任何触觉方法。第一和第二操纵单元123a和123b也可以采用允许用户执行诸如接近触摸、悬停等等的操纵的任何非触觉的方法。
图1B图示作为触摸键的第一操纵单元123a,但是可能的替选包括机械键、推动键、触摸键以及其组合。
可以以各种方式使用在第一和第二操纵单元123a和123b处接收到的输入。例如,第一操纵单元123a可以由用户使用以将输入提供给菜单、主屏键、取消、搜索等等,并且第二操纵单元123b可以由用户使用以提供输入以控制从第一或者第二音频输出模块152a或者152b输出的音量级,切换到显示单元151的触摸识别模式等等。
作为用户输入单元123的另一示例,后输入单元(未示出)可以位于终端主体的后表面上。后输入单元能够由用户操纵以将输入提供给移动终端100。可以以各种不同的方式使用输入。例如,用户可以使用后输入单元以提供用于从第一或者第二音频输出模块152a或者152b输出的电源开/关、开始、结束、滚动、控制音量级的输入,切换到显示单元151的触摸识别模式等等。后输入单元可以被配置成允许触摸输入、推动输入或者其组合。
后输入单元可以被设置成在终端主体的厚度方向中重叠前表面的显示单元151。作为一个示例,后输入单元可以被设置在终端主体的后表面的上端部分上,使得当用户使用一只手抓住终端主体时用户能够使用食指容易地操纵它。可替选地,后输入单元能够被定位在终端主体的后侧的至多任何位置处。
包括后输入单元的实施例可以实现后输入单元中的第一操纵单元123a的功能的一些或者全部。这样,在其中从前侧省略第一操纵单元123a的情形下,显示单元151能够具有更大的屏幕。
作为又一个替选,移动终端100可以包括手指扫描传感器,该手指扫描传感器扫描用户的指纹。因此,控制器180可以使用通过手指扫描传感器感测的指纹信息作为认证过程的一部分。手指扫描传感器可以被安装在显示单元151或者用户输入单元123中。
麦克风122被示出为位于移动终端100的末端处,但是其他位置是可能的。如有必要,多个麦克风可以被实现,利用这样的布置允许接收立体声音。
接口单元160可以用作允许移动终端100与外部设备对接的路径。例如,接口单元160可以包括用于连接到另一设备(例如,耳机、外部扬声器等)的连接终端、用于近场通信的端口(例如,红外数据协会(IrDA)端口、蓝牙端口、无线LAN端口等)、或者用于将电力供应到移动终端100的电源终端中的一个或多个。接口单元160可以以用于容纳诸如订户标识模块(SIM)、用户标识模块(UIM)、或者用于信息存储的存储器卡的外部卡的插槽的形式来实现。
第二相机121b被示出为位于终端主体的后侧处,并且包括与第一相机单元121a的图像捕获方向大体上相反的图像捕获方向。如有必要,第二相机121b可以可替选地位于其他位置,或者使其可移动,以便于具有与被示出的图像捕获方向不同的图像捕获方向。
第二相机121b可以包括沿着至少一条线布置的多个透镜。多个透镜也可以以矩阵配置来布置。相机可以被称为“阵列相机”。当第二相机121b被实现为阵列相机时,可以使用多个透镜以各种方式捕获图像以及图像具有更好的质量。
如在图1C中所示,闪光灯124被示出为与第二相机121b相邻。当通过相机121b捕获主题的图像时,闪光灯124可以照明主题。
如在图1B中所示,第二音频输出模块152b能够位于终端主体上。第二音频输出模块152b可以结合第一音频输出模块152a来实现立体声功能,并且也可以被用于实现用于呼叫通信的扬声器电话模式。
用于无线通信的至少一个天线可以位于终端主体上。天线可以被安装在终端主体中或者通过壳体形成。例如,配置广播接收模块111的一部分的天线可以缩回到终端主体中。可替选地,使用被附接到后盖103的内表面的膜、或者包括导电材料的壳体,可以形成天线。
用于将电力供应到移动终端100的电源单元190可以包括电池191,该电池191被安装在终端主体中或者可拆卸地耦合到终端主体的外部。电池191可以经由连接到接口单元160的电源线缆来接收电力。此外,使用无线充电器以无线方式能够对电池191充电。通过电磁感应或者电磁谐振可以实现无线充电。
后盖103被示出为耦合到用于屏蔽电池191的后壳体102,以防止电池191的分离,并且保护电池191免受外部冲击或者外来物质的影响。当从终端主体可拆卸电池191时,后壳体103可以被可拆卸地耦合到后壳体102。
用于保护外观或者协助或者扩展移动终端100的功能的附件也可以被提供在移动终端100上。作为附件的一个示例,可以提供用于覆盖或者容纳移动终端100的至少一个表面的盖或者袋。盖或者袋可以与显示单元151协作以扩展移动终端100的功能。附件的另一示例是用于协助或者扩展对触摸屏的触摸输入的触摸笔。
图2是根据本发明可替选实施例的可变形的移动终端的概念视图。在该图中,示出具有显示单元251的移动终端200,显示单元251是一种通过外力可变形的显示器。包括显示单元251和移动终端200的其他组件的这个变形,可以包括弯曲、弯折、折叠、扭曲、卷曲、以及其组合中的任意一个。可变形的显示单元251也可以被称为“柔性显示单元”。在一些实现中,柔性显示单元251可以包括一般柔性显示器、电子纸张(也被称为电子纸)、以及其组合。通常,移动终端200可以被配置成包括与图1A-1C的移动终端100相同或者相似的特征。
移动终端200的柔性显示器通常被形成为轻质的、非易碎的显示器,其仍然呈现常规平板显示器的特性,但是替代地制造在如先前所述能够变形的柔性基板上。
术语电子纸可以被用于指代采用一般墨水的特性的显示技术,并且在使用反射光方面不同于常规平板显示器。电子纸通常被理解为使用扭动球或者经由使用胶囊的电泳来改变显示的信息。
当柔性显示单元251没有变形(例如,在无限曲率半径的状态下,并且被称为第一状态)时,柔性显示单元251的显示区域包括大体平坦的表面。当柔性显示单元251被外力从第一状态变形(例如,具有有限曲率半径的状态,并且被称为第二状态)时,显示区域可以变成弯曲表面或者弯折表面。如所图示的,在第二状态中显示的信息可以是在弯曲表面上输出的可视信息。可以实现可视信息使得独立地控制在矩阵配置中排列的每个单元像素(子像素)的光发射。单元像素表示用于代表一个颜色的基础单元。
根据一个可替选的实施例,柔性显示单元251的第一状态可以是弯曲状态(例如,从上到下或者从右到左弯曲的状态),而不是处于平坦状态。在这个实施例中,当外力被施加到柔性显示单元251时,柔性显示单元251可以转变到第二状态使得柔性显示单元被变形成平坦的状态(或者较少弯曲的状态)或者更加弯曲的状态。
如有必要,柔性显示单元251可以使用与显示器相组合的触摸传感器来实现柔性触摸屏。当在柔性触摸屏处接收到触摸时,控制器180能够执行与触摸输入相对应的特定控制。通常,柔性触摸屏被配置成在第一和第二状态这两者中时感测触摸和其他输入。
一个选项是配置移动终端200以包括感测柔性显示单元251的变形的变形传感器。变形传感器可以被包括在感测单元140中。
变形传感器可以位于柔性显示单元251或者壳体201中以感测与柔性显示单元251的变形有关的信息。与柔性显示单元251的变形有关的这样的信息的示例可以是变形的方向、变形的程度、变形的位置、变形的时间量、变形的柔性显示单元251被恢复的加速度等等。其他可能性包括能够响应于柔性显示单元的弯曲而被感测或者当柔性显示单元251被转变成、或者存在于第一和第二状态时被感测的大多数任何类型的信息。
在一些实施例中,基于与柔性显示单元251的变形有关的信息,控制器180或者其他组件能够改变柔性显示单元251上显示的信息,或者生成用于控制移动终端200的功能的控制信号。通常,通过变形传感器来感测这样的信息。
移动终端200被示出为具有用于容纳柔性显示单元251的壳体201。考虑到柔性显示单元251的特性,该壳体201能够与柔性显示单元251一起是可变形的。
考虑到柔性显示单元251的特性,位于移动终端200中的电池(在该图中未示出)也可以与柔性显示单元261协作地可变形。实现这样的电池的一个技术是要使用堆叠电池单元的堆叠和折叠方法。
柔性显示单元251的变形不限于通过外力执行。例如,通过用户命令、应用命令等等能够将柔性显示单元251从第一状态变形成第二状态。
根据又一个实施方式,移动终端可被配置为可在人体上可佩戴的设备。这样的设备超越了用户用他们的手抓住移动终端的通常技术。可佩戴设备的示例包括智能手表、智能眼镜、头戴式显示器(HMD)等等。
典型的可佩戴设备可以与另一个移动终端100交换数据(或协作)。在这样的设备中,可佩戴设备通常具有比协作的移动终端更少的功能。例如,移动终端100的短程通信模块114可以感测或识别足够近以与移动终端通信的可佩戴设备。此外,当感测到的可佩戴设备是被认证以与移动终端100通信的设备时,控制器180例如可以经由短程通信模块114将在移动终端100中处理的数据发送到可佩戴设备。因此,可佩戴设备的用户可以在可佩戴设备上使用在移动终端100中处理的数据。例如,当在移动终端100中接收到呼叫时,用户可以使用可佩戴设备应答呼叫。此外,当在移动终端100中接收到消息时,用户能够使用可佩戴设备来检查接收到的消息。
图3是图示根据另一示例性实施例的手表式移动终端300的一个示例的透视图。如在图3中所图示,手表式移动终端300包括具有显示单元351的主体301以及连接到主体301以可佩戴在手腕上的带302。通常,移动终端300可以被配置成包括与图1A-图1C中的移动终端100相同或者相似的特征。
主体301包括具有特定外观的壳体。如所示出的,壳体可以包括协作地限定用于容纳各种电子组件的内部空间的第一壳体301a和第二壳体301b。其他配置是可能的。例如,利用被配置成限定内部空间的这样的壳体,可以可替选地实现单个壳体,从而实现具有单体的移动终端300。
手表式外部设备300能够执行无线通信,并且用于无线通信的天线能够被安装在主体301中。天线可以使用壳体延伸其功能。例如,包括导电材料的壳体可以被电连接到天线以延伸接地面积或者辐射面积。
显示单元351被示出为位于主体301的前侧处,使得显示的信息对于用户来说是可视的。在一些实施例中,显示单元351包括触摸传感器,使得显示单元能够用作触摸屏。如所示出的,窗口351a被定位在第一壳体301a上以与第一壳体301a一起形成终端主体的前表面。
所图示的实施例包括被定位在主体301上的音频输出单元352、相机321、麦克风322、以及用户输入单元323。当显示单元351被实现为触摸屏时,附加功能键可以被最小化或者被消除。例如,当触摸屏被实现时,用户输入单元323可以被省赂。
带302通常被佩戴在用户的手腕上并且可以是由用于有助于设备的佩戴的柔性材料制成。作为一个示例,带302可以是由皮毛、橡胶、硅胶、合成树脂等等制成。带302也可以被配置成从主体301可拆卸。因此,根据用户的喜好,带302可以被各种类型的带替换。
在一个配置中,带302可以被用于延伸天线的性能。例如,带可以在其中包括接地延伸部分(未被示出),该接地延伸部分被电连接到天线以延伸接地区域。
带302可以包括紧固件302a。紧固件302a可以被实现为搭扣型、扣合钩结构、Ve1cro⑧型等等,并且包括柔性部分或者材料。附图图示使用搭扣实现紧固件302a的示例。
图4是图示根据另一个示例性实施例的眼镜型移动终端400的一个示例的立体图。眼镜式移动终端400能够佩戴在人体的头部,并且为此提供有框架(例如,壳体或者外壳等)。框架可以由容易被佩戴的柔性材料制成。移动终端400的框架被示出为具有第一框架401和第二框架402,其能够由相同或不同的材料制成。通常,眼镜式移动终端400可以配置成包括与图1A-1C中的移动终端100的特征相同或者相似的特性。
框架被支撑在头部上并且限定用于安装各种组件的空间。如所示的,诸如控制模块480、音频输出模块452等的电子组件可以被安装到框架部件。此外,覆盖左眼和右眼中任一个或这两者的透镜403可以可拆卸地耦合到框架部件。
控制模块480被配置成控制移动终端400中设置的各种电子组件。控制模块480可以被理解为与上述的控制器180相对应的组件。图4示出控制模块480被安装在头部的一侧上的框架部件中,但其他位置也是可能的。
显示单元451可以被实现为头戴式显示器(HMD)。HMD指的是显示器通过其被安装到头部以在用户的眼睛前面直接示出图像的显示技术。为了在用户佩戴眼镜式移动终端400时在用户的眼睛前面直接地提供图像,显示单元451可以被设置为与左眼和右眼中的任一个或这两者相对应。图4示出显示单元451被设置在与右眼相对应的部分上以输出由用户的右眼可观看的图像。
使用棱镜,显示单元451可以将图像投影到用户的眼睛中。此外,棱镜可以由光学透明的材料形成,使得用户能够观看用户前面的一般视域(用户通过眼睛观看的范围)和投影的图像这两者。
以此方式,通过显示单元451输出的图像在与一般视域重叠时可以被观看。移动终端400可以使用显示器将虚拟图像重叠在现实图像或背景上来提供增强现实性(AR)。
相机421被设置为与左眼和右眼中任一个或这两者相邻以捕获图像。因为相机421被设置为与眼睛相邻,所以相机421能够获取用户当前观看到的场景。相机421可以至多被定位移动终端的任何位置。在一些实施例中,多个相机421可以被利用。这样的多个相机421可以被用于获取立体图像。
眼镜式移动终端400可以包括用户输入单元423a和423b,其每个能够由用户操作以提供输入。用户输入单元423a和423b可以采用允许经由触觉输入进行输入的技术。典型的触觉输入包括触摸、推动等等。用户输入单元423a和423b被示出,当它们分别位于框架部件和控制模块480上时,该用户输入单元423a和423b以推动方式和触摸模式是可操作的。
如果需要,移动终端400可以包括:麦克风,该麦克风将输入声音处理成电音频数据;以及音频输出模块452,该音频输出模块452用于输出音频。音频输出模块452可以被配置成以一般音频输出方式或者骨传导方式产生音频。当以骨传导方式实现音频输出模块452时,音频输出模块452可以在用户佩戴移动终端400时紧密地贴附到头部并且振动用户的颅骨以传送声音。
现在将会更加详细地描述通过不同地描述的移动终端可操作的通信系统。这样的通信系统可以被配置成利用各种不同的空中接口和/或物理层中的任意一个。由通信系统利用的这样的空中接口的示例包括:频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)、通用移动电信系统(UMTS)(包括长期演进(LTE),LTE-A(高级长期演进))、全球移动通信系统(GSM)等。
仅通过非限制性示例,进一步的描述将会涉及CDMA通信系统,但是这样的教导等同地应用于包括CDMA无线通信系统以及OFDM(正交频分复用)无线通信系统的其它系统类型。CDMA无线通信系统通常包括一个或者多个移动终端(MT或者用户设备,UE)100、一个或者多个基站(BS、节点B、或者演进的节点B)、一个或者多个基站控制器(BSC)、以及移动交换中心(MSC)。MSC被配置成与传统的公共交换电话网络(PSTN)和BSC对接。BSC经由回程线路被耦合到基站。可以根据包括例如E1/T1、ATM、IP、PPP、帧中继、HDSL、ADSL、或者xDSL的数个已知的接口中的任何一个来配置回程线路。因此,CDMA无线通信系统中能够包括多个BSC。
每个基站可以包括一个或者多个扇区,每个扇区具有全向天线或者指向以特定方向径向远离基站的天线。可替选地,每个扇区可以包括两个或者更多个不同的天线。每个基站可以被配置成支持多种频率指配,每个频率指配具有特定的频谱(例如,1.25MHz、5MHz等等)。
扇区和频率指配的交集可以被称为CDMA信道。基站也可以被称为基站收发器子系统(BTS)。在一些情况下,术语“基站”可以用于统指BSC,以及一个或多个基站。基站也可以被表示为“小区站点”。可替选地,给定的基站的单个扇区可以被称为小区站点。
广播发射器(BT)将广播信号发送到在系统内操作的移动终端100。图1A的广播接收模块111通常被配置在移动终端100内部以接收由BT发送的广播信号。
例如,用于定位移动终端100的位置的全球定位系统(GPS)卫星可以与CDMA无线通信系统协作。可以以比两个卫星更多或者更少的卫星获得有用的位置信息。要理解的是,可以可替选地实现其它类型的位置检测技术(即,除了或者替代GPS定位技术可以使用的定位技术)。必要时,GPS卫星中的至少一个可以被可替选地或者另外配置成提供卫星DMB传输。
位置信息模块115通常被配置成检测、计算、或者以其它方式识别移动终端的位置。作为示例,位置信息模块115可以包括全球定位系统(GPS)模块、Wi-Fi模块、或者两者。如有必要,位置信息模块115可以可替选地或者另外用作无线通信单元110的其它模块中的任意一个以获得与移动终端的位置有关的数据。
典型GPS模块能够从三个或者更多个卫星测量精确的时间和距离,并且基于被测量的时间和距离根据三角法精确地计算移动终端的当前位置。可以使用从三个卫星获取距离和时间信息并且通过单个卫星执行错误校正的方法。特别地,GPS模块可以根据从卫星接收到的位置信息获取精确的时间和三维速度信息以及纬度、经度的位置以及高度值。
此外,GPS模块能够实时获取速度信息以计算当前位置。有时候,当移动终端位于卫星信号的盲点中,诸如位于室内空间中时,测量的位置的精确度可能被折衷。为了最小化这样的盲点的影响,可以利用替代或者互补的定位技术,诸如Wi-Fi定位系统(WPS)。
Wi-Fi定位系统(WPS)指的是基于使用Wi-Fi的无线局域网(WLAN)的位置确定技术作为用于跟踪移动终端100的位置的技术。此技术通常包括移动终端100中的Wi-Fi模块和用于与Wi-Fi模块通信的无线接入点的使用。
Wi-Fi定位系统可以包括Wi-Fi位置确定服务器、移动终端、连接到移动终端的无线接入点(AP)、以及存储有无线AP信息的数据库。
连接到无线AP的移动终端可以将位置信息请求消息发送到Wi-Fi位置确定服务器。Wi-Fi位置确定服务器基于移动终端100的位置信息请求消息(或者信号)提取连接到移动终端100的无线AP的信息。无线AP的信息可以通过移动终端100被发送到Wi-Fi位置确定服务器,或者可以从无线AP被发送到Wi-Fi位置确定服务器。
基于移动终端100的位置信息请求消息提取的无线AP的信息可以包括媒介访问控制(MAC)地址、服务集识别(SSID)、接收信号强度指示符(RSSI)、参考信号接收功率(RSRP)、参考信号接收质量(RSRQ)、信道信息、隐私、网络类型、信号强度、噪声强度等等中的一个或者多个。
如上所述,Wi-Fi位置确定服务器可以接收被连接到移动终端100的无线AP的信息,并且可以从事先建立的数据库提取与被连接到移动终端的无线AP相对应的无线AP信息。存储在数据库中的任何无线AP的信息可以是诸如MAC地址、SSID、RSSI、信道信息、隐私、网络类型、纬度和经度坐标、无线AP位于的建筑物、楼层、详细的室内位置信息(GPS坐标可用)、AP拥有者的地址、电话号码等等的信息。为了在位置确定过程期间去除使用移动AP或者非法的MAC地址提供的无线AP,Wi-Fi位置确定服务器可以仅提取预定数目的无线AP信息,以便于高的RSSI。
然后,Wi-Fi位置确定服务器可以使用从数据库提取的至少一个无线AP信息提取(分析)移动终端100的位置信息。
用于提取(分析)移动终端100的位置信息的方法可以包括小区ID方法、指纹方法、三角法方法、地标方法等等。
小区ID方法被用于将通过移动终端收集的外围无线AP信息当中的具有最大的信号强度的无线AP的位置确定为移动终端的位置。小区ID方法是最低复杂度的实现,不要求附加的成本,并且能够快速地获取位置信息。然而,在小区ID方法中,当无线AP的安装密度低时定位的精确度可能落在所期待的阈值之下。
指纹方法被用于通过从服务区域选择参考位置收集信号强度信息,并且基于所收集的信息使用从移动终端发送的信号强度信息跟踪移动终端的位置。为了使用指纹方法,通常无线电信号的特性要以数据库的形式预先存储。
三角法方法被用于基于至少三个无线AP和移动终端的坐标之间的距离计算移动终端的位置。为了测量移动终端和无线AP之间的距离,信号强度可以被转换成距离信息。对于被发送的无线信号可以采用到达时间(ToA)、到达时间差(TDoA)、到达角(AoA)等等。
地标方法被用于使用已知的地标发射器测量移动终端的位置。
除了这些定位位置方法之外,各种算法可以被用于提取(分析)移动终端的位置信息。这样提取的位置信息可以通过Wi-Fi位置确定服务器被发送到移动终端100,从而获取移动终端100的位置信息。
移动终端100能够通过被连接到至少一个无线AP获取位置信息。根据移动终端100位于的无线通信环境可以不同地改变获取移动终端100的位置信息所需的无线AP的数目。
如关于图1A先前所描述的,移动终端可以被配置成包括诸如蓝牙(BluetoothTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(Zigbee)、近场通信(NFC)、无线USB(无线通用串行总线)等等的短程通信技术。
被设置在移动终端处的典型的NFC模块支持短程无线通信,其是移动终端之间的非接触型的通信并且通常在大约10cm内发生。NFC模块可以以卡模式、阅读器模式、或者P2P模式中的一个操作。移动终端100可以进一步包括用于存储卡信息的安全模块,以便于在卡模式下操作NFC模块。安全模块可以是诸如通用集成电路卡(UICC)(例如,订户标识模块(SIM)或者通用SIM(USIM))、安全微型SD和贴纸的物理介质,或者被嵌入在移动终端中的逻辑介质(例如,嵌入式安全元件(SE))。可以在NFC模块和安全模块之间执行基于单线协议(SWP)的数据交换。
在NFC模块在卡模式下操作的情况下,移动终端可以将关于普通的IC卡的卡信息传送到外部。更加特别地,如果具有关于支付卡(例如,信用卡或者公交卡)的卡信息的移动终端接近卡阅读器,则可以执行短程移动支付。作为另一示例,如果存储关于门卡的卡信息的移动终端接近门卡阅读器,则进入批准过程可以启动。诸如信用卡、交通卡、或者门卡的卡可以以小程序(applet)的形式被包括在安全模块中,并且安全模块可以存储关于在其中安装的卡的卡信息。用于支付卡的卡信息可以包括卡号、剩余量和使用历史等等中的任意一个。门卡的卡信息可以包括用户的姓名、用户的编号(例如,大学生编号或者员工编号)、进入历史等等中的任意一个。
当NFC模块在阅读器模式下操作时,移动终端能够从外部标签读取数据。通过移动终端从外部标签接收到的数据可以被编码成通过NFC论坛定义的NFC数据交换格式。NFC论坛通常定义四种记录类型。更加特别地,NFC论坛定义四个记录类型定义(RTD),诸如智能型海报、文本、统一资源标识符(URI)、以及一般控制。如果从外部标签接收到的数据是智能型海报类型,则控制器可以执行浏览器(例如,互联网浏览器)。如果从外部标签接收到的数据是文本类型,则控制器可以执行文本查看器。如果从外部标签接收到的数据是URI类型,则控制器可以执行浏览器或者发起呼叫。如果从外部标签接收到的数据是一般控制类型,则控制器可以根据控制内容执行适当的操作。
在其中NFC模块在P2P(端对端)模式下操作的一些情况下,移动终端能够执行与另一移动终端的P2P通信。在这样的情况下,逻辑链路控制协议(LLCP)可以被应用于P2P通信。对于P2P通信,在移动终端和另一移动终端之间可以生成连接。此连接可以被归类成在一个分组被交换之后结束的无连接模式,和其中分组被连续地交换的面向连接模式。对于典型的P2P通信,诸如电子类型名片、地址信息、数字照片和URL、用于蓝牙连接的设置参数、Wi-Fi连接等等的数据可以被交换。因为NFC通信的可用距离非常短,所以在交换小容量的数据中能够有效地利用P2P模式。
将会参考附加的附图更加详细地描述更多的优选实施例。本领域的技术人员将会理解,在没有脱离其特性的情况下能够以数种形式实施本特征。
在下文中,图5至图26所示的实施例示出了容易播放相互不同时序的视频和来自播放以移动终端的视角区捕获的视频对应于360度的角度的视频的方法。
在图5至图26示例的实施例中,移动终端能包括显示单元、感测单元和控制器。显示单元可以对应于图1a的显示单元151并且能以触摸屏形式实现。显示单元能显示对应于捕获所有方向(全向)的视频的多视点视频。多视点视频可以对应于由安装在移动终端上的相机捕获的视频或从外部源接收的视频。感测单元可以对应于图1a的用户输入单元123或感测单元140。例如,感测单元可以感测由用户输入的输入信号。输入信号能包括短触摸、长触摸、拖动触摸、捏放触摸、捏缩触摸、双击触摸等。控制器能控制显示单元和感测单元来回放360度捕获的视频。
在下文中,关于图5至图26的实施例,通过在图1a中所示的控制器180控制在移动终端中执行的操作。为了清楚,操作被共同地图示和说明为由移动终端执行或操作。
图5是在根据本发明的一个实施例的移动终端中显示的示例性多视点视频的图。
当经由多个相机同时捕获视频时,可能捕获包括比由单个相机捕获的视角区更宽的视角区的广角视频或广角图像。
例如,如图5(a)所示,如果同时使用两个相机510-1/510-2,分别具有对应于α的视角,则由此可以捕获具有对应于2α的最大视角的图像或视频。在这种情况下,视角区表示能够被包括在由相机捕获的画面中的水平和垂直视角的范围。视角区可以表示相机的正向中的预定角度内的区域。例如,相机的视角区可以对应于相对于镜头中心±60度。本发明不限于此。
如果增加相机的数量,那么可以捕获具有对应于相对于预定轴360度的视角区的图像。例如,如图5(b)所示,如果使用并且适当地排列6个相机220-1至220-6,则可以捕获具有相对于预定轴对应于360度的视角区的图像。
如图5(b)所示,能以各种形式,将由多个相机捕获的图像或视频提供给用户。例如,能以圆柱或矩形形式,图示360度捕获的图像或视频。然而,在这种情况下,用户可能难以立即识别360度捕获的图像或视频。例如,参考图5(c),以矩形形式230图示360捕获的图像或视频。在这种情况下,尽管多视点图像或视频可能被表示为与实际有点失真,但用户能容易立即识别360捕获的图像或视频。在本发明的示例性实施例中,能以矩形形式表示显示的多视点视频。显示的多视点视频对应于由6个相机捕获的视频并且能将所提供的多视点视频划分成6个视角区。不应当将包括在多视点视频中的视角区的数量限定为6。可以以各种方式实现任意多个视角区。
图6是用于在根据本发明的一个实施例的移动终端中显示的多视点视频的指示符的示例的图。
如在上述描述中所述,由于多视点视频对应于一次捕获其360度的视频,所以如果同时显示360度的视频,则用户可能难以清楚地识别捕获到的视频。因此,当播放多视点视频时,移动终端能通过将每个视角范围分开,播放多视点视频并且可以经由视角指示符,将当前播放的视角范围告知用户。
在这种情况下,视角指示符能以各种方式出现。参考图6(a),视角指示符能表现为立方体的展开形式。在这种情况下,尽管通过立方体的展开形式难以包括图5(c)所示的整个矩形图像,但用户能易于在预定方向的基础上识别感测视频的视角。如图5之前所述,在本发明中,多视点视频对应于由6个相机捕获的视频。立方体的每一面可以对应于由单个相机感测的视频。在下述图7至图25的实施例中,假定视角指示符描绘为展开立方体。
为示例目的,示例性实施例具有图7至图25中示为包括查看第一视角611、第二视角612、第三视角613、第四视角614、第五视角615和第六视角616的示例性视角指示符。例如,第一视角611可以对应于在第二视角612的基础上的左边区域,以及第三视角613可以对应于在第二视角612的基础上的右边区域。第四视角614可以对应于在第二视角612基础上的后方区域。第五视角615可以对应于第一至第四视角的上边区域,而第六视角616可以对应于第一至第四视角的下边区域。尽管在本发明中,以划分成6个区域的方式说明多视点视频的视角区,但这仅为了示例目的,能取决于指定配置增加或减少视角区的数量。
参考图6(b),视角指示符能以立方体形式出现。在这种情况下,与图6(a)的方式类似,视角指示符能包括第一视角621、第二视角622、第三视角623、第四视角624、第五视角625和第六视角626。参考图6(c),视角指示符能以圆柱形状出现。在这种情况下,用户能使用高亮显示器631来识别当前显示的视角区。视角指示符的类型应当限定图16的实施例。视角指示符能以许多不同方式出现。
改变多视点视频的回放时间和回放视角
在下文中所述的图7和图8示出了使用在进度条上输入的各种触摸输入,改变多视点视频的回放时间和回放视角的方法。
图7是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放时间和回放视角的示例的图。
尽管在图7中未示出,但当执行图库应用程序时,移动终端能感测用于播放多个多视点视频中的一多视点视频的输入信号。在这种情况下,移动终端能首次在显示单元上显示多视点视频的360度的帧中对应于第一视角区的帧710a。在图7的实施例中,第一时间点可以对应于由用户指定的时间。第一视角区可以对应于如在前图6中所述的第二视角612的区域。
在这种情况下,移动终端能在显示单元上显示对应于多视点视频的进度条。进度条可以对应于用于表示如播放视频时的整个视频的长度、当前播放时间等这样的信息的界面。进度条能包括表示当前在显示单元上显示的帧710a的时间的时间指示符750。进度条能在与时间指示符750相邻的位置显示表示当前显示的帧710a的第一缩略图图像720a。不能持续地显示第一缩略图图像720a。如果在显示第一缩略图图像720a后在预定时间内在进度条上未输入输入信号,那么能删除缩略图图像720a。
在图7(a)的示例性实施例中,移动终端能感测在时间指示符750上输入的第一输入信号731。在这种情况下,第一输入信号731可以对应于在向右方向中拖动的拖动触摸输入。在这种情况下,移动终端能在结束第一输入信号731的位置上显示时间指示符750。在这种情况下,如图7(b)所示,当不改变在显示单元上显示的帧710a时,移动终端能将缩略图图像从第一缩略图图像改变成第二缩略图图像720b,在进度条上显示缩略图图像。在这种情况下,第二缩略图图像720b可以对应于在多视点视频的第二时间点的帧中与第一显示的视角区相对应的缩略图。特别地,第一缩略图图像720a和第二缩略图图像720b对应于同一视角的不同时间的帧图像的缩略图。
同时,尽管在图7(b)中未示出,但移动终端能感测在第二缩略图图像720b上输入的输入信号(未示出)。在这种情况下,输入信号(未示出)可以对应于长触摸输入。能在第二缩略图图像720b的边缘或内部区域处感测该输入信号(未示出)。在这种情况下,如图7(b)所示,移动终端能显示缩略图编辑指示符725。例如,缩略图编辑指示符725能表示移动终端已经进入用于放大或缩小缩略图图像的尺寸的模式。缩略图编辑指示符725能出现在缩略图图像的边缘处并且能以各种形式出现。
移动终端能感测在缩略图编辑指示符725上输入的第二输入信号732。第二输入信号732可以例如对应于在向左方向中拖动的拖动触摸输入。第二输入信号能对应于任何预定触摸,因此不限于拖动触摸。
参考图7(c),移动终端能响应第二输入信号732显示第三缩略图图像720c。第三缩略图图像720c可以对应于与多视点视频的第二时间点的帧中的第二视角区相对应的缩略图图像。第三缩略图图像720c对应于与比第一缩略图图像720a或第二缩略图图像720b的视角区更宽的视角区的图像相对应的缩略图图像。因此,第二视角区可以对应于比第一视角区更宽的视角。
移动终端能感测在第三缩略图图像720c上输入的第三输入信号733。第三输入信号例如可以对应于短触摸输入。其他命令也可以用于第三输入信号。如图7(d)所示,移动终端能显示对应于第三缩略图图像720c的帧710b。特别地,移动终端能显示对应于多视点视频的第二时间点的第二视角区的帧。如图7(d)所示,视角指示符740可以改变以表示第一视角区和第二视角区。如果在显示第三缩略图图像720c后的预定持续时间内,输入信号没有被输入,则能删除第三缩略图图像。如果感测到在回放图标上输入的输入信号,则移动终端能从第二时间点播放用于第二视角区的多视点视频。
图8是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放时间和回放角度的示例的图。在图8的示例中,省略有关与图7的内容重叠的内容的说明。
参考图8(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的帧810a。移动终端能在进度条上对应于第一时间点的位置,显示时间指示符850和表示对应于第一时间点的第一视角区的帧的第一缩略图图像820a。移动终端能感测在时间指示符850上输入的第一输入信号831。
在这种情况下,如图8(b)所示,移动终端能将时间指示符850的位置改变成第一输入信号831结束的位置。移动终端能在时间指示符850上显示第二缩略图图像820b。在这种情况下,由于第二缩略图图像820b与之前图7中提及的第二缩略图图像相同,此时省略有关第二缩略图图像820b的描述。
移动终端能感测在第二缩略图图像820b上输入的第二输入信号832。第二输入信号832能对应于在向右方向中拖动的拖动触摸输入。也可以使用其他命令来输入第二输入信号。第二输入信号832可以对应于从第二缩略图图像820b的内部区域,而不是第二缩略图图像820b的边缘,开始的拖动触摸输入。
如图8(c)所示,移动终端能显示第三缩略图图像820c。在这种情况下,第三缩略图图像820c可以对应于与多视点视频的第二时间点的第二视角区相对应的缩略图图像。第三缩略图图像820c可以对应于与第一缩略图图像820a和第二缩略图图像820b的视角范围相同的视角范围的图像相对应的缩略图图像。例如,尽管第三缩略图图像820c与第一和第二缩略图图像820a/820b对应于表示相互不同的视角区的缩略图,但缩略图可以对应于与360度中的60度角相对应的缩略图。特别地,移动终端能通过在缩略图图像上感测的拖动触摸,在表示相同视角区的缩略图图像上提供不同视角的图像的预览。
移动终端能感测在第三缩略图图像820c上输入的第三输入信号。如图8(d)所示,移动终端能显示对应于第三缩略图图像820c的帧810b。移动终端能改变视角指示符以表示第三视角区。
特别地,经由上述实施例,用户能通过进度条上的简单操作,容易地改变和使用多视点视频的回放时间和回放视角。
当不播放多视点视频时视角区的改变
图9至15示出了当停止回放多视点视频时,改变视角区的示例性方法。更特别地说,图9的实施例示出了改变缩略图的视角区的方法,以及图9至图15的实施例示出了改变帧的角度区的方法。
图9是用于改变根据本发明的一个实施例的移动终端中显示的多视点视频的缩略图图像的回放视角的示例性实施例的图。在图9的实施例中,省略有关与图8的内容重叠的内容的说明。
如图9(a)所示,移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的帧910a。移动终端能在进度条上对应于第一时间点的位置,显示时间指示符930和表示对应于第一时间点的第一视角区的帧的预览的第一缩略图图像910a。
移动终端能感测在第一缩略图图像910a上输入的第一输入信号921。第一输入信号921能对应于双击触摸输入。还可以使用其他命令。在这种情况下,如图9(b)所示,移动终端能在与第一缩略图图像910a相邻的位置上显示第二缩略图图像910b。第二缩略图图像910b可以对应于表示与第一缩略图图像910a相对应的帧相邻的帧的预览的图像。例如,如果第一缩略图图像910a对应于与第一时间点的第一视角区相对应的帧的预览,则第二缩略图图像910b可以对应于与第一时间点的第二视角区相对应的帧的预览。参考图9(b),尽管在进度条上显示的缩略图图像的视角区改变,但视角指示符的帧和视角区保持原样。
移动终端能感测在第二缩略图图像910b上输入的第二输入信号922。第二输入信号922能对应于双击触摸输入。也可以使用其他命令。在这种情况下,如图9(c)所示,移动终端能在与第二缩略图图像910b相邻的位置上显示第三缩略图图像910c。例如,如果第二缩略图图像910b对应于与第一时间点的第二视角区相对应的帧的预览,则第三缩略图图像910c可以对应于与第一时间点的第三视角区相对应的帧的预览。
尽管在图9中未示出,但如果在第一缩略图图像910a上感测到另外的输入信号,则移动终端可以显示第四缩略图图像(未示出)。能以按行排列或上下相邻排列的方式,显示多个缩略图图像。用户能易于使用用于当前显示的帧的时间点的各个视角区的帧的预览。
图10是根据本发明的一个实施例的用于改变在移动终端中显示的多视点视频的回放视角的示例的图。
参考图10(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的帧1030a。移动终端能显示视角指示符1010。视角指示符能表示在360度当中当前显示的帧的相应的视角范围。在图10(a)的实施例中,视角指示符1010能高亮对应于第一视角区的区域。在图10(a)的实施例中,第一视角区可以对应于之前在图6(a)中提及的第二视角区。
移动终端能感测在帧1030a上输入的第一输入信号1021。第一输入信号1021能对应于捏缩触摸输入。也可以使用其他命令。在这种情况下,如图10(b)所示,移动终端能显示与第一时间点的第二视角区相对应的帧1030b。第二视角区可以对应于比第一视角区更宽的视角范围。在图10(b)的实施例中,视角指示符1010能高亮对应于第二视角区的区域。在图10(b)的实施例中,第二视角区可以对应于包括之前在图6(a)中提及的第二视角区和第三视角区的视角区。
移动终端能感测在帧1030b上输入的第二输入信号1022。第二输入信号1022能对应于捏缩触摸输入。也可以使用其他命令。在这种情况下,如图10(c)所示,移动终端能显示对应于第一时间点的第三视角区的帧1030c。第三视角区可以对应于比第二视角区更宽的视角范围。例如,在图10(c)的实施例中,第三视角区可以对应于360度。在图10(c)的实施例中,视角指示符1010能高亮对应于第三视角区的区域。图11是根据本发明的一个实施例的用于移动终端中显示的多视点视频的回放视角的示例性改变的图。在图11的实施例中,省略有关与图10的内容重叠的内容的描述。图11的实施例可以对应于与图10的上述实施例相反的实施例。
参考图11(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的帧1110a。移动终端能显示视角指示符1120。在图11(a)的实施例中,视角指示符120能高亮对应于第一视角区的区域。在图11(a)的实施例中,第一视角区能包括之前在图6(a)中提及的第一至第六视角。
移动终端能感测在帧1110a上输入的第一输入信号1131。在这种情况下,第一输入信号1031对应于捏放触摸输入。也可以使用其他命令。在这种情况下,如图11(b)所示,移动终端能显示对应于第一时间点的第二视角区的帧1110b。在这种情况下,第二视角区可以对应于比第一视角区更窄的视角范围。在图11(b)的实施例中,视角指示符能高亮对应于第二视角区的区域。在图11(b)的实施例中,第二视角区可以对应于包括之前在图6(a)中提及的第一视角和第二视角的视角。
移动终端能感测在帧1110c上输入的第二输入信号1132。第二输入信号1132能对应于捏放触摸输入。也可以使用其他命令。在这种情况下,如图11(c)所示,移动终端能显示对应于第一时间点的第三视角区的帧1110c。第三视角区可以对应于比第二视角区更窄的视角范围。在图11(c)的实施例中,视角指示符能高亮对应于第三视角区的区域。在图11(c)的实施例中,第三视角区可以对应于之前在图6(a)中提及的第一角度。
用户能经由图10和11的上述实施例,使用捏缩触摸或捏放触摸,容易地改变多视点视频的回放视角。如果输入捏放触摸,则移动终端能为用户提供用于相同时间的帧的放大视图。如果输入捏缩触摸,则移动终端能为用户提供用于相同时间的帧的缩小视图。
图12是示例根据本发明的一个实施例的同时显示包括在移动终端中显示的多视点视频中的多个回放视角的图。
参考图12(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的第一帧1210a。视角指示符1220a能高亮对应于第一帧1210a的视角区的区域。例如,在图12(a)的实施例中,第一视角区可以对应于之前在图6(a)中提及的第一视角。
移动终端能感测在第一帧1210a上输入的第一输入信号1231。第一输入信号1231能对应于双击触摸输入。也可以使用其他命令来输入第一输入信号。在这种情况下,如图12(b)所示,移动终端能在显示单元上另外显示对应于多视点视频的第一时间点的第二视角区的第二帧1210b。特别地,移动终端能响应第一输入信号1231,同时显示第一帧1210a和第二帧1210b。在这种情况下,由于有必要同时显示两个帧,所以显示具有比图12(a)所示的第一帧1210a的尺寸更小的尺寸的第一帧1210a和第二帧1210b。移动终端能连同第二帧一起显示对应于第二帧的视角指示符1220b。在这种情况下,能显示视角指示符1220b,同时高亮对应于第二视角区的区域。例如,在图12(b)的实施例中,第二视角区可以对应于之前在图6(a)中提及的第二视角。
移动终端能感测在第二帧1210b上输入的第二输入信号1232。第二输入信号1232能对应于双击触摸输入。也可以使用其他命令来输入第二输入信号。在这种情况下,如图12(c)所示,移动终端能在显示单元上另外显示对应于第一时间点的第三视角区的第三帧1210c。特别地,移动终端能响应第二输入信号1232同时显示第一帧1210a、第二帧1210b和第三帧1210c。在这种情况下,能通过更小尺寸显示每一帧。
移动终端能连同第三帧一起显示对应于第三帧1210c的视角指示符1220c。在这种情况下,能显示视角指示符1220c,同时高亮对应于第三视角区的区域。例如,在图12(c)的实施例中,第三视角区可以对应于之前在图6(a)中提及的第三视角。
图13是根据本发明的一个实施例的同时包括在移动终端中显示的多视点视频中的多个回放视角的示例性同时显示的图。
在图13的实施例中,省略有关与图12的内容重叠的内容的说明。图13的实施例可以对应于与图12的实施例相反的实施例。
参考图13,移动终端能在显示单元上显示对应于多视点视频的第一时间的第一帧1310a、第二帧1310b和第三帧1310c。在示例性实施例中,第一帧1310a、第二帧1310b和第三帧1310c能与之前在图12中提及的第一帧至第三帧相同。移动终端能显示对应于第一帧1310a的视角指示符1320a、对应于第二帧1310b的视角指示符1320b和对应于第三帧1310c的视角指示符1320c。
移动终端能感测在多个帧当中除了最近显示的帧的其余帧上输入的第一输入信号1331。参考图13(a),移动终端能感测第二帧1310b上的第一输入信号1331。在图13的实施例中,第三帧1310c对应于最新添加和显示的帧。第一输入信号1331能对应于双击触摸输入。也可以使用其他命令。
如图13(b)所示,移动终端能从显示单元消除第三帧1310c并且能够仅显示第一帧1310a和第二帧1310b。在这种情况下,能以放大的尺寸显示第一帧1310a和第二帧1310b。
移动终端能感测在多个帧当中除了最近显示的帧的其余帧上输入的第二输入信号1332。参考图13(b),移动终端能感测第一帧1310a上的第二输入信号1332。在图13的实施例中,第二帧1310b能对应于在第一帧1310a后显示的帧。在这种情况下,第二输入信号1332能对应于双击触摸输入。也可以使用其他命令。在这种情况下,如图13(c)所示,移动终端能从显示单元消除第二帧1310b并且能够仅显示第一帧1310a。在这种情况下,能以放大尺寸显示第一帧1310a。
第二输入信号1332可以对应于在多个显示帧当中最近显示的帧上输入的输入信号。特别地,参考图13(b),第二帧可以对应于与第一帧1310a相比最近显示的帧。尽管图13(b)未示出,但如果在第一帧1310a上感测到双击触摸输入,则移动终端可以返回到图13(a)的状态。特别地,用户能根据增加触摸输入的位置,容易地确定是否观看相同时间点的各个角度区的图像。
在图12和图13的实施例中,如果对同一时间点显示多个帧,则根据感测到输入信号的位置,移动终端能够消除多个帧的一部分或能够将新帧添加到多个帧。
图14是根据本发明的一个实施例的根据移动终端中显示的多视点视频中的视角指示符上输入的输入信号改变回放视角的示例的图。在图14的实施例中,视角指示符能实现为之前参考图6(b)描述的立方体。
参考图14(a),移动终端能显示对应于多视点视频的第一时间点的第一视角区的第一帧1430a。视角指示符1410能高亮对应于第一视角区的区域1411。例如,在图14(a)的实施例中,第一视角区可以对应于之前在图6(b)中提及的第一视角621。
移动终端能感测在视角指示符1410上输入的第一输入信号1421。第一输入信号1421能对应于短触摸输入。也可以使用其他命令。能在与第一视角区相邻、在视角指示符1410上高亮的第二视角区1412上感测到第一输入信号1421。视角指示符1410能高亮第二视角区1412。与第一视角区相邻的第二视角区可以对应于之前在图6(b)中提及的第二视角622。
如图14(b)所示,移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区和第二视角区的第二帧1430b。移动终端能高亮对应于视角指示符1410的第二视角区的视角区1412。
移动终端能感测在视角指示符1410上输入的第二输入信号。第二输入信号1422能对应于拖动触摸输入。也可以使用其他命令。在这种情况下,如图14(c)所示,移动终端能在显示单元上显示对应于第一时间点的第一视角区至第三视角区的第三帧1430c。在这种情况下,第三视角区可以对应于之前在图6(b)中提及的第三视角623。移动终端能高亮对应于视角指示符1410的第一至第三视角区的视角区1413。
特别地,经由上述实施例,用户能通过仅操作视角指示符,代替在帧本身上输入的输入信号,使用对应于不同视角区的帧。
尽管在图14中未示出,但在视角指示符上输入的第一输入信号可以对应于长触摸输入或长按压触摸输入。在这种情况下,移动终端能显示六面体的平面形式的视角指示符,代替立体形式的视角指示符。然而,由于平面形式的视角指示符的尺寸在显示单元上很小,所以可能不能正确地识别改变视角指示符的输入信号。由此,移动终端能通过响应第一输入信号放大和覆盖平面视角指示符,以平面形状输出视角指示符。在这种情况下,在预定时间内,显示放大的视角指示符。如果在预定时间内未感测到用户的输入信号,能从该帧消除放大的视角指示符。在这种情况下,经由图形效果,能变暗地显示先前显示的帧,以高亮视角指示符。通过这样做,用户能使用放大的视角指示符容易地执行用于改变视角区的输入。
图15是示例根据本发明的一个实施例的改变移动终端中显示的多视点视频的回放视角的图。
参考图15(a),移动终端在显示单元上显示对应于多视点视频的第一时间点的第一视角区的第一帧1530a。移动终端能显示视角指示符1510。在图15(a)的实施例中,移动终端能高亮对应于视角指示符1510的第一视角区的区域。在图15(a)的实施例中,第一视角区可以对应于之前在图6(a)中提及的第二视角。
移动终端能感测在第一帧1530a上输入的第一输入信号1521。在这种情况下,第一输入信号能对应于长触摸输入或长按压输入。也可以使用其他命令。在这种情况下,移动终端能进入回放编辑模式。参考图15(b),回放编辑模式可以对应于用于显示与第一时间点的全部视角区相对应的360度的帧1540,并且根据用户的输入信号编辑回放视角的模式。在这种情况下,移动终端能显示编辑指示符1545。
参考图15(b),移动终端能感测在编辑指示符1545上输入的第二输入信号1522。第二输入信号对应于拖动触摸输入。也可以使用其他命令。在这种情况下,如图15(c)所示,移动终端能改变在360度的帧1540上显示编辑指示符1545的区域。特别地,用户能通过操作编辑指示符1545,精密地确定将播放的视角区。
接着,移动终端能感测在显示编辑指示符1545的区域上输入的第三输入信号1523。第三输入信号可以对应于短触摸输入。在这种情况下,参考图15(d),移动终端能显示在360度的帧1540中对应于显示编辑指示符1545的区域的第二帧1530b。移动终端能高亮对应于视角指示符的第二帧1530b的视角区。
特别地,经由上述实施例,用户能观看由用户手动确定的视角区,而不是预定视角区的视频。
当播放多视点视频时,搜索对应于360度的帧
图16是根据本发明的一个实施例的当播放在移动终端中显示的多视点视频时,显示全部回放视角的示例的图。
参考图16(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的帧1610。例如,第一时间点可以对应于多视点视频的起始点。例如,第一视角区可以对应于先前在图6(a)中提及的第二视角。
在这种情况下,移动终端能感测在回放图标上输入的第一输入信号1620。例如,第一输入信号1620能对应于短触摸输入。也可以使用其他命令。第一输入信号1620对应于用于播放多视点视频的信号。在这种情况下,如图16(b)所示,移动终端能按顺序显示第一时间点的360度的帧。尽管图16(b)示出了根据预定视角区在显示区上顺序地显示360度的帧1630,但该方法不限于显示用于360度视图的所有帧。
接着,参考图16(c),如果完成第一时间点的360度的显示,则移动终端能从第一时间在显示单元上播放在多视点视频当中基于第一视角区的视频。
尽管图16中未示出,但移动终端能根据在回放图标上输入的输入信号的类型,以各种方式播放多视点视频。例如,如果感测到在回放图标上输入的短触摸输入,则移动终端一次显示对应于第一时间点的360度的所有帧,然后,能够从第一时间点播放第一视角区的视频。例如,如果在回放图标上感测到长触摸输入、按压触摸输入等,则移动终端能够从第一时间点立即播放第一视角区的视频,而不显示360度的帧。也能执行相反过程。
图17是根据本发明的一个实施例当播放移动终端中显示的多视点视频时,全部回放视角的示例性显示的图。在图17的实施例中,省略有关与图16的内容重叠的内容的说明。
参考图17(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的帧1710a。例如,第一时间点可以对应于多视点视频的起始点或由用户输入的输入信号确定的随机时间。例如,第一视角区可以对应于之前在图6(a)中提及的第一视角。
在这种情况下,移动终端能感测在回放图标上输入的第一输入信号1731。在这种情况下,如图17(b)所示,移动终端能根据预定视角区顺序地显示第一时间点的360度的帧。接着,在顺序地显示360度的帧的同时,移动终端能感测第二输入信号1732。第二输入信号1732能对应于短触摸输入。也可以使用其他命令。第二输入信号1732可以对应于在第二视角区上输入的信号。例如,第二视角区可以对应于之前在图6(a)中提及的第三视角。
在这种情况下,如图17(c)所示,在完成对应于第一时间点的360度的帧的显示后,移动终端能播放对应于在其上感测到第二输入信号1732的帧1710b的视频。特别地,移动终端能从第一时间点播放多视点视频当中基于第三视角区的视频。
在显示多个帧的状态下,改变回放视角
图18是示例改变根据本发明的一个实施例的移动终端中显示的多视点视频的回放视角的图。
参考图18(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一帧1810a和第二帧1820a。在这种情况下,第一帧1810a能对应于与第一时间点的第一视角区相对应的帧,而第二帧1820a对应于与第一时间点的第二视角区相对应的帧。移动终端能显示对应于第一视角区的第一视角指示符1815和对应于第二视角区的第二视角指示符1825。在图18(a)的实施例中,第一视角区对应于之前在图6(a)中提及的第一视角,而第二视角区对应于之前在图6(a)中提及的第三视角。
在这种情况下,移动终端能感测在第一帧1810a上输入的第一输入信号1841。例如,第一输入信号1841能对应于在向左方向中拖动的拖动触摸输入。也可以使用其他命令。第一输入信号1841可以对应于用于在向右方向移动在帧上显示的视角区45度那么多的输入。
如图18(b)所示,移动终端能响应于第一输入信号1841显示第三帧1810b和第四帧1820b。在这种情况下,第三帧1810b可以对应于在基准角(方向)的基础上,第一帧1810a在向右方向中旋转45度那么多的帧,而第四帧1820b可以对应于在基准角的基础上,第二帧1820a在向右方向旋转45度那么多的帧。例如,基准角能对应于用来测量用于360度帧的度数的基准角。基准角能由用户配置或能预先设定以捕获视频。特别地,尽管仅在多个帧中的单一帧上感测到输入信号,但也可以改变和显示所有帧。
如图18(b)所示,移动终端能在第三帧1810b和第四帧1820b上显示视角改变指示符1830。例如,视角改变指示符1830能基于第一输入信号1841的长度确定。例如,视角改变指示符1830能以表示视角的各种形式,包括数字、图形、条等实现。在图18(b)的实施例中,视角改变指示符1830由表示“+45度”的文字实现,并且能够表示基于第一输入信号1841视角改变45度那么多。在本示例性实施例中,+方向对应于向右方向。在图18(b)的实施例中,移动终端能高亮第一视角指示符1815和第二视角指示符1825来分别表示对应于第三帧1810b和第四帧1820b的视角。
移动终端能感测在第三帧1810b上输入的第二输入信号1842。例如,第二输入信号1842对应于在向左方向中拖动的拖动触摸输入。也可以使用其他命令。第二输入信号1842可以对应于用于使在第三帧1810b和第四帧1820b上显示的视角区向右方向移动45度那么多的信号。在这种情况下,移动终端能响应于第二输入信号1842显示第五帧1810c和第六帧1820c。第五帧1810c可以对应于基于基准角在向右方向中旋转135度那么多的第一帧1810a,而第六帧1820c可以对应于在基准角的基础上第二帧1820a在向右方向中旋转135度那么多的帧。因此,在图18(c)的实施例中,移动终端能高亮第一视角指示符1815和第二视角指示符1825来分别表示对应于第五帧1810c和第六帧1820c的视角。
参考图18(c),能分别在第五帧1810c和第六帧1820c上输出视角改变指示符1830。在图18(c)的实施例中,由表示“+90度”的文字实现视角改变指示符1830,并且能够表示基于第一输入信号和第二输入信号整个视角区移动90度那么多。
图19是示例改变根据本发明的一个实施例的移动终端中显示的多视点视频的回放视角的图。在图19的实施例中,省略与图18的内容重叠的内容的描述。
参考图19(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一帧1910a和第二帧1920a。在这种情况下,假定第一帧1910a和第二帧1920a与之前在图18(a)中提及的内容相同。第一视角指示符1915和第二视角指示符1925能与之前在图18(a)中提及的内容相同。
在这种情况下,移动终端能感测在第一帧1910a上输入的第一输入信号1941。如图19(b)所示,移动终端能响应于第一输入信号1941,显示第三帧1910b和第四帧1920b。第三帧1910b可以对应于基于基准方向在向右方向中旋转45度那么多的第一帧1910a,而第四帧1920b可以对应于基于基准角在向左方向旋转45度那么多的第二帧1920a。特别地,在图19的实施例中,当显示多个帧时,如果感测到在帧上输入的输入信号,则移动终端能在不同方向中移动多个帧的每一个并且显示多个帧。
如图19(b)所示,移动终端能在第三帧1910b和第四帧1920b上显示视角改变指示符1930。在图19(b)的实施例中,通过表示“+45度”的文字实现在第三帧1910b上输出的视角改变指示符1930,以及通过表示“-45度”的文字实现在第四帧1920b上输出的视角改变指示符1930。在图19(b)的实施例中,移动终端能高亮第一视角指示符1915和第二视角指示符1925来分别表示对应于第三帧1910b和第四帧1920b的角度。
移动终端能感测在第三帧1910b上输入的第二输入信号1942。在这种情况下,如图19(c)所示,移动终端能响应于第二输入信号1942,显示第五帧1910c和第六帧1920c。第五帧1910c可以对应于基于基准角在向右方向中旋转90度那么多的第一帧1910a,而第六帧1920c可以对应于基于基准角在向左方向中旋转90度那么多的第二帧1920a。在图19(c)的实施例中,移动终端能高亮第一视角指示符1915和第二视角指示符1925来分别表示对应于第五帧1910c和第六帧1920c的视角。
如图19(c)所示,移动终端能在第五帧1910c和第六帧1920c上显示视角改变指示符1930。在图19(c)的实施例中,由表示“+90度”的文字实现在第五帧1910c上输出的视角改变指示符1930,而由表示“-90度”的文字实现在第六帧1920c上输出的视角改变指示符1930。
尽管图18和图19的实施例说明了在包括360度的部分视角区的多个帧中,位于上方的帧上感测输入信号的事件,但这些实施例同样能应用于位于下方的帧。尽管图18和图19的实施例例示在同时显示两个帧的状态下感测输入信号的情形,但这些实施例能同样应用于显示单个帧或同时显示三个或以上帧。
在播放多视点视频中搜索对象
图20是示例搜索包括在根据本发明的一个实施例的移动终端中显示的多视点视频中的对象的图。
在播放视频时或停止视频的地方,用户可能希望检查在多视点视频的不同视角或不同时间点是否捕获到包括在帧中的对象或人。尽管图20的实施例解释了在停止回放的情况下搜索对象的方法,但当播放视频的同时搜索对象时,也同样适用该实施例。
参考图20(a),移动终端能在显示单元上显示对应于多视点视频的第一时间点的第一视角区的第一帧2010。移动终端能在显示单元上显示进度条和对应于第一帧2010的第一缩略图图像2020。在这种情况下,第一帧能包括至少一个或多个对象。例如,对象能包括物、人等。在图20(a)的实施例中,第一帧2010包括诸如骑自行车的人、站在人行道上的人、树等的对象。
移动终端能感测在第一帧2020中包括的对象2015上输入的输入信号2030。输入信号能对应于长触摸输入或长按压触摸输入。也可以使用其他命令。输入信号2030可以对应于用于搜索整个多视点视频中的对象的信号。
如图20(b)所示,移动终端能在进度条上显示第二缩略图图像2025。第二缩略图图像2025可以对应于表示与第二时间点的第二视角区相对应的第二帧的图像。第二缩略图图像2025可以表示捕获对象2015的时间点和对应于多视点视频中的视角区的帧。与第一缩略图图像2020不同,第二缩略图图像2025表示特定对象的搜索结果,并且可以具有与第一缩略图图像2020不同的形状。尽管在图20(b)中未示出,但对应于第二缩略图的帧的视角区可以以文本形式出现。
在图20的实施例中,作为搜索对象2015的结果,仅显示单个缩略图图像2025。然而,也可以同时显示多个缩略图图像。经由图20的实施例,用户能容易地确定在当前时间点的当前视角区中包括的人或对象被另外捕获的时间点和角度。
在播放多视点视频中搜索对象
如果在播放多视点视频的同时,在不同视角区而不是当前显示的视角区感测到对象的运动,则移动终端能经由指示符将该运动告知用户。在下文中,当在播放多视点视频的同时识别对象的运动时,图21和22示出了手动搜索对象的方法,以及图23和24示出了自动搜索对象的方法。
图21和22是当播放在根据本发明的一个实施例的移动终端中显示的多视点视频时,手动搜索对象的运动的图。
参考图21(a),移动终端能在显示单元上播放对应于多视点视频的第一时间点的第一视角区的第一视频2110。移动终端能高亮对应于第一视角区的视角指示符2115的区域。例如,在图21(a)的实施例中,第一视角区可以对应于之前在图6(a)中提及的第一视角。
当播放多视点视频的同时,移动终端能感测在第一时间点,在第一视频2110上输入的第一输入信号2121。第一输入信号2121对应于捏缩触摸输入。也可以使用其他命令。在这种情况下,如图21(b)所示,移动终端能另外播放第二视频2130。特别地,移动终端能响应第一输入信号2121,同时播放第一视频2110和第二视频2130。当第二视频2130的时间和第一视频的时间彼此相同时,第二视频可以对应于与第二视角区相对应的视频。例如,在图21(b)的实施例中,第二视角区可以对应于在图6(a)中所述的第三视角区。通过这样做,用户能同时使用不同视角的多视点视频。
如图21(c)所示,当播放多视点视频时,移动终端能识别或感测对象的运动。在这种情况下,对象能包括事、物等。在图21(c)的实施例中,感测运动的对象可以对应于推婴儿车的人。在这种情况下,移动终端能在第一视频和第二视频的一侧显示运动指示符2140。能基于每一视频,在相对于识别对象的方向的方向处,显示运动指示符。例如,在图21(c)的实施例中,在第一视频2110的情况下,移动终端能确定在左边识别对象2145。在图21(c)的实施例中,在第二视频2130的情况下,移动终端能确定在右边识别对象2145。在这种情况下,观看多视点视频的用户可能希望检查对象2145。
与此有关,参考图21(c),移动终端能感测在第二视频2130上输入的第二输入信号2122。第二输入信号2122对应于在向左方向中拖动的拖动触摸输入。也可以使用其他命令。第二输入信号2122能对应于用于检查运动对象2145的用户输入,并且可以对应于用于显示位于第二视频2130的右边的视角区的输入。尽管图21(c)示出在第二视频2130上感测到第二输入信号2122,但也能在第一视频2110上感测到第二输入信号。在这种情况下,第二输入信号2122可以对应于在第一视频2110的向右方向上拖动的拖动触摸输入。
接着,参考图22(a),移动终端能响应第二输入信号2122,播放第三视频2210和第四视频2220。在这种情况下,当第三视频2210的时间和第四视频2220的时间彼此相同时,第三视频对应于在第三视角区捕获的视频。当第四视频2220的时间和第二视频2130的时间彼此相同时,第四视频对应于在第四视角区捕获的视频。在图22(a)的实施例中,第三视角区可以对应于之前在图6(a)中提及的第二视角,以及第四视角区可以对应于之前在图6(a)中提及的第四视角。特别地,如图22(a)所示,用户能使用在不同视角区捕获的多视点视频,并且经由拖动触摸检测识别其运动的对象。
参考图22(b),移动终端能感测在第四视频2220上输入的第三输入信号2230。第三输入信号2230对应于捏放触摸输入。也可以使用其他命令。在这种情况下,如图22(c)所示,移动终端能以放大第四视频2220的方式,播放在其上感测到第三输入信号2230的第四视频2220。特别地,当同时播放对应于多个视角区的多个视频时,如果感测到特定视频上输入的输入信号,则移动终端能以放大该视频的方式,仅播放在其上感测到输入信号的视频。
同时,与上述实施例不同,移动终端还能在仅播放第一视频中显示运动指示符。
图23是示例根据本发明的一个实施例的当播放在移动终端中显示的多视点视频的同时,如何自动地搜索对象的运动的图。
参考图23(a),移动终端能播放对应于多视点视频的第一时间的第一视角区的第一视频2310。在这种情况下,移动终端能感测在第一视频2310上输入的第一输入信号2321。在这种情况下,第一输入信号2321对应于捏放触摸输入。也可以使用其他命令。
如图23(b)所示,移动终端能同时播放第一视频2310和第二视频2330。在这种情况下,第二视频2330与之前在图21中提及的第二视频相同,此时省略有关第二视频的说明。移动终端能在播放视频中,感测对应于相同时间的不同视角区的对象的运动。如图23(b)所示,可以在部分显示单元上显示运动缩略图2340。在这种情况下,运动缩略图2340可以对应于表示在不同视角区,而不是对应于第一视频2310和第二视频2330的视角区,识别其运动的对象的缩略图图像。
移动终端能感测在运动缩略图2340上输入的第二输入信号2332。第二输入信号2332对应于短触摸输入。也可以使用其他命令。在这种情况下,如图23(c)所示,响应于第二输入信号2322,移动终端能播放表示对应于运动缩略图2340的视角区的第三视频2345。第三视频2345可以对应于其中捕获不同视角区的视频,尽管该视频,第一视频2310和第二视频2330同时被捕获。
与上述实施例不同,移动终端能在仅播放第一视频中显示运动指示符。图24是例示根据本发明的一个实施例的当播放在移动终端中显示的多视点视频时,如何自动地搜索对象的运动的图。
参考图24(a),移动终端能在显示单元上播放对应于多视点视频的第一视角区的第一视频2410。在这种情况下,移动终端能识别不同视角区,而不是多视点视频的第一视角区的对象的运动。如图24(a)所示,移动终端能显示包括识别其运动的视角区的缩略图2420。
用户可能希望在使用第一视频的同时,检查识别其运动的对象。在这种情况下,移动终端能感测在缩略图2420上输入的输入信号2430。输入信号2430可以对应于短触摸输入。如图24(b)所示,移动终端响应于输入信号2430停止播放第一视频2410,然后,可以显示对应于与停止第一视频2410的时间点匹配的360度的所有帧。通过这样做,用户能直接检查其运动被感测到的对象所处的视角区。
如图24(c)所示,在显示360度的帧后,移动终端能从停止第一视频的时间再次播放第一视频。
尽管图24的实施例解释了在感测到缩略图2420上输入的输入信号的情况下显示360度的帧的实施例,但如果在未显示的不同视角区感测到运动,同时播放多视点视频,则自动地停止视频的回放并且移动终端能显示360度的帧。在这种情况下,如果在显示360度的帧的同时感测到由用户在特定视角区输入的输入信号,则移动终端能在完成360度的帧的显示后,播放感测到输入信号的视角区的视频。
预览图库中的多视点视频
图25是例示根据本发明的一个实施例的如何提供包括移动终端中显示的多视点视频的图库的预览的图。
参考图25(a),移动终端能在图库2510上同时显示捕获的图像、视频和对应于多视点视频的缩略图。图库2510可以对应于用于存储先前拍摄或捕获的图像、视频等的应用程序。能将捕获的图像和视频存储在诸如移动终端的存储器的内部存储器或诸如云等的外部存储器中。移动终端能感测在用于显示的多视点视频的缩略图图像2515上输入的输入信号2520。尽管在图25中未示出,但能与该缩略图图像一起,输出用于将在图库中显示的所捕获的图像、视频和多视点视频相互区分开来的各种指示符。
在这种情况下,移动终端能同时显示对应于在多视点视频中包括的多个视角区的视频的缩略图。例如,在图25(b)的实施例中,在多视点视频中包括的多个视角区的缩略图可以对应于与左、前、右、后和地侧相对应的视角区的视频。
尽管在图25中未示出,但如果感测到在表示视角区的缩略图上输入的输入信号,则移动终端能通过预览来播放对应于该视角区的视频。如果感测到在表示视角区的缩略图上输入的输入信号,则移动终端能通过全帧,而不是缩略图大小,播放对应于该视角区的视频。
尽管在图25中未示出,但在图25(a)的实施例中,移动终端能经由感测单元感测到移动终端的倾斜输入。在这种情况下,在移动终端的预定角的基础上,倾斜输入可以对应于向移动终端的右、左、上或下侧倾斜的视角。例如,预定角可以对应于水平于水平面的角或垂直于水平面的角。在这种情况下,移动终端能在图库中显示的多视点视频的缩略图图像上显示对应于倾角的视角区的预览。例如,倾角可以对应于在水平面的基础上,使移动终端的右侧倾斜30度那么多的角。在这种情况下,移动终端能在多视点视频的缩略图图像上,显示对应于右侧的视角区的视频的预览。同时,在本实施例的情况下,如果移动终端同时感测到倾斜输入和触摸输入,则也能够为用户提供上述预览。
图26是例示根据本发明的一个实施例的如何在包括移动终端中显示的多视点视频的图库中提供预览的图。
参考图26(a),移动终端能同时显示对应于包括在多视点视频中的多个视角区的视频的缩略图。在图26的实施例中,假定多个视角区对应于图6(a)中所示的6个视角区。在这种情况下,移动终端能感测输入信号。例如,输入信号可以对应于倾斜输入。倾斜输入可以在移动终端的预定角的基础上,对应于倾向移动终端的右、左、上和下侧的角度。例如,预定角可以对应于水平于水平面的角度、垂直于水平面的角度等。在图26(a)的实施例中,倾斜输入可以对应于移动终端的顶部倾向地面同时移动终端与水平面水平的角度。在这种情况下,移动终端能以放大预览的方式,输出对应于该倾角的视角区的预览。在图26(b)的实施例中,对应于倾斜输入的视角区可以对应于与360度的帧中的顶部相对应的倾角。因此,移动终端能以放大预览的方式,提供对应于顶部的视角区的预览。
同时,尽管在图26中未示出,在显示对应于多个视角区的视频的缩略图的状态下,移动终端能响应于输入信号,仅为用户提供对应于倾斜输入的视角区的缩略图的预览。
图27是用于控制根据本发明的一个实施例的移动终端的方法的流程图。在下文中所述的图27的每一步骤由图1a所示的移动终端的控制器180控制。
移动终端能显示对应于多视点视频的第一时间点的第一视角区的帧和对应于多视点视频的进度条[S2710]。
移动终端能感测在进度条上输入的第一输入信号[S2720]。在这种情况下,如之前在图5中提及的,第一输入信号可以对应于用于移动在进度条上显示的时间指示符的输入。
在这种情况下,移动终端将在对应于第一时间点的位置上显示的时间指示符移动到对应于第二时间点的位置,然后能够在进度条上显示对应于第一视角区的第一缩略图图像[S2730]。
接着,移动终端能感测在第一缩略图图像上输入的第二输入信号[S2740]。在这种情况下,第二输入信号可以对应于用于改变在第一缩略图图像中示出的视角区的输入。
在这种情况下,移动终端能显示对应于第二时间点的第二视角区的第二缩略图图像[S2750]。
接着,移动终端能感测在第二缩略图图像上输入的第三输入信号[S2760]。在这种情况下,第三输入信号可以对应于用于确定并且选择第二缩略图图像的输入。
在这种情况下,移动终端能在显示单元上,显示对应于第二时间点的第二视角区的帧[S2770]。
根据本发明的至少一个或多个实施例,用户能容易地控制和使用捕获360度的多视点视频的回放时间和回放角度。
根据本发明的至少一个或多个实施例,用户能在使用多视点视频中用于预定视角区的视频的同时,容易地识别在不同视角区发生的事件。
在前面的描述中所述的本发明可以使用其上存储有用于由执行在此陈述的各种方法的处理器执行的指令的机器可读介质实现。可能的机器可读介质的示例包括HDD(硬盘驱动)、SSD(固态盘)、SDD(硅盘驱动)、ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备等等。根据需要,计算机可读介质也可以被实现为载波的形式(例如,经由互联网的传送)。处理器可以包括终端的控制器180。
前述实施例仅是示例性的并且不被视为对本公开的限制。此描述旨在是说明性的,并且没有限制权利要求的范围。许多替代、修改以及变形对于本领域的技术人员来说将会是显然的。可以以各种方式组合在此描述的示例性实施例的特征、结构、方法以及其它特性以获得附加的和/或替代的示例性实施例。
由于在没有脱离其特性的情况下可以以多种形式实现本特征,所以也应理解的是,上述实施例不受前面描述的任何细节的限制,除非另有规定,否则应在所附的权利要求中限定的范围内被广泛地解释,并且因此旨在由所附的权利要求涵盖落入权利要求的范围和界限或者该范围和界限的等同物内的所有变化和修改。
Claims (20)
1.一种控制终端,包括:
显示单元;
感测输入的感测单元;以及
控制器,所述控制器控制所述显示单元和所述感测单元:
显示与多视点视频的第一回放时间点处的第一回放角度相对应的第一帧和与所述多视点视频相对应的进度条;
响应于施加到所述进度条的输入,将在与所述第一回放时间点相对应的位置处显示的时间指示符移动到与所述进度条的第二回放时间点相对应的位置;
显示与在所述第二回放时间点处的第一回放角度相对应的第一缩略图图像;以及
响应于施加到所述第一缩略图图像的输入,显示与在所述第二回放时间点处的第二回放角度相对应的第二缩略图图像。
2.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到所述第二缩略图图像的输入,显示与所述第二缩略图图像相对应的帧。
3.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于在施加到所述第一缩略图图像的输入之前感测到的相应输入,在所述第一缩略图图像上显示缩略图编辑指示符。
4.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到所述第一缩略图图像的第二输入,显示对应于在与所述第一缩略图图像的回放时间点相同的回放时间点处的不同回放角度的第三缩略图图像。
5.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到所述第一帧的输入,显示与在所述第一回放时间点处不同于所述第一回放角度的第三回放角度相对应的第二帧。
6.如权利要求1所述的移动终端,其中,所述控制器控制所述显示单元响应于施加到所述第一帧的输入,同时显示所述第一帧和与在所述第一回放时间点处的不同于所述第一回放角度的第三回放角度相对应的第二帧。
7.如权利要求6所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到所述第一帧的第二输入,显示与不同于所述第一帧的回放角度的回放角度相对应的第三帧,以及显示与不同于所述第二帧的回放角度的回放角度相对应的第四帧。
8.如权利要求7所述的移动终端,其中,所述控制器进一步控制所述显示单元响应相应输入,显示具有缩小的显示尺寸的所述第一帧。
9.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元显示指示所述第一帧的第一回放角度的角度指示符。
10.如权利要求9所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到所述角度指示符的输入,显示指示不同于所述第一帧的回放角度的回放角度的第二帧。
11.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到所述第一帧的输入,显示与360度的回放角度相对应的第二帧和用于编辑回放角度的编辑指示符。
12.如权利要求1所述的移动终端,其中,当在显示所述第一帧的同时感测到施加到回放图标的输入时,所述控制器控制所述显示单元顺序地滚动并显示与360度多视点视频的每个回放角度相对应的每个帧,并且在顺序地滚动和显示每个帧后,播放与所述第一帧相对应的第一视频,
其中,被显示的帧中的每个在所述第一回放时间点处开始,
其中,所述被显示的帧中的每个对应于预定倾角,以及
其中,与每个帧相对应的每个回放角度组成所述360度多视点视频的一部分。
13.如权利要求12所述的移动终端,其中,当顺序地显示所述帧时,感测到施加到所述帧中的一个的相应输入,所述控制器控制所述显示单元在顺序地显示与360度多视点视频的每个回放角度相对应的每个帧后,播放与在其上感测到所述相应输入的帧相对应的第二视频。
14.如权利要求1所述的移动终端,其中,所述控制器进一步控制所述显示单元响应于施加到在所述第一帧中显示的对象的输入,显示与在第三回放时间点处其中出现多视点视频的对象的第二帧相对应的第三缩略图图像。
15.如权利要求1所述的移动终端,其中,如果在播放与所述第一帧相对应的第一视频的同时,在除所述第一回放角度外的回放角度处识别到对象的运动,则所述控制器进一步控制所述显示单元显示运动指示符。
16.如权利要求1所述的移动终端,其中,如果在播放与所述第一帧相对应的第一视频的同时,在除所述第一回放角度外的回放角度处识别到对象的运动,则所述控制器进一步控制所述显示单元显示包含所述对象的运动缩略图,并且响应于施加到所述运动缩略图的输入,播放指示与所述运动缩略图相对应的回放角度的第二视频。
17.如权利要求1所述的移动终端,其中,当在播放视频的同时在除所述第一回放角度外的回放角度处识别到对象的运动时,所述控制器进一步控制所述显示单元显示包含所述对象的运动缩略图,并且其中,如果感测到施加到所述运动缩略图的输入,则所述控制器停止所述视频的播放,并且控制所述显示单元顺序地滚动并且显示与所述多视点视频的360不同角度的每个相对应的每个帧,
其中,被显示的帧中的每个对应于将所述输入施加到所述运动缩略图的回放时间点,
其中,所述被显示的帧中的每个对应于预定倾角,以及
其中,与每个帧相对应的每个回放角度组成所述360度多视点视频的一部分。
18.如权利要求1所述的移动终端,其中,所述多视点视频对应于以预定倾角由多个相机捕获360度的视频。
19.一种控制移动终端的方法,所述方法包括步骤:
显示与多视点视频的在第一回放时间点处的第一回放角度相对应的第一帧和与所述多视点视频相对应的进度条;
响应于施加到所述进度条的输入,将在与所述第一回放时间点相对应的位置处显示的时间指示符移动到与所述进度条的第二回放时间点相对应的位置,并且显示与在所述第二回放时间点处的所述第一回放角度的相对应第一缩略图图像;以及
响应于施加到所述第一缩略图图像的输入,显示与在所述第二回放时间点处的第二回放角度相对应的第二缩略图图像。
20.如权利要求19所述的方法,进一步包括步骤:
响应于施加到所述第二缩略图图像的输入,显示与所述第二缩略图图像相对应的帧。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562209901P | 2015-08-26 | 2015-08-26 | |
US62/209,901 | 2015-08-26 | ||
KR10-2015-0156686 | 2015-11-09 | ||
KR1020150156686A KR20170026040A (ko) | 2015-08-26 | 2015-11-09 | 이동 단말기 및 그 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106488323A true CN106488323A (zh) | 2017-03-08 |
CN106488323B CN106488323B (zh) | 2020-10-09 |
Family
ID=56740800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610739471.3A Expired - Fee Related CN106488323B (zh) | 2015-08-26 | 2016-08-26 | 移动终端及其控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10219026B2 (zh) |
EP (1) | EP3136218B1 (zh) |
CN (1) | CN106488323B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107959878A (zh) * | 2017-11-15 | 2018-04-24 | 深圳岚锋创视网络科技有限公司 | 一种全景视频录制为普通视频的方法、装置及便携式终端 |
CN109040846A (zh) * | 2018-07-13 | 2018-12-18 | 北京幻鲸数字科技有限公司 | 全景视频播放方法及装置 |
CN109792554A (zh) * | 2016-10-06 | 2019-05-21 | 索尼公司 | 再现装置、再现方法和程序 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726593B2 (en) * | 2015-09-22 | 2020-07-28 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10506221B2 (en) | 2016-08-03 | 2019-12-10 | Adobe Inc. | Field of view rendering control of digital content |
US20180046363A1 (en) * | 2016-08-10 | 2018-02-15 | Adobe Systems Incorporated | Digital Content View Control |
US11461820B2 (en) | 2016-08-16 | 2022-10-04 | Adobe Inc. | Navigation and rewards involving physical goods and services |
US10628019B2 (en) * | 2016-08-22 | 2020-04-21 | Samsung Electronics Co., Ltd. | Electronic device and method for rendering 360-degree multimedia content |
US10198846B2 (en) | 2016-08-22 | 2019-02-05 | Adobe Inc. | Digital Image Animation |
US10068378B2 (en) | 2016-09-12 | 2018-09-04 | Adobe Systems Incorporated | Digital content interaction and navigation in virtual and augmented reality |
US10887653B2 (en) * | 2016-09-26 | 2021-01-05 | Cyberlink Corp. | Systems and methods for performing distributed playback of 360-degree video in a plurality of viewing windows |
US10430559B2 (en) | 2016-10-18 | 2019-10-01 | Adobe Inc. | Digital rights management in virtual and augmented reality |
JP6740539B2 (ja) * | 2016-11-07 | 2020-08-19 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
KR102676837B1 (ko) * | 2016-12-16 | 2024-06-21 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US10282908B2 (en) * | 2016-12-16 | 2019-05-07 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for presenting indication(s) of whether virtual object presented at first device is also presented at second device |
CN106878786B (zh) * | 2017-03-07 | 2020-03-03 | 北京小米移动软件有限公司 | Vr视频中弹幕的显示方法和装置 |
GB2565807B (en) | 2017-08-23 | 2022-04-20 | Samsung Electronics Co Ltd | Method and apparatus for controlling 360 degree video |
KR102396526B1 (ko) * | 2017-09-29 | 2022-05-11 | 삼성전자주식회사 | 컨텐츠를 표시하기 위한 장치 및 그의 동작 방법 |
JP2019105933A (ja) * | 2017-12-11 | 2019-06-27 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、およびプログラム |
KR102477523B1 (ko) * | 2017-12-22 | 2022-12-15 | 삼성전자주식회사 | 360 비디오에서 POI(Point of Interest) 정보를 제공하기 위한 장치 및 방법 |
JP7102173B2 (ja) * | 2018-03-09 | 2022-07-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR102352721B1 (ko) * | 2018-05-07 | 2022-01-19 | 애플 인크. | 라이브 비디오 피드들 및 기록된 비디오를 보기 위한 사용자 인터페이스들 |
JP7267764B2 (ja) * | 2019-02-08 | 2023-05-02 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 |
US11363071B2 (en) | 2019-05-31 | 2022-06-14 | Apple Inc. | User interfaces for managing a local network |
US10904029B2 (en) | 2019-05-31 | 2021-01-26 | Apple Inc. | User interfaces for managing controllable external devices |
CN110933505A (zh) * | 2019-10-31 | 2020-03-27 | 维沃移动通信有限公司 | 一种进度调节方法及电子设备 |
US11157556B2 (en) | 2019-12-20 | 2021-10-26 | Sling Media Pvt Ltd | Method and apparatus for thumbnail generation for a video device |
CN111372101A (zh) * | 2020-02-21 | 2020-07-03 | 咪咕视讯科技有限公司 | 内容推荐方法、电子设备及存储介质 |
US11386151B2 (en) | 2020-04-11 | 2022-07-12 | Open Space Labs, Inc. | Image search in walkthrough videos |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11657614B2 (en) | 2020-06-03 | 2023-05-23 | Apple Inc. | Camera and visitor user interfaces |
US11589010B2 (en) | 2020-06-03 | 2023-02-21 | Apple Inc. | Camera and visitor user interfaces |
CN116195261A (zh) | 2020-09-05 | 2023-05-30 | 苹果公司 | 用于管理媒体项目的音频的用户界面 |
CN112040324A (zh) * | 2020-09-10 | 2020-12-04 | Tcl通讯(宁波)有限公司 | 一种播放进度调节方法、装置、存储介质及终端 |
CN114697690A (zh) * | 2020-12-30 | 2022-07-01 | 光阵三维科技有限公司 | 由组合传送的多个串流取出特定串流播放的系统及方法 |
US11823148B2 (en) | 2021-04-15 | 2023-11-21 | Bank Of America Corporation | Augmented reality-enabled ATM for secure augmented reality check realization |
JP2022168781A (ja) * | 2021-04-26 | 2022-11-08 | キヤノン株式会社 | 電子機器、その制御方法、プログラムおよび記憶媒体 |
US11809675B2 (en) | 2022-03-18 | 2023-11-07 | Carrier Corporation | User interface navigation method for event-related video |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1801899A (zh) * | 2005-08-31 | 2006-07-12 | 珠海市西山居软件有限公司 | 一种游戏录像回放系统 |
US20090282082A1 (en) * | 2008-05-08 | 2009-11-12 | Yoshitaka Yaguchi | Recorder |
US20090309975A1 (en) * | 2008-06-13 | 2009-12-17 | Scott Gordon | Dynamic Multi-Perspective Interactive Event Visualization System and Method |
CN101878643A (zh) * | 2007-12-10 | 2010-11-03 | 索尼公司 | 电子设备、再现方法和程序 |
US20120044185A1 (en) * | 1999-12-01 | 2012-02-23 | Silverbrook Research Pty Ltd | Handheld display device having processor for rendering display output with real-time virtual transparency and video playback option |
CN102436839A (zh) * | 2011-10-25 | 2012-05-02 | 北京汉邦高科数字技术股份有限公司 | 一种对视频录像定位和检索的方法及其装置 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020049979A1 (en) * | 2000-05-18 | 2002-04-25 | Patrick White | Multiple camera video system which displays selected images |
AU2001264723A1 (en) * | 2000-05-18 | 2001-11-26 | Imove Inc. | Multiple camera video system which displays selected images |
US7796162B2 (en) * | 2000-10-26 | 2010-09-14 | Front Row Technologies, Llc | Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers |
EP1410621A1 (en) * | 2001-06-28 | 2004-04-21 | Omnivee Inc. | Method and apparatus for control and processing of video images |
US8737816B2 (en) * | 2002-08-07 | 2014-05-27 | Hollinbeck Mgmt. Gmbh, Llc | System for selecting video tracks during playback of a media production |
US7609910B2 (en) * | 2004-04-09 | 2009-10-27 | Siemens Medical Solutions Usa, Inc. | System and method for creating a panoramic view of a volumetric image |
US20060023066A1 (en) * | 2004-07-27 | 2006-02-02 | Microsoft Corporation | System and Method for Client Services for Interactive Multi-View Video |
ATE500580T1 (de) * | 2005-03-25 | 2011-03-15 | Sensormatic Electronics Llc | Intelligente kameraauswahl und objektverfolgung |
US7996771B2 (en) * | 2005-06-17 | 2011-08-09 | Fuji Xerox Co., Ltd. | Methods and interfaces for event timeline and logs of video streams |
AU2005202866A1 (en) * | 2005-06-29 | 2007-01-18 | Canon Kabushiki Kaisha | Storing video data in a video file |
US20080076556A1 (en) * | 2006-09-22 | 2008-03-27 | Big Fish Games, Inc. | Simulated 3D View of 2D Background Images and Game Objects |
US8274564B2 (en) * | 2006-10-13 | 2012-09-25 | Fuji Xerox Co., Ltd. | Interface for browsing and viewing video from multiple cameras simultaneously that conveys spatial and temporal proximity |
US8791984B2 (en) * | 2007-11-16 | 2014-07-29 | Scallop Imaging, Llc | Digital security camera |
US8994731B2 (en) * | 2007-12-19 | 2015-03-31 | Temporal Llc | Apparatus, system, and method for organizing information by time and place |
US8270767B2 (en) * | 2008-04-16 | 2012-09-18 | Johnson Controls Technology Company | Systems and methods for providing immersive displays of video camera information from a plurality of cameras |
US9144714B2 (en) * | 2009-05-02 | 2015-09-29 | Steven J. Hollinger | Ball with camera for reconnaissance or recreation and network for operating the same |
KR101816113B1 (ko) * | 2009-07-16 | 2018-01-08 | 블루핀 랩스, 인코포레이티드 | 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체 |
US9076041B2 (en) * | 2010-08-26 | 2015-07-07 | Blast Motion Inc. | Motion event recognition and video synchronization system and method |
US9369635B1 (en) * | 2011-01-07 | 2016-06-14 | Apptopus, Inc. | Director/camera communication system and method for wireless multi-camera video production |
US9323250B2 (en) * | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
US9930225B2 (en) * | 2011-02-10 | 2018-03-27 | Villmer Llc | Omni-directional camera and related viewing software |
US10778905B2 (en) * | 2011-06-01 | 2020-09-15 | ORB Reality LLC | Surround video recording |
KR101249901B1 (ko) * | 2011-06-22 | 2013-04-09 | 엘지전자 주식회사 | 이동통신 단말기 및 그 동작방법 |
US9269243B2 (en) * | 2011-10-07 | 2016-02-23 | Siemens Aktiengesellschaft | Method and user interface for forensic video search |
US9602738B2 (en) * | 2011-11-23 | 2017-03-21 | Avigilon Fortress Corporation | Automatic event detection, text generation, and use thereof |
US9838687B1 (en) * | 2011-12-02 | 2017-12-05 | Amazon Technologies, Inc. | Apparatus and method for panoramic video hosting with reduced bandwidth streaming |
US20150058709A1 (en) * | 2012-01-26 | 2015-02-26 | Michael Edward Zaletel | Method of creating a media composition and apparatus therefore |
US9588215B1 (en) * | 2012-02-14 | 2017-03-07 | C360 Technologies, Inc. | Object tracking and data aggregation in panoramic video |
US8830193B2 (en) * | 2012-02-23 | 2014-09-09 | Honeywell International Inc. | Controlling views in display device with touch screen |
US9241131B2 (en) * | 2012-06-08 | 2016-01-19 | Samsung Electronics Co., Ltd. | Multiple channel communication using multiple cameras |
JP6171374B2 (ja) * | 2013-02-06 | 2017-08-02 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
US9218729B2 (en) * | 2013-02-20 | 2015-12-22 | Honeywell International Inc. | System and method of monitoring the video surveillance activities |
US9244940B1 (en) * | 2013-09-27 | 2016-01-26 | Google Inc. | Navigation paths for panorama |
US10754511B2 (en) * | 2013-11-20 | 2020-08-25 | Google Llc | Multi-view audio and video interactive playback |
US10622020B2 (en) * | 2014-10-03 | 2020-04-14 | FieldCast, LLC | Point of view video processing and curation platform |
US9781356B1 (en) * | 2013-12-16 | 2017-10-03 | Amazon Technologies, Inc. | Panoramic video viewer |
US9607015B2 (en) * | 2013-12-20 | 2017-03-28 | Qualcomm Incorporated | Systems, methods, and apparatus for encoding object formations |
US20150193127A1 (en) * | 2014-01-07 | 2015-07-09 | Opentv Inc. | Systems and methods of displaying integrated home automation modules |
US10095398B2 (en) * | 2014-02-27 | 2018-10-09 | Dropbox, Inc. | Navigating galleries of digital content |
MX2016012455A (es) * | 2014-03-25 | 2017-07-28 | 6115187 Canada Inc D/B/A Immervision Inc | Definicion automatizada del comportamiento del sistema o experiencia del usuario mediante grabacion, intercambio y procesamiento de la informacion asociada con imagen gran angular. |
WO2015198675A1 (ja) * | 2014-06-23 | 2015-12-30 | ソニー株式会社 | 撮影装置 |
EP2996088B1 (en) * | 2014-09-10 | 2018-08-29 | My Virtual Reality Software AS | Method for visualising surface data together with panorama image data of the same surrounding |
US10091418B2 (en) * | 2014-10-24 | 2018-10-02 | Bounce Imaging, Inc. | Imaging systems and methods |
US9361011B1 (en) * | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
US9934823B1 (en) * | 2015-08-27 | 2018-04-03 | Amazon Technologies, Inc. | Direction indicators for panoramic images |
-
2016
- 2016-06-29 US US15/196,639 patent/US10219026B2/en not_active Expired - Fee Related
- 2016-07-12 EP EP16179111.6A patent/EP3136218B1/en not_active Not-in-force
- 2016-08-26 CN CN201610739471.3A patent/CN106488323B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120044185A1 (en) * | 1999-12-01 | 2012-02-23 | Silverbrook Research Pty Ltd | Handheld display device having processor for rendering display output with real-time virtual transparency and video playback option |
CN1801899A (zh) * | 2005-08-31 | 2006-07-12 | 珠海市西山居软件有限公司 | 一种游戏录像回放系统 |
CN101878643A (zh) * | 2007-12-10 | 2010-11-03 | 索尼公司 | 电子设备、再现方法和程序 |
US20090282082A1 (en) * | 2008-05-08 | 2009-11-12 | Yoshitaka Yaguchi | Recorder |
US20090309975A1 (en) * | 2008-06-13 | 2009-12-17 | Scott Gordon | Dynamic Multi-Perspective Interactive Event Visualization System and Method |
CN102436839A (zh) * | 2011-10-25 | 2012-05-02 | 北京汉邦高科数字技术股份有限公司 | 一种对视频录像定位和检索的方法及其装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109792554A (zh) * | 2016-10-06 | 2019-05-21 | 索尼公司 | 再现装置、再现方法和程序 |
CN107959878A (zh) * | 2017-11-15 | 2018-04-24 | 深圳岚锋创视网络科技有限公司 | 一种全景视频录制为普通视频的方法、装置及便携式终端 |
CN109040846A (zh) * | 2018-07-13 | 2018-12-18 | 北京幻鲸数字科技有限公司 | 全景视频播放方法及装置 |
CN109040846B (zh) * | 2018-07-13 | 2021-06-18 | 北京幻鲸数字科技有限公司 | 全景视频播放方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20170064374A1 (en) | 2017-03-02 |
EP3136218B1 (en) | 2019-05-15 |
CN106488323B (zh) | 2020-10-09 |
US10219026B2 (en) | 2019-02-26 |
EP3136218A1 (en) | 2017-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11934625B2 (en) | Mobile terminal | |
CN106488323A (zh) | 移动终端及其控制方法 | |
EP3246916B1 (en) | Mobile terminal and controlling method thereof | |
US10348972B2 (en) | Mobile terminal and method of controlling therefor | |
EP3112989A2 (en) | Mobile terminal | |
US10531262B2 (en) | Mobile terminal | |
US9454301B2 (en) | Mobile terminal controlled by at least one touch and method of controlling therefor | |
US9966114B2 (en) | Mobile terminal and method of controlling therefor | |
CN105282276A (zh) | 配备有触摸屏的移动终端及其控制方法 | |
US10241737B2 (en) | Mobile terminal and method for controlling the same | |
EP3128391B1 (en) | Mobile terminal and watch-type mobile terminal | |
CN108141542A (zh) | 移动终端及其控制方法 | |
US20180181283A1 (en) | Mobile terminal and method for controlling the same | |
CN107770363A (zh) | 移动终端 | |
US10375380B2 (en) | Mobile terminal and operating method thereof | |
US10764528B2 (en) | Mobile terminal and control method thereof | |
US11032608B2 (en) | Mobile terminal and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201009 Termination date: 20210826 |
|
CF01 | Termination of patent right due to non-payment of annual fee |