CN104737526B - 用于记录视频序列的方法和装置 - Google Patents

用于记录视频序列的方法和装置 Download PDF

Info

Publication number
CN104737526B
CN104737526B CN201280075417.3A CN201280075417A CN104737526B CN 104737526 B CN104737526 B CN 104737526B CN 201280075417 A CN201280075417 A CN 201280075417A CN 104737526 B CN104737526 B CN 104737526B
Authority
CN
China
Prior art keywords
sensor
sensor portion
border
image
picture frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280075417.3A
Other languages
English (en)
Other versions
CN104737526A (zh
Inventor
J·尼卡拉
M·派索宁
E·阿霍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Publication of CN104737526A publication Critical patent/CN104737526A/zh
Application granted granted Critical
Publication of CN104737526B publication Critical patent/CN104737526B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

一种记录视频序列的方法,包括:接收第一指令,其定义相对于预览图像的第一边界的位置;接收第二指令,其定义第二边界的位置;根据第一边界的位置,确定第一传感器部的位置;根据第二指令,确定第二传感器部的位置;通过在图像传感器上形成第一光学图像,提供第一传感器数据;通过在图像传感器上形成第二光学图像,提供第二传感器数据;根据从第一传感器部获取的第一传感器数据确定第一图像帧;根据从第二传感器部获取的第二传感器数据,确定第二图像帧;以及存储第一图像帧和第二图像帧。

Description

用于记录视频序列的方法和装置
技术领域
各种实施例涉及记录视频序列。
背景技术
事件的视频序列可以使用照相机记录。一个或多个对象可在事件期间移动。用户可在对象的移动期间手动地调整照相机的朝向,以便将照相机对准最相关的对象。用户还可在对象的移动期间手动地调整缩放级别,以便拍摄具有高分辨率的对象的相关细节。
发明内容
一些实施例提供用于记录视频序列的方法。一些实施例提供用于记录视频序列的计算机程序。一些实施例提供计算机程序产品,其包括于记录视频序列的计算机程序。一些实施例供用于记录视频序列的装置。一些实施例供用于记录视频序列的装置。
根据第一方面,提供了一种方法,其包括:
接收第一指令,其定义相对于预览图像的第一边界的位置;
接收第二指令,其定义相对于所述预览图像的第二边界的位置、取景路径或跟踪模式;
根据所述第一边界的位置,确定第一传感器部的位置;
根据所述第二指令,确定第二传感器部的位置;
通过在接收到所述第二指令之后在图像传感器上形成第一光学图像,提供第一传感器数据;
通过在所述第一光学图像已经形成之后在所述图像传感器上形成第二光学图像,提供第二传感器数据;
根据从所述第一传感器部获取的所述第一传感器数据,确定第一图像帧;
根据从所述第二传感器部获取的所述第二传感器数据,确定第二图像帧;以及
存储和/或传输所述第一图像帧和所述第二图像帧。
根据第二方面,提供了一种计算机程序,其包括计算机程序代码,所述计算机程序代码被配置为当在至少一个处理器上执行时使装置或系统:
接收第一指令,其定义相对于预览图像的第一边界的位置;
接收第二指令,其定义相对于所述预览图像的第二边界的位置、取景路径或跟踪模式;
根据所述第一边界的位置,确定第一传感器部的位置;
根据所述第二指令,确定第二传感器部的位置;
通过在接收到所述第二指令之后在图像传感器上形成第一光学图像,提供第一传感器数据;
通过在所述第一光学图像已经形成之后在所述图像传感器上形成第二光学图像,提供第二传感器数据;
根据从所述第一传感器部获取的所述第一传感器数据,确定第一图像帧;
根据从所述第二传感器部获取的所述第二传感器数据,确定第二图像帧;以及
存储和/或传输所述第一图像帧和所述第二图像帧。
根据第三方面,提供了一种计算机程序产品,其具体化在非暂时性计算机可读介质上,包括计算机程序代码,所述计算机程序代码被配置为当在至少一个处理器上执行时使装置或系统:
接收第一指令,其定义相对于预览图像的第一边界的位置;
接收第二指令,其定义相对于所述预览图像的第二边界的位置、取景路径或跟踪;
根据所述第一边界的位置,确定第一传感器部的位置;
根据所述第二指令,确定第二传感器部的位置;
通过在接收到所述第二指令之后在图像传感器上形成第一光学图像,提供第一传感器数据;
通过在所述第一光学图像已经形成之后在所述图像传感器上形成第二光学图像,提供第二传感器数据;
根据从所述第一传感器部获取的所述第一传感器数据,确定第一图像帧;
根据从所述第二传感器部获取的所述第二传感器数据,确定第二图像帧;以及
存储和/或传输所述第一图像帧和所述第二图像帧。
根据第四方面,提供了一种用于记录视频序列的装置,其包括:
用于接收第一指令的装置,所述第一指令定义相对于预览图像的第一边界的位置;
用于接收第二指令的装置,所述第二指令定义相对于所述预览图像的第二边界的位置、取景路径或者跟踪模式;
用于根据所述第一边界的位置确定第一传感器部的位置的装置;
用于根据所述第二指令确定第二传感器部的位置的装置;
用于通过在接收到所述第二指令后在图像传感器上形成第一光学图像来提供第一传感器数据的装置;
用于通过在所述第一光学图像已经形成后在所述图像传感器上形成第二光学图像来提供第二传感器数据的装置;
用于根据从所述第一传感器部获取的所述第一传感器数据确定第一图像帧的装置;
用于根据从所述第二传感器部获取的所述第二传感器数据确定第二图像帧的装置;以及
用于存储和/或传输所述第一图像帧和所述第二图像帧的装置。
根据第五方面,提供了一种装置,其包括至少一个处理器、包括计算机程序代码的存储器,所述存储器和所述计算机程序代码被配置为用至少一个处理器使装置至少执行:
接收第一指令,其定义相对于预览图像的第一边界的位置;
接收第二指令,其定义相对于所述预览图像的第二边界的位置、取景路径或者跟踪模式;
根据所述第一边界的位置,确定第一传感器部的位置;
根据所述第二指令,确定第二传感器部的位置;
通过在接收到所述第二指令后在图像传感器上形成第一光学图像,提供第一传感器数据;
通过在所述第一光学图像已经形成后在所述图像传感器上形成第二光学图像,提供第二传感器数据;
根据从所述第一传感器部获取的所述第一传感器数据,确定第一图像帧;
根据从所述第二传感器部获取的所述第二传感器数据,确定第二图像帧;以及
存储和/或传输所述第一图像帧和所述第二图像帧。
一个或多个对象可在事件期间移动。事件的视频序列可以根据视频脚本记录。用户可以基于可能在视频序列中显示的对象的预期位置而创建视频脚本。用户可以在事件的视频序列被记录之前创建视频脚本。
视频序列可以预先编程的方式平滑地拍摄,如由视频脚本所定义的。视频序列可以包括若干视频镜头。视频镜头可包括若干图像帧。视频序列可以被拍摄,以使得视频镜头可以是稳定的,并且连续的视频镜头之间的过渡可以是平滑的。
视频序列可包括根据第一取景而记录的第一视频镜头和根据第二取景而记录的第二视频镜头。视频脚本可包括提前定义第一视频镜头的取景和定义第二视频镜头的取景。“取景”可意味着定义图像帧的边界。
显示一个或多个对象的预览图像可以通过使用照相机拍摄。照相机的用户可通过定义第一边界和第二边界来创建用于视频序列的视频脚本。照相机的用户可定义第一边界相对于在预览图像中出现的特征的尺寸和位置。照相机的用户可定义第二边界相对于第一边界的尺寸和位置。特别地,第二边界可相对于第一边界位移。预览图像可被显示在触摸屏上,第一边界和第二边界可例如通过使用触摸屏来定义。预览图像可以被显示在显示器上,第一边界和第二边界可以例如通过使用触摸板、小键盘、鼠标、跟踪球和/或操纵杆来定义。
在边界已经定义了之后,实际的视频序列可以根据所定义的边界来记录。在第一时间段期间,在存储器中存储的图像帧可根据第一边界取景。在第二时间段期间,在存储器中存储的图像帧可以根据第二边界取景。
照相机的镜片可以被安排以在图像传感器上形成光学图像。图像传感器可将光学图像转换成传感器数据。图像传感器或数据处理器可根据传感器数据提供图像数据。第一边界可对应于图像传感器的第一传感器部,第二边界可对应于图像传感器的第二传感器部。第一传感器部和/或第二传感器部可基本上小于图像传感器的有效区域。在实施例中,在第一时间段期间,从第一传感器部以外的检测器像素中获取的数据可以基本上丢弃,在第二时间段期间,从第二传感器部以外的检测器像素中获取的数据可以基本上丢弃。
在实施例中,在记录视频序列期间,用户不需要改变照相机的机械朝向。
在实施例中,用户在记录视频序列之前不用准确地调整照相机的机械朝向。所记录的视频图像还可以快速而准确地取景,而不使用可机械调整的三脚架。因此,照相机还可以被例如密切地定位在恰好可用的任何支架上。例如,桌子或树枝可被用作照相机在记录视频序列时的支架。
在实施例中,用户在记录视频序列期间不改变照相机的朝向。所记录的视频图像还可以快速而准确地取景,而无需使用具有机械转头的三脚架。因此,照相机还可以被例如密切地定位在恰好可用的任何支架上。例如,桌子或树枝可用作照相机在记录视频序列时的支架。
在实施例中,用户在记录视频序列期间不需要手动地支持相机。特别地,用户在记录视频序列期间不需要手动地支持并对准相机。因此,不需要使用光学稳定器以减少机械震动对视频图像的影响。
在用户有意改变照相机的朝向以便将照相机对准感兴趣的对象的情况下,光学稳定器有时可无意地补偿照相机的机械移动。光学稳定器的这一非期望的补偿效果可使得以所期望的方式准确地对视频序列的图像取景变得更困难。在实施例中,在光学稳定器用于减少震动时,可提供从第一取景到第二取景的过渡,而没有光学稳定器的干扰效果供。
在实施例中,只有来自小的传感器区域的传感器数据需要进行处理。因此,数据处理可以以降低的速率执行。存储视频序列所需的存储器空间可被减少,和/或图像数据可以以较低的速度进行处理。
当使用触摸屏时,视频脚本可以通过快速而直观的手势来创建。可以逐一地画出边界。边界的尺寸可以例如通过捏合来改变。
一旦视频脚本已经被创建,则根据视频脚本的视频序列的记录可以例如通过按压按钮或通过触摸虚拟键来开始。用户在记录期间不需要移动照相机。照相机可通过徒手或者通过使用例如三脚架的支架基本上保持稳定。
附图说明
在以下示例中,将参照示例实施例的附图更详细地描述不同的实施例,其中:
图1示出了照相机的单元;
图2在三维视图中示出了在照相机的图像传感器上形成对象的图像;
图3a示出了对象的预览图像;
图3b示出了第一边界相对于预览图像的位置;
图3c示出了第二边界相对于预览图像的位置和第三边界相对于预览图像的位置;
图4a示出了相对于在图像传感器上形成的第一光学图像的第一传感器部;
图4b示出了相对于在图像传感器上形成的第二光学图像的第二传感器部;
图4c示出了相对于在图像传感器上形成的第三光学图像的第三传感器部;
图5a示出了视频序列的第一视频镜头;
图5b示出了视频序列的第二视频镜头;
图5c示出了视频序列的第三视频镜头;
图6a示出了相对于预览镜头定义边界;
图6b示出了定义从第一视频镜头到第二视频镜头的过渡;
图6c示出了传感器部在图像传感器上的位置;
图6d示出了平滑过渡路径;
图6e示出了用于两个视频镜头的视频脚本的图形表示;
图7a示出了最大边界;
图7b示出了用于三个视频镜头的视频脚本的图形表示;
图8a示出了视频序列的第一视频镜头;
图8b示出了视频序列的第二视频镜头;
图8c示出了视频序列的第三视频镜头;
图9示出了拍摄并显示视频的方法步骤;
图10示出了包括照相机的通信系统;
图11a示出了包括通信模块的便携式成像设备;
图11b示出了用于照相机的远程控制设备;
图11c示出了用于存储视频序列的服务器;
图12a示出了定义第一边界的位置和定义跟踪模式;
图12b示出了通过跟踪对象的移动而确定的传感器部;
图13a示出了定义平移方向;
图13b示出了与平移方向对应的传感器部的位置。
具体实施方式
参考图1,成像单元500可包括用于将光线LBX聚焦到图像传感器100的成像镜片200。成像单元500可例如被称为照相机或照相机单元。成像镜片200可在图像传感器100上形成光学图像IMG1。从图像传感器100获取的传感器数据SDATA1可由一个或多个数据处理器400处理以提供图像帧。所记录的视频序列VID1的图像帧可被存储在存储器MEM1中。视频序列VID1可包括第一视频镜头S1和第二视频镜头S2。每个视频镜头S1、S2可包括若干图像帧。在视频序列VID1中显示的对象中的至少一个可在记录视频序列VID1期间移动。以连续的顺序显示图像帧可创建移动对象的印象。
第一视频镜头S1的取景可根据第一边界C1确定,第二视频镜头S2的取景可根据第二边界C2确定。第一视频镜头S1可显示在第二视频镜头S2中不出现的对象。第二视频镜头S2可显示在第一视频镜头S1中不出现的对象。P1表示第一对象(例如,正在打高尔夫球的人)的图像。P4表示另一个对象(例如,高尔夫球洞)的图像。
照相机500可包括用户接口UIF1,用于显示图像和从用户接收指令。用于记录视频序列的视频脚本可以通过使用用户接口UIF1来创建。
照相机500的操作可由控制单元CNT1来控制。控制单元CNT1可包括一个或多个数据处理器。控制单元CNT1可包括一个或多个数据处理器400,和/或控制单元CNT1可被配置为控制一个或多个数据处理器400的操作。照相机500或包括照相机500的装置可包括存储器MEM1、一个或多个处理器400、CNT1和驻留在存储器MEM2中的计算机程序代码PROG1,该计算机程序代码用于例如实现如脚本创建的软件应用或用于发送视频数据VID1和接收视频脚本SCRIPT1的应用的功能。
所记录的视频序列VID1的图像帧可被存储在存储器MEM1中。照相机500可被配置为将视频序列VID1的第一图像帧和第二图像帧存储在存储器MEM1中。照相机500可以被配置为将视频序列VID1的所有图像帧基本上存储在存储器MEM1中。存储器MEM1可以是本地的,或者存储器MEM1可通过网络连接到数据处理器400。
照相机500可包括用于存储视频脚本SCRIPT1的脚本存储器MEM3。脚本SCRIPT1可包括用于记录视频序列VID1的一组参数,其根据时间定义取景。视频脚本SCRIPT1可例如包括一组参数,其定义视频镜头S1的停止时间、用于记录视频镜头S1的传感器部POR1的位置和传感器部POR1的尺寸。
用户接口UIF1可例如包括用于可视地显示信息并用于从用户接收命令的触摸屏。视频脚本SCRIPT1可通过使用触摸屏来创建。特别地,预览图像VIEW0可显示在触摸屏上,第一边界C1的位置和第二边界C2的位置可通过使用触摸屏定义。
用户接口UIF1可包括硬件,例如,显示器、小键盘和/或触摸屏。用户接口可包括显示屏,用于查看在屏幕上显示的图形元素。用户接口UIF1可包括例如用于在触摸屏上显示各种不同虚拟键的软件应用。用户接口UIF1可包括用于从用户接收指令的一个或多个虚拟键。虚拟键可在触摸屏上实现。用户接口UIF1可包括用于从用户接收指令的一个或多个按钮。用户接口UIF1可包括用于从用户接收指令的小键盘。
用户接口UIF1可包括用于显示预览图像VIEW0的显示器。用户接口UIF1可包括用于从用户接收指令的触摸板、小键盘、鼠标和/或操纵杆。第一边界和第二边界可以通过使用触摸板、小键盘、鼠标和/或操纵杆定义。
第一边界C1和/或第二边界C2可以显示在显示器上,例如触摸屏。在实施例中,边界C1和边界C2可例如被显示为基本上矩形的边界线,其中,由边界线包围的区域的尺寸可与对应的视频镜头S1、S2的取景对应。在实施例中,边界C1、C2的位置可例如被显示为叠加在预览图像VIEW0上的圆点或十字,而不显示边界线。
在实施例中,用户接口UIF1可包括用于接收被大声说出的指令的麦克风和语音识别单元。例如,用户可通过说出例如“左”、“中”或“右”来定义第一边界的位置。
在实施例中,用户接口UIF1可被配置为接收言语指令,其定义第一边界的位置,并还可以定义照相机在记录视频序列VID1期间的操作模式。用户可说出例如“跟踪球”以便定义第一边界的位置并定义跟踪模式。表述“跟踪球”可被解释为包括定义第一边界的第一指令和定义操作模式的第二指令。照相机可通过设置第一边界的位置以使得第一边界围绕在预览图像VIEW0中出现的球的子图像来执行言语指令“跟踪球”。另外,取景可被配置为根据言语指令“跟踪球”在记录视频序列VID1期间跟踪球的移动。照相机500可包括用于分析预览图像的图像识别单元。图像识别单元可被配置为识别在较大图像VIEW0、IMG1中出现的指定子图像的位置。图像识别单元可被配置为确定在较大图像VIEW0、IMG1中出现的指定子图像的位置。
语音识别单元和/或图像识别单元可通过使用一个或多个数据处理器实现。
照相机500或与照相机500通信的第二设备可包括用户接口UIF1。用户接口UIF1可例如在便携式设备(例如,智能电话)中实现。用户可经由接口UIF1接收信息。用户可通过经由用户接口UIF1给出命令来控制照相机500和/或系统1000的操作。在实施例中,用户接口UIF1和图像传感器100可实现在同一个壳体中。在实施例中,图像传感器100和用户接口UIF1可在不同的壳体中实现。用户接口UIF1可远离图像传感器100。
照相机500可包括用于存储计算机程序代码PROG1的程序存储器MEM2。计算机程序代码PROG1可被配置为当在至少一个处理器CNT1、400上执行时使照相机500接收第一指令,其定义第一边界相对于预览图像的位置,并接收第二指令,其定义第二边界相对于预览图像的位置、取景路径或跟踪模式。计算机程序代码PROG1可被配置为当在至少一个处理器CNT1、400上执行时使照相机500根据边界C1、C2记录视频序列VID1。
计算机程序代码PROG1可被配置为当在至少一个处理器上执行时使装置或系统:
-接收第一指令,其定义相对于预览图像的第一边界的位置;
-接收第二指令,其定义相对于预览图像的第二边界的位置、取景路径或跟踪模式;
-根据第一边界的位置,确定第一传感器部的位置;
-根据第二指令,确定第二传感器部的位置;
-通过在接收到第二指令之后在图像传感器上形成第一光学图像,提供第一传感器数据;
-通过在第一光学图像已经形成之后在图像传感器上形成第二光学图像,提供第二传感器数据;
-根据从第一传感器部获取的第一传感器数据,确定第一图像帧;
-根据从第二传感器部获取的第二传感器数据,确定第二图像帧;和/或
-存储和/或传输第一图像帧和第二图像帧。
照相机500可包括用于传送数据的通信单元RXTX1。通信单元RXTX1可发送和/或接收数据信号COM1。特别地,由照相机500记录的视频序列可通过使用通信单元RXTX1传输到因特网或者经由移动通信网络传输。
照相机500可以是便携式设备。
照相机可包括聚焦致动器210。
照相机500可包括用于存储一个或多个参数DEF1的存储器MEM4,参数DEF1定义默认设置,例如视频序列VID1的默认持续时间。在实施例中,所述参数DEF1的一个或多个还可经由网络从外部存储器获取。
参考图2,照相机500可用于记录事件EVE1的视频序列VID1。在事件期间,一个或多个对象O1、O2、O3可移动。照相机500的镜片200可在图像传感器100的有效区域101上形成光学图像IMG1。镜片200可形成第一对象O1的图像P1、第二对象的图像P2和第三对象O3的图像P3。
图像IMG1可包括图像P1、P2、P3。图像P1、P2、P3还可以被称为子图像或分图像。
子图像P1、P2、P3还可被称为“对象”,以便简化言语表述。例如,表述“所记录的视频序列VID1显示对象P1”意味着所记录的视频序列VID1显示对象O1的子图像P1。
图像传感器100可包括测光检测器像素的二维阵列,其覆盖图像传感器100的有效区域101。图像传感器100可将光学图像IMG1转换成数字图像。图像传感器100可例如包括CMOS阵列或CCD阵列。
照相机500的控制单元CNT1可被安排成定义图像传感器100的传感器部POR1。控制单元CNT1可被安排成根据边界C1定义传感器部POR1。用户可例如通过使用触摸屏来定义边界C1的尺寸和/或位置。传感器部POR1可对应于边界C1。控制单元CNT1可根据边界C1的尺寸和/或位置定义传感器部POR1的尺寸和/或位置。传感器部POR1的位置可例如由坐标u1、v1定义。坐标u1可例如表示原点ORIG2与传感器部POR1的中心之间的水平距离。坐标v1例如表示原点ORIG2与传感器部的中心之间的垂直距离。图像传感器100的有效区域101可具有宽度umax和高度vmax。
在实施例中,传感器部POR1的区域可例如小于图像传感器100的有效区域101的50%。在实施例中,传感器部POR1的宽度可例如小于有效区域101的宽度umax的50%。
在实施例中,照相机500的图像传感器100的有效区域101可例如包括大于40·106个检测器像素。像素可例如被布置在包括7728×5368个像素的二维矩形阵列中。所述照相机500可具有第一操作模式,其中,所记录的图像帧的宽高比是4:3,其中,有效区域101可包括7152×5368个检测器像素。在该操作模式中,有效区域可例如具有38·106个检测器像素。所述相机500还可具有第二操作模式,其中,所记录的图像帧的宽高比是16:9,其中,有效区域101可包括7728×4354个检测器像素。在该操作模式中,有效区域可例如具有34·106个检测器像素。
图像处理器400可被安排成例如通过空间低通滤波和/或下采样来根据传感器数据SDATA1确定图像帧的像素。
图像帧的像素还可通过称为“过采样”的技术来根据传感器数据确定,其中,传感器数据SDATA1的若干像素可被组合以形成图像帧的单个超像素。因此,在低光照条件下拍摄的图像的斑点颗粒现象可被大大减少。
在实施例中,图像传感器100的检测器像素可根据Bayer矩阵布置,由图像传感器100提供的传感器数据SDATA1可以采用RAW格式,即,红色值、绿色值和蓝色值可与稍微不同的空间位置相关联。图像处理器400可被安排成通过使用解拼算法来根据传感器数据SDATA1确定图像数据,其中,图像数据的像素的红色值、绿色值和蓝色值可与相同的空间位置相关联。
对象O1、O2、O3中的一个或多个可在拍摄视频期间相对于参考点REF1移动。参考点REF1可例如被固定于对象O1、O2、O3中的一个或固定于地面GND1。
图3a示出了包括子图像P1、P2、P3的预览图像VIEW0。子图像P1可以例如是第一人的图像。第二子图像P2可以例如是第二人的图像。子图像P3可以例如是背景对象的图像,例如,桌子的图像。预览图像IMG1可以例如通过使用照相机500的同一个图像传感器100拍摄,该图像传感器将用于拍摄视频序列VID1。然而,也可以使用不同的图像传感器来拍摄预览图像VIEW0。
参考图3b,照相机500的用户可定义第一边界C1。第一边界C1的位置和/或尺寸可相对于预览图像IMG1定义。预览图像VIEW0可例如在触摸屏上显示,用户可通过使用触摸屏来定义第一边界C1的位置和尺寸。
边界的尺寸是指由所述边界包围的区域的尺寸。
参考图3c,用户可定义第二边界C2。第二边界C2的位置和/或尺寸可相对于第一边界C1定义。第二边界C2可相对于第一边界C1位移和/或第二边界C2的尺寸可与第一边界C1的尺寸不同。
用户还可定义第三边界C3。第三边界C3位置和/或尺寸可相对于第一边界C1定义。
在该示例中,第一边界C1可例如包围第一人的子图像P1的一部分,以使得第一边界C1不包围第二人的图像P2的一部分。第二边界C2可基本上包围整个预览图像VIEW0。第三边界C3可包围第二人的子图像P2的一部分。
边界C1、C2、C3的宽高比可基本上等于预览图像VIEW0的宽高比。宽高比是指物品的宽度与其高度的比例。
第一边界C1相对于预览图像VIEW0的位置可例如由坐标x1、y1定义。坐标x1可例如表示原点ORIG1与第一边界C1的中心之间的水平距离。原点ORIG1可例如在预览图像VIEW0的一个角。坐标y1可例如表示原点ORIG1与第一边界C1的中心之间的垂直距离。预览图像VIEW0可具有宽度xmax和高度ymax。
第二边界C2相对于预览图像VIEW0的位置可例如由坐标x2、y2定义。坐标x2可例如表示原点ORIG1与第二边界C2的中心之间的水平距离。坐标y2可例如表示原点ORIG1与第二边界C2的中心之间的垂直距离。
第三边界C3相对于预览图像VIEW0的位置可例如由坐标x3、y3定义。坐标x3可例如表示原点ORIG1与第三边界C3的中心之间的水平距离。坐标y3可例如表示原点ORIG1与第三边界C3的中心之间的垂直距离。
一个或多个边界C1、C2、C3的位置和/或尺寸可通过使用用户端口UIF1选择。
用户可以提供第一指令,其定义第一边界C1的位置。用户可以提供第二指令,其定义第二边界C2的位置。
参考图4a,第一边界C1可对应于图像传感器100的第一传感器部POR1。照相机500可被安排成进行操作,以使得第一边界C1相对于预览图像VIEW0的尺寸和位置定义第一部POR1相对于图像传感器100的尺寸和位置。
第一传感器部POR1相对于图像传感器100的位置可例如由坐标u1、v1定义。坐标u1可例如表示原点ORIG2与第一部POR1的中心之间的水平距离。原点ORIG2可例如在有效区域101的一个角。坐标v1可例如表示原点ORIG2与第一传感器部POR1的中心之间的垂直距离。有效区域101可具有宽度xmax和高度ymax。在有效区域101上形成的光学图像IMG1可具有宽度xmax和高度ymax。
控制单元CNT1可被安排成设置第一传感器部POR1的位置(u1,v1),以使得位置坐标u1基本上满足等式u1/umax=x1/xmax,位置坐标v1基本上满足等式v1/vmax=y1/ymax。
参考图4b,第二边界C2可对应于图像传感器100的第二传感器部POR2。照相机500可被安排成进行操作,以使得第二边界C2相对于预览图像VIEW0的尺寸和位置定义第二部POR2相对于图像传感器100的尺寸和位置。
第二传感器部POR2相对于图像传感器100的位置可例如由坐标u2、v2定义。坐标u2可例如表示原点ORIG2与第二部POR2的中心之间的水平距离。坐标v2可例如表示原点ORIG2与第二传感器部POR2的中心之间的垂直距离。
控制单元CNT1可被安排成设置第二传感器部POR2的位置(u2,v2),以使得位置坐标u2基本上满足等式u2/umax=x2/xmax,位置坐标v2基本上满足等式v2/vmax=y2/ymax。
参考图4c,第三边界C3可对应于图像传感器100的第三传感器部POR3。照相机500可被安排成进行操作,以使得第三边界C3相对于预览图像VIEW0的尺寸和位置定义第三部POR3相对于图像传感器100的尺寸和位置。
第三传感器部POR3相对于图像传感器100的位置可例如由坐标u3、v3来定义。坐标u3可例如表示原点ORIG2与第三部POR3的中心之间的水平距离。坐标v3可例如表示原点ORIG2与第三传感器部POR3的中心之间的垂直距离。
控制单元CNT1可被安排成设置第三传感器部POR3的位置(u3,v3),以使得位置坐标u3基本上满足等式u3/umax=x3/xmax,位置坐标v3基本上满足等式v3/vmax=y3/ymax。
传感器部POR1、POR2、POR3相对于图像传感器100的位置可基本上对应于边界C1、C2、C3相对于预览图像VIEW0的位置。视频序列VID1可被记录,以使得在连续的时间段期间应用不同的传感器部。
在第一时间段期间,可在图像传感器100上形成光学图像IMG1,图像传感器100可将光学图像IMG1转换成第一传感器数据。光学图像IMG1可在C1、C2、C3已经被定义之后形成。第一图像帧可以基于第一边界C1而根据第一传感器数据确定。由第一传感器部POR1之外的检测器像素提供的传感器数据可基本上丢弃。第一图像帧可主要表示从第一传感器部POR1获取的传感器数据。在该上下文中,术语“主要”可意味着例如在第一图像帧中包含的图像数据的至少90%可基于从第一传感器部POR1获取的传感器数据。在第一图像帧中包含的图像数据的不足10%可基于从第一传感器部POR1以外获取的传感器数据。第一图像帧可随后存储在存储器MEM1中。所记录的视频序列VID1的第一视频镜头S1可包括若干图像帧,其包括所述第一图像帧。镜头S1的图像帧可通过使用相同的传感器部POR1记录。
在第二时间段期间,可在图像传感器100上形成光学图像IMG2,图像传感器100可将光学图像IMG2转换成第二传感器数据。第二图像帧可基于第二边界C2而根据第二传感器数据确定。由第二传感器部POR2之外的检测器像素提供的传感器数据可基本上丢弃。第二图像帧可主要表示从第二传感器部POR2获取的传感器数据。例如,在第二图像帧中包含的图像数据的至少90%可基于从第二传感器部POR2获取的传感器数据。第二图像帧可随后存储在存储器MEM1中。所记录的视频序列VID1的第二视频镜头S2可包括若干图像帧,其包括所述第二图像帧。镜头S2的图像帧可通过使用同一个传感器部POR2记录。
在第三时间段期间,可在图像传感器100上形成光学图像IMG3,图像传感器100可将光学图像IMG3转换成第三传感器数据。第三图像帧可基于第三边界C3而根据第三传感器数据确定。由第三传感器部POR3之外的检测器像素提供的传感器数据可基本上丢弃。第三图像帧可主要表示从第三传感器部POR3获取的传感器数据。例如,在第三图像帧中包含的图像数据的至少90%可基于从第三传感器部POR3获取的传感器数据。第三图像帧可随后存储在存储器MEM1中。所记录的视频序列VID1的第三视频镜头S3可包括若干图像帧,其包括所述第三图像帧。镜头S3的图像帧可通过使用同一个传感器部POR3记录。
图像帧可根据传感器数据确定,以使得每个图像帧可具有基本上相同的分辨率,即使当它们通过使用不同尺寸的传感器部记录时。根据从第一传感器部POR1获取的传感器数据确定的第一图像帧可具有基本上与根据从第二传感器部POR2获取的传感器数据确定的第二图像帧相同的分辨率。
在使用第一部POR1后,可以应用第二部POR2。在使用第二部POR2后,可以应用第三部POR3。
第二边界C2可相对于第一边界C1进行位移。第一传感器部POR1可对应于第一边界C1。第二传感器部POR2可对应于第二边界C2。因此,第二传感器部POR2可相对于第一传感器部POR1进行位移。在实施例中,第二边界C2可相对于第一边界C1位移,以使得第二边界C2不第一边界C1不重叠。第二传感器部POR2可相对于第一传感器部POR1位移,以使得第二传感器部与第一传感器部POR1不重叠。
第三边界C3可相对于第一边界C1和/或相对于第二边界C2位移。第三传感器部POR3可分别相对于第一传感器部POR1和/或第二传感器部POR2位移。定义第三边界是可选的。当定义取景路径或跟踪模式时,可以省略定义第二边界C2。
预览图像VIEW0的由第一边界C1包围的部分可基本上小于整个预览图像VIEW0。由第一边界C1包围的区域可例如小于预览图像VIEW0的整个区域的70%。由第一边界C1包围的区域可例如在预览图像VIEW0的整个区域的10%至50%的范围内。
第一传感器部POR1的区域可基本上小于图像传感器100的有效区域101。第一传感器部POR1的区域可小于图像传感器100的有效区域101的70%。第一传感器部POR1的区域可例如在传感器100的有效区域101的10%至50%的范围内。
第二传感器部POR2的中心可相对于第一传感器部POR1的中心位移。该位移可例如大于图像传感器100的有效区域101的宽度(umax)的10%。
图5a到图5c示出了视频序列VID1的视频镜头S1、S2、S3的图像帧。图5a到图5c示出了基于边界C1、C2、C3而拍摄并存储在存储器中的视频序列VID1的内容。视频序列VID1的每个视频镜头S1、S2、S3可包括若干不同的图像帧。以连续的顺序显示图像帧可创建移动对象的印象。
在第一时间段期间从第一传感器部POR1获取的传感器数据可被处理以提供视频序列VID1的第一视频镜头S1,在第二时间段期间从第二传感器部POR2获取的传感器数据可被处理以提供视频序列VID1的第二视频镜头S2。
图5a示出了视频镜头S1的图像帧,该视频镜头S1通过使用图4a的传感器部POR1来记录。图5b示出了视频镜头S2的图像帧,该视频镜头S2通过使用图4b的传感器部POR2来记录。图5c示出了视频镜头S3的图像帧,该视频镜头S3通过使用图4c的传感器部POR3来记录。
在图5a中显示的图像帧可被称为第一图像帧,在图5b中显示的图像帧可被称为第二图像帧,在图5c中显示的图像帧可被称为第三图像帧。第一图像帧可显示例如第一人P1的特写视图。第二图像帧可显示例如第一人P1和第二人P2的广角视图,第三图像帧可显示例如第二人P2的特写视图。第一图像帧、第二图像帧、第三图像帧在不同的时间拍摄。在图5a到图5c中显示的图像帧在拍摄了预览图像VIEW0后拍摄。例如,当与在图3a的预览图像VIEW0中出现的子图像P1比较时,在图5a中出现的子图像P1可能已经移动。例如,当与在图5b中出现的子图像P2比较时,在图5c中出现的子图像P2可能已经移动。
拍摄预览图像VIEW0于拍摄视频序列VID1的第一图像帧之间的时间段可以例如在1秒到1小时的范围内。视频序列VID1的持续时间可以例如在1秒到10天的范围内。
在图5a到图5c中显示的图像帧在定义了边界C1、C2、C3之后拍摄。
在图5a到图5c中显示的视频镜头S1、S2、S3可在记录期间基本上不改变照相机500的朝向地进行记录。另外,用户在记录期间不需要提供缩放指令。因此,可以基本上避免无意的震动。
在实施例中,在视频序列VID1中出现的人P1、P2中的一个还可以是照相机500的用户。
图6a到图7b通过示例的方式示出了如何通过使用用户接口UIF1的触摸屏来创建视频脚本。
创建视频脚本可包括定义至少一个边界C1、边界C2相对于在预览图像VIEW0中出现的特征的位置。预览图像VIEW0可通过使用照相机500拍摄。当想要记录对象O1将移动的事件EVE1的视频序列VID1时,同一个对象O1的子图像P1还可以出现在预览图像VIEW0中。可替换地,与创建视频脚本有关的预览图像VIEW0可从存储器中获取。
参考图6a,边界C1、C2的位置可通过使用触摸屏定义。在该示例中,第一边界C1可例如包围高尔夫球手P1、高尔夫球P2和高尔夫球杆P3。第二边界C2可例如包围插有旗帜P5的高尔夫球球洞P4。
照相机500可首先通过使用用户接口,例如,通过触摸在屏幕上显示的虚拟键,设置成脚本定义模式。
边界C1、C2的位置可例如通过触摸(例如,通过单击或双击)在预览图像VIEW0中出现的特征来定义,以使得照相机500创建新的边界C1、C2并将新的边界C1、C2的位置关联到由所述触摸指示的特征。照相机500可例如将边界C1、C2的中心关联到由触摸指示的特征。照相机500可例如将边界C1、C2的预先定义的角关联到由触摸指示的特征。预先定义的角可以例如是左下角或左上角。
如果需要,则用户可调整所创建的边界C1、C2的尺寸。新创建的边界C1、C2可以具有默认尺寸,其可用作调整的起点。边界C1、C2可例如通过显示基本上矩形的边界线来被可视地显示在屏幕上。边界C1、C2的尺寸可例如通过在两个触摸点同时触摸屏幕并增大或减小两个触摸点之间的距离来改变。特别地,所述两个触摸点的至少一个可在由边界C1、C2包围的区域内。特别地,用户可作出捏合手势以减少边界C1、C2的尺寸。
边界C1、C2的尺寸与缩放级别有关。大的边界可对应于广角视图(低缩放级别)。小的边界可对应于特写视图(高缩放级别)。改变边界C1、C2的尺寸还将改变对应的传感器部POR1、POR2的尺寸,这将改变对应的视频镜头S1、S2的缩放级别。增大边界的尺寸将降低缩放级别,即,它将减小在视频序列VID1中出现的对象的子图像的高度。减小边界的尺寸将提高缩放级别。当想要拍摄广角镜头时,可以增大边界C1、C2的尺寸。当想要拍摄特写镜头时,可以减小边界C1、C2的尺寸。
用户还可以例如通过在触摸屏上沿着基本上闭合的路径移动手指F1来定义边界C1、C2的尺寸和位置。
边界的位置还可以例如通过用手指F1(或用两个手指)触摸边界并将边界拖到期望位置来改变。
如果用户不满意边界C1、C2的位置,则他可例如通过在边界上做出斜向滑动手势来删除边界C1、C2。
默认地,边界的底边可以是水平定向的,即使由用户画出的闭合路径会偏离水平方向。然而,边界的底边也可以无意偏离水平方向。边界可例如通过用2个手指旋转它来进行旋转。对应的传感器部的底边可偏离水平方向,以使得所记录的图像帧分别相对于水平方向旋转。
在第一边界C1已经被定义后立即创建第二边界C2可以表示第二视频镜头S2将跟随第一视频镜头S1,其中,第一视频镜头S1可根据第一边界C1记录,第二视频镜头S2可根据第二边界C2记录。作为默认设置,取景可在第一视频镜头S1与第二视频镜头S2之间的过渡处立即从C1跳转到C2。两个连续的镜头S1、S2之间的过渡可例如被称为“场景切换”或“场景改变”。
参考图6b,用户还可创建从第一边界C1到第二边界C2的过渡路径T12。过渡路径T12可以是用户可定义的。基于过渡路径T12,照相机500可被安排成记录从第一视频镜头S1到第二视频镜头S2的逐渐过渡。特别地,照相机500可被安排成记录在由过渡路径T12指示的方向上的平移过渡(即,滚动过渡)。基于过渡路径T12,照相机500可记录一个或多个中间图像帧,以便提供从由边界C1定义的第一取景到由边界C2定义的第二取景的平移过渡。
第一视频镜头S1可在第一时间段期间记录,第二视频镜头S2可在第二时间段期间记录。参考图6c,拍摄视频序列VID1的方法可包括定义过渡路径T12,其将第一边界C1的位置连接到第二边界C2的位置,其中,至少一个中间图像帧可根据从图像传感器100的中间传感器部PORX获取的传感器数据确定,所述传感器数据在第一时间段与第二时间段之间从中间传感器部PORX获取,中间传感器部的位置POSX对应于过渡路径T12上的点的位置。中间传感器部可驻留在第一传感器部POR1与第二传感器部POR2之间。中间传感器部PORX的位置POSX可位于线路PANPATH1上,其将第一传感器部POR1连接到第二传感器部POR2。中间传感器部PORX的中心可位于线路PANPATH1上,其将第一传感器部POR1的中心连接到第二传感器部POR2的中心。POS1可表示第一传感器部POR1相对于图像传感器100的位置。POS2可表示第二传感器部POR2相对于图像传感器100的位置。
当使用触摸屏时,过渡路径T12可例如通过将触摸点从第一边界C1滑动到第二边界C2来创建。特别地,过渡路径T12可例如通过将触摸点从第一边界C1的角滑动到第二边界C2来创建。
过渡路径T12可例如通过显示图形箭头来显示在屏幕上。
两个视频镜头S1、S2之间的过渡可以是自动的。过渡可基于默认值确定和/或过渡可由用户定义。例如,用户可定义过渡的持续时间。另外,某些视觉效果是可能的,例如,在从第一视频镜头S1到第二视频镜头S2的过渡期间,平移速度可以平滑地加速和减速。两个视频镜头S1、S2之间的过渡可以包括改变缩放级别。两个视频镜头S1、S2之间的过渡还可以包括淡出和淡入。
边界C1可例如通过显示符号“SHOT1”来标记,以便向用户指示第一镜头S1将根据(所显示的)边界C1记录。边界C2可例如通过显示符号“SHOT2”来标记,以便向用户指示第二镜头S2将根据(所显示的)边界C2记录。所显示的过渡路径箭头可例如通过显示符号“T12”来标记,以便向用户指示第一镜头与第二镜头之间的过渡将通过使用所显示的过渡路径来拍摄。
创建视频脚本SCRIPT1可包括定义边界和用于其它边界的路径。创建视频脚本可包括定义路径,其连接两个边界。路径不需要被画的很准确,因为附加功能可修正不准确的路径。特别地,曲线路径可用线性路径替换。点击路径上的点可定义附加边界。所记录的视频序列可包括附加的视频镜头,其根据附加边界记录。
参考图6d,通过在触摸屏上滑动手指F1来画的轨迹T12’可偏离直线。照相机500可被安排乘将曲折的轨迹T12’用平滑或线性的路径T12替换。
参考图6e,可以在屏幕上显示时间轴。时间轴可例如包括一个或多个条BAR1、PAN1、BAR2。条BAR1的长度可指示第一视频镜头S1的持续时间,条BAR12的长度可指示第一镜头S1与第二镜头S2之间的过渡的持续时间,条BAR2的长度可指示第二镜头S2的持续时间。符号(例如,SHOT1)可被显示靠近BAR1以指示条BAR1与第一镜头S1的持续时间相关联。符号(例如,SHOT1)可被显示靠近BAR1以指示条BAR1与第一镜头S1的持续时间相关联。符号(例如,SHOT2)可被显示靠近BAR2以指示条BAR2与第二镜头S2的持续时间相关联。符号(例如,PAN1)可被显示靠近BAR12以指示条BAR12与第一镜头S1和第二镜头S2之间的过渡的持续时间相关联。条与边界之间的关联还可以例如通过使用颜色来指示。例如,边界C1和与第一镜头S1相关联的条BAR1可通过第一颜色(例如,红色)指示,边界C2和与第二镜头S2相关联的条BAR2可通过第二颜色(例如,黄色)指示。
开始时间START1和/或结束时间STOP1可在屏幕上显示。视频镜头S1、S2可具有默认的持续时间和/或整个视频序列VID1可具有默认的持续时间。视频镜头的持续时间或总持续时间可通过触摸在屏幕上显示的条的一端并滑动触摸点来调整,以便改变条的相对长度。视频镜头的持续时间可被调整,例如以使得触摸条的右端可增加所述条的相对长度,触摸条的左端可减少所述条的相对长度。
用户还可以例如通过给出数值、通过使用小键盘或者通过使用虚拟键盘来定义持续时间。
参考图7a,边界C3可例如包围预览图像VIEW0的基本上整个区域。边界C3可例如通过绕着预览图像VIEW0的周长滑动触摸点来定义。边界C3还可以例如通过触摸屏幕的预先确定的点来定义,例如,预览图像VIEW0的左下角或左上角。第三边界C3可对应于图像传感器100的第三有效区域POR3。第三有效区域POR3可包围图像传感器100的基本上整个有效区域积101。
参考图7b,第三视频镜头S3的持续时间还可通过在时间轴上显示条BAR3来指示。从第二镜头S2到第三镜头S3的过渡可通过条BAR23指示。第三条BAR3可通过显示文字例如“SHOT3”和/或通过使用特定颜色来指示。
图8a到图8c示出视频序列VID1的视频镜头S1、S2、S3的图像帧,该视频序列VID1已经根据图7a的脚本拍摄和存储。视频序列VID1可显示例如高尔夫球手P1击打高尔夫球P2,以使得球进入球洞P4。视频序列VID1的每个视频镜头S1、S2、S3可包括若干不同的图像帧。视频序列VID1可包括视频镜头S1、S2、S3的图像帧,以使得第二镜头S2在第一镜头S1后显示,第三镜头S3在第二镜头S2后显示。至少一个镜头S1、S2、S3中的至少一个图像P1、P2可以在移动。以连续的顺序显示图像帧可创建移动对象的印象。
视频序列VID1可基于边界C1、C2、C3拍摄并存储在存储器中。图8a示出视频镜头S1的图像帧,其通过使用与图7a的边界C1对应的传感器部POR1来记录。图8b示出视频镜头S2的图像帧,其通过使用与图7a的边界C2对应的传感器部POR2来记录。图8c示出视频镜头S3的图像帧,其通过使用与图7a的边界C3对应的传感器部POR3来记录。
图8a中示出的图像帧可被称为第一图像帧,图8b中示出的图像帧可被称为第二图像帧,图8c中示出的图像帧可被称为第三图像帧。第一图像帧可例如显示正用高尔夫球杆P3击打球P2的第一人P1的特写视图。第一镜头S1可显示第一对象(高尔夫球手)的图像P1,而不显示第二对象(球洞)的图像P4。
当球P2正朝向球洞P4移动时,第二图像帧可例如显示球洞P4的特写视图。第二镜头S2可显示第二对象的图像P4,而不显示第一对象的图像P1。
第三图像帧可例如显示高尔夫球手P1和球洞P4的广角视图。第三镜头S3可同时显示第一对象的图像P1和第二对象的图像P4。
第一图像帧、第二图像帧和第三图像帧在不同的时间点拍摄。在图8a到图8c中示出的图像帧在拍摄了预览图像VIEW0后拍摄。例如,当与在图7a的预览图像VIEW0中出现的子图像P1比较时,在图8a中出现的子图像P1可能已经移动。例如,当与在图7a中出现的子图像P2比较时,在图8b中出现的子图像P2可能已经移动。
在图8a到图8c中示出的图像帧在定义了边界C1、C2、C3之后拍摄。
在图8a到图8c中示出的视频镜头S1、S2、S3可基本上在记录期间不改变照相机500的朝向地进行记录。
在实施例中,在视频序列VID1中出现的人还可以是照相机500的用户。当通过照相机500拍摄预览图像VIEW0时,照相机500可例如被放置在固定三脚架上。预览图像VIEW0可例如通过使用定时器或遥控器来拍摄,以使得用户可以出现在预览图像VIEW0中。然后,用户可走近照相机500,并创建视频脚本SCRIPT1。在视频脚本SCRIPT1已被创建后,可例如通过使用定时器来开始视频序列VID1的实际记录。
图9示出了创建视频脚本SCRIPT1、根据视频脚本SCRIPT1拍摄视频序列VID1和在稍后的阶段显示视频序列VID1的方法步骤。
在步骤810中,可拍摄预览图像VIEW0。预览图像VIEW0可通过使用照相机500的(主)图像传感器100或者使用辅助图像传感器来拍摄。
在步骤815中,第一边界C1的尺寸和/或位置可相对于预览图像VIEW0定义。
在步骤820中,第二边界C2的尺寸和/或位置可相对于第一边界C1定义。第二边界C2的尺寸和/或位置可相对于预览图像VIEW0定义。
在步骤825中,第一光学图像IMG1可在图像传感器100上形成,以使得图像传感器100可提供第一传感器数据。换句话说,第一传感器数据可通过将图像传感器100暴露到第一光学图像IMG1的光线中来提供。
在步骤830中,第一传感器数据可根据第一边界C1处理,以便确定第一组S1的图像帧。图像帧可表示图像部,其与第一传感器部POR1一致。来自传感器部POR1之外的像素的传感器数据可丢弃或通过使用相对少量的字节而包括在图像帧中。换句话说,用于存储来自传感器部POR1之外的像素的传感器数据的字节数可低于用于存储来自传感器部POR1内的像素的传感器数据的字节数。
第一组S1的图像帧可共同形成视频序列VID1的第一视频镜头S1。
在步骤835中,第一镜头S1的图像帧可存储在存储器MEM1中。
在步骤840中,第二光学图像IMG2可在图像传感器100上形成,以使得图像传感器100可提供第二传感器数据。换句话说,第二传感器数据可通过将图像传感器100暴露到第二光学图像IMG2的光线中来提供。
在步骤845中,第二传感器数据可根据第二边界C2进行处理,以便确定第二组S2的图像帧。图像帧可表示图像部,其与第二传感器部POR2一致。来自传感器部POR1之外的像素的传感器数据可丢弃或通过使用相对少量的字节而包括在图像帧中。
第二组S2的图像帧可共同形成视频序列VID1的第二视频镜头S2。
在步骤850中,第二组S2的图像帧可存储在存储器MEM1中。
视频序列VID1可在步骤900中在稍后的阶段显示。视频序列VID1可在照相机500的触摸屏上显示或者通过使用另一个显示器来显示。视频序列VID1可包括第一组S1的若干图像帧和第二组S2的若干图像帧。
用于记录视频序列VID1的方法可包括:
-定义相对于预览图像VIEW0的第一边界C1,
-定义相对于预览图像VIEW0的第二边界C2,
-根据第一边界C1的位置,确定第一传感器部POR1的位置,
-根据第二边界C2的位置,确定第二传感器部POR2的位置,
-通过在第二边界C2已被定义后在图像传感器100上形成第一光学图像IMG1,提供第一传感器数据,
-通过在第一光学图像IMG1已经形成后在图像传感器100上形成第二光学图像IMG2,提供第二传感器数据,
-根据从第一传感器部POR1获取的第一传感器数据,确定第一图像帧,
-根据从第二传感器部POR2获取的第二传感器数据,确定第二图像帧,以及
-将第一图像帧和第二图像帧存储在存储器MEM1中。
图10通过示例的方式示出了用于记录、存储和显示视频序列VID1的系统1000。系统1000可包括用于记录视频序列VID1的照相机单元500。系统1000可包括单个设备,或者系统1000可包括被安排以彼此通信的多个设备。
系统1000可包括终端用户设备,诸如一个或多个照相机单元500、移动电话或智能电话1251、因特网接入设备(因特网平板电脑)、个人计算机1260、显示器或图像投影机1261(例如,电视)和/或视频播放器1262。特别地,移动电话、智能电话、因特网接入设备或个人计算机可包括用于根据脚本SCRIPT1拍摄视频序列的照相机单元500。移动电话、智能电话、因特网接入设备或个人计算机可包括用于创建脚本SCRIPT1的用户接口UIF1。通过使用在第一位置处的照相机500的用户接口UIF1而创建的脚本SCRIPT1可用于由在第一位置处的所述照相机500记录视频序列VID1。
在实施例中,通过使用在第二位置处的第二设备而创建的脚本可被传送到在第一位置处的照相机500,脚本SCRIPT1可用于由在所述第一位置处的所述照相机500记录视频序列VID1。
分发和/或存储视频序列VID1和单独的图像帧可在具有一个或多个服务器和一个或多个用户设备的网络服务架构中实现。如在图10的示例中所示的,系统1000的不同设备可通过诸如因特网或局域网(LAN)的固定网络1210连接。设备可以通过移动通信网络1220连接,诸如全球移动通信系统(GSM)网络、第三代(3G)网络、第3.5代(3.5G)网络、第四代(4G)网络、无线局域网(WLAN)、蓝牙或其它现代和将来的网络。不同的网络可以通过通信接口1280彼此连接。网络(1210和/或1220)可包括诸如路由器和交换机的处理数据的网络单元(未示出)。网络可包括通信接口,诸如一个或多个基站1230和1231,以提供不同设备对网络的访问。基站1230和1231自身可通过固定连接1276和/或无线连接1277连接到移动通信网络1220。可以有多个连接到网络的服务器。例如,用于提供诸如社交媒体服务的网络服务的服务器1240可连接到网络1210。用于提供网络服务的第二服务器1241可连接到网络1210。用于提供网络服务的服务器1242可连接到移动通信网络1220。以上设备中的一些,例如服务器1240、1241、1242,可被安排以使得它们与驻留在网络1210中的通信单元组成因特网。设备500、1251、1260、1261、1262还可由多个部件组成。一个或多个设备可通过无线连接1273连接到网络1210、1220。照相机500与系统1000的第二设备之间的通信COM1可以是固定的和/或无线的。一个或多个设备可通过诸如固定连接1270、1271、1272和1280的通信连接而连接到网络1210、1220。一个或多个设备可以通过无线连接1273连接到因特网。一个或多个设备可以通过固定连接1275连接到移动网络1220。照相机500可通过无线连接COM1、1279和/或1282连接到移动网络1220。连接1271至1282可通过在通信连接的各端的通信接口实现。用户设备500、1251或1260还可用作web服务服务器,如同各种网络设备1240、1241和1242一样。该web服务服务器的功能可分布在多个设备上。应用单元和库可被实现为驻留在一个设备上的软件组件。可替换地,软件组件可分布在若干设备上。软件组件可分布在若干设备上以形成云。
照相机500可用于记录事件EVE1的视频序列,其中,一个或多个对象O1、O2、O3、O4、O5在移动。在记录期间,照相机的图像处理器可接收从一个或多个对象反射和/或发射的光线LBX。O1可例如表示正在打高尔夫球的人,O2可例如表示高尔夫球,O3可例如表示高尔夫球杆,O4可例如表示高尔夫球洞,O5可例如表示旗帜。
所记录的视频序列VID1可通过使用数据压缩编码来和/或传送,例如,使用H.264、WMV、DivX Pro Codec或将来的编码。
图11a示出了便携式设备500,其包括图像传感器100。设备500可以包括成像镜片200,其被安排成在图像传感器100上形成光学图像的IMG1、IMG2、IMG3。设备500可以包括至少一个处理器CNT1、400、存储器MEM2,存储器MEM2包括计算机程序代码PROG1,其被配置为用至少一个处理器使装置至少执行以下:
-接收第一指令,其定义相对于预览图像VIEW0的第一边界C1的位置,
-接收第二指令,其定义相对于预览图像的第二边界C2的位置、取景路径T12或跟踪模式,
-根据第一边界C1的位置,确定第一传感器部POR1的位置POS1,
-根据第二指令,确定第二传感器部POR2的位置POS2,
-通过在接收到第一指令和第二指令后在图像传感器100上形成第一光学图像IMG1,提供第一传感器数据SDATA1,
-通过在第一光学图像IMG1已经形成后在图像传感器100上形成第二光学图像IMG2,提供第二传感器数据,
-根据从第一传感器部POR1获取的第一传感器数据SDATA1,确定第一图像帧的,
-根据从第二传感器部POR2获取的第二传感器数据,确定第二图像帧,以及
-存储或传输第一图像帧和第二图像帧。
设备500可包括:
-用于接收第一指令和第二指令的用户接口,其中,第一指令定义相对于预览图像的第一边界的位置,第二指令定义相对于预览图像的第二边界的位置、取景路径或跟踪模式,
-图像传感器,
-用于在图像传感器上形成光学图像的成像镜头,
-一个或多个处理器,其被配置为:
-根据第一边界的位置,确定第一传感器部的位置,
-根据第二指令,确定第二传感器部的位置,
-在接收到第一指令和第二指令后,从第一传感器部获取第一传感器数据,
-在获取了第一传感器数据后,从第二传感器部获取第二传感器数据,
-根据从第一传感器部获取的第一传感器数据,确定第一图像帧,
-根据从第二传感器部获取的第二传感器数据,确定第二图像帧。
设备500可包括用于存储第一图像帧和第二图像帧的存储器MEM1,和/或设备500可包括被配置为传输第一图像帧和第二图像帧的通信单元RXTX1。通信单元RXTX1还可例如被称为通信模块RXTX1。
便携式设备500可包括用于将数据无线传输到例如因特网1210和/或移动电话网络1220的通信单元RXTX1。设备500可以例如是移动电话、智能电话、通信器、便携式计算机、个人数字助理(PDA)和/或摄影机。设备500可包括一个或多个用于将声波转换成音频信号的麦克风1258。设备500可包括一个或多个用于再现语音信号的扬声器1255。麦克风1258可例如用于实现移动电话功能。麦克风1258可例如用于记录与视频序列VID1相关联的音频信号。麦克风1258可例如用于接收语音指令。
便携式设备500可包括用户接口UIF1,用于接收例如定义第一边界、第二边界、定义取景路径和/或定义跟踪模式的指令。在实施例中,便携式设备500可包括图像传感器100和用户接口UIF1,以使得图像传感器100与用户接口UIF1之间的距离例如小于0.5米。然而,便携式设备500还可被配置为从远程用户接口UIF1接收指令。在这种情况下,便携式设备500不需要包括用户接口UIF1。
参考图11b,第一便携式设备500可包括图像传感器100,用户接口UIF1可在第二便携式设备502中实现,该第二设备是与第一便携式设备500机械分离的。第二设备502可包括用于将指令无线传送到第一设备500的通信模块RXTX2。图像传感器100与第二设备500的用户接口UIF1之间的距离可例如大于0.5米、大于5米或者甚至大于1公里。第一设备500可以例如是第一移动电话,和/或第二设备502可以例如是第二移动电话。另外,在这种情况下,第二设备502的用户接口UIF1可以例如用于定义第一边界、定义第二边界、定义取景路径和/或定义跟踪模式。
图11c示出了服务器1240,其包括存储器1245、一个或多个处理器1246、1247和驻留在存储器1245中用于例如实现如社交媒体服务的软件应用的功能的计算机程序代码1248。图11所示的服务器1240、1241、1242可包括这些用于使用与每个服务器有关的功能的单元。用户设备500、1251或1260还可用作web服务服务器,如同各种网络设备1240、1241和1242一样。该web服务服务器的功能也可分布在多个设备上。服务器1240可包括存储器MEM1,用于存储通过使用图像传感器100记录的视频序列VID1。服务器1240可包括存储器MEM3,用于存储用于记录视频序列VID1的视频脚本SCRIPT1。服务器1240可包括存储器MEM4,用于存储用于记录视频序列VID1的默认参数DEF1。
参考图12a和图12b,照相机500可被配置为进行操作,以使得传感器部POR1、POR2、POR3的位置跟踪(即,跟随)移动对象的子图像。这可增加在难以预测对象的速度和方向的情况下对象的子图像也将出现在所记录的视频序列VID1中的可能性。参考图12a,照相机500可被设置成例如通过双击在预览图像VIEW0中出现的对象的子图像来跟踪对象。相同的特征(例如,人P1的头部或移动的球P2)可以在预览图像VIEW0也可以在视频序列VID1中出现。信息INF1(例如,文本“跟踪模式”)可被显示,以便指示照相机500将在记录视频序列VID1期间在跟踪模式下工作。
创建视频脚本SCRIPT1可包括提供第一指令和第二指令。第一指令可定义第一边界C1的位置,第二指令可定义将跟踪对象在第一边界C1内的移动。因此,其它边界POR2、POR3的位置可通过移动对象的轨迹来定义。其它边界POR2、POR3的位置可通过所述对象的移动的速度和方向来定义。移动对象可以例如是图8b和图10中所示的高尔夫球。
参考图12b,镜片200在图像传感器100上形成光学图像(例如,图像IMG1)。光学图像可包括移动对象的子图像P2。当对象O2移动时,子图像P2可以移动。子图像P2可以例如沿着图12b中所示的路径TRACPATH1移动。例如,飞行中的高尔夫球O2的子图像P2可以在图像传感器100上画出曲线路径TRACPATH1。子图像P2的瞬时位置可例如通过使用模式识别算法来确定。照相机500,特别是照相机500的控制单元CNT1可被配置为通过使用模式识别算法来确定子图像P2的瞬时位置。控制单元CNT1可被配置为确定在拍摄视频序列VID1期间使用的一个或多个传感器部POR1、POR2、POR3的位置。控制单元CNT1可被配置为基于子图像P2的所检测的(瞬时)位置确定传感器部POR2、POR3的位置,以使得传感器部POR2、POR3基本上沿着路径TRACAPTH1定位。记录视频序列VID1可包括主要从通过跟踪子图像的移动而限定的传感器部POR1、POR2搜集图像信息。POS1可以表示相对于图像传感器100的第一传感器部POR1的位置。POS2可以表示第二传感器部POR2的位置。POS3可以表示第三传感器部POR3的位置。
用于记录视频序列VID1的方法可包括:
-定义相对于在预览图像VIEW0中出现的子图像P2的第一边界C1的位置,
-定义操作模式被设置为跟踪模式,
-根据第一边界C1的位置,确定第一传感器部POR1的位置POS1,
-根据子图像P2的瞬时位置,确定第二传感器部POR2的位置POS2,
-通过在定义了第一边界和定义了跟踪模式后在图像传感器100上形成第一光学图像IMG1,提供第一传感器数据,
-通过在第一光学图像IMG1已经形成后在图像传感器100上形成第二光学图像IMG2,提供第二传感器数据,
-根据从第一传感器部POR1获取的第一传感器数据,确定第一图像帧,
-根据从第二传感器部POR2获取的第二传感器数据,确定第二图像帧,以及
-在存储器MEM1中存储和/或传输第一图像帧和第二图像帧。
在实施例中,记录视频序列VID1的开始可以由对象的移动来触发。当任何物体在由边界C1定义的图像区域内移动时,记录可以开始。当没有物体在由边界C1定义的图像区域内移动时,记录可停止。
参考图13a,创建视频脚本SCRIPT1可包括定义第一边界C1的位置和定义用于其它边界的第一路径T1。相对于预览图像VIEW0定义的第一路径T1可被称为取景路径。第一路径T1可例如由用户通过使用用户接口UIF1来相对于预览图像VIEW0定义。第一路径T1可通过使用触摸屏定义。第一路径T1可以与速度值相关联。速度值可以例如被称为平移速度值。速度值可以具有预先确定的默认值,其中,速度值还可以是用户可定义的。速度值可以例如通过使用用户接口,特别是使用触摸屏,来定义。第一路径可以在触摸屏上被显示为例如图形箭头。箭头的方向可以指示第一路径的方向。所显示的箭头的长度可以指示与第一路径相关联的速度值。可以显示指示速度值的信息INF2。例如,显示文本“平移时间10秒”可以指示与所显示的图形箭头的长度对应的平移操作将在10秒的时间段期间内执行。
参考图13b,第一路径T1可以对应于第二路径PANPATH1,其相对于图像传感器100定义。控制单元CNT1可根据第一路径T1确定第二路径PANPATH1。第二路径PANPATH1可以对应于第一路径T1。第一边界C1可定义第一传感器部POR1的位置,第一传感器部POR1将在拍摄视频序列VID1期间使用。第二路径PANPATH1可以定义其它传感器部POR2、POR3的位置,这些传感器部将在拍摄视频序列VID1期间应用。其它传感器部POR2、POR3可位于沿着与第一路径T1对应的第二路径PANPATH1。第一传感器部POR1与第二传感器部POR2之间的位移可由速度值定义。第二传感器部POR2的位置可由第一路径T1和速度值定义。
创建脚本SCRIPT1可包括提供第一指令和第二指令。用户可提供第一指令,其定义第一边界C1的位置。用户可以提供第二指令,其定义第二边界C2的位置。
用户可提供第二指令,其定义第二边界C2的位置、取景路径或跟踪模式。取景路径T1可定义平移方向。定义跟踪模式是指照相机500被设置成跟踪模式,即,取景可以跟踪对象的子图像的移动。
根据边界C1、C2的位置确定传感器部POR1的位置还可以被解释为表示从预览图像空间到图像传感器空间的映射操作。设备500的一个或多个处理器CNT1、400可被配置为通过执行映射操作来确定传感器部POR1、POR2的尺寸和/或位置,其中,边界C1、C2的尺寸和/或位置从二维预览图像空间映射到二维图像传感器空间。设备500的一个或多个处理CNT1、400可被配置为通过执行映射操作来确定路径PANPATH1,其中,取景路径T1、T12从二维预览图像空间映射到二维图像传感器空间。
创建视频脚本SCRIPT1所需的时间段的长度可基本上通过定义一个或多个默认参数DEF1来减少。默认参数可例如定义与第一边界C1相关联的第一视频镜头S1的持续时间。默认参数DEF1可例如在拍摄预览图像VIEW0之前或在定义边界C1、边界C2之前由用户定义。默认参数DEF1也可以从第二设备接收。
当用触摸屏创建脚本SCRIPT1时,用户可通过用触摸构件触摸触摸屏来输入信息。触摸构件可以是例如手指或触控笔。触摸触摸屏可以指触摸构件与屏幕之间的实际物理接触。触摸触摸屏还可以意味着将触摸构件靠近屏幕,以使得手指F1与屏幕之间的距离小于预先确定的距离(例如,小于触摸屏的宽度的1%)。
便携式设备500可例如通过手和/或通过使用(临时的)支架来保持位置。在实施例中,当拍摄预览图像VIEW0时,照相机500可以保持在第一照相机位置,照相机可以移动(例如,抬起或转动)以方便通过用户接口创建脚本SCRIPT1。在脚本SCRIPT1的第一指令和第二指令已经提供了后,照相机500可再次移动到第二照相机位置,在记录视频序列VID1期间,照相机500可保持在第二照相机位置。在记录视频序列VID1时使用的照相机位置还可以例如被称为“拍摄位置”。第一照相机位置可恰好与第二照相机位置相同。然而,第一照相机位置也可以与第二照相机位置(稍有)不同,因为照相机在拍摄预览图像VIEW0和记录视频序列VID1之间移动了。因此,在所记录的视频序列VID1中出现的对象的子图像可以稍微地位移。
在实施例中,第一照相机位置与第二照相机位置之间的差异可被补偿。传感器部POR1、POR2、POR3的位置可被安排以跟踪子图像P1的位置,以便补偿第一照相机位置与第二照相机位置之间的差异。例如,用户可定义第一边界C1的中心被固定到在预览图像VIEW0中出现的子图像P1的位置。在后面的阶段中,如果当开始记录的时候,同一个子图像P1仍旧出现在光学图像IMG1中,则第一传感器部POR1的位置POS1可被确定,以使得第一传感器部POR1的位置基本上与子图像P1的位置一致。照相机500可包括图像识别单元,其可被配置为检测在图像VIEW0、IMG1中出现的子图像P1的位置。照相机500可包括一个或多个处理器,其被配置为检测预览图像VIEW0中的子图像P1的位置与光学图像IMG1中的子图像P1的位置之间的空间位移。照相机500可括一个或多个处理器CNT1、400,其被配置为根据所述空间位移来调整传感器部POR1、POR2的位置,以便补偿照相机位置之间的差异。
对于本领域技术人员来说,显然,根据本发明的设备和方法的修改和变化是可感知的。附图是示意性的。以上参考附图描述的特定实施例仅仅是示意性的,而并不意在限定本发明的范围,本发明的范围由所附的权利要求定义。

Claims (22)

1.一种用于记录视频序列的方法,包括:
接收第一指令,其定义相对于预览图像的第一边界的位置;
接收第二指令,其定义相对于所述预览图像的第二边界的位置、定义从所述第一边界到所述第二边界的取景路径或者定义跟踪模式;
根据所述第一边界的位置,确定图像传感器的第一传感器部的位置;
根据所述第二边界的位置,确定所述图像传感器的第二传感器部的位置;
在接收到所述第二指令后,在所述图像传感器上形成第一光学图像,并从所述第一传感器部获取第一传感器数据;
在所述第一光学图像已经形成后在所述图像传感器上形成第二光学图像,并从所述第二传感器部获取第二传感器数据;
根据所述第一传感器数据,确定第一图像帧;
根据所述第二传感器数据,确定第二图像帧;以及
存储和/或传输所述第一图像帧和所述第二图像帧。
2.根据权利要求1所述的方法,其中,所述第一图像帧中包含的图像数据的至少90%基于从所述第一传感器部获取的所述第一传感器数据。
3.根据权利要求1所述的方法,其中,所述第二传感器部在空间上相对于所述第一传感器部位移。
4.根据权利要求3所述的方法,其中,所述第二传感器部与所述第一传感器部不重叠。
5.根据权利要求1至4任意一项所述的方法,其中,所述第一传感器部的区域小于所述图像传感器的有效区域的50%。
6.根据权利要求1至4任意一项所述的方法,其中,所述预览图像被显示在触摸屏上,所述第一边界的位置通过使用所述触摸屏来定义。
7.根据权利要求1至4任意一项所述的方法,还包括:通过使用无线通信来传输所述第一图像帧和所述第二图像帧。
8.根据权利要求1至4任意一项所述的方法,还包括:确定所述图像传感器的中间传感器部,其中,所述传感器数据在第一时间段与第二时间段之间从所述中间传感器部获取,所述中间传感器部的位置位于所述第一传感器部的位置与所述第二传感器部的位置之间。
9.根据权利要求1至4任意一项所述的方法,其中,所述第二传感器部的位置根据所述取景路径并根据速度值确定。
10.根据权利要求1至4任意一项所述的方法,还包括:跟踪对象的移动,以使得所述第二传感器部的位置根据所述对象的图像的瞬时位置确定。
11.一种用于记录视频序列的装置,其包括至少一个处理器、包括计算机程序代码的存储器,所述存储器和所述计算机程序代码被配置为用至少一个处理器使装置至少执行根据权利要求1至10任意一项所述的方法。
12.一种用于记录视频序列的装置,所述装置包括:
用于接收第一指令的装置,所述第一指令定义相对于预览图像的第一边界的位置;
用于接收第二指令的装置,所述第二指令定义相对于所述预览图像的第二边界的位置、定义从所述第一边界到所述第二边界的取景路径或者定义跟踪模式;
用于根据所述第一边界的位置确定图像传感器的第一传感器部的位置的装置;
用于根据所述第二边界的位置确定所述图像传感器的第二传感器部的位置的装置;
用于在接收到所述第二指令后,在所述图像传感器上形成第一光学图像,并从所述第一传感器部获取第一传感器数据的装置;
用于在所述第一光学图像已经形成后在所述图像传感器上形成第二光学图像,并从所述第二传感器部获取第二传感器数据的装置;
用于根据所述第一传感器数据确定第一图像帧的装置;
用于根据所述第二传感器数据确定第二图像帧的装置;以及
用于存储和/或传输所述第一图像帧和所述第二图像帧的装置。
13.根据权利要求12所述的装置,其中,所述第一图像帧中包含的图像数据的至少90%基于从所述第一传感器部获取的所述第一传感器数据。
14.根据权利要求12所述的装置,其中,所述第二传感器部在空间上相对于所述第一传感器部位移。
15.根据权利要求14所述的装置,其中,所述第二传感器部与所述第一传感器部不重叠。
16.根据权利要求12至15任意一项所述的装置,其中,所述第一传感器部的区域小于所述图像传感器的有效区域的50%。
17.根据权利要求12至15任意一项所述的装置,其中,所述预览图像被显示在触摸屏上,所述第一边界的位置通过使用所述触摸屏来定义。
18.根据权利要求12至15任意一项所述的装置,包括:用于通过无线通信来传输所述第一图像帧和所述第二图像帧的装置。
19.根据权利要求12至15任意一项所述的装置,包括:用于确定所述图像传感器的中间传感器部的装置,其中,所述传感器数据在第一时间段与第二时间段之间从所述中间传感器部获取,所述中间传感器部的位置位于所述第一传感器部的位置与所述第二传感器部的位置之间。
20.根据权利要求12至15任意一项所述的装置,包括:用于根据所述取景路径并根据速度值确定所述第二传感器部的位置的装置。
21.根据权利要求12至15任意一项所述的装置,包括:用于跟踪对象的移动以使得所述第二传感器部的位置根据所述对象的图像的瞬时位置确定的装置。
22.根据权利要求12至15任意一项所述的装置,包括:图像传感器,用于提供所述第一传感器数据和所述第二传感器数据。
CN201280075417.3A 2012-08-27 2012-08-27 用于记录视频序列的方法和装置 Active CN104737526B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FI2012/050811 WO2014033347A1 (en) 2012-08-27 2012-08-27 Method and apparatus for recording video sequences

Publications (2)

Publication Number Publication Date
CN104737526A CN104737526A (zh) 2015-06-24
CN104737526B true CN104737526B (zh) 2018-03-06

Family

ID=50182563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280075417.3A Active CN104737526B (zh) 2012-08-27 2012-08-27 用于记录视频序列的方法和装置

Country Status (4)

Country Link
US (1) US9426408B2 (zh)
EP (1) EP2888871A4 (zh)
CN (1) CN104737526B (zh)
WO (1) WO2014033347A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140372841A1 (en) * 2013-06-14 2014-12-18 Henner Mohr System and method for presenting a series of videos in response to a selection of a picture
JP2016027704A (ja) * 2014-07-04 2016-02-18 パナソニックIpマネジメント株式会社 撮像装置
JPWO2020044924A1 (ja) 2018-08-31 2021-08-26 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
EP3850830A4 (en) * 2018-11-14 2021-12-08 Samsung Electronics Co., Ltd. METHOD OF RECORDING MULTIMEDIA FILES AND ELECTRONIC DEVICE THEREFORE

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101562703A (zh) * 2008-04-15 2009-10-21 索尼株式会社 用于在成像设备内执行基于触摸的调整的方法和装置
CN102045508A (zh) * 2009-10-21 2011-05-04 奥林巴斯映像株式会社 动态图像生成装置和动态图像生成方法
CN102239687A (zh) * 2009-10-07 2011-11-09 松下电器产业株式会社 追踪对象选择装置、方法、程序及其电路

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012824A1 (en) 2003-07-18 2005-01-20 Stavely Donald J. Camera remote control with framing controls and display
US8070654B2 (en) * 2004-11-05 2011-12-06 Nike, Inc. Athleticism rating and performance measuring systems
US20060114327A1 (en) * 2004-11-26 2006-06-01 Fuji Photo Film, Co., Ltd. Photo movie creating apparatus and program
US8031258B2 (en) * 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
KR100820275B1 (ko) * 2007-04-30 2008-04-08 삼성전자주식회사 분할 촬영 방법 및 이를 이용하는 이동통신 단말기
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US8823829B2 (en) * 2010-09-16 2014-09-02 Canon Kabushiki Kaisha Image capture with adjustment of imaging properties at transitions between regions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101562703A (zh) * 2008-04-15 2009-10-21 索尼株式会社 用于在成像设备内执行基于触摸的调整的方法和装置
CN102239687A (zh) * 2009-10-07 2011-11-09 松下电器产业株式会社 追踪对象选择装置、方法、程序及其电路
CN102045508A (zh) * 2009-10-21 2011-05-04 奥林巴斯映像株式会社 动态图像生成装置和动态图像生成方法

Also Published As

Publication number Publication date
EP2888871A1 (en) 2015-07-01
US20150222845A1 (en) 2015-08-06
CN104737526A (zh) 2015-06-24
US9426408B2 (en) 2016-08-23
WO2014033347A1 (en) 2014-03-06
EP2888871A4 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
US10691202B2 (en) Virtual reality system including social graph
US10257494B2 (en) Reconstruction of three-dimensional video
US11205305B2 (en) Presentation of three-dimensional video
US10529051B2 (en) Virtual lens simulation for video and photo cropping
US9373187B2 (en) Method and apparatus for producing a cinemagraph
CN107343081A (zh) 移动终端及其控制方法
CN108900790A (zh) 视频图像处理方法、移动终端及计算机可读存储介质
CN104737526B (zh) 用于记录视频序列的方法和装置
CN111064895B (zh) 一种虚化拍摄方法和电子设备
CN107295272A (zh) 一种图像处理的方法及终端
US20160261908A1 (en) Media streaming system and control method thereof
CN109120858A (zh) 一种图像拍摄方法、装置、设备及存储介质
CN108920113A (zh) 视频帧图像打印方法、装置及计算机可读存储介质
AU2018201913A1 (en) System and method for adjusting an image for a vehicle mounted camera
JP7160887B2 (ja) 画像表示方法及び装置、電子機器、コンピュータ読み取り可能な記憶媒体
WO2016182504A1 (en) A virtual reality headset
WO2016017224A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN113890984B (zh) 拍照方法、图像处理方法和电子设备
JP2022123941A (ja) モーションキャプチャ表示システム、モーションキャプチャ表示システムのプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160107

Address after: Espoo, Finland

Applicant after: Technology Co., Ltd. of Nokia

Address before: Espoo, Finland

Applicant before: Nokia Oyj

GR01 Patent grant
GR01 Patent grant