CN101014111A - 成像设备、信息处理方法和计算机程序 - Google Patents
成像设备、信息处理方法和计算机程序 Download PDFInfo
- Publication number
- CN101014111A CN101014111A CNA2006100644324A CN200610064432A CN101014111A CN 101014111 A CN101014111 A CN 101014111A CN A2006100644324 A CNA2006100644324 A CN A2006100644324A CN 200610064432 A CN200610064432 A CN 200610064432A CN 101014111 A CN101014111 A CN 101014111A
- Authority
- CN
- China
- Prior art keywords
- information
- signal portion
- image section
- important scenes
- relevant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 93
- 230000010365 information processing Effects 0.000 title claims description 31
- 238000003672 processing method Methods 0.000 title claims description 29
- 238000004590 computer program Methods 0.000 title claims description 13
- 238000012545 processing Methods 0.000 claims abstract description 47
- 230000005236 sound signal Effects 0.000 claims description 45
- 230000001133 acceleration Effects 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 23
- 230000014509 gene expression Effects 0.000 claims description 18
- 238000004091 panning Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 description 33
- 230000008859 change Effects 0.000 description 31
- 238000000605 extraction Methods 0.000 description 15
- 239000012634 fragment Substances 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 230000001052 transient effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011551 heat transfer agent Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234327—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
一种成像装置,包括一种数据处理器被配置,以执行处理以便根据在拍摄图像的周期中输入的输入信息从捕获的图像数据中选择相应于重要场景的图像部分。所述数据处理器生成允许标识相应于重要场景的图像部分的显著部分点信息,所述图像部分根据输入信息来选择,并且将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
Description
相关申请的交叉引用
本申请包含涉及到于2005年11月8日向日本专利局提交的日本专利申请JP2005-323363的主题,在此引入其全部内容以作参考。
技术领域
本发明涉及成像设备、信息处理方法和计算机程序。更确切地说,本发明涉及用于当捕获了运动图像时自动探测和记录在所捕获的图像中显著部分点的成像设备、信息处理方法和计算机程序。
背景技术
对于摄像机所捕获的运动图像的编辑和重放,存在这样的需求:提取重要场景以便编辑或者重放。为了符合这样的需求,已经提出了一种系统,该系统允许通过所捕获运动图像的图像分析或者音频分析以对推测的重要场景进行提取。例如,对构成运动图像数据的连续帧图像进行比较,并且表示其中发生了相当大的改变场景的帧被识别为的场景改变位置,而该场景被识别为重要场景。例如,在日本未审专利申请公开号No.2002-176613中描述了对这种图像的编辑。
如上所述,在已经所提议的系统中,通过分析所捕获运动图像来选择重要场景。因此,在捕获了图像之后,在该所捕获的图像上执行分析,并且这种分析要占用一定时间。
发明内容
所希望的是,提供一种成像装置、一种信息处理方法和计算机程序,其允许在拍摄图像同时自动选择重要场景,而无需分析所捕获图像,并且允许记录用于重要场景标识的显著部分点信息,所述显著部分点信息与所捕获的图像数据相关。
在一种捕获运动图像的设备中,诸如摄像机,用户的动作诸如缩放、摇镜头、或者捕获静止图像,能够用作信息暗示相应的场景是否重要。所希望的是提供这样一种成像装置、一种信息处理方法和计算机程序,其根据比如在成像期间的摄像操作,提供有用作可以在拍摄图像的同时实时提取的显著部分场景的候选的点,从而提取用户的有效显著部分场景反射强度,并且可以将关于显著部分场景的信息记录为与所捕获的图像数据相关的显著部分点信息。
根据本发明实施方式,提供一种成像设备,包括:数据处理器,被配置以执行以下处理:根据在拍摄图像的周期内输入的输入信息,从捕获的图像数据中选择相应于重要场景的图像部分。所述数据处理器生成允许相应于重要场景的图像部分标识的显著部分点信息,所述图像部分根据所述输入信息来选择,并且将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
在所述成像设备中,所述数据处理器可以接收缩放操作信息作为输入信息,并且生成显著部分点信息,其包括允许将与执行缩放操作有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述成像设备中,数据处理器可以接收加速度传感器的检测信息作为输入信息,并且根据所述加速度传感器的检测信息确定是否已经执行摇镜头或者倾斜操作,并且生成显著部分点信息,其包括允许将与摇镜头或者倾斜操作的执行有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述成像设备中,数据处理器可以接收音频信号电平信息作为输入信息,所述音频信号电平信息在拍摄所述图像时获得,根据音频信号电平信息检测音频电平中峰值的发生,并且生成包括关于显著部分点的信息的显著部分点信息,作为,其使得将与音频电平中峰值的发生有关的图像部分标识为相应于重要场景的图像部分。
而且,在所述成像设备中,所述数据处理器接收GPS信息作为输入信息,根据GPS信息来检测移动的发生距离大于或等于预定阈值距离,并且根据所述检测生成显著部分点信息,其包括将允许与距离大于或等于预定阈值距离的移动的发生有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述成像设备中,数据处理器接收时钟信息作为输入信息,并且根据时钟信息检测相应于预定事件时间的时间,并且生成显著部分点信息,其包括允许与所述时间有关的图像部分标识(所述时间相应于预定事件时间)为相应于重要场景的图像部分的信息。
而且,在所述成像设备中,数据处理器接收静止图像拍摄信息作为输入信息,并且生成显著部分点信息,其包括将允许将与静止图像的拍摄有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述成像设备中,所述数据处理器生成包括表示从拍摄图像周期的开始所经过的时间信息的信息作为显著部分信息。
而且,在所述成像设备中,所述数据处理器将显著部分点信息的优先级记录在记录介质上作为与捕获图像数据有关的信息,根据用于生成显著部分点信息的输入信息的类型分配所述显著部分点信息的优先级。
此外,在所述成像设备中,当以优先级递减次序重放重要场景时数据处理器顺序地选择显著部分点。
根据本发明另一种实施方式,提供了一种由成像装置执行的信息处理方法。所述信息处理方法包含以下步骤:根据在拍摄周期期间输入的输入信息,由成像装置中的数据处理器从捕获的图像数据中选择相应于重要场景的图像部分;由数据处理器生成允许标识图像部分的显著部分点信息,所述图像部分相应于重要场景,所述图像部分根据输入信息来选择;并且由数据处理器将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
在所述的信息处理方法,在选择相应于重要场景的图像部分的步骤中,缩放操作信息被作为输入信息输入,并且与缩放操作的执行有关的图像部分被选为相应于重要场景的图像部分,并且,在生成显著部分点信息的步骤中,生成这样的显著部分点信息,其包括允许将与执行缩放操作有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述信息处理方法中,在选择相应于重要场景的图像部分步骤中,输入检测加速度传感器的信息作为输入信息,根据加速度传感器的检测信息确定是否已经执行摇镜头或者倾斜操作,并且与摇镜头或者倾斜操作的执行有关的图像部分被选为相应于重要场景的图像部分,并且在生成显著部分点信息的步骤中,生成这样的显著部分点信息,其包括允许将与摇镜头或者倾斜操作的执行有关图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述信息处理方法中,在选择相应于重要场景的图像部分步骤中,输入音频信号电平信息作为输入信息,所述音频信号电平信息在拍摄所述图像时获得,根据音频信号电平信息检测音频电平中峰值的发生,并且与音频电平中峰值的发生有关的图像部分被选为相应于重要场景的图像部分,并且在生成显著部分点信息的步骤中,生成这样的显著部分点信息,其包括允许将与音频电平中峰值的发生有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述信息处理方法中,在选择相应于重要场景的图像部分的步骤中,输入GPS信息作为输入信息,根据GPS信息检测移动发生的距离大于或等于预定阈值距离,并且根据所述检测,与大于或等于预定阈值距离的移动的发生有关的图像部分被选为相应于重要场景的图像部分,并且在生成显著部分点信息步骤中,生成显著部分点信息,所述显著部分点信息包括允许将与发生大于或等于预定阈值距离的移动距离有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述信息处理方法中,在选择相应于重要场景的图像部分的步骤中,输入时钟信息作为输入信息,并且根据时钟信息检测相应于预定事件时间的时间,并且与相应于预定事件日期时间有关的图像部分被选为相应于重要场景的图像部分,并且在生成显著部分点信息步骤中,生成显著部分点信息,所述显著部分点信息包括允许标识与执行缩放操作有关的图像部分的信息。
而且,在所述信息处理方法中,在选择相应于重要场景的图像部分的步骤中,输入静止一图像拍摄信息作为输入信息,并且与拍摄静止图像有关的图像部分被选为相应于重要场景的图像部分,并且在生成显著部分点信息的步骤中,生成这样的显著部分点信息,其包括允许将与拍摄静止图像有关的图像部分标识为相应于重要场景的图像部分的信息。
而且,在所述信息处理方法中,在生成显著部分点信息的步骤中,生成包括表示从拍摄所述图像的周期开始所经过的时间的信息的信息作为显著部分点信息。
而且,在所述信息处理方法中,在生成显著部分点信息的步骤中,根据用于生成所述显著部分点信息的输入信息的类型来分配显著部分点信息的优先级。
此外,所述信息处理方法还可以包括步骤:当以优先级递减次序重放重要场景时,数据处理器顺序地选择显著部分点。
根据本发明另一实施方式,提供了一种计算机程序,用于允许成像装置执行包含以下步骤的信息处理:根据在拍摄图像的周期内期间输入的输入信息,由所述成像装置中的数据处理器从捕获的图像数据中选择相应于重要场景的图像部分;由数据处理器生成这样的显著部分点信息,其允许标识相应于重要场景的图像部分(所述图像部分根据所述输入信息来选择);并且由所述数据处理器将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
可以通过使用的用于以为比如通用计算机系统这样的计算机可读形式提供计算机程序的存储媒介或通信媒介来提供根据本发明实施方式的计算机程序,其能够执行各种程序代码,比如诸如CD、FD、MO之类的存储媒介或者诸如网络之类的通信媒介。通过以计算机可读形式提供计算机程序,可以根据所述计算机程序在计算机系统上执行处理。
在下文中通过参照附图详细描述本发明实施方式,本发明的其它目的、特点和优点对于本领域普通技术人员将更加显而易见。在该说明书中,所述系统指的是多个装置的逻辑组合,而不考虑所述装置是否驻留在单个设备的情况。
根据本发明实施方式,在诸如数字摄像机之类的成像设备中,可以根据在成像期间输入的输入信息来提取重要场景,所述输入信息诸如缩放操作信息、根据加速传感器的探测信息分析的摇镜头或者倾斜操作信息、输入音频信号电平信息、GPS位置信息、基于时钟信息的特定周年或者相同标识的信息、或者静止图像拍摄信息。由于重要场景是根据在成像期间输入的信息来确定的,因此生成允许标识对应于重要场景的图像部分的显著部分点信息,并与所捕获的图像数据相关地记录。因此,可以忽略在通过图像分析等等成像之后用于提取重要场景的处理。因此,可以在成像之后立即选择性地重放显著部分场景。这有助于减少用户负担以达到有效的处理。
附图说明
图1是根据本发明实施方式表示成像设备的配置的框图;
图2是基于缩放操作信息表示显著部分点提取步骤的序列的流程图;
图3A和3B是表示基于缩放操作信息的显著部分点提取步骤的示例和基于缩放操作信息的显著部分点信息的示例数据结构的框图;
图4是示出基于加速传感器信息的显著部分点提取处理的序列的流程图;
图5A和5B是示出基于加速传感信息的显著部分点提取步骤的示例和基于缩放操作信息的显著部分点信息的示例数据结构的框图;
图6是用于解释基于音频信息的显著部分点提取步骤的框图;
图7是示出基于音频信息的显著部分点提取步骤的序列的流程图;
图8A和8B是示出基于音频信息的显著部分点提取处理的示例和基于音频信息的显著部分点信息的示例数据结构的图;
图9是示出基于GPS信息的显著部分点提取步骤的序列的流程图;
图10A至10C是示出基于GPS信息的显著部分点提取处理的示例和显著部分点信息的示例数据结构的框图;
图11是示出基于时钟信息的显著部分点提取步骤的序列的流程图;
图12A和12B是示出基于时钟信息的显著部分点提取步骤的示例和基于时钟信息的显著部分点信息的示例数据结构的图;
图13是示出基于静止图像拍摄信息的显著部分点提取处理的序列的流程图;
图14A和14B是示出基于静止图像拍摄信息的显著部分点信息的示例和基于静止图像拍摄信息的显著部分点信息的示例数据结构的图;
图15A至15F是示出基于各种类型信息、由显著部分点提取处理获得的多条显著部分点信息的图;
图16是示出执行的显著部分点选择处理的序列以重放显著部分场景的流程图;以及
图17是用于解释显著部分场景的重放的示例的图。
具体实施方式
现在,将参考附图详细描述根据本发明实施方式的成像装置、信息处理方法和计算机程序。
首先,将参考图1描述根据本发明一种实施方式的成像装置(数字摄像机)的实例配置。
参考图1,该成像装置包括透镜101、由固态成像装置(例如,CCD等等)实施的成像器102,所述固态成像装置将经由透镜101输入的光信号转换成电信号,A/D转换器103,将模拟电信号转换成数字信号,摄像机信号处理器104,根据捕获的视频数据执行对图像的信号处理,麦克风105,接收音频信息的输入,A/D转换器106,将从麦克风105输出的模拟音频信号转换成数字信号和音频信号处理,根据捕获的音频数据执行对声音的信号处理。该音频信号处理器107将音频信号电平信息输入到微处理器111。例如,根据从音频信号处理107输入的音频信号电平信息,微处理器111提取显著部分点(表示重要场景位置的信息片段)。
微处理器111起数据处理器的作用,在成像时期获得各种类型的输入信息,从捕获的视频数据中选择相应于重要场景的部分,生成允许标识根据输入信息选择的、相应于重要场景的部分的显著部分点信息,并且将显著部分点信息记录到记录介质112上作为与捕获的视频数据有关的信息。随后将更详细地描述显著部分点的提取。
由摄像机信号处理器104和音频信号处理107生成的视频和音频数字数据被存储在存储器120中。视频编码器121和音频编码器122执行编码以将输入视频信号和音频信号转换成数据以便记录。例如,当数据从记录了具有捕获的数据的记录介质112读取并且重放时,视频解码器123和音频解码器124执行从记录介质112读取的视频和音频信号的解码。存储器120暂时地储存数据以便编码或者解码。
微处理器111控制在成像装置中执行的处理。同样,微处理器111从诸如各种的转换和按钮之类的输入装置108接收由用户输入的信息。此外,微处理器111从加速度传感器109接收传感器检测信息,从音频信号处理107接收音频信号电平信息,从全球定位通讯卫星接收由GPS模块110获得的位置信息,并从时钟131接收日期和时间信息。此外,微处理器111控制在记录介质112上或者来自记录介质112的数据的记录或者重放。
输入装置108是当用户操作该成像装置时使用的按钮、开关等等。更准确地说,输入装置108比如包括用于缩放操作的开关,用于拍摄移动图像的按键,用于拍摄静止图像的快门键和触板。经由输入装置108输入的信息被送到微处理器111,微处理器111根据相应于用户操作的信息执行控制并提取显著部分点。
加速度传感器109探测成像装置的移动,将表示检测结果的信息输入到微处理器111。GPS模块110从全球定位通讯卫星接收数据,并将数据输入到微处理器111。根据该信息,微处理器111可以获得当前位置的经度和纬度。时钟131将表示当前日期和时间的信息输入到微处理器111。微处理器111根据这些从加速度传感器109、GPS模块110和时钟131输入的信息片段提取显著部分点。
记录介质112比如是非易失性存储器或者硬盘,记录介质112存储捕获的视频数据。显示控制器125控制捕获的视频数据的监视显示,或者已捕获并且记录在记录介质112上并且由视频解码器123解码的数据的显示。由显示控制器125生成的数据由D/A转换器126转换为模拟信号,并且模拟信号被输出到诸如LCD面板之类的显示器127。
音频信号处理128接收由音频解码器124解码的音频信号的输入。解码的音频信号由D/A转换器129转换为模拟信号,并且该模拟信号被输出到扬声器130。依据这种实施方式在成像装置中起数据处理器作用的微处理器111接收以下片段信息的输入:
(1)关于输入装置108的用户操作的信息
(2)关于由加速度传感器109检测的结果的信息
(3)由音频信号处理107提供的音频信号电平信息
(4)由GPS模块110提供的位置信息
(5)由时钟131提供的日期和时间信息
根据这些输入信息片段,微处理器111提取显著部分点(表示重要场景的位置的信息)。微处理器111接收这些信息片段的输入,并且根据在成像期间的输入信息提取显著部分点。如下将详细描述显著部分点的提取。
首先,将描述显著部分点。显著部分点是一条允许标识在记录的运动图像中推测重要的场景的信息。例如,显著部分点被表示为从运动图像的记录开始所经过的时间(以下简称“记录时间”)。即,显著部分点是一条表示包括相对于成像的开始而言重要场景的帧的时间位置的信息。
比如,在依据这种实施方式成像装置中,以下点被作为显著部分点来探测:
用户在拍摄时执行缩放操作的点(表示为从成像最初起时间的项);
用户在拍摄时移动摄影机(执行摇镜头或者倾斜操作)的点;
从麦克风输入的声音的电平到达峰值的点;
表示纬度或者经度的信息改变的点,该信息从全球定位通讯卫星获得;
相应于实时的特定改变的点(例如,日子的改变或者年份的改变);
以及用户当记录运动图像时记录静止图像的点。
依据这种实施方式的成像装置当记录运动图像时探测这些显著部分点,并且记录显著部分点作为与捕获的视频数据有关的显著部分点信息。随着如上所述记录的显著部分点,当重放所捕获的数据时,有可能仅仅有选择地重放相应于显著部分点的邻近的部分。因而,有可能有选择地重放紧接着成像之后的显著部分场景,而不必对捕获数据执行诸如图像分析之类的后处理。
现在,关于以下顺次的探测信息片段,将详细描述依据这种实施方式的成像装置进行的显著部分点的提取:
(1)与输入装置108的用户操作有关的缩放操作信息
(2)由加速度传感器109提供的传感器检测信息
(3)由音频信号处理107提供的音频信号电平信息
(4)由GPS模块110提供的位置信息
(5)由时钟131提供的日期和时间信息
(6)与输入装置108的用户操作有关的静止的图像拍摄信息
(1)与输入装置108的用户操作有关的缩放操作信息。
首先,将参考图2和图3A和3B详细描述显著部分点提取处理,即当与输入装置108的用户操作有关的缩放操作信息被输入到微处理器111时由微处理器111执行的显著部分点提取处理。
图2是流程图,示出显著部分-点提取处理的序列,即当与输入装置108的用户操作有关的缩放操作被输入到微处理器111时,在成像期间执行的显著部分-点提取处理的序列。
在拍摄运动图像的时候,用户操作缩放键(这是输入装置108之一),以改变变焦比。用户的操作是从该输入装置108报告到该微处理器111,并且该微处理器111移动该透镜101以改变变焦比。当该用户例如通过释放该缩放键来停止该缩放操作时,微处理器111就停止移动该透镜101和从而停止该缩放操作。
现在,将描述图2所示在工艺流程的单个步骤中的处理。当在步骤S101中微处理器111已经探测到缩放操作的开始时,处理继续步骤S102,其中获得表示在缩放操作一开始的时候放大因数的信息。
然后,当在步骤S103、S104中检测到缩放操作的结尾时,那么获得表示在缩放操作的结尾的放大因数的信息。然后,在步骤S105中,(当前记录时间、缩放改变的量)的数据集存储在存储器120上。
缩放改变的量在此指的是,比如,在变焦比方面变化的量,并且根据在缩放操作的结尾的变焦比和在缩放操作开始的时候变焦比之间的差异来计算。
然后,在步骤中S106中,检测视频记录是否已经结束。当视频记录还没有结束时,处理返回到步骤S101并且从那里反复。通过该反复,表示在视频记录期间执行的个体缩放操作的结束时间和在个体缩放操作方面变化缩放的量的数据集,即,(当前记录时间、缩放改变的量)的数据集,就顺序地存储在存储器120上。
当在步骤S106中检测到视频记录已经结束时,在步骤S107中,存储在存储器120上的(当前记录时间、缩放改变的量)的数据集被与捕获数据相关联地记录在比如记录介质112中,作为与该捕获数据有关的显著部分信息。
一般地,比如当用户希望拉近到成像的主题或者拉远以便视图更广时,用户执行缩放操作。因而,可以合理地以为,紧接着缩放操作之后的记录时间很可能相应于重要场景,所以记录时间可以被认为是显著部分点。
当存储在存储器120上(当前记录时间、缩放改变量)的数据集被记录在记录介质112上作为与在运动图像记录的结尾所捕获数据有关的显著部分点信息时,有可能记录存储在存储器120上的全部信息作为显著部分点信息。换句话说,有可能从存储在存储器120上的信息中选择具有大量缩放改变的预定数目的数据集,并且仅仅将选择的数据集记录到记录介质112上与移动-图像数据一起作为显著部分点信息。
可以使用各种方案以便显著部分点信息的记录。比如,可以在移动-图像文件的部分中提供用于记录显著部分点的区域,或者可以从移动-图像文件分别地提供数据库文件,所以显著部分点可以被记录在数据库文件中。
现在,将参考图3A和3B描述基于缩放操作信息的显著部分-点提取处理的特定实例和基于缩放操作信息的显著部分点信息的数据的特定实例。图3A是框图,示出关于从拍摄运动图像最初起(Start)到结束(Stop)所经过的时间的缩放操作历史。图3B是框图,示出与捕获的视频数据有关的显著部分点信息的数据实例,当执行图3A所示缩放操作时所述数据是记录在记录介质112上。
在图3A所示实例中,在成像的开始和结束之间执行三个缩放操作。第一缩放操作是在宽(W)到远距照相(T)方向的缩放操作,即对于成像主题的拉近,并且第一缩放操作在成像开始之后的0分钟45秒结束。缩放操作的结束时间被记录为显著部分点。所记录的数据相应于图3B所示显著部分点信息的第一表目数据。即,缩放操作的结束时间的数据集和缩放改变的量,即[0:45]和[3.0],被记录为显著部分点信息的第一片段。
同样地,作为显著部分点信息的第二和第三片段,记录了用于个各缩放操作的缩放改变的结束时间和量的数据集。在图3B所示实例中,在宽(W)到远距照相(T)的方向方面变化的缩放量表示为正值,而在远距照相(T)到宽(W)的方向方面变化的量表示为负值。
(2)由加速度传感器109提供的传感器检测信息
其次,将参考图4和图5A和5B描述当信息从加速度传感器109输入到微处理器111时,由微处理器111执行的显著部分-点执行处理。在该处理中,由微处理器111根据从加速度传感器109输入的信息,来检测在成像期间执行的摇镜头或者倾斜操作,并且根据该检测记录显著部分点。
当该用户在拍摄运动图像时移动该摄影机时,加速度传感器109检测该移动并且将该移动汇报至处理器111。当微处理器111根据从加速度传感器109输入的信息确定,在某一周期中成像装置是相同方向的连续展现移动时,微处理器111确定用户是在某一方向移动的(即,执行摇镜头或者倾斜操作),并且将当前点作为显著部分点记录。
现在,将描述图4所示处理流程的单个步骤中执行的处理。在步骤S201中,作为初始设定,微处理器111将存储在存储器120中的连续动作的数量重置到[0]。然后,在步骤S202中,从加速度传感器109获得表示检测结果的值。然后,在步骤S203中,微处理器111核对成像装置处于静止状态还是移动状态。
当确定该成像装置处于移动状态时,处理继续步骤S211,其中确定移动方向是否与上次由从加速度传感器109输入的信息表示的移动方向相同。连续地反复来自加速度传感器109的信息的输入。当确定该移动方向与由上次从加速度传感器109输入的信息表示的移动方向相同时,确定可能正在执行摇镜头或者倾斜操作。然后,能够根据从加速度传感器109输入的信息计算移动量,并且更新存储在存储器120中的连续动作量。可以通过根据加速度计算速度并且临时合成该速度,以获得移动量。
当该移动方向不与该移动方向表示通过信息输入根据该加速度传感器109上次相同正是在步骤中S211,不大可能确定摇镜头或者倾斜操作正在执行。然后过程继续到步骤S205,其中重置存储于存储器120中的连续动作量。
当在步骤S203中根据从加速度传感器109输入的信息确定,成像装置处于静止状态时,处理继续步骤S204。在步骤S204中,参考存储在存储器120中的表示连续动作量的值并确定移动量是否大于预定阈值距离。当移动量大于预定阈值距离时,确定已经执行了摇镜头或者倾斜操作。然后,在步骤S213中,(当前记录时间、移动量)的数据集存储在存储器120中。
当在步骤S204中确定,存储在存储器120中的表示连续动作量的值不大于预定阈值距离时,确定还没有执行摇镜头或者倾斜操作。然后、在步骤S205中,将存储在存储器120中表示连续动作量的值重置到[0]。
在步骤S206中,确定视频记录是否已经结束。当视频记录还没有结束时,处理返回到步骤S202并且从那里反复。通过该反复,在图像记录期间执行的各个摇镜头或者倾斜操作的结束时间和在各个摇镜头或者倾斜操作方面的量和移动方向,即,(当前记录时间、移动量和方向)的数据集就顺序地存储在存储器120上。
当在步骤S206中检测到视频记录已经结束时,在步骤S207中,存储在存储器120上的(当前记录时间、移动的量和方向)的数据集就被记录在比如与捕获数据相关的记录介质112上,作为与所捕获数据有关的显著部分点信息。
一般地,比如当用户希望改变所关心的用于成像的主题时,用户执行摇镜头或者倾斜操作。因而,紧接着摇镜头或者倾斜操作之后的点可以被合理地假定为相应于重要场景,所以该点可以被认为是显著部分点。比如,当摇镜头或者倾斜操作已经结束而且摄影机变成静止时,由摇镜头或者倾斜操作所引起当前记录时间和移动量和方向被存储在存储器120上作为显著部分信息。当运动图像的记录已经结束时,已经存储的所有显著部分点信息,或者具有由摇镜头或者倾斜操作所引起较大的移动量预定数目显著部分点信息的设置,与移动-图像数据一起被记录在记录介质112上。与和早先描述的缩放操作有关的显著部分点的记录类似,可以采用各种方案用于显著部分点的记录。
现在,将参考图5A和5B描述基于摇镜头或者倾斜信息显著部分-点提取处理的特定实例和基于摇镜头或者倾斜信息显著部分点信息的数据的特定实例。图5A是框图,示出与从运动图像的拍摄的最初起(Start)到结束(Stop)所经过的时间有关的摇镜头和倾斜操作的历史。图5B是框图,示出与捕获的视频数据有关的显著部分信息的数据的实例,其当执行图5A所示摇镜头和倾斜操作时记录在记录介质112上。
在图5A所示实例中,在成像的开始和结束之间执行了三个摇镜头或者倾斜操作。第一摇镜头或者倾斜操作在成像开始之后0分钟52秒时结束。结束时间被记录为显著部分点。记录的数据相应于图5B所示的显著部分点信息的第一表目数据。即,摇镜头或者倾斜操作的结束时间以及移动的量和方向的数据集,即,[0:52]和[5.0]的数据集被记录作为显著部分点信息的第一片段。
类似地,作为显著部分点信息的第二和第三片段,记录了各个摇镜头或者倾斜操作的结束时间和移动的量和方向的数据集。在图5B所示实例中,在左到右方向和在从高到低方向的移动量通过正数来表示,并且在相反方向上移动量通过负数来表示。
在如上所述实例中,通过根据从加速度传感器109输入的加速度计算速度并且临时合成该速度,来获得与摇镜头或者倾斜操作有关的移动量。然而,即使在不包括加速度传感器的装置中,也可能通过比较包括在捕获的视频数据内的邻近帧的图像而获得关于摄像机移动的信息。因而,该配置可以是这样的:微处理器111根据捕获的视频数据确定,是否已经执行了摇镜头或者倾斜操作。
(3)由音频信号处理107提供的音频信号电平信息
接下来,将参考图6、图7和图8A和8B详细描述当由音频信号处理107提供的音频信号电平信息被输入到微处理器111时,由微处理器111执行的显著部分-点提取处理。在该处理中,在成像期间基于由麦克风105捕获的音频数据的音频信号电平信息被输入到微处理器111,并且微处理器111根据输入信息分析在音频电平方面的变化,并且根据分析结果记录显著部分点。
声音在拍摄运动图像时经由麦克风105输入,并且在音频信号处理107中生成音频电平信息以及输入到微处理器111。音频电平信息也被使用于比如屏幕上的音频电平计的显示。
根据该音频电平信息,微处理器111获得音频电平展现峰值的时间。音频电平经常到达激发场景的峰值。因而,音频电平的峰值可以被认为很可能对应于重要场景,并且因此可以被认为是显著部分点。可以使用各种算法来检测峰值,并且以下将描述一种示例。
在运动图像的记录期间,获得一音频电平。在立体声传声器的情况下,可以获得用于左右信道的音频电平,所以比如两个值的平均值被用作音频电平。此外,为了减轻噪音的影响,采用的预先决定所经过的周期(例如,3秒)期间的平均音频电平。预先决定周期期间的平均值在此将被称作采样。即,当运动图像的记录已经结束时,就已经获得了在预先决定间隔的样本。然后,获采样的最大值和最小值,并且执行标准化以便最大值变成10而最小值变成0。
图6示出标准化数据的一种实例。图6是这样的图表,其中横轴表示时间而纵轴表示音频电平的标准值。如图6所示,通过标准化,所有的样本采用0至10范围内的值。然后,构成局部最大值的样本被提取而其它的样本被丢弃。在图6中,形成峰值的音频电平标准化的数值由黑色点来表示。
然后,具有小于预定值(例如,8)的音频电平的样本也被丢弃。然后,剩余样本获得大于预定值的值并且也获得局部最大值(峰值)。然后,当所选择的点包括暂时邻近的样本时,具有较大的值的样本被保存而另一个样本被丢弃。此后操作剩余的样本被认为是显著部分点,并且为每个显著部分点记录一组记录时间和音频电平。
在图6所示实例中,首先,作为显著部分点的候选,选择了具有大于或等于预定值(例如,8)的音频电平(标准化的数值)的点,就是点P1至P4。然后,当所选择的点(P1至P4)包括任一暂时邻近的样本时,具有较大值的样本被保存而其它样本被丢弃。当暂时邻接被定义为±5秒范围时,所选择的点P4存在于相对于具有较高级别的选择点P1而言±5秒的暂时邻接的范围内,由此选择点P4被从显著部分点的候选中排除。结果,仅仅点P1、P2和P3被从图6所示数据中提取作为显著部分点。
参考图7所示流程图,将描述当从音频信号处理107输入音频信号电平信息至微处理器111时执行的显著部分点提取处理的处理顺序。
在步骤S301中,微处理器111从音频信号处理107获得音频信号电平信息。在步骤S302中,微处理器111计算预定所经过的周期(例如,3秒)的平均音频电平,并且将平均音频电平与记录时间一起存储到存储器120上。重复这些步骤直到在步骤S303中确定视频记录已经结束。当在步骤S303中确定视频记录已经结束时,处理继续步骤S304。
在步骤S304中,根据存储在存储器120中的暂时音频电平数据执行标准化,从而获得比如图6所示的时间和标准化音频电平数据之间的关系。然后,在步骤S305中提取显著部分点。更准确地说,
(a)选择具有大于或等于预定值(例如:8)的音频电平(标准化的数值)的点。
(b)当选择的点包括暂时邻近的样本时,具有较大值的样本被保存而其它样本被丢弃。
这些步骤(a)和(b)之后剩余的点被选为显著部分点。然后,在步骤S306中,用于所提取的各个显著部分点时间信息和标准化音频电平(峰值)的设置,与所捕获的数据一起,被记录在例如记录媒介112上,作为与捕获数据有关的显著部分点信息。
将参考图8A和8B描述基于音频电平信息的显著部分-点提取处理的特定实例和基于音频电平信息的显著部分点信息的数据的特定实例。图8A是这样的图,示出与从运动图像的拍摄开始(Start)起到结束(Stop)流逝的时间有关的音频电平信息的历史。图8B是这样的图,示出与捕获的视频数据有关的显著部分点信息的数据的实例,当获得图8A所示音频电平时所述显著部分点信息的数据记录在记录介质112上。
在图8A所示实例中,通过如上所述显著部分-点提取处理从音频电平转换数据获得三个显著部分点。结果,如图8B所示,记录时间[2:14]、[3:30]和[4:07]被选为显著部分点。因而,包括如图8B所示三个表目的显著部分点信息,即,用于各个显著部分点的多组时间信息和标准化音频电平(峰值),与捕获数据相关地被记录在记录介质112上,作为与捕获数据有关的显著部分点信息。
(4)由GPS模块110提供的位置信息
接下来,将参考图9和图10A至10C描述当位置信息从全球定位系统模块110输入到微处理器111时,由微处理器111执行的显著部分-点提取处理。在该处理中,根据在成像期间从GPS模块110输入的信息计算成像装置的位置,并且微处理器111根据在位置方面的变化确定并且记录显著部分点。
在拍摄运动图像期间,微处理器111从GPS模块110接收全球定位通讯卫星的信息,所以微处理器111可以实时地获得当前位置的经度和纬度。在拍摄运动图像期间,微处理器111根据GPS数据计算成像装置的移动等等的距离。
由于根据GPS数据计算的经度和纬度信息包括某种程度的错误,所以当该位置已经从先前观测的位置改变了大于或等于预定距离时,假定该装置已经移动。当在成像期间已经发生大量移动时,认为紧接着移动之后捕获的场景是重要场景,因此相应于显著部分点。基于该判断,微处理器111根据依照从GPS模块110输入的信息在经度和纬度方面的变化计算移动的距离。当已经发生了具有大于或等于预定距离的移动时,微处理器111将记录时间和与移动有关的移动量记录到存储器120上。当运动图像的记录已经结束时,存储在存储器120上的显著部分点、或者存储在存储器120上的显著部分点的显著部分点的预定数目与移动-图像数据一起被记录在记录介质112上。
现在,将描述图9所示处理流程的单个步骤中执行的处理。在步骤S401中,微处理器111从GPS模块110接收信息的输入,即,表示经度和纬度的信息作为成像装置的位置信息。以预定间隔重复地输入所述位置信息,并且该位置信息与信息的输入的时间相关地被存储在存储器120上。
在步骤S402中,GPS模块110计算从GPS模块110输入的信息与已经存储在存储器120上的位置信息之间的差异,从而确定是否已经发生了具有大于或等于预定阈值距离的移动。当已经发生了具有大于或等于临界距离的移动时,则微处理器111确定已经检测了显著部分点。然后,处理继续步骤S411,其中微处理器111将(当前记录时间、位置变化的量)的数据集存储在存储器120上。
当在步骤S402中确定,没有发生具有大于或等于预定阈值距离的移动时,或者在步骤S411中在(当前记录时间、位置变化的量)的数据集已经存储在存储器120上之后,处理继续步骤S404,其中微处理器111确定视频记录是否已经结束。当视频记录没有结束时,处理返回步骤S401,并且从那里反复。通过该反复,在影像记录期间,多组具有大于或者等于阈值的距离的移动的出现时间和位置变化的量,即多组(当前记录时间、位置变化的量)被顺序地存储在存储器120上。
当在步骤S403中检测到视频记录已经完成时,在步骤S404中,存储在存储器120上的多组(当前记录时间、位置变化的量)就与捕获数据结合地被记录在比如记录媒介112上,作为与捕获数据有关的显著部分点信息。
现在,将参考图10A至10C描述基于GPS信息的显著部分点提取处理的特定实例和基于GPS信息的显著部分点信息的数据的特定实例。图10A是这样的图,示出按照从运动图像的拍摄的开始(Start)起到结束(Stop)所经过的时间而测量的、具有大于或等于阈值距离的移动的出现时间,即示出显著部分点的图。图10B是这样的图,示出相对于图10A所示数据的位置变化的状态。
成像起始于图10B所示成像出发点P1,并且随着用户用成像装置拍摄图像成像装置开始移动。当成像装置到达点P2时,确定已经发生了具有大于或等于阈值距离的移动,所以当前时间点地被确定为第一显著部分点。从成像最初起与该点有关的时间是1分钟35秒,并且该时间和移动量被记录作为图10C所示显著部分点信息的第一表目。此外,当成像装置已经从点P2移动到点P3时,确定具有大于或等于阈值距离的移动已经发生,所以当前时间点地被确定为第二显著部分点。在成像开始之后与该点有关的时间是2分钟11秒,并且该时间和移动量被记录作为图10C所示的显著部分信息的第二表目。
(5)由时钟131提供的日期和时间信息
接下来,将参考图11和图12A和12B描述当从时钟131输入日期和时间信息至微处理器111时由微处理器111执行的显著部分-点提取处理。在该处理中,在成像期间,数据和时间信息从时钟131输入到微处理器111,并且微处理器111根据表示当前日期和时间的信息检测并且记录显著部分点。
在拍摄运动图像期间,微处理器111从时钟131接收表示当前日期和时间的信息的输入。所述当前时间是基于预先通过用户指定或依照从GPS模块110接收的GPS卫星信息设置的时间测定的。所述微处理器111在拍摄图像期间监视时钟131,因此微处理器111可以获得当日期变化时的时间点、当年份变化时的时间点以及其他等等的记录时间信息。
在当所述日期变化时、年度变化时等的时刻,可以认为某个重大事件正在持续,因此所述时刻可以被认为是显著部分点。在此例子中,当在成像期间所述日期变化或年度变化时的点的记录时间被认为是显著部分点。
现在,将参考图11所示流程图描述由微处理器111根据从时钟131提供的日期和时间信息而执行的显著部分点检测和记录步骤的序列。在步骤S501中,微处理器111从时钟131接收日期和时间信息的输入。在步骤S502中,微处理器111确定所述日期和时间信息是否对应于一个事件的日期和时间。所述事件的日期和时间例如根据预先由用户设置的数据而确定。此外,在默认条件下日期变化、年度变化,以及其他等等变化的点可以被定义为事件日期和时间。
当在步骤S502中确定,日期和时间信息对应于一个事件日期和时间时,确定已经探测到显著部分点。然后,在步骤S511中,(当前记录时间、事件类型)的数据集是存储在存储器120上。例如,所述事件类型表明日期变化或年度变化。
当在步骤S502中确定所述日期和时间信息不对应于任何事件日期和时间时,或在(当前记录时间、事件类型)的数据集已经存储在所述存储器120上之后,在步骤S503,微处理器111确定视频记录是否已经结束。当视频记录没有结束时,所述处理返回到步骤S501并且从此反复。通过该反复,多组在图像记录期间事件的出现时间和表示事件类型的信息,即,多组(当前记录时间、事件类型)被顺序地存储在存储器120上。
当在步骤S503中检测到,视频记录已经结束时,在步骤S504中,例如,微处理器111在存储器120中与捕获的数据结合地记录存储在记录介质112上的的多组(当前记录时间、事件类型),作为与捕获数据有关的显著部分点信息。
现在,将参考图12A和12B描述基于时钟信息的显著部分-点提取处理的特定范例和基于时钟信息的显著部分点信息特定范例。图12A是这样的图,示出根据沿着从拍摄运动图像一开始(Start)到结束(Stop)时间的时钟信息而检测的事件出现的时间点。图12B是这样的图,示出在记录介质112上与在图12A中所示捕获数据相结合所记录的显著部分点信息的数据的范例。
在图12A所示的实例中,一个事件发生时间(例如年度变化的时间)被包括在成像的开始和结束之间,并且该点被记录为显著部分点。所记录的数据对应于图12B所示的显著部分点信息的表目数据。更具体地说,从对应于年度变化时间的成像一开始的记录时间的数据集,即[1:40]和事件类型,即[年度变化],被记录为显著部分点信息。
(6)与输入装置108的用户操作有关的静止图像拍摄信息
接下来,将参考图13和图14A和14B描述当与输入装置108的用户操作有关的静止-图像拍摄信息被输入到微处理器111时由微处理器111执行的显著部分-点提取处理。
图13是流程图,示出当与输入装置108的用户操作有关的静止-图像拍摄信息被输入给微处理器111时由微处理器111执行的显著部分-点提取处理的处理顺序。
用户在拍摄运动图像时可以通过输入装置108之一的按压静止图像键(例如,快门键)来拍摄静止图像。用户的操作从输入装置108输入到微处理器111,并且微处理器111控制摄相机拍摄静止图像。当用户在拍摄运动图像同时拍摄静止图像时,假定用户认为该场景是重要的场景,因此所述静止图像可以被认为是对应于显著部分点。在此例子中,对应于拍摄静止图像时间的记录时间被记录为显著部分点。
现在,将描述图13所示处理流程的单个步骤中执行的处理。当微处理器111在步骤S601中检测用于拍摄静止图像的快门键操作时,处理继续至步骤S611,其中静止图像被拍摄下来。然后,在步骤S612中,表示拍摄该静止图像的时间的信息被存储在存储器120上。
然后,在步骤S602中,检测视频记录是否已经结束。当视频记录没有结束时,处理返回到步骤S601并且从此反复。通过这种反复,在视频记录期间拍摄静止图像的时间数据被顺序地存储在存储器120上。
当在步骤S602检测到视频记录已经结束时,在步骤S603中,存储在存储器120上的数据(拍摄静止图像的记录时间)与捕获的数据结合地被记录在记录介质112上,作为与捕获数据有关的显著部分信息。
现在,将参考图14A和14B描述基于静止-图像拍摄信息的显著部分-点提取处理的特定范例和基于静止-图像拍摄信息显著部分点信息的数据的特定范例。图14A示出沿着拍摄运动图像从开始(Start)到结束(Stop)所经过的时间而捕获的静止图像的历史记录。图14B示出当如图14A所示拍摄静止图像时记录在记录介质112上、与捕获视频数据有关的显著部分点信息的数据的范例。
在图14A示出的例子中,静止图像在成像的开始和结束之间被二次拍摄。第一静止图像在成像开始之后的2分钟22秒时拍摄。拍摄静止图像的时间被记录为显著部分点。记录的数据对应于图14B所示的显著部分点信息的第一表目数据,而拍摄静止图像的时间,即[2:22],被记录为显著部分点信息的第一片段。同样地,显著部分点信息的第二和第三片段也顺序地被存储。
整个处理顺序
如上所述,依照此实施例的成像装置根据以下信息片段提取显著部分点:
(1)与输入装置108的用户操作有关的缩放操作信息
(2)从加速度传感器109提供的传感器检测信息
(3)从音频信号处理107提供的音频信号电平信息
(4)从GPS模块110提供的位置信息
(5)从时钟131提供的日期和时间信息
(6)与输入装置108的用户操作有关的静止-图像拍摄信息
这些处理可以在单个运动图像上同时地执行。在这种情况下,根据信息的这些各种类型产生显著部分点信息并且与捕获的视频数据结合地进行记录。被记录的显著部分点信息是在图15A至15F中所示的数据。
图15A至15F示出由微处理器111分别根据以下信息片段(1)至(6)记录的提取的显著部分点信息:
(1)与输入装置108的用户操作有关的缩放操作信息
(2)从加速度传感器109提供的传感器检测信息
(3)从音频信号处理107提供的音频信号电平信息
(4)从GPS模块110提供的位置信息
(5)从时钟131提供的日期和时间信息
(6)与输入装置108的用户操作有关的静止-图像拍摄信息
在依照此实施例的成像装置中,根据这些信息片段产生的显著部分点信息片段,与依照用于产生显著部分点信息片段的输入信息的类型分配给单个显著部分点信息片段的优先级一起,被记录在记录介质上。所述优先级用来有选择地仅仅重放显著部分度显示场景。
现在,将描述利用与捕获的视频数据相结合记录的显著部分点信息,来有选择地仅仅重放捕获的视频数据的显著部分场景的方法步骤。依照此实施例的成像装置能够在显示器127上重放捕获的运动图像,并且利用与捕获的运动图像结合记录的显著部分点信息来有选择地重放对应于显著部分点的场景。
当重放显著部分场景时,例如用户选择单个运动图像并且仅仅重放其显著部分场景,或者以放映幻灯片形式重放某些运动图像的显著部分场景。
当重放显著部分场景时,可以选择并且重放对应于图15A至15F所示显著部分点的所有大量显著部分场景。例如,根据包括在图15A至15F所示各个显著部分度显示信息片段中的记录时间,可以依照诸如相对于对应于每个记录时间的捕获的图像帧而言在前的10秒还是随后的10秒或在前的5秒还是随后的20秒之类的设置,利用记录时间作为索引重放显著部分场景。
除了选择并且重放对应于图15A至15F所示大量显著部分点的所有场景,可以根据分配给所述显著部分点的优先级选择具有较高优先级级别显著部分点,以便仅仅重放对应于所选择的显著部分点的场景。
现在将描述显著部分点的优先级。如上文所述,根据信息的各种类型提取显著部分点,所述信息诸如缩放操作、摇镜头或倾斜操作、音频电平的峰值、基于GPS信息的位置变化、基于时间信息的日期或年度变化、和拍摄运动图像同时关于捕获的静止图像的信息。依照用于提取所述显著部分度显示点的信息类型,优先级被分配给这些显著部分点。所述优先级可以由用户任意地分配。
例如,当用户认为:与缩放操作、音量的峰值、和拍摄运动图像同时捕获的静止图像有关的显著部分点更多可能对应于重要的场景,而与摇镜头或倾斜操作、基于GPS信息的位置变化、以及基于时间信息的日期或年度变化有关的显著部分点很少会对应于重要的场景,那么用户依照下列方式分配优先级:
优先级1:根据缩放操作、音频电平峰值、和捕获的静止图像提取的显著部分点
优先级2:根据GPS信息和诸如日期或年度变化之类的事件提取的显著部分点
优先级3:根据摇镜头或倾斜操作提取的显著部分点
在如上所述设置所述优先级之后,确定用于选择性的重放显著部分点所选择的显著部分点的数目。以便仅仅重放运动图像的显著部分场景,首先确定显著部分重放的长度。所述长度可以预定为固定值(例如,20秒)或确定为整个运动图像长度的固定比率(例如,运动图像长度的五分之一),或由用户预先设置。
然后,确定用于重放的每个显著部分场景的长度。所述长度可以预定为固定值(例如,5秒),或所述长度可以在以放映幻灯片形式重放运动图像的每个场合确定,以提供一定的表现力。当以幻灯片重放BGM时,可以确定或者由用户为每个小节(bar)预先设置所述长度。依照这种方式,可以确定显著部分重放的整个长度和每个场景的长度。可以依照重放的期望方法适当地选择这两个值。可以通过由每个场景的长度划分显著部分重放的整个长度的方法来计算将选择的显著部分点的数目。当在依照BGM确定长度的情况中每个场景长度是可变的时,将选择的显著部分点的数目就对应于等于BGM长度的场景总长度的场景的数目。
接下来,将参考图16中示出的流程图描述选择显著部分点的方法步骤。在显著部分点选择处理中,在重放显著部分点之前,微处理器111利用与捕获的视频数据有关的显著部分点信息选择具有较高优先级级别的显著部分点。
首先,在步骤S701中,选择为其分配的具有最高优先级别的一组显著部分点。在如上所述优先级设置的范例情况下,获得一组以下显著部分点:优先级1:根据缩放操作、音频电平峰值和捕获的静止图像提取的显著部分点。
然后在步骤S702中,检查组是否为空。当所述组不为空时,处理继续至步骤S703,从所述组中选择一个显著部分点。在这种选择中,当存在对其分配相同优先级的多个显著部分点时,例如可以随机地选择一个显著部分点。作为选择,比如,可以根据表示变化程度的索引选择一个显著部分点,例如,在缩放操作情况下变化的缩放量,在摇镜头或倾斜操作情况下的移动量,在音频电平情况下音频电平的值、或在基于GPS信息的纬度或经度变化情况下的位置变化量。
在步骤S704中,检查获得的显著部分点的数目是否已经到达预定上限。当显著部分点的数目没有到达所述上限时,处理返回到步骤S702并且从此反复。当具有最高优先级别的显著部分点组已经变为空时,处理继续至步骤S711,其中检查具有下一最高优先级别的显著部分点组是否存在。当具有下一最高优先级别的显著部分点组存在时,在步骤S712中,选择具备下一最高优先级级别的显著部分点组。在如上所述设置优先级的范例情况下,获得以下组的显著部分点:优先级2:根据诸如日期变化或年度变化之类的GPS信息或事件提取显著部分点。
然后,在步骤S703中,从选择的组中选择一个显著部分点。反复这些步骤直到从那些具有较高优先级别的显著部分点中顺序地选择显著部分点的数目到达预定数目或直到提取了所有显著部分点。
当在步骤S711中确定,不存在将要选择的显著部分点的组时,在步骤S713中,捕获的图像被分成具有相等长度的片段(例如,10个段),并且产生点被认为是一组显著部分点。然后,处理返回到步骤S703,其中显著部分点根据新的组选择。所述选择是依照预定规则执行的;比如,从一开始顺次选择通过平均地划分所述运动图像而生成的显著部分点。
最后,当在步骤S704中确定显著部分点的数目已经到达预定数目时,显著部分点选择处理结束。通过依照如上所述优先级次序反复选择来选择预定数目的显著部分点。
接下来,将描述根据选择的显著部分点重放运动图像的显著部分度显示的方法步骤。首先,依照成像时间次序排列选择的显著部分点。然后,就在显著部分点之前开始,对于所述每个场景的长度重放与每个显著部分点有关的运动图像的场景。例如,当所述每个场景的长度是5秒时,在所述显著部分点之前从1秒开始将运动图像的场景重放5秒。这种规则顺序地应用到所有显著部分点,借此仅仅重放运动图像的显著部分场景。图17示出显著部分场景的选择性的重放的范例。
图17示出一种范例,其中选择了三个显著部分点,并且从捕获的图像数据开始重放。显著部分场景301至303是包括通过如上所述处理而选择的显著部分点的运动图像数据。例如,进行这种设置以便重放场景覆盖从显著部分点之前的1秒到显著部分点之后的5秒的范围。在图17示出的例子中,仅仅重放了三个显著部分场景。例如,可以进行这种设置以便在显著部分点之间插入场景变化的效果,诸如相交衰减。
已经在特定实施例环境中详细描述了本发明。然而,对本领域普通技术人员而言显而易见的是,可以不脱离本发明的精神做出修改或者替换。即,已经通过举例说明的方式公开了本发明,并且本发明不应该被理解为局限于这些实施方式。本发明的范围应该根据权利要求来确定。
可以由硬件、由软件或者由硬件和软件的组合来执行在此描述的一系列处理。当由软件执行一系列处理时,通过将该软件安装到嵌入专用设备的计算机的存储器上或者安装在能够执行各种处理的通用计算机上来执行限定处理顺序的程序。
例如,该程序可以被记录在诸如硬盘或者只读存储器(ROM)之类的记录介质中。作为选择,所述程序可以被暂时地或者永久地存储(记录)在诸如软磁盘、光盘只读存储器(CD-ROM)、磁光(MO)盘、数字通用盘(DVD)、磁盘、或者半导体存储器之类的可移动的记录介质上。这种可移动的媒介可以由所谓的程序包软件的形式来提供。
代替从可移动的记录介质安装程序至计算机,所述程序可以通过无线电从下载站点传送至计算机,或者经由诸如局域网(LAN)或者因特网之类的网络用电报传送到计算机,所以计算机可以接收所传送的程序并且将所述程序安装在诸如硬盘之类的内部记录媒介上。
在此描述的各种的处理不必以描述的次序顺序地执行,并且可以根据需要或者根据执行所述处理的设备的处理能力平行或者分别地执行。在说明书中的系统指的是多个设备的逻辑组合,不考虑所述构成设备是否在相同情形内处理。
Claims (21)
1.一种成像装置,包含:
数据处理器,被配置以执行以下处理:根据在拍摄图像的周期内输入的输入信息,从捕获的图像数据中选择相应于重要场景的图像部分,
其中所述数据处理器生成允许标识相应于重要场景的图像部分的显著部分点信息,所述图像部分根据所述输入信息来选择,并且将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
2.根据权利要求1所述的成像装置,
其中数据处理器接收缩放操作信息作为输入信息,并且生成包括允许将与执行缩放操作有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
3.根据权利要求1所述的成像装置,
其中数据处理器接收加速度传感器的检测信息作为输入信息,并且根据所述加速度传感器的检测信息确定是否已经执行摇镜头或者倾斜操作,并且生成包括允许将与摇镜头或者倾斜操作的执行有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
4.根据权利要求1所述的成像装置,
其中数据处理器接收音频信号电平信息作为输入信息,所述音频信号电平信息在拍摄所述图像时获得,根据音频信号电平信息检测音频电平中峰值的发生,并且生成包括关于显著部分点的信息的显著部分点信息,所述显著部分点信息允许将与音频电平中峰值的发生有关的图像部分标识为相应于重要场景的图像部分。
5.根据权利要求1所述的成像装置,
其中所述数据处理器接收GPS信息作为输入信息,根据GPS信息来检测移动的发生距离大于或等于预定阈值距离,并且根据所述检测生成包括允许将与其距离大于或等于预定阈值距离的移动的发生有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
6.根据权利要求1所述的成像装置,
其中数据处理器接收时钟信息作为输入信息,并且根据时钟信息检测相应于预定事件时间的时间,并且生成包括允许将与相应于预定事件时间的时间有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
7.根据权利要求1所述的成像装置,
其中数据处理器接收静止图像拍摄信息作为输入信息,并且生成包括允许将与静止图像的拍摄有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
8.根据权利要求1所述的成像装置,
其中所述数据处理器生成包括表示从拍摄图像周期的开始所经过的时间信息的信息作为显著部分信息。
9.根据权利要求1所述的成像装置,
其中所述数据处理器将显著部分点信息的优先级记录在记录介质上作为与捕获图像数据有关的信息,根据用于生成显著部分点信息的输入信息的类型分配所述显著部分点信息的优先级。
10.根据权利要求9所述的成像装置,
其中当以优先级递减次序重放重要场景时数据处理器顺序地选择显著部分点。
11.一种由成像装置执行的信息处理方法,所述信息处理方法包含以下步骤:
根据在拍摄图像周期内输入的输入信息,由成像装置中的数据处理器从捕获的图像数据中选择相应于重要场景的图像部分;
由数据处理器生成允许标识图像部分的显著部分点信息,所述图像部分相应于重要场景,所述图像部分根据输入信息来选择;并且
由数据处理器将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
12.根据权利要求11所述的信息处理方法,
其中,在选择相应于重要场景的图像部分的步骤中,缩放操作信息被作为输入信息输入,并且与缩放操作的执行有关的图像部分被选为相应于重要场景的图像部分,并且
其中,在生成显著部分点信息的步骤中,生成包括允许将与执行缩放操作有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
13.根据权利要求11所述的信息处理方法,
其中,在选择相应于重要场景的图像部分步骤中,输入检测加速度传感器的信息作为输入信息,根据加速度传感器的检测信息确定是否已经执行摇镜头或者倾斜操作,并且与摇镜头或者倾斜操作的执行有关的图像部分被选为相应于重要场景的图像部分,并且
其中,在生成显著部分点信息的步骤中,生成包括允许将与摇镜头或者倾斜操作的执行有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
14.根据权利要求11所述的信息处理方法,
其中在选择相应于重要场景的图像部分步骤中,输入音频信号电平信息作为输入信息,所述音频信号电平信息在拍摄所述图像时获得,根据音频信号电平信息检测音频电平中峰值的发生,并且与音频电平中峰值的发生有关的图像部分被选为相应于重要场景的图像部分,并且
其中,在生成显著部分点信息的步骤中,生成包括关于显著部分点的信息的显著部分点信息:其允许将与音频电平中峰值的发生有关的图像部分标识为相应于重要场景的图像部分。
15.根据权利要求11所述信息处理方法,
其中,在选择相应于重要场景的图像部分的步骤中,输入GPS信息作为输入信息,根据GPS信息检测移动发生的距离大于或等于预定阈值距离,并且根据所述检测,与大于或等于预定阈值距离的移动的发生有关的图像部分被选为相应于重要场景的图像部分,并且
其中,在生成显著部分点信息步骤中,生成显著部分点信息,所述显著部分点信息包括允许将与其距离大于或等于预定阈值距离的移动的发生有关的图像部分标识为相应于重要场景的图像部分的信息。
16.根据权利要求11所述的信息处理方法,
其中,在选择相应于重要场景的图像部分的步骤中,输入时钟信息作为输入信息,并且根据时钟信息检测相应于预定事件时间的时间,并且与相应于预定事件日期的时间有关的图像部分被选为相应于重要场景的图像部分,并且
其中,在生成显著部分点信息步骤中,生成显著部分点信息,所述显著部分点信息包括允许将与相应于预定事件时间的时间有关的图像部分标识为相应于重要场景的图像部分的信息。
17.根据权利要求11所述信息处理方法,
其中,在选择相应于重要场景的图像部分的步骤中,输入静止图像拍摄信息作为输入信息,并且与拍摄静止图像有关的图像部分被选为相应于重要场景的图像部分,并且
其中,在生成显著部分点信息的步骤中,生成包括允许将与拍摄静止图像有关的图像部分标识为相应于重要场景的图像部分的信息的显著部分点信息。
18.根据权利要求11所述的信息处理方法,
其中,在生成显著部分点信息的步骤中,生成包括表示从拍摄所述图像的周期开始所经过的时间的信息的信息作为显著部分点信息。
19.根据权利要求11所述的信息处理方法,
其中,在生成显著部分点信息的步骤中,根据用于生成所述显著部分点信息的输入信息的类型来分配显著部分点信息的优先级。
20.根据权利要求19所述的信息处理方法,还包含步骤:
当以优先级递减次序重放重要场景时,数据处理器顺序地选择显著部分点。
21.一种计算机程序,用于允许成像装置执行包含以下步骤的信息处理:
根据在拍摄图像的周期内期间输入的输入信息,由所述成像装置中的数据处理器从捕获的图像数据中选择相应于重要场景的图像部分;
由数据处理器生成允许标识相应于重要场景的图像部分的显著部分点信息,所述图像部分根据所述输入信息来选择;并且
由所述数据处理器将显著部分点信息记录在记录介质上作为与捕获的图像数据有关的信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005323363A JP4379409B2 (ja) | 2005-11-08 | 2005-11-08 | 撮像装置、および情報処理方法、並びにコンピュータ・プログラム |
JP323363/05 | 2005-11-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101014111A true CN101014111A (zh) | 2007-08-08 |
Family
ID=38087035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2006100644324A Pending CN101014111A (zh) | 2005-11-08 | 2006-11-08 | 成像设备、信息处理方法和计算机程序 |
Country Status (6)
Country | Link |
---|---|
US (2) | US8542295B2 (zh) |
EP (1) | EP1816649B1 (zh) |
JP (1) | JP4379409B2 (zh) |
KR (1) | KR101285430B1 (zh) |
CN (1) | CN101014111A (zh) |
TW (1) | TW200721828A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327233A (zh) * | 2012-03-21 | 2013-09-25 | 卡西欧计算机株式会社 | 运动图像拍摄装置、运动图像拍摄方法、以及摘要重放设定装置、摘要重放设定方法 |
CN107925741A (zh) * | 2015-08-20 | 2018-04-17 | 索尼公司 | 图像处理方法、图像处理设备和程序 |
CN109669917A (zh) * | 2018-12-24 | 2019-04-23 | 北京华大九天软件有限公司 | 一种基于优先级分组的波形存储方法 |
CN113984217A (zh) * | 2013-11-25 | 2022-01-28 | 杭州美盛红外光电技术有限公司 | 分析区域设置装置、处理装置和分析区域设置方法、处理方法 |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1998554A4 (en) * | 2006-03-23 | 2009-11-25 | Panasonic Corp | CONTENT IMAGING APPARATUS |
US20080301169A1 (en) * | 2007-05-29 | 2008-12-04 | Tadanori Hagihara | Electronic apparatus of playing and editing multimedia data |
US20090132924A1 (en) * | 2007-11-15 | 2009-05-21 | Yojak Harshad Vasa | System and method to create highlight portions of media content |
CN102016909A (zh) * | 2008-12-19 | 2011-04-13 | 松下电器产业株式会社 | 图像检索装置以及图像检索方法 |
JP5326555B2 (ja) | 2008-12-25 | 2013-10-30 | ソニー株式会社 | 情報処理装置、動画像切り出し方法および動画像切り出しプログラム |
JP5289151B2 (ja) | 2009-04-09 | 2013-09-11 | キヤノン株式会社 | データ管理装置、その制御方法及びプログラム |
JP5602562B2 (ja) | 2009-10-06 | 2014-10-08 | パナソニック株式会社 | 画像生成装置、再生装置、再生システム、画像生成方法および再生方法 |
KR101661201B1 (ko) * | 2010-03-02 | 2016-09-30 | 삼성전자주식회사 | 휴대용 단말기에서 줌 마이크 기능을 지원하기 위한 장치 및 방법 |
JP2011199465A (ja) * | 2010-03-18 | 2011-10-06 | Panasonic Corp | 撮像装置 |
JP5546949B2 (ja) * | 2010-05-20 | 2014-07-09 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
JP2012138804A (ja) | 2010-12-27 | 2012-07-19 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2012138813A (ja) * | 2010-12-27 | 2012-07-19 | Nikon Corp | 撮影機器 |
US9489845B2 (en) | 2011-04-08 | 2016-11-08 | Fleetmatics Development Limited | System and method for providing vehicle and fleet profiles and presentations of trends |
EP2774094A1 (en) * | 2011-10-31 | 2014-09-10 | Fleetmatics Irl Limited | A system and method for tracking and alerting for vehicle speeds |
CN104170367B (zh) * | 2011-12-28 | 2019-06-18 | 英特尔公司 | 一种图像捕获方法、装置及计算机可读介质 |
EP2842086A1 (en) | 2012-04-27 | 2015-03-04 | Fleetmatics Irl Limited | System and method for managing vehicle dispatch and fleet workflow |
JP2013239796A (ja) * | 2012-05-11 | 2013-11-28 | Canon Inc | 画像処理装置 |
JP6172990B2 (ja) * | 2013-03-27 | 2017-08-02 | オリンパス株式会社 | 画像記録装置、画像記録処理の制御方法及びそのプログラム |
US9754428B2 (en) | 2013-09-16 | 2017-09-05 | Fleetmatics Ireland Limited | Interactive timeline interface and data visualization |
US10267643B2 (en) | 2013-09-16 | 2019-04-23 | Verizon Connect Ireland Limited | System and method for automated correction of geofences |
US9881272B2 (en) | 2013-09-16 | 2018-01-30 | Fleetmatics Ireland Limited | Vehicle independent employee/driver tracking and reporting |
US9313616B2 (en) | 2013-09-16 | 2016-04-12 | Fleetmatics Development Limited | System and method for automated identification of location types for geofences |
CN105302424A (zh) * | 2014-05-26 | 2016-02-03 | 周莹 | 一种多维动态标记的录制并回放的方法与系统 |
GB201412985D0 (en) * | 2014-07-22 | 2014-09-03 | Trick Book Ltd | Sensor analysis and video creation |
CN107005676A (zh) * | 2014-12-15 | 2017-08-01 | 索尼公司 | 信息处理方法、影像处理装置和程序 |
WO2016138121A1 (en) * | 2015-02-24 | 2016-09-01 | Plaay, Llc | System and method for creating a sports video |
JP6363561B2 (ja) * | 2015-06-18 | 2018-07-25 | 日本電信電話株式会社 | 情報加工システム |
US9681111B1 (en) | 2015-10-22 | 2017-06-13 | Gopro, Inc. | Apparatus and methods for embedding metadata into video stream |
US10033928B1 (en) | 2015-10-29 | 2018-07-24 | Gopro, Inc. | Apparatus and methods for rolling shutter compensation for multi-camera systems |
WO2017087641A1 (en) * | 2015-11-17 | 2017-05-26 | BrightSky Labs, Inc. | Recognition of interesting events in immersive video |
US9792709B1 (en) | 2015-11-23 | 2017-10-17 | Gopro, Inc. | Apparatus and methods for image alignment |
US9973696B1 (en) | 2015-11-23 | 2018-05-15 | Gopro, Inc. | Apparatus and methods for image alignment |
US9848132B2 (en) | 2015-11-24 | 2017-12-19 | Gopro, Inc. | Multi-camera time synchronization |
US9667859B1 (en) | 2015-12-28 | 2017-05-30 | Gopro, Inc. | Systems and methods for determining preferences for capture settings of an image capturing device |
US9922387B1 (en) | 2016-01-19 | 2018-03-20 | Gopro, Inc. | Storage of metadata and images |
US9967457B1 (en) | 2016-01-22 | 2018-05-08 | Gopro, Inc. | Systems and methods for determining preferences for capture settings of an image capturing device |
US9665098B1 (en) | 2016-02-16 | 2017-05-30 | Gopro, Inc. | Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle |
US9973746B2 (en) | 2016-02-17 | 2018-05-15 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
US9602795B1 (en) | 2016-02-22 | 2017-03-21 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
US9743060B1 (en) | 2016-02-22 | 2017-08-22 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
US9934758B1 (en) | 2016-09-21 | 2018-04-03 | Gopro, Inc. | Systems and methods for simulating adaptation of eyes to changes in lighting conditions |
US10268896B1 (en) | 2016-10-05 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining video highlight based on conveyance positions of video content capture |
KR102657100B1 (ko) * | 2016-10-05 | 2024-04-12 | 매직 립, 인코포레이티드 | 혼합 현실 교정을 위한 안구주위 테스트 |
US9973792B1 (en) | 2016-10-27 | 2018-05-15 | Gopro, Inc. | Systems and methods for presenting visual information during presentation of a video segment |
US10194101B1 (en) | 2017-02-22 | 2019-01-29 | Gopro, Inc. | Systems and methods for rolling shutter compensation using iterative process |
US10187607B1 (en) | 2017-04-04 | 2019-01-22 | Gopro, Inc. | Systems and methods for using a variable capture frame rate for video capture |
KR20200110367A (ko) | 2018-01-17 | 2020-09-23 | 매직 립, 인코포레이티드 | 디스플레이 시스템들에서의 눈 회전 중심 결정, 깊이 평면 선택, 및 렌더 카메라 포지셔닝 |
IL311004A (en) | 2018-01-17 | 2024-04-01 | Magic Leap Inc | Display systems and methods for determining registration between a display and a user's eyes |
US10872115B2 (en) * | 2018-03-19 | 2020-12-22 | Motorola Mobility Llc | Automatically associating an image with an audio track |
WO2020023542A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and eyes of a user |
JP7281951B2 (ja) | 2019-04-22 | 2023-05-26 | シャープ株式会社 | 電子機器、制御装置、制御プログラムおよび制御方法 |
CN110909284A (zh) * | 2019-10-11 | 2020-03-24 | 口碑(上海)信息技术有限公司 | 一种数据处理系统以及方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3362362B2 (ja) | 1992-01-08 | 2003-01-07 | 日本電信電話株式会社 | マルチ情報カメラ |
JP3404803B2 (ja) | 1993-06-18 | 2003-05-12 | 松下電器産業株式会社 | 動画像記録媒体、静止画像抽出装置、動画像記録装置および静止画像自動抽出方法 |
JP3230858B2 (ja) | 1992-11-26 | 2001-11-19 | 松下電器産業株式会社 | 動画像の優先度自動選択方法および動画像ダイジェスト自動表示装置 |
JP3561942B2 (ja) | 1994-02-24 | 2004-09-08 | 松下電器産業株式会社 | ショット検出方法および代表画像記録・表示装置 |
US6819356B1 (en) * | 1998-11-18 | 2004-11-16 | Casio Computer Co., Ltd. | Image search method in electronic still camera with GPS reception function |
US6825875B1 (en) * | 1999-01-05 | 2004-11-30 | Interval Research Corporation | Hybrid recording unit including portable video recorder and auxillary device |
EP1287518B1 (en) * | 2000-04-07 | 2010-09-15 | Dartfish SA | Automated stroboscoping of video sequences |
US7489853B2 (en) * | 2000-08-29 | 2009-02-10 | Panasonic Corporation | Auxiliary information generation method, auxiliary information generation apparatus, video data generation method, video data playback method, video data playback apparatus, and data storage medium |
JP2002152655A (ja) | 2000-08-29 | 2002-05-24 | Matsushita Electric Ind Co Ltd | データ関連情報生成方法、データ関連情報生成装置、画像データ生成方法、画像データ再生方法、画像データ再生装置およびデータ記憶媒体 |
JP3982605B2 (ja) * | 2000-09-29 | 2007-09-26 | カシオ計算機株式会社 | 撮影画像管理装置、撮影画像管理方法及び撮影画像管理プログラム |
JP2002176613A (ja) | 2000-12-06 | 2002-06-21 | Minolta Co Ltd | 動画像編集装置、動画像編集方法および記録媒体 |
US7254249B2 (en) * | 2001-03-05 | 2007-08-07 | Digimarc Corporation | Embedding location data in video |
US7046911B2 (en) * | 2001-09-29 | 2006-05-16 | Koninklijke Philips Electronics N.V. | System and method for reduced playback of recorded video based on video segment priority |
US7009643B2 (en) * | 2002-03-15 | 2006-03-07 | Canon Kabushiki Kaisha | Automatic determination of image storage location |
JP4362265B2 (ja) | 2002-04-05 | 2009-11-11 | ソニー株式会社 | 映像コンテンツ編集支援システム,記録装置,編集者端末装置,コンピュータプログラム,記録媒体,映像コンテンツ編集支援方法 |
JP4016424B2 (ja) | 2003-03-31 | 2007-12-05 | 日本電気株式会社 | 動画像編集装置および動画像編集方法 |
US20040220965A1 (en) * | 2003-04-30 | 2004-11-04 | Michael Harville | Indexed database structures and methods for searching path-enhanced multimedia |
JP2005109915A (ja) | 2003-09-30 | 2005-04-21 | Olympus Corp | 画像記録装置、画像記録方法、及びそれを用いたカメラ |
US20050104976A1 (en) * | 2003-11-17 | 2005-05-19 | Kevin Currans | System and method for applying inference information to digital camera metadata to identify digital picture content |
JP4375052B2 (ja) | 2004-02-23 | 2009-12-02 | ソニー株式会社 | 映像編集支援方法 |
US20050228849A1 (en) * | 2004-03-24 | 2005-10-13 | Tong Zhang | Intelligent key-frame extraction from a video |
JP4315085B2 (ja) * | 2004-09-09 | 2009-08-19 | カシオ計算機株式会社 | カメラ装置、及び動画撮影方法 |
US7525568B2 (en) * | 2004-11-09 | 2009-04-28 | International Business Machines Corporation | Personal multi-information recorder |
US7450163B2 (en) * | 2004-11-29 | 2008-11-11 | Rothschild Trust Holdings, Llc | Device and method for embedding and retrieving information in digital images |
JP2007081594A (ja) | 2005-09-13 | 2007-03-29 | Sony Corp | 撮像装置、記録方法 |
-
2005
- 2005-11-08 JP JP2005323363A patent/JP4379409B2/ja not_active Expired - Fee Related
-
2006
- 2006-10-30 TW TW095140064A patent/TW200721828A/zh not_active IP Right Cessation
- 2006-11-06 US US11/556,818 patent/US8542295B2/en active Active
- 2006-11-06 EP EP06023058.8A patent/EP1816649B1/en not_active Expired - Fee Related
- 2006-11-07 KR KR1020060109325A patent/KR101285430B1/ko not_active IP Right Cessation
- 2006-11-08 CN CNA2006100644324A patent/CN101014111A/zh active Pending
-
2013
- 2013-08-13 US US13/965,699 patent/US9706113B2/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327233A (zh) * | 2012-03-21 | 2013-09-25 | 卡西欧计算机株式会社 | 运动图像拍摄装置、运动图像拍摄方法、以及摘要重放设定装置、摘要重放设定方法 |
CN103327233B (zh) * | 2012-03-21 | 2016-07-06 | 卡西欧计算机株式会社 | 运动图像拍摄装置及方法、以及摘要重放设定装置及方法 |
CN113984217A (zh) * | 2013-11-25 | 2022-01-28 | 杭州美盛红外光电技术有限公司 | 分析区域设置装置、处理装置和分析区域设置方法、处理方法 |
CN107925741A (zh) * | 2015-08-20 | 2018-04-17 | 索尼公司 | 图像处理方法、图像处理设备和程序 |
CN107925741B (zh) * | 2015-08-20 | 2021-03-16 | 索尼公司 | 图像处理方法、图像处理设备和程序 |
CN109669917A (zh) * | 2018-12-24 | 2019-04-23 | 北京华大九天软件有限公司 | 一种基于优先级分组的波形存储方法 |
Also Published As
Publication number | Publication date |
---|---|
KR101285430B1 (ko) | 2013-07-12 |
US9706113B2 (en) | 2017-07-11 |
KR20070049575A (ko) | 2007-05-11 |
TW200721828A (en) | 2007-06-01 |
US8542295B2 (en) | 2013-09-24 |
TWI365667B (zh) | 2012-06-01 |
EP1816649B1 (en) | 2016-03-16 |
US20070120986A1 (en) | 2007-05-31 |
JP2007134770A (ja) | 2007-05-31 |
JP4379409B2 (ja) | 2009-12-09 |
US20130329078A1 (en) | 2013-12-12 |
EP1816649A3 (en) | 2011-08-03 |
EP1816649A2 (en) | 2007-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101014111A (zh) | 成像设备、信息处理方法和计算机程序 | |
CN1972414B (zh) | 信息处理装置、成像设备、信息处理方法 | |
US9154690B2 (en) | Image search device, image search method, and image search program | |
CN101945212B (zh) | 图像捕获设备、图像处理方法 | |
WO2015072631A1 (ko) | 영상 처리 장치 및 방법 | |
JP5517683B2 (ja) | 画像処理装置及びその制御方法 | |
EP2426909B1 (en) | Determination of reliability of positional information associated with a photographed image | |
JP2010093713A (ja) | 表示制御装置、表示制御方法及びプログラム | |
CN101263706A (zh) | 摄像装置、记录方法 | |
CN102065196A (zh) | 信息处理装置、信息处理方法及程序 | |
US20100253801A1 (en) | Image recording apparatus and digital camera | |
CN101518053A (zh) | 用于图像俘获装置的预测性聚焦值计算 | |
JP2013110569A (ja) | 画像処理装置、位置情報付加方法およびプログラム | |
CN113114986B (zh) | 基于画面和声音同步的预警方法及相关设备 | |
JP2009017598A (ja) | 撮像装置、および情報処理方法、並びにコンピュータ・プログラム | |
CN103678469A (zh) | 媒体文件管理方法 | |
KR102472892B1 (ko) | 자전거 라이더를 위한 음성인식 기반 라이딩 영상 편집 방법 및 시스템 | |
JP2006340025A (ja) | 課金方法 | |
JP5369881B2 (ja) | 画像分類装置、画像分類方法及びそのプログラム | |
CN105744124B (zh) | 摄像装置及记录设备的控制方法 | |
KR101860357B1 (ko) | 사용자 행위에 기반한 영상 서비스 방법 및 장치 | |
CN117896609A (zh) | 基于头戴式拍摄设备的音视频处理方法及头戴式拍摄设备 | |
JP2016122949A (ja) | 代表画像を選出する手段を備えた撮影装置 | |
JP2005354248A (ja) | 映像撮影装置及び画像管理方法 | |
JP2015109026A (ja) | 画像検索装置および通信端末 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20070808 |