CN100481064C - 信息处理装置和方法 - Google Patents
信息处理装置和方法 Download PDFInfo
- Publication number
- CN100481064C CN100481064C CNB2005100720709A CN200510072070A CN100481064C CN 100481064 C CN100481064 C CN 100481064C CN B2005100720709 A CNB2005100720709 A CN B2005100720709A CN 200510072070 A CN200510072070 A CN 200510072070A CN 100481064 C CN100481064 C CN 100481064C
- Authority
- CN
- China
- Prior art keywords
- data
- content
- filming apparatus
- additional information
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/11—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
- H04N5/9205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being at least another television signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
- H04N5/9206—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99944—Object-oriented database structure
- Y10S707/99945—Object-oriented database structure processing
Abstract
一种用于对从多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理装置包括存储装置、获取装置、和搜索装置。存储装置存储与内容数据有联系的附加信息。该附加信息包括用于与从分组的多个拍摄装置中获得的内容数据相关联的地址信息。获取装置获取由存储装置存储的附加信息。当从存储装置中读取与多个拍摄装置中指定的拍摄装置相对应的内容数据时,搜索装置自动搜索与所读取内容数据关联的内容数据。
Description
相关申请的交叉参考
本发明包含与2004年5月25日向日本专利局提交的日本专利申请JP 2004-155220的主题,其全部内容结合于此作为参考。
技术领域
本发明涉及一种适用于电视台的服务器系统的信息处理装置和方法、程序、以及记录介质。
背景技术
在电视台的服务器系统中,通常来说,由多个摄像机拍摄的音频和视频可在需要时以实时方式(例如,实况、同步方式)或以循序切换的方式进行播放,并且,所拍摄的音频和视频可通过服务器以摄像机为基础进行存储和管理。
在该服务器系统中,也能够将通过各个摄像机拍摄的音频和视频利用编辑装置按照所要求的方式进行修改和编辑。经过编辑的音频和视频作为广播片段(视听素材)记录在服务器中,以便能够在需要的时候读取和播放记录在服务器中的片段(例如,日本未审查专利申请公开出版物第2000-32321号)。
发明内容
在这样的服务器系统中,当服务器对由多个摄像机拍摄的音频和视频进行管理的时候,操作者必须有意识地以摄像机为基础识别出存储有所拍摄音频和视频的存储文件、文件名、记录时间等,这是非常耗时的。
因此希望提供一种能提高操作效率的信息处理装置和方法。
根据本发明实施方式的、用于对从多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理装置包括以下部件。存储装置,用于存储与内容数据相关联的附加信息。附加信息包括用于与从分组的多个拍摄装置中获得的内容信息相关联(链接)的地址信息。获取装置,用于获取由存储装置存储的附加信息。搜索装置,当从存储装置中读取与多个拍摄装置中所指定的拍摄装置相对应的内容数据时,搜索装置自动搜索与所读取内容数据关联的内容数据。因此,一旦读出了由某个拍摄装置获取的内容数据,就能够很容易地将由其他拍摄装置在与所读取的内容数据同一时间记录的内容数据识别出来,从而提高了操作效率。
根据本发明实施方式的、用于对从多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理方法包括以下步骤:存储与内容数据相关联的附加信息,该附加信息包括用于与从分组的多个拍摄装置中获得的内容信息相关联的地址信息;获取通过存储步骤所存储的附加信息;以及,当从存储装置中读取与多个拍摄装置中所指定的拍摄装置相对应的内容数据时,自动搜索与所读取内容数据关联的内容数据。因此,一旦读出了由某个拍摄装置获取的内容数据,就能够很容易地将由其他拍摄装置在与所读取的内容数据同一时间记录的内容数据识别出来,从而提高了操作效率。
根据本发明实施方式的、用于对多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理装置包括以下部件。获取装置,用于获取包括与从分组的拍摄装置中获取的内容数据关联的地址信息的附加信息。搜索装置,当指定与多个拍摄装置中所指定的拍摄装置相对应的内容数据时,该搜索装置根据由获取装置获取的附加信息自动搜索与所指定内容数据关联的内容数据。显示控制装置,利用由获取装置获取的附加信息和由搜索装置搜索出的内容数据以相关联的方式显示出内容数据。因此,一旦指定了通过某个拍摄装置所获取的内容数据,就能够很容易地将由其他拍摄装置在与所指定内容数据同一时间记录的内容数据以关联(链接)方式显示出来,从而提高了操作效率。
附图说明
图1示出了根据本发明实施方式的服务器系统的框图;
图2示出了图1所示的服务器的框图;
图3示出了服务器文件系统的示意图;
图4A和图4B示出了将GPS坐标转换成相对坐标的平面图;
图5示出了图1所示的编辑终端装置的框图;
图6示出了在屏幕上显示的编辑视图的平面图;
图7示出了显示控制装置的框图;
图8示出了在屏幕上显示的页面内容的GUI视图的平面图;
图9示出了拍摄预处理程序的流程图;
图10示出了拍摄处理程序的流程图;
图11示出了内部服务器处理程序的流程图;
图12示出了内部服务器处理程序的流程图;
图13示出了内部服务器处理程序的流程图;以及
图14示出了根据本发明另一实施方式的服务器文件系统的示意图。
具体实施方式
下面将参照附图详细描述本发明的实施方式。
图1示出了根据本发明实施方式的服务器系统1的总体结构,它可以安装在电视台或者用于现场直播的户外转播车等场所。服务器系统1包括围绕对象OB的多个摄像机2A~2C,和用于存储和处理摄像机2A~2C所拍摄的音频和视频的服务器3,使得由摄像机2A~2C拍摄的音频和视频可实时地播放,或者在利用服务器3将拍摄的音频和视频进行编缉和修改之后播放。
在服务器系统1中,服务器3和现场直播转换器4并行连接在多个摄像机2A~2C后级。由摄像机2A~2C拍摄的音频和视频同时或以一定时间间隔循序切换的方式经现场直播转换器4从发送装置5实时播放,并且,通过服务器3将拍摄的音频和视频以摄像机为基础进行存储和管理。
摄像机2A~2C按照要求放置在对象OB周围。例如,通过打开标志(或者叫“镜头罩”)将摄像机2A设置为位置基准摄像机(以下称作“主摄像机”),以及,通过关闭标志将剩余的摄像机2B和2C(以下称作“副摄像机”)设置为在位置关系、时间管理等方面从属于主摄像机2A。
主摄像机2A把通过将元数据添加到由主摄像机2A拍摄的对象OB的音频和视频数据所产生的数据(以下称作内容数据)S1A发送给服务器3。元数据包括表明主摄像机2A当前位置的纬度、经度和高度的位置信息,还包括表示代表拍摄时间的时间码的时间信息。
副摄像机2B和2C发送内容数据S1B和S1C给服务器3。内容数据S1B和S1C是通过将包括表示副摄像机2B和2C当前位置的纬度、经度和高度的位置信息以及表示在时间上与主摄像机2A的时间码同步的时间码的时间信息添加到由副摄像机2B和2C拍摄的音频和视频数据上而产生的。
在拍摄过程中,副摄像机2B和2C以绝对值形式记录位置信息和时间信息,并不将它们转换成相对值。时间信息对于将内容数据S1B和S1C转换成NTSC(国家电视系统委员会)视频复合信号来说是必须的,可以使得NTSC视频复合信号的色彩载波信号的相位也能够与主摄像机2A在时间上同步。位置信息在上载到服务器系统1之后将被转换成相对值。
主摄像机2A和副摄像机2B和2C都包括使用全球定位系统(GPS)的内置式位置探测器(未示出),用于根据经天线(未示出)从卫星接收到的定位无线电波来检测当前位置,从而生成表明当前位置的位置信息。
服务器3不仅连接着主摄像机2A和副摄像机2B和2C,还连接着用于再生媒体的再生装置6。再生装置6将与通过再生例如录像带这样的记录介质7所获得的记录相对应的内容数据S2提供给服务器3。
服务器3将摄像机2A~2C提供的内容数据S1A~S1C和再生装置6提供的内容数据S2存储为内容文件。如果需要的话,服务器3可选择性地读取指定的内容数据S1A~S1C和S2的内容文件,并将其提供给编辑终端装置8。
编辑终端装置8根据针对音频和视频的编辑设置,对服务器3提供的内容数据S1A~S1C和S2中的音频和视频数据进行编辑,并通过操作员从电视广播、网络分布或者记录到媒体上等方法中选出的传送方法传送编辑内容数据S3。
当选择电视广播时,编辑终端装置8将编辑内容数据S3转换成广播形式,并经广播分布服务器9传送电视广播。当选择网络分布时,编辑终端装置8利用编码器10将编辑内容数据S3编码成用于网络流的网络内容,并经例如因特网这样的网络来发布网络内容,同时在下一阶段将网络内容存储在网络服务器11中。当选择记录到媒体上时,编辑终端装置8将编辑内容数据S3传送给记录装置12。记录装置12将编辑内容数据S3记录在装入其中的的记录介质13上,从而产生封装的介质。
因此,在服务器系统1中,从摄像机2A~2C和再生装置6上输出的内容数据S1A~S1C和S2经电视广播传送,并存储在服务器3中,并在需要时读取出来以进行适当的编辑。经过编辑的内容数据利用选自电视广播、网络分布、和记录到媒体中的传送方法来进行传送。
图2示出了服务器3的内部结构。在图2所示的服务器3中,当指令处理器21通过输入单元20中的接口20A接收到来自多个摄像机2A~2C和再生装置6(见图1)的内容数据S1A~S1C和S2后,指令处理器21在执行指令处理之后将接收到的数据传送给多路信号复用器/分解器22。在摄像机2A~2C记录了视听素材后,指令处理器21还可根据内容数据S1A~S1C提取出分配给视听素材的地址,并将所提取的地址传送给地址处理器23。
多路信号复用器/分解器22将内容数据S1A~S1C分解为视频数据、音频数据、和元数据,并将视频数据和音频数据传送给数据转换处理器24,以及将元数据传送给元数据处理器25。
数据转换处理器24将通过多路信号分解器/分解器22分解的视频数据转换成预定格式,并存储在视频存储单元26中。数据转换处理器24还将分解出的音频数据转换成预定的频率,并将其存储在音频存储单元27中。
元数据处理器25接收通过多路信号复用器/分解器22分解的元数据,并识别出摄像机2A~2C相对于对象OB的相对位置关系和与主摄像机2A时间码同步的副摄像机2B和2C的时间码。
具体地说,元数据包括表示略缩图的代理(proxy)数据、包括利用GPS获得的位置信息的坐标数据、包括在拍摄过程中操作者添加的时间码和拍摄好标记(good shot mark)的基于帧的数据、和由下述的文件系统构造的基于文件的数据。
输入单元20中的数据库20B将元数据文件(以下称作“文件系统”)存储为索引表。在文件系统中,元数据处理器25提供的元数据基于拍摄过程中注册的唯一素材标识符(UMID)转换成一种文件格式,UMID对于各个摄像机2A~2C来说是唯一的。
如图3所示,UMID底层目录中包括表示视频数据(视频)、音频数据(音频)、代理数据(代理)、多摄像机数据(多摄像机信息)、坐标数据(坐标)、和其他信息(其他信息)的文件。
多摄像机数据文件的更底层目录中包括多摄像机标志(flag)、主/副标志、当UMID分配给主摄像机2A时副摄像机2B和2C的副摄像机数和副ID(副ID1、副ID2、...)、和当UMID分配给副摄像机2B和2C时主摄像机2A的主ID。
元数据处理器25根据从基于元数据的文件系统中的多摄像机数据所获得的ID将指令处理器21提供的地址相关联,并根据所关联的地址将得到的元数据存储在元数据存储单元28中。根据元数据处理器25确定的地址,数据转换处理器24将视频数据和音频数据分别存储到视频存储单元26和音频存储单元27中。
当元数据处理器25检测到基于元数据的文件系统中的多摄像机数据中的多摄像机标志处于ON状态、并确定已经通过多个摄像机2A~2C拍摄到内容数据时,元数据处理器25检查多摄像机数据中主/副标志处于ON或OFF状态,并确定内容数据的拍摄源是主摄像机2A还是副摄像机2B或者2C。
当元数据处理器25确定拍摄源是主摄像机2A时,元数据处理器25将检测副摄像机2B和2C的数量和ID,并将结果发送给地址处理器23。地址处理器23根据各个副摄像机2B和2C的数量和ID确定各个副摄像机2B和2C的视听素材的段数和地址,并将结果提供给视频存储单元26、音频存储单元27、元数据存储单元28、以及输入单元20中的数据库20B。
当元数据处理器25确定拍摄源是副摄像机2B或者2C时,元数据处理器25将检测主摄像机2A的ID,并将结果传送给地址处理器23。地址处理器23根据主摄像机2A的ID确定由主摄像机2A拍摄的视听素材的地址,并将结果提供给视频存储单元26、音频存储单元27、元数据存储单元28、以及输入单元20中的数据库20B。
因此,视频存储单元26、音频存储单元27、和元数据存储单元28可根据所确定的地址存储视频数据、音频数据、和元数据。在输入单元20的数据库20B中,根据所确定的地址重建目录结构。
这样,服务器3可从存储在视频存储单元26、音频存储单元27、和元数据存储单元28中的视频数据、音频数据、和元数据中,基于主摄像机2A拍摄的视听素材,很容易地搜索出同一时间由副摄像机2B和2C拍摄的视听素材,并且,也可以基于副摄像机2B或2C拍摄的视听素材,很容易地搜索出同一时间由主摄像机2A拍摄的视听素材。
这样,即使将摄像机2A~2C拍摄的内容数据都提供给服务器3,也能够通过搜索数据库20B上的存储文件、文件名、记录时间等来自动确定对应于所提供的内容数据的视听素材是由主摄像机2A还是副摄像机2B或2C记录的。
在服务器3中,当元数据处理器25检测到基于元数据的文件中多摄像机数据的多摄像机标志处于ON状态、并确定已经通过多个摄像机2A~2C拍摄到内容数据时,元数据处理器25将文件系统中的坐标数据从表明各个摄像机2A~2C当前位置的GPS坐标转换成相对于对象OB的位置的相对坐标,并更新坐标数据。
例如,如图4A所示,利用GPS测得的表明对象OB位置的坐标是(115,56),利用GPS测得的表明主摄像机2A和副摄像机2B和2C位置的坐标分别是(110,60)、(114,50)、和(120,56)。在这种情况下,如图4B所示,假设将对象OB的位置定义为虚拟中心坐标(0,0),则主摄像机2A的坐标转换成相对坐标(-5,4),以及副摄像机2B和2C的坐标被分别转换成相对坐标(-1,-6)和(5,0)。
图5示出了编辑终端装置8的内部结构。如果有必要的话,编辑终端装置8被配置为可记录服务器3(图2)提供的内容数据S3中的预期音频和视频部分作为片段,以及将预期片段的视频信号和音频信号加载到硬盘装置30上。
也可以将编辑终端装置8配置成可创建用来根据需要结合已记录片段而获得预期的已编辑音频和视频的限定编辑内容的编辑列表,并能根据已创建的编辑列表来实际地编辑片段,从而将经过编辑的音频和视频输出到外部。
编辑终端装置8包括通过控制总线37彼此连接的计算机31、系统控制器32、音频/视频输入/输出单元33、视频特殊效果处理器34、音频输入/输出混和单元35、和磁盘控制器36。
开始时,计算机31在显示单元38上显示预定操作视图(以下称作“编辑视图”)。在计算机31中,当在这种状态下操作鼠标39的时候,可选择片段记录模式。当从连接编辑终端装置8的服务器3(见图2)中中输入再生指令时,计算机31将与输入操作相对应的控制指令C1传送给系统控制器32。
系统控制器32响应于所提供的控制指令C1将控制信号S5传送给服务器3,从而执行对存储在服务器3中的视频信号和音频信号进行再生的操作。结果,视频信号和音频信号经音频/视频输入/输出单元33从服务器3输出给视频特殊效果处理器34。
视频特殊效果处理器34在系统控制器32的控制下,将视频/音频输入/输出单元33提供的视频信号传送给计算机31。显示单元38在计算机31的控制下,将对应于视频信号的图像显示在编辑视图中的预定位置上。
编辑终端装置8使得操作者能够根据显示单元38所显示的视频和扬声器(未示出)输出的音频,利用鼠标39和键盘40指定想要的视听部分,并能够将指定的部分作为片段和与片段相关的数据(例如,起始点和结束点的时间码,以及素材长度或者记录持续时间)记录到计算机31中。
当选择预载模式的时候,计算机31将与这个操作相对应的控制指令C1传送给系统控制器32。系统控制器32响应于提供的控制指令C1将控制信号S5传送给服务器3,从而通过服务器3再生指定片段中的音频和视频,并控制音频/视频输入/输出单元33经控制总线37加载从服务器3传送出的视频信号和音频信号。
磁盘控制器36根据系统控制器32经控制总线37提供的指令,按顺序加载视频特殊效果处理器34或者音频/视频输入/输出单元33提供的视频信号和音频输入/输出混和单元35或者音频/视频输入/输出单元33提供的音频信号,并将加载的信号提供给硬盘驱动器30,从而将所加在的信号记录到硬盘驱动器30中的指定地址。
因此,在编辑终端装置8中,能够将指定片段中的音频和视频通过服务器3再生,然后加载到硬盘驱动器30中。
在计算机31中,当以上述方式记录片段时,记录片段的列表将显示在显示单元38的编辑视图上。
操作者可将定义编辑内容的编辑数据创建为一个编辑列表,从而在编辑视图上指出哪些片段被结合以及如何结合的。在创造编辑目录时或之后,操作者可根据编辑列表来查看进行编辑的音频和视频。
计算机31包括经CPU总线48连接的中央处理单元(CPU)41、只读存储器(ROM)42、随机存取存储器(RAM)43、显示处理器44、标题/图形发生器45、和接口电路46和47。鼠标39和键盘40分别经接口电路46和47连接。
如果需要的话,CPU 41根据存储在ROM 42中的程序读取存储在ROM 42中的图像数据,并将读出的图像数据经显示处理器44提供给显示单元38,从而在显示单元38上显示出下述的编辑视图和对话框、随同鼠标39操作一起在编辑视图中移动光标、以及通过键盘40输入的数字和字符。基于从视频特殊效果处理器34经标题/图形发生器45提供给显示处理器44的视频信号的动画或静止图像也能够在编辑视图中的预定位置上显示。
例如,当通过操作鼠标39和键盘40经接口电路46和47给出执行某一操作的指令时,CPU 41将根据存储在ROM 42中的程序传送控制指令C1给系统控制器32,同时系统控制器32控制音频/视频输入/输出单元33、视频特殊效果处理器34、音频输入/输出混和单元35、和/或者磁盘控制器36来执行预定操作。因此,编辑终端装置8执行上述操作。
CPU 41还可根据存储在ROM 42中的程序,控制标题/图形发生器45生成标题字符和图形图像数据。将标题字符和图形图像数据传送给视频特殊效果处理器34,从而在编辑视频中得以反映。
下面将描述多摄像机模式中的实际显示视图。当操作者设定了多摄像机模式时,编辑终端装置8中的计算机31的CPU 41根据存储在ROM 42中的程序,在显示单元38上显示出图6所示的编辑视图EP。
编辑视图EP包括显示多个记录片段中的第一图像的素材显示部50、真实显示了由所有摄像机记录的指定片段的素材确认部51、创建编辑列表的编辑列表创建部52、和显示编辑视图的编辑确认部53。
在素材显示部50中,与多个记录片段各自对应的识别视图部分50A~50N以预定排列进行显示,其中N是自然数。在每个识别视图部分50A~50N中,各个片段中的第一图像被显示为缩略图,与各个片段相关的记录数据(例如,记录时间、文本等)显示在缩略图下面。在素材显示部50中,为使操作者能够根据元数据识别出由多个摄像机2A~2C所拍摄的视听素材,与视听素材相对应的片段中的第一图像以红色显示轮廓。
在素材确认部51中,挑选出操作者从素材显示部50中显示的多个识别视图部分50A~50N中选择的识别视图部分(例如50A),并将在同一时刻通过多个摄像机2A~2C拍摄的挑选片段的视频视图显示在视图部分(以下称作“视频视图部分”)51A~51C上。摄像机2A~2C的位置关系也显示在具有预定显示格式的视图部分(以下作为“位置视图部分”提出)51D上。
素材确认部51的底部上包括操作按钮51E。操作按钮51E可执行多个显示视频视图部分51A~51C的操作,以进行显示,例如播放、倒带、和变速播放。在视频视图部分51A~51C中,显示有从特定片段的第一图像的开始到结束的时间线指示器51AT~51CT。
在位置视图部分51D中,多个摄像机2A~2C相对于对象OB的位置通过标记(以下称作“位置标记”)MA~MC来表示。例如,假设将对象OB的位置作为虚拟中心坐标(0,0),根据通过图4B所示的主摄像机2A的相对坐标(-5,4)和副摄像机2B和2C的相对坐标(-1,-6)和(5,0)定义的位置关系,可示出位置标记MA~MC。
在编辑列表创建部52中,在实际检查素材确认部51中的视频视图部分51A~51C所显示的视频时,操作者可在时间线TL上指定将要作为片段而记录的视频部分的起始点和结束点,并将起始点和结束点之间的部分记录为片段。还能够针对对应于摄像机2A~2C的各个轨道52A~52C显示出与记录片段相对应的帧。
与显示单元38上显示的片段相关的数据(例如,起始点和结束点的时间码、素材长度、和存储位置)作为数据库被载入到计算机31的RAM 43(见图5)中。
因此,在编辑列表创建部52中,可针对与摄像机2A~2C相对应的各个轨道52A~52C显示出帧。这意味着当输出编辑音频和视频时,可在通过时间刻度表明的时间上显示或者输出与这个帧相对应的片段的音频或者视频。这个操作使得所创建的用来按顺序限定片段视频或者音频的编辑列表能够作为编辑视频显示在编辑确认部53中,或者作为编辑音频输出。
编辑确认部53的底部具有操作按钮53E。操作按钮53E可执行编辑视频的播放、倒带、和变速播放等操作,以进行显示。
在图1中,当将未编辑内容数据发布到整个网络时,编辑终端装置8可将内容数据转换成网络内容,并将网络内容提供给网络服务器11。在这种情况下,将类似编辑视图EP中的素材确认部51(见图6)的GUI(图形用户界面)显示数据添加到网络内容上。
图7示出了通过因特网这样的网络从网络服务器11(见图1)接收网络内容的显示控制装置60的结构。
显示控制装置60是家庭或者办公室中的通用个人计算机,并被设计成能够通过网络同其他个人计算机或者网络服务器11通信来交换必要的数据,或者根据通信获取的屏幕数据在监控器上显示网页视图。
显示控制装置60的主单元60H包括经总线BUS彼此连接的控制整个装置的CPU 61、存储各种软件的ROM 62、作为CPU 61的工作存储器的RAM 63、存储各种数据的硬盘装置64、CPU 61同外部装置在网络上通信的网络接口65、与扬声器66连接的音频处理器67、与监控器68连接的视频处理器69、与包括键盘和鼠标的操作输入单元70连接的接口71、和用于连接外部的录像带驱动装置72的外部接口73。
CPU 61加载已经通过网络进入显示控制装置60的网络服务器11通过网络接口65提供的网络内容,并根据网络内容和存储在ROM 62中的软件执行处理。
如图8所示,作为处理的结果,基于GUI显示数据的显示视图(以下称作“GUI视图”)80通过CPU 61显示在监控器68上。GUI视图80具有图像显示通过多个摄像机2A~2C得到的记录的素材确认部81,和放大并显示素材确认部81指定视图的放大视图部82。
素材确认部81具有显示通过摄像机2A~2C拍摄的视频视图的视频视图部分81A~81C,和显示摄像机2A~2C位置关系的位置视图部分81D。在位置视图部分81D中,通过位置标记MA~MC来表示多个摄像机2A~2C相对于对象OB位置的位置。
例如,当操作者通过操作输入单元70选择摄像机2A时,与多个摄像机2A~2C的位置相对应的位置标记MA~MC根据所选择的摄像机2A的位置信息、时间代码等以相关联的方式进行改变。
在放大视图部82中,将通过操作者指定的摄像机2A~2C中的一个(在这个例子中是摄像机2A)所拍摄的视图放大并显示。放大视图部82底部中的操作按钮可执行对放大示图的播放、倒带、和变速播放等的操作。
在图7所示的显示控制装置60中,当使用者在与多个摄像机2A~2C的位置相对应的位置标记MA~MC在监控器68上显示的状态下指定起始点和结束点时,CPU 61将所指定的起始点和结束点之间的这段时期内位置标记MA~MC的坐标移动作为先前位置信息记录到硬盘驱动器64或者外部存储器(未示出)中使用者中意的文件中。当使用者以后搜索这个文件时,就能够根据该先前位置信息再生出摄像机2A~2C的先前位置。
图9示出了在服务器系统1中执行的拍摄预处理程序RT1。当操作者选择多摄像机拍摄模式时,在步骤SP0中,各个摄像机2A~2C的主单元中的CPU(未示出)将启动图9所示的拍摄预处理程序RT1。在步骤SP1中,使用预定菜单视图设定多摄像机标志。
在步骤SP2中,CPU确定相应的摄像机是否是主摄像机2A。在主摄像机2A的情况下(在步骤SP2中是YES),在步骤SP3中,将副摄像机2B和2C的数量和ID写入元数据。然后,在步骤SP4中,拍摄预处理程序RT1结束。
如果在步骤SP2中确定相应的摄像机不是主摄像机2A(在步骤SP2中是NO),也就是在副摄像机2B和2C的情况下,然后在步骤SP5中,CPU将主摄像机2A的ID写入元数据。在步骤SP6中,根据主摄像机2A共享时间代码。然后,在步骤SP4中,拍摄预处理程序RT1结束。
因此,在多摄像机拍摄阶段之前的阶段中,能够提前设定主摄像机2A和副摄像机2B和2C的位置关系和时间关系,以作为多个摄像机2A~2C的元数据中的数据。
图10示出了在系统服务器1中执行的拍摄处理程序RT2。当操作者启动多摄像机拍摄操作时,各个摄像机2A~2C的主单元中的CPU(未示出)在步骤SP10中启动图10所示的拍摄处理程序RT2。在步骤SP11中,确定是否要记录下一帧。
如果在步骤SP11中确定将要记录下一帧(在步骤SP11中是YES),然后在步骤SP12中,CPU获取表示GPS位置信息的坐标信息。在步骤SP13中,表示出拍摄过程中操作者添加的例如拍摄好标记这样的任何标记。
在步骤SP14中,CPU将时间码提前一帧,并返回到步骤SP11,从而以帧为基础重复循环操作,直到相应的摄像机断电。
如果在步骤SP11中确定不记录下一帧(在步骤SP11中是NO),则在步骤SP14中,CPU将时间码提前一帧,并返回到步骤SP11,以重复进行以帧为基础的循环操作,直到相应的摄像机断电。
因此,在多摄像机拍摄阶段,只有在要记录帧的情况下,才需要在拍摄过程中将摄像机2A~2C的相对位置关系、与主摄像机2A的时间码同步的副摄像机2B和2C的时间码、GPS信息等记录为多个摄像机2A~2C的元数据中的数据。
图11示出了内部服务器处理程序RT3。当操作者选择存储多摄像机拍摄操作的结果时,服务器3中用于控制整个服务器3的控制器(未示出)在步骤SP20中启动图11所示的内部服务器处理程序RT3。在步骤SP21中,从摄像机2A~2C中上载内容数据。
在步骤SP22中,控制器控制多路信号复用器/分解器22将内容数据多路分解成视频数据、音频数据、和元数据,并控制数据转换处理器24和元数据处理器25对分解得到的数据执行必要的操作。
在步骤SP23中,控制器控制元数据处理器25根据从基于元数据的文件系统中的多摄像机数据获得的ID来确定相对应的视听素材的地址,并将地址记录到输入单元20中的数据库20B中。
在步骤SP24中,控制器将视频数据、音频数据、和元数据分别存储到视频存储单元26、音频存储单元27、和元数据存储单元28中。然后,在步骤SP25中,内部服务器处理程序RT3结束。
因此,在服务器3中,基于主摄像机2A拍摄的视听素材,能够从存储于视频存储单元26、音频存储单元27、和元数据存储单元28中的视频数据、音频数据、和元数据中很容易地搜索到同一时间由副摄像机2B或2C拍摄的视听素材,并且,也能够基于副摄像机2B或2C拍摄的视听素材,很容易地搜索出同一时间主摄像机2A拍得的视听素材。
在图11所示的内部服务器处理程序RT3的步骤SP22中,当通过分解内容数据获得元数据时,控制器在步骤SP30中启动图12所示的内部服务器处理程序RT4。在步骤SP31中,确定是否已经识别了元数据中的多摄像机数据。
如果在步骤SP31中确定已经识别了多摄像机数据(在步骤SP31中是YES),则在步骤SP32中,控制器从多摄像机数据中检测主/副标志。在这种情况下,控制器在主摄像机2A的情况下检测副摄像机2B和2C的数量和ID,以及在副摄像机2B或者2C的情况下检测主摄像机2A的ID。
当在步骤SP32中参照同一时刻记录的视听素材的地址时,控制器修改和重建输入单元20中数据库20B的目录结构。然后,在步骤SP35中,内部服务器处理程序RT4结束。
因此,在服务器3中,当从元数据中识别到多摄像机数据时,可重建文件系统中数据库20B的目录结构,从而能够轻松地搜索到主摄像机2A或者副摄像机2B或2C的同样的视听素材。
在图12所示的内部服务器处理程序RT4的步骤SP33中,当参照同一时刻记录的视听素材的地址时,控制器在步骤SP40中启动图13所示的内部服务器处理程序RT5。在步骤SP41中,从元数据中检测到坐标数据,并根据检测到的坐标数据利用对象OB作为参考点来确定虚拟中心坐标。
在步骤SP42中,控制器执行计算,将表示各个摄像机2A~2C当前位置的GPS坐标转换成参照虚拟中心坐标的相对坐标。
在步骤SP43中,控制器更新坐标数据,以便将GPS坐标更新为相对坐标。然后,在步骤SP44中,内部服务器处理程序RT4结束。
因此,在服务器3中,基于GPS坐标能够轻松地确定主摄像机2A和副摄像机2B和2C对于对象OB的相对位置。这样,能够大大提高处理(例如,编辑)通过多摄像机拍摄操作获得的内容数据的操作效率。
关于上述服务器系统1的结构,添加到每个利用多个摄像机2A~2C执行的多摄像机拍摄操作结果的元数据预先包括表示多摄像机拍摄的标志、以及基准摄像机(即,主摄像机2A)与从属于主摄像机2A的剩余摄像机2B和2C之间的位置和时间信息。
如果确定摄像机2A~2C提供的多摄像机拍摄内容数据是通过主摄像机2A执行拍摄操作的结果,则服务器3将根据每个副摄像机2B和2C的数量和ID来确定每个副摄像机2B和2C的视听素材的片数和ID,并根据地址来存储视听素材。
另一方面,如果确定摄像机2A~2C提供的多摄像机拍摄内容数据是由副摄像机2B和2C执行拍摄操作的结果,则服务器3将根据主摄像机2A的ID来确定通过主摄像机2A拍摄的视听素材的地址,并根据地址来存储视听素材。
因此,在服务器3中,可根据相同的地址存储同一时刻通过主摄像机2A和副摄像机2B和2C记录的视听素材。这样,仅根据所存储的视听素材,就能够轻松地搜索到除了拍摄源之外的摄像机2A~2C在同一时刻记录的视听素材。
因此,在服务器3中,即使提供了多个摄像机2A~2C拍摄的内容数据,也能够通过在数据库上搜索存储文件、文件名、记录时间等来自动确定与提供的内容数据相对应的视听素材是否是通过主摄像机2A还是副摄像机2B或2C执行拍摄操作的结果。
在服务器3中,在利用多个摄像机2A~2C的多摄像机拍摄模式中,表示每个摄像机2A~2C当前位置的GPS坐标被转换成相对于表示对象OB位置的虚拟中心坐标的相对坐标。这样,在后面的编辑处理中能够轻松地测定摄像机2A~2C的相对位置关系。
因此,在服务器系统1中,多个摄像机2A~2C的主从关系和位置时间信息包括在每次拍摄操作的结果中。已经接收到结果的服务器3保存主摄像机2A和副摄像机2B和2C之间的位置关系和时间关系,并根据相同的地址存储在同一时刻记录的视听素材。这样,仅根据所存储的视听素材就能够轻松地识别出同一时刻除了拍摄源之外的摄像机2A~2C记录的视听素材,从而改进了编辑效率。
其他实施方式
在上述实施方式中,用于存储通过拍摄对象OB从多个摄像机2A~2C获得的内容数据(视听素材)S1A~S1C以及用于传送内容数据的信息处理装置被实现为图1所示的服务器系统1中的服务器3。该实施方式仅仅是一个例子,也可以使用多种信息处理装置。尽管在上述实施方式中使用了两个副摄像机2B和2C,但是也可以使用一个或三个或更多个副摄像机。
在上述实施方式中,用于分配公共地址给通过摄像机(拍摄装置)2A~2C拍摄的内容数据(视听素材)S1A~S1C、并根据该公共地址存储通过摄像机(拍摄装置)2A~2C各自拍摄的内容数据(视听素材)S1A~S1C的存储装置被实现为视频存储单元26、音频存储单元27、和元数据存储单元28。该实施方式仅仅是一个例子,也可以使用多种能够根据地址存储各种数据的存储装置。
在上述实施方式中,当从视频存储单元26、音频存储单元27、和元数据存储单元28(存储装置)中读取通过指定的摄像机(拍摄装置)2A、2B、或2C拍摄的视听素材时,用于搜索在与所读取视听素材同一时刻由其他摄像机(拍摄装置)2A~2C拍摄的视听素材的搜索装置被实现为服务器3中的元数据处理器25和输入单元20中的数据库20B。这个实施方式仅仅是一个例子,还可以使用多种搜索装置。
在上述实施方式中,用于根据添加到通过摄像机(拍摄装置)2A~2C分别拍摄的内容数据(视听素材)S1A~S1C的元数据来识别摄像机(拍摄装置)2A~2C的相对位置关系和相对时间关系的识别装置被实现为服务器3中的元数据处理器25和控制器(未示出)。这个实施方式仅仅是一个例子,只要视频存储单元26、音频存储单元27、和元数据存储单元28(存储装置)能够存储通过元数据处理器(识别装置)25识别出的摄像机(拍摄装置)2A~2C的相对位置关系和相对时间关系从而添加到通过摄像机(拍摄装置)2A~2C各自拍摄的视听素材上,就可以使用多种识别装置。
图3所示的多摄像机数据包括多摄像机标志、主/副标志、在主摄像机2A的情况下的副摄像机的副摄像机数和副摄像机2B和2C的副ID(副ID1、副ID2、...),以及在副摄像机2B或2C情况下的主摄像机2A的主ID。或者,可以使用图14所示的包括由摄像机2A~到2C共享的组ID、摄像机2A~2C的摄像机数、和摄像机2A~2C的摄像机ID(摄像机ID1、摄像机ID2、...)的多摄像机数据文件。
即,可以告知所有的摄像机2A~2B它们包括在同一个任务中,并且同一个组中的所有摄像机2A~2C可以相互关联,从而可以在没有提供主从关系的情况下识别出摄像机2A~2B的相对位置关系和相对时间关系。
如果所有的摄像机2A~2B有多个组,不管主从关系如何,都可以在组ID基础上设置预定的权重,以便可以根据权重执行搜索、显示、或者其他操作。
在上述实施方式中,用于将在每个摄像机(拍摄装置)2A~到2C中测得的各个摄像机(拍摄装置)2A~2C的当前位置转换成相对于摄像机(拍摄装置)2A~2C中特指的那一个的位置或者对象OB的相对位置的转换装置通过服务器3中的元数据处理器25和控制器(未示出)实现。这个实施方式仅仅是一个例子,只要能够确定摄像机(拍摄装置)2A~2C的相对位置关系就可以使用多种转换装置。
在服务器3中,在使用多个摄像机2A~2C的多摄像机拍摄模式中,表示每个摄像机2A~2C当前位置的GPS坐标被转换成相对于表示对象OB位置的虚拟中心坐标的相对坐标。副摄像机2B和2C的GPS坐标可以转换成相对于表示主摄像机2A位置的虚拟中心坐标的相对坐标,从而实现类似的优点。在这种情况下,由于不必确定对象OB的GPS坐标,因而能够实现较简单的计算。
在上述实施方式中,图2所示的服务器3分别配置了视频存储单元26、音频存储单元27、和元数据存储单元28。这个实施方式仅仅是一个例子,也可以将音频、视频、和元数据存储在同一个存储单元中。可以将音频和视频数据作为相同的文件或者分开的文件来处理。
在上述实施方式中,将图6所示的编辑视图EP或者图8所示的GUI视图被显示为编辑终端装置8中的显示单元38上或者显示控制装置60的监控器68上显示的GUI界面。这个实施方式仅仅是一个例子,也可以使用其他显示方法。
例如,可以适当显示由与多个组或者每个组相对应的多个主摄像机拍摄的视听素材和由多个副摄像机拍摄的视听素材。在这种情况下,将要执行编辑操作的操作者和将要收听通过流方式分布的音频的使用者可以适当地选择由指定的摄像机拍摄的视听素材,并可以在不同的窗口中观看所选择的视听素材。
在上述实施方式中,利用编辑终端装置8和显示控制装置60显示GUI视图,从而将编辑视图EP(见图6)和GUI视图80(见图8)、或者网页内容浏览器作为GUI显示。这个实施方式仅仅是一个例子,也可以利用其他装置显示多种GUI视图。
例如,可以将个人计算机、摄像机、数码照相机、可携式信息终端(例如移动电话或者可携式游戏机)、汽车导航装置等用作用于显示GUI视图的装置。也可以使用像可摄像移动电话这种将拍摄单元和拍摄位置测量单元整体结合的其他装置。
虽然上文中的实施方式描述了用于拍摄对象的拍摄装置以为摄像机2A~2C来实现,但这个实施方式仅仅是一个例子。也可以使用多种能够拍摄对象的图像拍摄装置,例如可摄像个人电脑、网络像机、可摄像移动电话。在这种情况下,可获得位置信息的GPS可设计成与摄像装置相结合,或者以有线方式或无线方式与摄像机进行通信。
在上述实施方式中,如图1所示,构成元数据的位置信息不限于经度和纬度的二维GPS信息,也可以是还包括高度的位置信息。
在上述实施方式中,通过再生装置6播放的记录介质7是录像带。这个实施方式仅仅是一个例子,除了录像带还可以使用像光盘、磁光盘、半导体存储器、和磁盘这样的多种记录介质。
通过具有特殊功能的硬件部件或者软件可以执行上述实施方式中的一系列操作。当通过软件来执行这一系列的操作时,构成软件的程序被从记录介质安装到把构成软件的程序结合到特定硬件中的计算机上,或者安装到通过安装各种程序而能够执行各种功能的通用个人计算机上。
在上述实施方式中,产生了一种使计算机执行以下步骤的程序:第一步,将公共地址分配给通过利用多个摄像机(拍摄装置)2A~2C拍摄对象获得的内容数据(视听素材)S1A~S1C,并根据公共地址存储通过摄像机(拍摄装置)2A~2C各自拍摄的内容数据(视听素材)S1A~S1C;以及第二步,当读取通过指定摄像机(拍摄装置)拍摄的内容数据(视听素材)时,搜索在与所读取内容数据(视听素材)同一时刻由除了指定摄像机(拍摄装置)之外的其他摄像机(拍摄装置)拍摄的数据内容(视听素材)。这个实施方式仅仅是一个例子,可以使用记录这个程序的多种计算机可读记录介质。记录介质可以包括光盘、磁光盘、半导体存储,和其他封装式记录介质。
在上述实施方式中,在维持主从关系的同时将摄像机(拍摄装置)2A~2C分组,用于输入内容数据(视听素材)S1A~S1C的输入装置以服务器3中的输入单元20来实现,其中,包括用于与摄像机(拍摄装置)2A~2C关联的地址信息的元数据被加入到内容数据中。这个实施方式仅仅是一个例子,也可以使用其他各种输入装置。
在上述实施例中,用于从服务器3中的输入单元(输入装置)20输入的内容数据(视听素材)S1A~S1C中获取元数据(附加信息)的获取装置以服务器3中的多路信号复用器/分解器22来实现。这个实施例仅仅是一个例子,也可以使用其他各种获取装置。
在上述实施方式中,用于在元数据的基础上存储从服务器3中的输入单元(输入装置)20输入的内容数据(视听素材)S1A~S1C和对应于由多路信号复用器/分解器22获得的内容数据(视听素材)的元数据(附加信息)以服务器3中的元数据存储单元28来实现。这个实施方式仅仅是一个例子,可以使用其他各种获取装置。
在上述实施方式中,用于当从存储装置读取由指定摄像机(拍摄装置)拍摄的内容数据(视听素材)S1A~S1C时,自动搜索与通过指定摄像机(拍摄装置)拍摄的内容数据(视听素材)S1A~S1C关联的内容数据(视听素材)S1A~S1C的搜索装置以服务器3中的元数据处理器25和地址处理器23来实现。这个实施方式仅仅是一个例子,可以使用其他各种搜索装置。
在上述实施方式中,用于输出通过以服务器3中的元数据处理器25和地址处理器23来实现的搜索装置搜索到的内容数据(视听素材)S1A~S1C的输出装置以服务器3中的输入单元20来实现。这个实施方式仅仅是一个例子,可以使用其他各种输出装置。
在上述实施方式中,添加到内容数据(视听素材)S1A~S1C的元数据(附加信息)包括与通过相应的摄像机(拍摄装置)2A~2C执行拍摄相关的时间信息和位置信息,并且,相应的摄像机(拍摄装置)2A~2C的时间信息彼此一致。用于根据通过多路信号复用器/分解器(获取装置)22从内容数据(视听素材)S1A~S1C中获取的元数据(附加信息),识别出与内容数据(视听素材)S1A~S1C相对应的摄像机(拍摄装置)2A~2C的相对位置关系和相对时间关系的识别装置以服务器3中的元数据处理器25来实现,同时元数据存储单元(存储装置)28存储元数据处理器(识别装置)25识别的摄像机(拍摄装置)2A~2C的相对位置关系和相对时间关系,以便添加到通过摄像机(拍摄装置)2A~2C拍摄的内容数据(视听素材)S1A~S1C上。这个实施方式仅仅是一个例子,只要能够将摄像机(拍摄装置)2A~2C的相对位置关系和相对时间关系存储以便添加到通过摄像机(拍摄装置)2A~2C拍摄的内容数据(视听素材)S1A~S1C上,就可以使用其他各种识别装置和存储装置。
在上述实施方式中,用于显示通过利用多个摄像机(拍摄装置)2A~2C拍摄对象而获得的内容数据(视听素材)S1A~S1C的显示控制装置以图7所示的显示控制装置60来实现。这个实施方式仅仅是一个例子,也可以使用其他各种显示控制装置。
在图7所示的显示控制装置60中,在保持主从关系的同时将摄像机(拍摄装置)2A~2C分组,并且,用于从添加元数据(附加信息)的内容数据(视听素材)S1A~S1C中获取包括用于关联摄像机(拍摄装置)2A~2C的地址信息的元数据(附加信息)的获取装置以CPU 61来实现。用于以相关联的方式显示与通过CPU(获取装置)61获取的元数据(附加信息)相对应的内容数据(视听素材)S1A~S1C的显示控制装置以图像处理器69和监控器68来实现。这个实施方式仅仅是一个例子,只要能够实现这个显示方法,就可以使用其他各种获取装置和显示控制装置。
在图7中的显示控制装置60中,添加到内容数据(视听素材)S1A~S1C的元数据(附加信息)包括与通过相应的摄像机(拍摄装置)2A~2C执行拍摄有关的时间信息和位置信息。用于根据通过获取装置从内容数据(视听素材)S1A~S1C获取的元数据(附加信息)来识别与内容数据(视听素材)S1A~S1C相对应的摄像机(拍摄装置)2A~2C的相对位置关系和相对时间关系的识别装置以CPU 61来实现,并且图像处理器69和监控器68构成的显示控制装置根据通过CPU 61识别的相对位置关系和相对时间关系有选择地显示内容数据(视听素材)S1A~S1C。这个实施方式仅仅是一个例子,只要能够实现这个显示方法就可以使用其他各种识别装置。
除了服务器之外,本发明可应用到多种能够存储各种数据的信息处理装置上。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种用于对从多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理装置,所述信息处理装置包括:
存储装置,用于存储与所述内容数据相关联的附加信息,所述附加信息包括用于将从分组的所述多个拍摄装置中获得的所述内容数据相关联的地址信息,所述内容数据通过公共的地址信息进行存储;
获取装置,用于获取由所述存储装置存储的所述附加信息;以及
搜索装置,当从所述存储装置中读取与所述多个拍摄装置中指定的拍摄装置相对应的内容数据时,所述搜索装置根据由所述获取装置获取的所述附加信息,自动搜索与所读取内容数据关联的内容数据。
2.根据权利要求1所述的信息处理装置,其中,所述地址信息是与所述多个拍摄装置之间的关系相关联的分组地址信息。
3.根据权利要求2所述的信息处理装置,其中,所述关系包括由一个主拍摄装置和多个副拍摄装置构成的主从关系。
4.根据权利要求1所述的信息处理装置,其中,所述附加信息包括与通过分组的拍摄装置执行的拍摄有关的时间信息和位置信息,所述分组的拍摄装置的时间信息彼此匹配,
所述信息处理装置还包括识别装置,用于根据由所述获取装置获取的附加信息来识别与内容数据相对应的拍摄装置之间的相对位置关系和相对时间关系,
所述存储装置存储由所述识别装置结合对应于拍摄装置的内容数据而识别出的拍摄装置之间的所述相对位置关系或所述相对时间关系。
5.根据权利要求1所述的信息处理装置,还包括转换装置,用于将每个拍摄装置中测得的各个拍摄装置的当前位置转换成相对于所述多个拍摄装置中指定的拍摄装置或者对象的相对位置。
6.一种用于对从多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理方法,所述信息处理方法包括以下步骤:
存储与所述内容数据相关联的附加信息,所述附加信息包括用于将从分组的多个拍摄装置中获得的内容数据相关联的地址信息,所述内容数据通过公共的地址信息进行存储;
获取通过所述存储步骤存储的所述附加信息;以及
当读取对应于所述多个存储装置中指定的拍摄装置的所述内容数据时,根据所获取的所述附加信息,自动搜索与所读取内容数据关联的内容数据。
7.一种用于对多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理装置,所述信息处理装置包括:
获取装置,用于获取包括将从分组的拍摄装置中获取的内容数据相关联的地址信息的附加信息,所述内容数据通过公共的地址信息进行存储;
搜索装置,当指定与所述多个拍摄装置中指定的拍摄装置相对应的内容数据时,所述搜索装置根据由所述获取装置获取的所述附加信息自动搜索与所指定内容数据关联的内容数据;以及
显示控制装置,利用由所述获取装置获取的所述附加信息和由所述搜索装置搜索出的内容数据以相关联的方式显示出所述内容数据。
8.一种用于对多个拍摄装置通过拍摄对象而获得的内容数据进行处理的信息处理方法,所述信息处理方法包括以下步骤:获取包括将从分组的拍摄装置中获取的内容数据相关联的地址信息的附加信息,所述内容数据通过公共的地址信息进行存储;
当指定与所述多个拍摄装置中指定的拍摄装置相对应的内容数据时,根据由所述获取步骤获取的所述附加信息自动搜索与所指定内容数据关联的内容数据;以及
利用由所述获取步骤获取的所述附加信息和由所述搜索步骤搜索出的内容数据以相关联的方式显示出所述内容数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004155220A JP2005341064A (ja) | 2004-05-25 | 2004-05-25 | 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法 |
JP2004155220 | 2004-05-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1702644A CN1702644A (zh) | 2005-11-30 |
CN100481064C true CN100481064C (zh) | 2009-04-22 |
Family
ID=35461941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100720709A Expired - Fee Related CN100481064C (zh) | 2004-05-25 | 2005-05-25 | 信息处理装置和方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US7499918B2 (zh) |
JP (1) | JP2005341064A (zh) |
KR (1) | KR101193007B1 (zh) |
CN (1) | CN100481064C (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7870577B2 (en) * | 2000-04-07 | 2011-01-11 | Visible World, Inc. | Systems and methods for semantic editorial control and video/audio editing |
US7904922B1 (en) | 2000-04-07 | 2011-03-08 | Visible World, Inc. | Template creation and editing for a message campaign |
US7432940B2 (en) * | 2001-10-12 | 2008-10-07 | Canon Kabushiki Kaisha | Interactive animation of sprites in a video production |
US8295682B1 (en) * | 2005-07-13 | 2012-10-23 | Apple Inc. | Selecting previously-selected segments of a signal |
US8184613B2 (en) * | 2006-04-10 | 2012-05-22 | Patel Nilesh V | Portable multi-media automatic authenticating router and method for automatically routing stored data |
TW200842591A (en) * | 2007-04-20 | 2008-11-01 | Genesys Logic Inc | OTG device for multi-directional transmitting GPS data and controlling method of same |
JP4965475B2 (ja) * | 2008-02-05 | 2012-07-04 | オリンパス株式会社 | 仮想移動表示装置 |
US20100023485A1 (en) * | 2008-07-25 | 2010-01-28 | Hung-Yi Cheng Chu | Method of generating audiovisual content through meta-data analysis |
US20100241659A1 (en) * | 2009-03-18 | 2010-09-23 | Sony Corporation | Single library for all media content |
US8606073B2 (en) | 2010-05-12 | 2013-12-10 | Woodman Labs, Inc. | Broadcast management system |
US8464304B2 (en) | 2011-01-25 | 2013-06-11 | Youtoo Technologies, LLC | Content creation and distribution system |
US20120263439A1 (en) * | 2011-04-13 | 2012-10-18 | David King Lassman | Method and apparatus for creating a composite video from multiple sources |
GB2495289A (en) * | 2011-10-04 | 2013-04-10 | David John Thomas | Multimedia editing by string manipulation |
JP5765255B2 (ja) * | 2012-01-31 | 2015-08-19 | Nkワークス株式会社 | 画像処理プログラムおよび画像処理装置 |
US9319161B2 (en) | 2012-04-09 | 2016-04-19 | Youtoo Technologies, LLC | Participating in television programs |
US9083997B2 (en) | 2012-05-09 | 2015-07-14 | YooToo Technologies, LLC | Recording and publishing content on social media websites |
KR101905638B1 (ko) * | 2012-05-15 | 2018-12-05 | 삼성전자주식회사 | 동영상 재생 장치 및 방법 |
US9210385B2 (en) | 2012-11-20 | 2015-12-08 | Pelco, Inc. | Method and system for metadata extraction from master-slave cameras tracking system |
JP5825279B2 (ja) * | 2013-02-27 | 2015-12-02 | ブラザー工業株式会社 | 端末装置及びプログラム |
WO2014160198A1 (en) * | 2013-03-13 | 2014-10-02 | Build-A-Bear Workshop, Inc. | Systems and methods for computer recognition of plush toys |
US20150294233A1 (en) * | 2014-04-10 | 2015-10-15 | Derek W. Aultman | Systems and methods for automatic metadata tagging and cataloging of optimal actionable intelligence |
TW201601542A (zh) * | 2014-06-26 | 2016-01-01 | Amaryllo International Inc | 網路攝影資料管理系統與方法 |
TW201601541A (zh) * | 2014-06-26 | 2016-01-01 | Amaryllo International Inc | 網路攝影資料管理系統與方法 |
US9462026B2 (en) * | 2014-07-31 | 2016-10-04 | Senza Tech, Llc | Communicating multimedia data |
US10178325B2 (en) * | 2015-01-19 | 2019-01-08 | Oy Vulcan Vision Corporation | Method and system for managing video of camera setup having multiple cameras |
EP3073726B1 (en) * | 2015-03-24 | 2017-03-01 | Axis AB | Method for configuring a camera |
EP3369073A4 (en) | 2015-10-29 | 2019-06-26 | OY Vulcan Vision Corporation | VIDEO PICTURE OF A ZONE OF INTEREST USING NETWORKED CAMERAS |
US10270933B2 (en) * | 2016-03-15 | 2019-04-23 | Gopro, Inc. | Multi-camera system content capture and management |
US10083369B2 (en) | 2016-07-01 | 2018-09-25 | Ricoh Company, Ltd. | Active view planning by deep learning |
JP7224855B2 (ja) * | 2018-11-02 | 2023-02-20 | キヤノン株式会社 | 通信装置、制御方法、およびプログラム |
CN109819179B (zh) * | 2019-03-21 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 一种视频剪辑方法和装置 |
US10963841B2 (en) | 2019-03-27 | 2021-03-30 | On Time Staffing Inc. | Employment candidate empathy scoring system |
US10728443B1 (en) | 2019-03-27 | 2020-07-28 | On Time Staffing Inc. | Automatic camera angle switching to create combined audiovisual file |
US11127232B2 (en) | 2019-11-26 | 2021-09-21 | On Time Staffing Inc. | Multi-camera, multi-sensor panel data extraction system and method |
US11023735B1 (en) | 2020-04-02 | 2021-06-01 | On Time Staffing, Inc. | Automatic versioning of video presentations |
US11144882B1 (en) | 2020-09-18 | 2021-10-12 | On Time Staffing Inc. | Systems and methods for evaluating actions over a computer network and establishing live network connections |
US11727040B2 (en) | 2021-08-06 | 2023-08-15 | On Time Staffing, Inc. | Monitoring third-party forum contributions to improve searching through time-to-live data assignments |
US11423071B1 (en) | 2021-08-31 | 2022-08-23 | On Time Staffing, Inc. | Candidate data ranking method using previously selected candidate data |
US11907652B2 (en) | 2022-06-02 | 2024-02-20 | On Time Staffing, Inc. | User interface and systems for document creation |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04294694A (ja) | 1991-03-25 | 1992-10-19 | Nippon Telegr & Teleph Corp <Ntt> | 映像の自動要約編集方法 |
JP3201533B2 (ja) | 1991-08-19 | 2001-08-20 | 日本電信電話株式会社 | 映像とその撮影情報の提示方法 |
US5493677A (en) * | 1994-06-08 | 1996-02-20 | Systems Research & Applications Corporation | Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface |
JP2001245280A (ja) * | 2000-02-29 | 2001-09-07 | Canon Inc | カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
JP2002027396A (ja) | 2000-07-10 | 2002-01-25 | Matsushita Electric Ind Co Ltd | 付加情報入力方法および映像編集方法並びに当該方法を用いる装置およびシステム |
JP4275326B2 (ja) | 2001-05-16 | 2009-06-10 | 富士フイルム株式会社 | 撮像装置および位置情報検出システム |
US20030076413A1 (en) * | 2001-10-23 | 2003-04-24 | Takeo Kanade | System and method for obtaining video of multiple moving fixation points within a dynamic scene |
JP4061458B2 (ja) | 2001-12-05 | 2008-03-19 | ソニー株式会社 | ビデオデータ検索方法およびビデオデータ検索システムおよびビデオデータ編集方法およびビデオデータ編集システム |
US20040057697A1 (en) * | 2002-09-19 | 2004-03-25 | Peter Renzi | Streaming digital recording system |
GB2394611A (en) * | 2002-10-21 | 2004-04-28 | Sony Uk Ltd | Metadata generation providing a quasi-unique reference value |
US7685134B2 (en) * | 2003-12-31 | 2010-03-23 | Nokia Corporation | Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections |
-
2004
- 2004-05-25 JP JP2004155220A patent/JP2005341064A/ja active Pending
-
2005
- 2005-05-18 US US11/131,372 patent/US7499918B2/en not_active Expired - Fee Related
- 2005-05-25 KR KR1020050044171A patent/KR101193007B1/ko not_active IP Right Cessation
- 2005-05-25 CN CNB2005100720709A patent/CN100481064C/zh not_active Expired - Fee Related
-
2009
- 2009-01-21 US US12/357,189 patent/US7904490B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US7904490B2 (en) | 2011-03-08 |
KR101193007B1 (ko) | 2012-10-19 |
JP2005341064A (ja) | 2005-12-08 |
CN1702644A (zh) | 2005-11-30 |
US20050278618A1 (en) | 2005-12-15 |
KR20060048097A (ko) | 2006-05-18 |
US20090138829A1 (en) | 2009-05-28 |
US7499918B2 (en) | 2009-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100481064C (zh) | 信息处理装置和方法 | |
US9679607B2 (en) | Storage and editing of video and sensor data from athletic performances of multiple individuals in a venue | |
CN100385559C (zh) | 标识和处理音频和/或视频材料的处理器、系统和方法 | |
JP4794796B2 (ja) | オーディオ及び/又はビデオ生成装置、及び、オーディオ及び/又はビデオ信号生成方法 | |
CN101164055B (zh) | 媒体时间线排序 | |
CN100576166C (zh) | 用于较大播放列表的导航的计算机化方法和系统 | |
CN100418085C (zh) | 信息处理装置和方法 | |
CN100596182C (zh) | 再现设备和方法 | |
AU2022203001A1 (en) | System of Automated Script Generation with Integrated Video Production | |
JP2001216726A (ja) | オーディオ信号及び/又はビデオ信号生成装置、及びオーディオ信号及び/又はビデオ信号生成方法 | |
CN101501775A (zh) | 媒体时间线处理基础结构 | |
CN103065223A (zh) | 一种富媒体数据内容制作的方法和装置 | |
US20180225289A1 (en) | Audio/video file playback method and audio/video file playback apparatus | |
US8023799B2 (en) | Recording control device, recording control method, and program | |
CN100447789C (zh) | 再现装置、再现方法以及再现程序 | |
US20150032744A1 (en) | Generation of personalized playlists for reproducing contents | |
WO1996029701A1 (fr) | Appareil pour le stockage et/la reproduction d'information | |
US20160104137A1 (en) | Music Integration for Use with Video Editing Systems and Method for Automatically Licensing the Same | |
US11818408B2 (en) | Mechanism to automate the aggregation of independent videos for integration | |
CN102063442B (zh) | 一种文件合并的方法和装置 | |
CN105765985A (zh) | 统一内容表示 | |
CN115759991A (zh) | 一种旅行内容分享平台构建方法、系统、设备和介质 | |
GB2362254A (en) | Identifying material | |
EP2836938A2 (en) | Method and system for supporting searches in digital multimedia content | |
CN101686333A (zh) | 图像编辑处理方法、装置、及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090422 Termination date: 20130525 |