JP2005341064A - 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法 - Google Patents

情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法 Download PDF

Info

Publication number
JP2005341064A
JP2005341064A JP2004155220A JP2004155220A JP2005341064A JP 2005341064 A JP2005341064 A JP 2005341064A JP 2004155220 A JP2004155220 A JP 2004155220A JP 2004155220 A JP2004155220 A JP 2004155220A JP 2005341064 A JP2005341064 A JP 2005341064A
Authority
JP
Japan
Prior art keywords
video
audio
photographing
audio material
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004155220A
Other languages
English (en)
Other versions
JP2005341064A5 (ja
Inventor
Junichi Ogikubo
純一 荻窪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004155220A priority Critical patent/JP2005341064A/ja
Priority to US11/131,372 priority patent/US7499918B2/en
Priority to KR1020050044171A priority patent/KR101193007B1/ko
Priority to CNB2005100720709A priority patent/CN100481064C/zh
Publication of JP2005341064A publication Critical patent/JP2005341064A/ja
Publication of JP2005341064A5 publication Critical patent/JP2005341064A5/ja
Priority to US12/357,189 priority patent/US7904490B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9206Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing

Abstract

【課題】
本発明は、オペレータの作業効率を格段と向上することができる情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法を実現しようとするものである。
【解決手段】
複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置及び方法において、各撮影手段の撮影結果でなる映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各撮影手段ごとに対応する映像音声素材をそれぞれ蓄積する。そして特定の撮影手段に対応する映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された特定の撮影手段以外の他の撮影手段に対応する映像音声素材を検索するようにした。
【選択図】 図2

Description

本発明は、情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法に関し、例えばテレビジョン放送局で用いるサーバシステムに適用して好適なものである。
従来、この種の放送局用のサーバシステムにおいては、複数のビデオカメラからそれぞれ撮影内容として得られる映像音声を同時に又は所望タイミングで順次切り換えながらライブ中継等のリアルタイムで放送すると同時に、当該各ビデオカメラごとに撮像結果である映像音声をサーバが蓄積及び管理するようになされている。
またサーバシステムでは、各ビデオカメラの撮像結果である映像音声を編集装置を用いて所望状態に加工編集し、得られた編集後の映像音声を放送用のクリップ(映像音声素材)としてサーバに登録することができ、このサーバに登録したクリップを所定のタイミングで読み出して放送することができるようになされている(例えば、特許文献1参照)。
特開2000−32321公報
ところで、かかるサーバシステムにおいては、サーバが複数のビデオカメラの撮像結果である映像音声を管理する際に、各ビデオカメラごとに、保存先のファイル及びその名前、収録時間等をオペレータが自分で意識して区別する必要があり、その分非常に手間がかかるという問題があった。
本発明は以上の点を考慮してなされたもので、オペレータの作業効率を格段と向上することができる情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法を提案しようとするものである。
かかる課題を解決するため本発明においては、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置において、各撮影手段の撮影結果でなる映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各撮影手段ごとに対応する映像音声素材をそれぞれ蓄積する蓄積手段と、蓄積手段から特定の撮影手段に対応する映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された特定の撮影手段以外の他の撮影手段に対応する映像音声素材を検索する検索手段とを設けるようにした。この結果この情報送出装置では、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に認識することができる。
また本発明においては、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出方法において、各撮影手段の撮影結果でなる映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各撮影手段ごとに対応する映像音声素材をそれぞれ蓄積する第1のステップと、特定の撮影手段に対応する映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された特定の撮影手段以外の他の撮影手段に対応する映像音声素材を検索する第2のステップとを設けるようにした。この結果この情報送出方法では、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に認識することができる。
さらに本発明においては、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置において、各撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各映像音声素材を入力する入力手段と、入力手段により入力された映像音声素材から付加情報を取得する取得手段と、入力手段により入力された映像音声素材と取得手段により取得された当該映像音声素材に対応する付加情報とを、当該付加情報に基づいて記憶する記憶手段と、特定の撮影手段に対応する映像音声素材を記憶手段から読み出した場合、当該読み出された映像音声素材にリンクする映像音声素材を自動的に検索する検索手段と、検索手段により検索された映像音声素材を出力する出力手段とを設けるようにした。この結果この情報送出装置では、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に認識することができる。
さらに本発明においては、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を表示する表示制御装置において、各撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各映像音声素材から当該付加情報をそれぞれ取得する取得手段と、取得手段により取得された各付加情報に基づいて、対応する各映像音声素材を連動させる状態で表示させる表示制御手段とを設けるようにした。この結果この表示制御装置では、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に表示させることができる。
上述のように本発明によれば、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置において、各撮影手段の撮影結果でなる映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各撮影手段ごとに対応する映像音声素材をそれぞれ蓄積する蓄積手段と、蓄積手段から特定の撮影手段に対応する映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された特定の撮影手段以外の他の撮影手段に対応する映像音声素材を検索する検索手段とを設けるようにしたことにより、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に認識することができ、かくしてオペレータの作業効率を格段と向上することができる情報送出装置を実現できる。
また本発明によれば、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出方法において、各撮影手段の撮影結果でなる映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各撮影手段ごとに対応する映像音声素材をそれぞれ蓄積する第1のステップと、特定の撮影手段に対応する映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された特定の撮影手段以外の他の撮影手段に対応する映像音声素材を検索する第2のステップとを設けたことにより、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に認識することができ、かくしてオペレータの作業効率を格段と向上することができる情報送出方法を実現できる。
さらに本発明においては、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置において、各撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各映像音声素材を入力する入力手段と、入力手段により入力された映像音声素材から付加情報を取得する取得手段と、入力手段により入力された映像音声素材と取得手段により取得された当該映像音声素材に対応する付加情報とを、当該付加情報に基づいて記憶する記憶手段と、特定の撮影手段に対応する映像音声素材を記憶手段から読み出した場合、当該読み出された映像音声素材にリンクする映像音声素材を自動的に検索する検索手段と、検索手段により検索された映像音声素材を出力する出力手段とを設けるようにした。この結果この情報送出装置では、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に認識することができ、かくしてオペレータの作業効率を格段と向上することができる情報送出装置を実現できる。
さらに本発明においては、複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を表示する表示制御装置において、各撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各映像音声素材から当該付加情報をそれぞれ取得する取得手段と、取得手段により取得された各付加情報に基づいて、対応する各映像音声素材を連動させる状態で表示させる表示制御手段とを設けるようにした。この結果この表示制御装置では、蓄積された映像音声素材のみに基づいて、撮影元以外の他の撮影手段により同一時間に収録された映像音声素材を容易に表示させることができ、かくしてオペレータの作業効率を格段と向上することができる表示制御装置を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態によるサーバシステムの構成
(1−1)サーバシステムの全体構成
図1において、1は全体としてテレビジョン放送局、及びライブ中継の中継車等に設置される本実施の形態によるサーバシステムを示し、被写体OBの周囲に配置された複数のビデオカメラ2A〜2Cと、当該各ビデオカメラ2A〜2Cの撮像結果として得られる映像音声を蓄積及び管理するサーバ3と有し、各ビデオカメラ2A〜2Cの撮影内容である映像音声をリアルタイムで又はサーバを利用した編集加工等を施すようにして放送等し得るようになされている。
このサーバシステム1では、複数のビデオカメラ2A〜2Cの後段にサーバ3及びライブ中継用スイッチャ4が並列接続されており、当該各ビデオカメラ2A〜2Cの撮影内容である映像音声をライブ中継用スイッチャ4を介して同時に又は所望タイミングで順次切り換えながら送信装置5からリアルタイムで放送すると同時に、当該各ビデオカメラ2A〜2Cごとに撮像結果である映像音声をサーバ3が蓄積及び管理するようになされている。
これら複数のビデオカメラ2A〜2Cは、被写体を取り囲むように所望状態に配置されており、例えばこのうちの1台を位置基準となるビデオカメラ(以下、これをマスタ用カメラと呼ぶ)2Aとして例えばフラグの立上げにより設定すると共に、残る全てのビデオカメラ(以下、これをスレイブ用カメラと呼ぶ)2B、2Cを、例えばフラグの立下げにより位置関係及び時間管理等がマスタ用カメラ2Aに従属するように設定する。
マスタ用カメラ2Aは、現在位置の緯度、経度及び高度を表す位置情報や撮影時間としてタイムコードを表す時間情報等からなるメタ(Meta)データを、被写体の撮影結果を表す映像音声データに加えて形成されるデータ(以下、これをコンテンツデータと呼ぶ)S1Aをサーバ3に送出するようになされている。
一方、各スレイブ用カメラ2B、2Cは、例えば、現在位置の緯度、経度及び高度を表す位置情報と、マスタ用カメラ2Aのタイムコードを基準として時間的に同期させたタイムコードを表す時間情報からなるメタデータを、被写体OBの撮影結果を表す映像音声データに加えて形成されるコンテンツデータS1B、S1Cをサーバ3に送出するようになされている。
これら各スレイブ用カメラ2B、2Cでは、撮影時に位置情報及び時間情報を相対値に変換することなく、絶対値のまま記録するようになされている。このうち時間情報は、コンテンツデータS1B、S1CがNTSC方式のビデオ・コンポジット(Composite)信号に変換されたときに、そのカラー搬送波信号の位相をもマスタ用カメラ2Aと時間的に完全に同期させるために必要な情報である。また位置情報は、サーバシステム1にアップロード(UpLoad)した後に相対値に変換される。
なおマスタ用カメラ2A及び各スレイブ用カメラ2B、2Cには、それぞれGPS(Global Positioning System)を利用する位置検出部(図示せず)が内蔵され、各種の人工衛星から発信される測位用電波をアンテナ(図示せず)を介して受信した後、当該測位用電波に基づいて現在の位置を検出するようにして、当該位置を表す位置情報を生成するようになされている。
またサーバ3には、マスタ用カメラ2A及び各スレイブ用カメラ2B、2Cのみならず、メディア再生用の再生装置6が接続されており、ビデオテープ等の記録媒体7を再生して得られた収録内容でなるコンテンツデータS2が供給されるようになされている。
このサーバ3は、複数のビデオカメラ2A〜2Cからそれぞれ供給されるコンテンツデータS1A〜S1Cと、再生装置6から供給されるコンテンツデータS2とを、それぞれファイル化して蓄積しておき、必要に応じて指定されたコンテンツデータS1A〜S1C、S2を選択的に読み出して編集端末装置8に供給する。
この編集端末装置8は、サーバ3から供給されるコンテンツデータS1A〜S1C、S2のうち映像音声データに基づく映像音声に対して設定された編集内容で編集処理した後、当該編集後のコンテンツデータS3をテレビ放送、ネット配信又はメディア記録のうちオペレータによって選択された送出方法で送出する。
その際、編集端末装置8は、テレビ放送が選択された場合には、編集後のコンテンツデータS3を放送配信サーバ9を介して放送用のフォーマットにデータ変換してテレビ放送させる一方、ネット配信が選択された場合には、エンコーダ10を介して所定の符号化処理を施すことによりウェブストリーミング(WebStreaming)等のウェブコンテンツに変換した後、後続するウェブサーバ11に蓄積しながらインターネット等のネットワークを経由して外部に配信する。他方、編集端末装置8は、メディア記録が選択された場合には、編集後のコンテンツデータS3を記録装置12に送出し、予め装填されている記録媒体13に記録するようにしてパッケージメディアを生成する。
このようにサーバシステム1では、複数のビデオカメラ2A〜2C又は再生装置6から出力されるコンテンツデータS1A〜S1C、S2をそのままテレビ放送用に送出する一方、サーバ3において蓄積しておき所望タイミングで読み出して各種の編集処理を施してテレビ放送、ネット配信及びメディア記録のうち選択された送出方法で送出するようになされている。
(1−2)サーバの内部構成
ここで図2にサーバ3の内部構成を示す。この図2において、サーバ3は、複数のビデオカメラ2A〜2C及び再生装置6(図1)から与えられるコンテンツデータS1A〜S1Cを、入力部20内のインターフェース部20Aを介してコマンド処理部21に受けると、当該コマンド処理部21において各種のコマンド処理を施した後、多重化及び分離部22に送出する。このときコマンド処理部21は、コンテンツデータS1A〜S1Cに基づいて、対応するビデオカメラ2A〜2Cの記録時に映像音声素材に割り当てられたアドレスを抽出して、アドレス処理部23に送出する。
多重化及び分離部22は、コンテンツデータS1A〜S1Cをそれぞれ映像データ、音声データ及びメタデータに分離した後、このうち映像データ及び音声データをデータ変換処理部24に送出する一方、メタデータをメタデータ処理部25に送出する。
データ変換処理部24は、多重化及び分離部22において分離された映像データを所定フォーマットに変換した後、映像ストレージ部26に蓄積させる一方、当該分離された音声データを所定レベルの周波数に変換した後、音声ストレージ部27に蓄積させる。
またメタデータ処理部25は、多重化及び分離部22において分離されたメタデータを受け取ると、当該メタデータに基づいて、被写体を基準とする各ビデオカメラ2A〜2Cの相対位置関係やマスタ用カメラ2Aのタイムコードに同期した各スレイブ用カメラ2B、2Cのタイムコード等を認識することができる。
具体的にメタデータは、例えば、縮小画像であるプロキシ(Proxy)データ、GPSを用いて得られる位置情報を表す座標データ、タイムコード、及び撮影時にオペレータによって付加されたグッドショットマーク(Good Shoot Mark)等からなるフレーム単位のデータと、以下に述べるファイルシステムでなるファイル単位のデータとから構成されている。
入力部20内のデータベース20Bには、メタデータ処理部25から与えられるメタデータを、撮影時に登録された各ビデオカメラ2A〜2Cに固有のIDであるUMID(Unique Material identity)に基づいてファイル化したもの(以下、これをファイルシステムと呼ぶ)がインデックステーブルとして蓄積されている。
図3に示すように、このUMIDには、ディレクトリの下位階層として、映像(Video)データ、音声(Audio)データ、プロキシ(Proxy)データ、マルチカメラデータ(Multi Camera Info.)、座標(coordinates)データ及び他の情報(The Other Info.)をそれぞれ表すファイル等が記述されている。
このうちマルチカメラデータのファイルは、さらにディレクトリの下位階層として、マルチカメラ(Multi Camera)のフラグ、マスタ/スレイブ(Master/Slave)のフラグ、マスタ用カメラ2Aのときのみ各スレイブ用カメラの番号(Number of Slave)及び当該各スレイブ用カメラ2B、2CのID(Slave ID1、Slave ID2、…)、スレイブ用カメラ2B、2Cのときのみマスタ用カメラ2AのID(Master ID)が記述されている。
そしてメタデータ処理部25は、メタデータに基づくファイルシステム内のマルチカメラデータから得られた種々のIDに基づいて、コマンド処理部21から与えられたアドレスをリンクさせた後、このメタデータをアドレスに従ってメタストレージ部28に蓄積させる。またデータ変換処理部24も、メタデータ処理部25により決定されたアドレスに従って、映像ストレージ部26及び音声ストレージ部27にそれぞれ映像データ及び音声データを蓄積させる。
さらにメタデータ処理部25は、メタデータに基づくファイルシステム内のマルチカメラデータのうち、マルチカメラのフラグがON状態であることを検出して、コンテンツデータの撮影元が複数のビデオカメラ2A〜2Cによる撮影結果であると判断すると、当該マルチカメラデータのうちのマスタ/スレイブのフラグのON/OFF状態を判別し、マスタ用カメラ2A又はスレイブ用カメラ2B、2Cであるか否かを判断する。
続いてメタデータ処理部25は、マスタ用カメラ2Aであると判断した場合、各スレイブ用カメラ2B、2Cの番号及びIDを検出して、アドレス処理部23に送出する。このアドレス処理部23は、各スレイブ用カメラ2B、2Cの番号及びIDに基づいて、当該各スレイブ用カメラ2B、2Cごとの映像音声素材の数及びアドレスを決定した後、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28にそれぞれ供給すると共に、入力部20内のデータベース20Bにも供給する。
一方、メタデータ処理部25は、スレイブ用カメラ2B、2Cであると判断した場合、マスタ用カメラ2AのIDを検出した後、アドレス処理部23に送出する。このアドレス処理部23は、マスタ用カメラ2AのIDに基づいて、当該マスタ用カメラ2Aの映像音声素材のアドレスを決定した後、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28にそれぞれ供給すると共に、入力部20内のデータベース20Bにも供給する。
この結果、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28では、決定されたアドレスに従って、映像データ、音声データ及びメタデータがそれぞれ蓄積されると共に、入力部20内のデータベース20Bでは、決定されたアドレスを参照してディレクトリ構造を再構築する。
かくして、サーバ3においては、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28にそれぞれ蓄積されている映像データ、音声データ及びメタデータには、マスタ用カメラ2Aに基づく映像音声素材であっても同一時間に収録された各スレイブ用カメラ2B、2Cに基づく映像音声素材に容易に辿り着くことができると共に、各スレイブ用カメラ2B、2Cに基づく映像音声素材であっても同一時間に収録されたマスタ用カメラ2Aに基づく映像音声素材に容易に辿り着くことができる。
このようにしてサーバ3において、複数のビデオカメラ2A〜2Cの撮像結果であるコンテンツデータが供給されても、当該コンテンツデータに基づく映像音声素材がマスタ用カメラ2A又は各スレイブ用カメラ2B、2Cのいずれの収録内容であるか、保存先のファイル及びその名前、収録時間等をデータベース上で検索することにより自動的に識別することができる。
なおサーバ3においては、メタデータ処理部25は、メタデータに基づくファイルシステム内のマルチカメラデータのうち、マルチカメラのフラグのON状態を検出して、コンテンツデータの撮影元が複数のビデオカメラ2A〜2Cによる撮影結果であると判断したとき、ファイルシステム内の座標データを、各ビデオカメラ2A〜2Cの現在位置を表すGPS座標から、被写体の位置を中心とする相対座標にそれぞれ変換した後、当該座標データを書き換えるようになされている。
例えば図4(A)に示すように、GPSを用いて測定された被写体OBの位置を表す座標が(115、56)であり、同じく測定されたマスタ用カメラ2A及び各スレイブ用カメラ2B、2Cの位置を表す座標が(110、60)、(114、50)、(120、56)であるとき、図4(B)に示すように、被写体OBの位置を仮想中心座標(0、0)とすると、マスタ用カメラ2Aの相対座標は(−5、4)と変換され、各スレイブ用カメラ2B、2Cの相対座標は(−1、−6)、(5、0)と変換される。
(1−3)編集端末装置の内部構成
ここで図5に編集端末装置8の内部構成を示す。この編集端末装置8は、サーバ3(図2)から供給されるコンテンツデータS3に基づく映像音声の所望部分をクリップとして登録し得る一方、必要に応じて所望するクリップの映像信号及び音声信号をハードディスク装置30に取り込み得るようになされている。
またこの編集端末装置8では、登録された各クリップを所望状態につなぎ合わせて所望の編集映像音声を得るための編集内容に規定した編集リストを作成でき、さらにこの作成した編集リストに従って実際に編集処理を実行し、得られた編集映像及び編集音声を外部に出力し得るようになされている。
すなわちこの編集端末装置8は、コンピュータ31、システム制御部32、映像音声入出力部33、映像特殊効果処理部34、音声入出力/ミキサ部35及びディスク制御部36がコントロールバス37を介して相互に接続されることにより構成されている。
この場合コンピュータ31は、初期時、ディスプレイ部38に所定の操作画面(以下、これを編集画面と呼ぶ)を表示させる。またコンピュータ31は、この状態においてマウス39が操作されることにより、クリップ登録モードが選択され、当該編集端末装置8に接続されたサーバ3(図2)からの再生動作命令が入力されると、これに応じた制御コマンドC1をシステム制御部32に送出する。
システム制御部32は、供給される制御コマンドに基づいて、サーバ3に制御信号S5を送出することにより、サーバ3に蓄積されている映像信号及び音声信号の再生動作を実行させる。この結果このサーバ3からは、映像信号及び音声信号とが出力され、それぞれ映像音声入出力部33を介してそのまま映像特殊効果処理部34に与えられる。
映像特殊効果処理部34は、システム制御部32の制御のもとに、映像音声入出力部33から供給される映像信号をコンピュータ31に送出する。かくしてこのディスプレイ部38には、コンピュータ31の制御のもとに映像信号に基づく映像が編集画面上の所定位置に表示される。
これによりこの編集端末装置8では、ディスプレイ部38に表示された映像及びスピーカ(図示せず)から出力される音声に基づいて、オペレータがマウス39及びキーボード40を用いて映像及び音声の所望部分を指定することができ、さらにこれをクリップとしてそのイン点及びアウト点のタイムコードや素材長(デュレーション)等の関連データをコンピュータ31内に登録することができるようになされている。
またコンピュータ31は、このとき予め取込みモードが選択されている場合には、これに応じた制御コマンドC1をシステム制御部32に送出する。システム制御部32は、供給される制御コマンドC1に基づいて、サーバ3に制御信号S5を送出することにより、指定されたクリップの映像音声を当該サーバ3に再生させる一方、映像音声入出力部33をコントロールバス37を介して制御することにより、サーバ3から送出される映像信号及び音声信号を取り込ませる。
そしてディスク制御部36は、このときシステム制御部32からコントロールバス37を介して与えられるコマンドに基づいて、映像特殊効果処理部34又は映像音声入出力部33から与えられる映像信号と、音声入出力/ミキサ部35又は映像音声入出力部33から与えられる音声信号とを順次取り込み、これらをハードディスク装置30に与えてハードディスクの指定されたアドレス位置に記録させる。
このようにしてこの編集端末装置8においては、指定されたクリップの映像音声をサーバ3から再生してハードディスク装置30に取り込むことができるようになされている。
一方コンピュータ31は、上述のようにしてクリップが登録されると、ディスプレイ部38に表示されている編集画面内に、登録されたクリップのリストを表示させる。
そしてオペレータは、この編集画面を用いてどのクリップとどのクリップとをどのように繋ぎ合わせるかといった編集内容を規定した編集データを編集リストとして作成することができる。またオペレータは、編集リストの再生後又は作成途中において、その編集リストに基づく編集映像及び編集音声を確認することができる。
なおコンピュータ31は、CPU(Central Processing Unit )41、ROM(Read Only Memory)42、RAM(Random Access Memory)43、表示処理部44、タイトル/グラフィック生成部45及びインタフェース回路46、47がCPUバス48を介して接続されることにより構成されており、各インタフェース回路46、47をそれぞれ介してマウス39及びキーボード40と接続されている。
この場合CPU41は、ROM42に格納されたプログラムに基づいて、必要に応じてROM42内の画像データを読み出し、これを表示処理部44を介してディスプレイ部38に与えることにより、後述のような編集画面や各種ダイアログ、マウス操作に応動して編集画面内を移動するカーソル及びキーボード40を介して入力された数字や文字などをディスプレイ部38に表示させ、かつ映像特殊効果処理部34からタイトル/グラフィック生成部45を介して表示処理部44に与えられる映像信号に基づく動画像や静止画像を編集画面内の所定位置に表示させる。
またCPU41は、例えばマウス39やキーボード40が操作されることにより所定処理の実行命令がインタフェース回路46、47を介して与えられると、ROM42に格納されたプログラムに基づいて、必要に応じてシステム制御部32に制御コマンドC1を送出することにより、当該システム制御部32を介して映像音声入出力部33、映像特殊効果処理部34、音声入出力/ミキサ部35及び又はディスク制御部36に所定動作を実行させ、かくして編集端末装置8全体として上述したような各種処理を実行させる。
さらにCPU41は、ROM42に格納されたプログラムに基づいて、必要時にはタイトル/グラフィック生成部45を制御してタイトル文字やグラフィックの画像データを生成させてこれを映像特殊効果処理部34に送出させ、かくしてこれらタイトル文字やグラフィックを編集映像に反映させるようになされている。
(2)マルチカメラモード時における表示状態
ここで実際上、編集端末装置8におけるコンピュータ31内のCPU41は、オペレータの操作に応じてマルチカメラモードに設定されると、ROM42に格納されているプログラムに基づいて、図6に示すような編集画面EPをディスプレイ部に表示させる。
この編集画面EPには、登録された複数のクリップの先頭画像をそれぞれ表示するための素材表示部50と、指定されたクリップについて全てのビデオカメラの撮影内容を映像表示するための素材確認部51と、編集リストを作成するための編集リスト作成部52と、編集結果を映像表示するための編集確認部53とが設けられている。
この素材表示部50には、登録された複数のクリップに対応してそれぞれ認識用表示部50A〜50N(Nは自然数)が所定の配置状態で表示されている。これら複数の認識用表示部50A〜50Nは、それぞれクリップの先頭画像がサムネイル表示されると共に、当該画像の下段には対応するクリップに関する種々の登録事項(収録時間やテキスト等)が表示されるようになされている。なお、素材表示部50では、メタデータに基づき複数のビデオカメラ2A〜2Cによって撮影された映像音声素材については、例えば当該映像音声素材を表すクリップの先頭画像の外枠を赤色等で表示するようにして、オペレータに認知させ易いようになされている。
また素材確認部51は、素材表示部50に表示されている複数の認識用表示部50A〜50Nのうち、オペレータによって指定された認識用表示部50A〜50Nをピックアップして、当該クリップを同時刻に撮影した複数のビデオカメラ2A〜2Cの映像をそれぞれ表示部(以下、これを映像表示部と呼ぶ)51A〜51Cに表示すると同時に、当該各ビデオカメラ2A〜2Cの位置関係を所定の表示形態でなる表示部(以下、これを位置表示部と呼ぶ)51Dに表示するようになされている。
この素材確認部51では、下段に操作用ボタン51Eが表示されており、複数の映像表示部51A〜51Cについて、操作用ボタン51Eの操作に応じて再生、巻戻しや変速再生等がされることにより、それぞれ当該操作内容に応じた表示動作を行うようになされている。このとき各映像表示部51A〜51Cには、クリップの先頭画像の開始時点から終了時点までの時刻をタイムライン51AT〜51CTとしてそれぞれ表示するようになされている。
また位置表示部51Dには、被写体OBの位置を基準として複数のビデオカメラ2A〜2Cの位置をそれぞれ対応するマーク(以下、これを位置マークと呼ぶ)MA〜MCとして表示するようになされている。これら各位置マークMA〜MCは、例えば上述した図4(B)のように被写体OBの位置を仮想中心座標(0、0)としたとき、マスタ用カメラ2Aの相対座標(−5、4)及び各スレイブ用カメラ2B、2Cの相対座標(−1、−6)、(5、0)のような位置関係で表される。
さらに編集リスト作成部52では、オペレータが素材確認部51の各映像表示部51A〜51Cに表示された映像を目視確認しながらクリップとして登録しようとする映像部分のイン点及びアウト点をタイムラインTL上で指定することにより、当該イン点からアウト点までの部分をクリップとして登録すると共に、各ビデオカメラ2A〜2Cに対応するトラック52A〜52Cごとにクリップに対応する枠を表示することができる。
このときディスプレイ部38に表示されているそのクリップのイン点及びアウト点のタイムコードや、素材長及び保存位置等の関連データがデータベースとしてコンピュータ31(図5)内のRAM43に取り込まれる。
このように編集リスト作成部52では、各ビデオカメラ2A〜2Cに対応するトラック52A〜52Cごとに枠が表示されることは、編集映像音声の出力時にタイムスケールで表された時間にその枠に対応するクリップの映像が表示され又は音声が出力されることを意味する。従つてこのような操作により編集映像として編集確認部53に表示され、又は編集音声として出力されるクリップ映像又は音声を順次規定してなる編集リストを作成することができる。
この編集確認部53では、下段に操作用ボタン53Eが表示されており、編集映像について、操作用ボタン53Eの操作に応じて再生、巻戻しや変速再生等がされることにより、当該操作内容に応じた表示動作を行うようになされている。
なお、編集端末装置8は、上述した図1において、編集前のコンテンツデータをネット配信する場合には、当該コンテンツデータをウェブコンテンツに変換してウェブサーバ11に供給する。その際、ウェブコンテンツには、上述した編集画面EP(図6)のうち素材確認部51に類似するGUI(Graphic user interface)表示用のデータが付加される。
ここで図7において、インターネット等のネットワークを経由してウェブサーバ11(図1)からウェブコンテンツを受信するようになされた表示制御装置60の構成を示す。
この表示制御装置60は、一般家庭や会社内に設置された通常のパーソナルコンピュータであり、他のパーソナルコンピュータやウェブサーバ11とネットワークを介して通信することにより必要なデータを送受信したり、当該通信により得られた画面データに基づくWebページ画面等をモニタ表示することができるようになされている。
この表示制御装置60の本体部60Hは、全体の制御を司るCPU61と、各種ソフトウェアが格納されたROM62と、CPU61のワークメモリとしてのRAM63、各種データが格納されたハードディスク装置64と、CPU61がネットワークを介して外部と通信するためのインターフェースであるネットワークインターフェース部65と、スピーカ66が接続された音声処理部67と、モニタ68が接続された画像処理部69と、キーボード及びマウス等の操作入力部70が接続されたインターフェース部71と、外部のビデオテープ駆動装置72と必要に応じて接続するための外部インターフェイス部73とを有し、これらがバスBUSを介して相互に接続されることにより構成されている。
まずCPU61は、ネットワークを介してアクセスしてきたウェブサーバ11から与えられるウェブコンテンツをネットワークインターフェース部65を介して取り込み、当該ウェブコンテンツと、ROM62に格納されているソフトウェアとに基づいて各種処理を実行する。
そしてCPU61は、この処理結果としてモニタ68上において、図8に示すように、GUI表示用のデータに基づく表示画面(以下、これをGUI画面と呼ぶ)80を表示させる。このGUI画面80は、複数のビデオカメラ2A〜2Cの撮影内容を映像表示するための素材確認部81と、当該素材確認部81において指定された映像を拡大表示するための拡大表示部82とからなる。
この素材確認部81は、各ビデオカメラ2A〜2Cに対応する映像を表示する映像表示部81A〜81Cと、当該各ビデオカメラ2A〜2Cの位置関係を表示する位置表示部81Dとからなる。この位置表示部81Dには、被写体OBの位置を基準として複数のビデオカメラ2A〜2Cの位置がそれぞれ対応する位置マークMA〜MCとして表示されるようになされている。
この場合、オペレータが、例えば、ビデオカメラ2Aを操作入力部等から選択した場合、選択されたビデオカメラ2Aの位置情報及びタイムコードなどに基づいて、複数のビデオカメラ2A〜2Cの位置に対応する位置マークMA〜MCが互いに連動して変化する。
また拡大表示部82は、オペレータによって指定されたビデオカメラ2A〜2Cの映像を拡大して表示し、さらに下段に表示された操作用ボタン82Eの操作に応じて再生、巻戻しや変速再生等がされると、当該操作内容に応じた表示動作を行うようになされている。
なお上述した図7に示す表示制御装置60では、モニタ68上に複数のビデオカメラ2A〜2Cの位置にそれぞれ対応する位置マークMA〜MCが表示された状態で、ユーザが所定の開示時点及び終了時点を指定すると、CPU61は、当該指定された時間内での位置マークMA〜MCの座標の移動履歴を履歴位置情報としてユーザのお気に入りとしてがファイルとしてハードディスク装置64又は外部メモリ(図示せず)に記録しておくことにより、後でユーザが当該ファイルを読み出したときに、その履歴位置情報に基づいて各ビデオカメラ2A〜2Cを前の位置状態で再現させることができる。
(3)サーバシステムにおける各種処理
(3−1)撮影準備処理手順
まず各ビデオカメラ2A〜2Cにおいては、オペレータによってマルチカメラ撮影が選択されると、カメラ本体内のCPU(図示せず)は、図9に示す撮影準備処理手順RT1をステップSP0から開始し、続くステップSP1において、所定のメニュー画面を用いてマルチカメラフラグを設定する。
続いてCPUは、ステップSP2に進んで、マスタ用カメラ2Aであるか否かを判断し、肯定結果が得られた場合には、ステップSP3に進んで、各スレイブ用カメラの番号及びIDをメタデータに記述した後、ステップSP4に進んで当該撮影準備処理手順RT1を終了する。
これに対してステップSP2において否定結果が得られた場合、このことはスレイブ用カメラ2B、2Cであることを意味し、このときCPUは、ステップSP5に進んで、マスタ用カメラ2AのIDをメタデータに記述した後、ステップSP6に進んで、タイムコードをマスタ用カメラ2Aを基準として共通化させ、そのままステップSP4に進んで当該撮影準備処理手順RT1を終了する。
このようにマルチカメラ撮影の準備段階において、複数のビデオカメラ2A〜2Cをマスタ用カメラ2Aと各スレイブ用カメラ2B、2Cとの位置関係及び時間関係を予めメタデータのデータ内容として設定しておくことができる。
(3−2)撮影時処理手順
続いて各ビデオカメラ2A〜2Cでは、オペレータによってマルチカメラ撮影が開始されると、カメラ本体内のCPU(図示せず)は、図10に示す撮影時処理手順RT2をステップSP10から開始し、続くステップSP11において、次のフレームを記録するか否かを判断する。
このステップSP11において肯定結果が得られると、CPUは、そのままステップSP12に進んで、GPSにより位置情報を表す座標データを取得した後、ステップSP13においてオペレータによって撮影時にグッドショットマークなどが付加された場合にはマーキングする。
この後CPUは、ステップSP14に進んで、タイムコードを1フレーム分だけ歩進させた後、再度ステップSP11に戻って電源オフ状態となるまでフレーム単位でループを繰り返す。
これに対してステップSP11において否定結果が得られると、このことは次のフレームを記録しないことを意味し、このときCPUは、ステップSP14に進んで、1フレーム分だけタイムコードを歩進させた後、再度ステップSP11に戻って電源オフ状態となるまでフレーム単位でループを繰り返す。
このようにマルチカメラ撮影時には、複数のビデオカメラ2A〜2Cについて、記録対象となる各フレームに対してだけ、各ビデオカメラ2A〜2Cの相対位置関係やマスタ用カメラ2Aのタイムコードに同期した各スレイブ用カメラ2B、2Cのタイムコード、GPS情報等を撮影時に必要なメタデータのデータ内容として記録することができる。
(3−3)サーバ内処理手順
サーバ3では、オペレータによってマルチカメラ撮影の撮影結果を蓄積する旨の選択がされると、サーバ3全体の制御を司る制御部(図示せず)は、ステップSP20から図11に示すサーバ内処理手順RT3をステップSP20から開始し、続くステップSP21に進んで、各ビデオカメラ2A〜2Cからコンテンツデータをアップロードした後、ステップSP22に進む。
このステップSP22において、制御部は、多重化及び分離部22を制御して、コンテンツデータを映像データ、音声データ及びメタデータに分離した後、データ変換部24及びメタデータ処理部25を制御して、当該各データに対して必要な処理を施す。
続いて制御部は、ステップSP23に進んで、メタデータ処理部25を制御して、メタデータに基づくファイルシステム内のマルチカメラデータから得られた各種のIDに基づいて、該当する映像音声素材のアドレスを決定した後、入力部20内のデータベース20Bに登録する。
次いで制御部は、ステップSP24に進んで、映像データ、音楽データ及びメタデータをそれぞれ映像ストレージ部26、音声ストレージ部27及びメタストレージ部28に蓄積させた後、ステップSP25に進んで当該サーバ内処理手順RT3を終了する。
このようにサーバ3では、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28にそれぞれ蓄積させた映像データ、音楽データ及びメタデータについて、マスタ用カメラ2Aに基づく映像音声素材であっても同一時間に収録された各スレイブ用カメラ2B、2Cに基づく映像音声素材に容易に辿り着くことができると共に、各スレイブ用カメラ2B、2Cに基づく映像音声素材であっても同一時間に収録されたマスタ用カメラ2Aに基づく映像音声素材に容易に辿り着くことができる。
ここで上述した図11に示すサーバ内処理手順RT3のステップSP22において、制御部は、コンテンツデータを分離してメタデータを得ると、ステップSP30からサーバ内処理手順RT4を開始し、続くステップSP31において、メタデータのうちマルチカメラデータを識別したか否かを判断する。
このステップSP31において肯定結果が得られると、制御部は、ステップSP32に進んで、マルチカメラデータからマスタ/スレイブのフラグ等を検出する。このとき制御部は、マスタ用カメラ2Aの場合には、各スレイブ用カメラ2B、2Cの番号及びIDを検出する一方、スレイブ用カメラ2B、2Cの場合には、マスタ用カメラ2AのIDを検出する。
このステップSP32において、該当する同一時間に収録された映像音声素材のアドレスを参照すると、制御部は、入力部20内のデータベース20Bにおけるディレクトリ構造を再構築するようにして修正した後、ステップSP35に進んで当該サーバ内処理手順RT4を終了する。
このようにサーバ3では、メタデータからマルチカメラデータを識別すると、ファイルシステム内のデータベース20Bにおけるディレクトリ構造を再構築するようにして、マスタ用カメラ2A及び各スレイブ用カメラ2B、2C間で相互に同一の映像音声素材に容易に辿り付くことができる。
さらに上述のした図12に示すサーバ内処理手順RT4のステップSP33において、制御部は、該当する同一時間に収録された映像音声素材のアドレスを参照すると、ステップSP40から図13に示すサーバ内処理手順RT5を開始し、続くステップSP41において、メタデータから座標データを検出して、当該座標データに基づいて被写体の位置を基準とする仮想中心座標を確定する。
続いて制御部は、ステップSP42に進んで、仮想中心座標を基準として各ビデオカメラ2A〜2Cの現在位置を表すGPS座標をそれぞれ相対座標に変換するための計算を実行する。
次いで制御部は、ステップSP43に進んで、GPS座標を相対座標に書き換えるようにして、座標データを書き換えた後、ステップSP44に進んで当該サーバ内処理手順RT4を終了する。
このようにサーバ3では、被写体に対するマスタ用カメラ2A及び各スレイブ用カメラ2B、2Cの相対位置をGPS座標に基づいて容易に求めておくことができ、この後、マルチカメラ撮影によるコンテンツデータに対するオペレータの作業効率(例えば編集効率)を格段と向上することができる。
(4)本実施の形態による動作及び効果
以上の構成において、このサーバシステム1では、複数のビデオカメラ2A〜2Cを用いたマルチカメラ撮影を行う際、1台の基準となるマスタ用カメラ2Aと、それ以外の当該マスタ用カメラ2Aに対して従属関係にある各スレイブ用カメラ2B、2Cとの間で、マルチカメラ撮影であることを示すフラグとともに、位置、及び時間を表す情報をそれぞれ撮影内容に付加するメタデータに予め記述しておく。
そしてサーバ3は、マルチカメラ撮影として各ビデオカメラ2A〜2Cから供給されるコンテンツデータがマスタ用カメラ2Aの撮影結果であると判断した場合には、各スレイブ用カメラ2B、2Cの番号及びIDに基づいて、当該各スレイブ用カメラ2B、2Cごとの映像音声素材の数及びアドレスを決定した後、当該アドレスに従って映像音声素材を蓄積させる。
これに対してサーバ3は、マルチカメラ撮影として各ビデオカメラ2A〜2Cから供給されるコンテンツデータがスレイブ用カメラ2B、2Cの撮影結果であると判断した場合には、マスタ用カメラ2AのIDに基づいて、当該マスタ用カメラ2Aの映像音声素材のアドレスを決定した後、当該アドレスに従って映像音声素材を蓄積させる。
このようにサーバ3では、マスタ用カメラ2Aと各スレイブ用カメラ2B、2Cとの間で共に同一のアドレスに従って同一時間に収録された映像音声素材を蓄積するようにしたことにより、当該蓄積された映像音声素材のみに基づいて、撮影元以外の他のビデオカメラ2A〜2Cにより同一時間に収録された映像音声素材に容易に辿り着くことができる。
かくしてサーバ3においては、複数のビデオカメラ2A〜2Cの撮像結果であるコンテンツデータが供給されても、当該コンテンツデータに基づく映像音声素材がマスタ用カメラ2A又は各スレイブ用カメラ2B、2Cのいずれの収録内容であるか、保存先のファイル及びその名前、収録時間等をデータベースを検索することにより自動的に識別することができる。
またサーバ3においては、複数のビデオカメラ2A〜2Cによるマルチカメラ撮影である場合、各ビデオカメラ2A〜2Cの現在位置を表すGPS座標を、被写体OBの位置を仮想的な中心座標とする相対座標にそれぞれ変換するようにしたことにより、その後の編集処理時における各ビデオカメラ2A〜2Cの相対的な位置関係を容易に求めることができる。
以上の構成によれば、このサーバシステム1では、複数のビデオカメラ2A〜2C同士の主従関係と位置及び時間情報をそれぞれ撮影結果に含めておき、当該撮影結果を受け取ったサーバ3において、マスタ用カメラ2Aと各スレイブ用カメラ2B、2Cとの間での位置関係及び時間関係を保持しておくと共に、同一のアドレスに従って同一時間に収録された映像音声素材を蓄積するようにしたことにより、当該蓄積された映像音声素材のみに基づいて、撮影元以外の他のビデオカメラ2A〜2Cにより同一時間に収録された映像音声素材を容易に認識することができ、かくして編集処理を格段と向上することができるサーバシステム1を実現できる。
(5)他の実施の形態
なお上述の本実施の形態においては、複数のビデオカメラ(撮影手段)2A〜2Cから被写体OBの撮影結果として得られる各コンテンツデータ(映像音声素材)S1A〜S1Cを蓄積し、必要に応じて送出する情報送出装置として、図1に示すサーバシステム1内のサーバ3を適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる情報送出装置に広く適用することができる。本実施の形態の場合、スレイブ用カメラ2B、2Cを2台設けるようにしたが、これ以外にも1台又は3台以上設けるようにしても良い。
また上述の本実施の形態においては、各ビデオカメラ(撮影手段)2A〜2Cの撮影結果でなるコンテンツデータ(映像音声素材)S1A〜S1Cにそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各ビデオカメラ(撮影手段)2A〜2Cごとに対応するコンテンツデータ(映像音声素材)S1A〜S1Cをそれぞれ蓄積する蓄積手段として、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28を適用するようにした場合について述べたが、本発明はこれに限らず、アドレスに従って各種データを蓄積することができれば、この他種々の蓄積手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28(蓄積手段)から特定のビデオカメラ(撮影手段)2A〜2Cに対応する映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された特定のビデオカメラ(撮影手段)2A〜2C以外の他のビデオカメラ(撮影手段)2A〜2Cに対応する映像音声素材を検索する検索手段を、サーバ3内の主としてメタデータ処理部25及び入力部20内のデータベース20Bから構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる検索手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、各ビデオカメラ(撮影手段)2A〜2Cごとに対応するコンテンツデータ(映像音声素材)S1A〜S1Cに付加されるメタデータ(付加情報)に基づいて、当該各ビデオカメラ(撮影手段)2A〜2C同士の相対的な位置関係及び時間関係を認識する認識手段として、サーバ3内の主としてメタデータ処理部25及び制御部(図示せず)を適用するようにした場合について述べたが、本発明はこれに限らず、要は、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28(蓄積手段)は、メタデータ処理部(認識手段)25により認識された各ビデオカメラ(撮影手段)2A〜2C同士の相対的な位置関係及び時間関係を、各ビデオカメラ(撮影手段)2A〜2Cごとに対応する映像音声素材にそれぞれ付加して蓄積することができれば、この他種々の構成からなる認識手段に広く適用するようにしても良い。
またマルチカメラデータのファイルは、図3に示すような、マルチカメラ(Multi Camera)のフラグ、マスタ/スレイブ(Master/Slave)のフラグ、マスタ用カメラ2Aのときのみ各スレイブ用カメラの番号(Number of Slave)及び当該各スレイブ用カメラ2B、2CのID(Slave ID1、Slave ID2、…)、スレイブ用カメラ2B、2Cのときのみマスタ用カメラ2AのID(Master ID)が記述されているようにしたが、これ以外にも図14に示すように、マルチカメラデータのファイルを、各ビデオカメラ2A〜2Cに共通のグループID(Groupe ID)、各ビデオカメラ2A〜2Cの番号(Number of Camera)及び当該各ビデオカメラ2A〜2CのID(Camera ID1、Camera ID2、…)が記述されるようにしても良い。
すなわち全てのビデオカメラ2A〜2Bについて、主従関係を設けることなく、これらが同一プロジェクトであることを相互に伝達しておき、グループ内の全てのビデオカメラ2A〜2Cをリンクさせるようにしても、当該各ビデオカメラ2A〜2B同士の相対的な位置関係及び時間関係を認識することができる。
また全てのビデオカメラ2A〜2Bについて、主従関係を設けるか設けないかに関わらず、複数のグループを有する場合には、対応する各グループIDに対して所定の重み付けをそれぞれ設定しておき、その重み付けに基づいて検索、表示又はその他処理を行うようにしても良い。
さらに上述の本実施の形態においては、各ビデオカメラ(撮影手段)2A〜2Cにおいて測定された当該各ビデオカメラ(撮影手段)2A〜2Cの現在位置を、特定のビデオカメラ(撮影手段)2A〜2C又は被写体OBを基準となる相対位置に変換する変換手段として、サーバ3内の主としてメタデータ処理部25及び制御部(図示せず)を適用するようにした場合について述べたが、本発明はこれに限らず、要は、各ビデオカメラ(撮影手段)2A〜2Cの相対的な位置関係を求めることができれば、この他種々の構成からなる変換手段に広く適用するようにしても良い。
この場合、サーバ3においては、複数のビデオカメラ2A〜2Cによるマルチカメラ撮影である場合、各ビデオカメラ2A〜2Cの現在位置を表すGPS座標を、被写体OBの位置を仮想的な中心座標とする相対座標にそれぞれ変換するようにした場合について述べたが、マスタ用カメラ2Aの位置を仮想的な中心座標として各スレイブ用カメラ2B、2CのGPS座標を相対座標に変換するようにしても同様の効果を得ることができ、被写体OBのGPS座標を求める必要がない分だけ計算を容易にし得る。
さらに上述の本実施の形態において、図2に示す構成のサーバ3では、映像ストレージ部26、音声ストレージ部27及びメタストレージ部28をそれぞれ別体に設けるようにした場合について述べたが、本発明はこれに限らず、これらを単一のストレージ部で蓄積するように構成しても良く、また映像データ及び音声データを同一ファイルとして取り扱うようにしても個別のファイルとして取り扱うようにしても良い。
さらに上述の本実施の形態においては、編集端末装置8のディスプレイ部や表示制御装置60のモニタ68に表示されるGUIの表示方法として、図6に示す編集画面EPや図8に示すGUI画面80のような表示方法を適用した場合について述べたが、本発明はこれに限らず、これら以外の種々の表示方法を適用するようにしても良い。
例えば、複数のグループ、各グループに対応する複数のマスタ用カメラから撮影された映像音声素材及び複数のスレイブ用カメラから撮影された映像音声素材を適宜表示するようにしても良い。この場合、編集作業を行うオペレータ及びストリーミング配信を視聴するユーザは、特定のカメラで撮影した映像音声素材を適宜選択できるようにし、選択した映像音声素材を例えば、別ウィンドウなどで表示することも可能である。
さらに上述の本実施の形態においては、GUI表示をさせる機種として、編集端末装置8及び表示制御装置60を適用し、それぞれ編集画面80(図6)及びウェブコンテンツによるブラウザであるGUI画面80(図8)をGUI表示させるようにした場合について述べたが、本発明はこれに限らず、これら以外の装置を適用させて種々のGUIを表示させるようにしても良い。
例えば、パーソナルコンピュータ、ビデオカメラ、デジタルスチルカメラ、携帯情報端末(携帯電話、携帯型ゲーム機など)及びカーナビゲーションなどをGUI表示させる機種として適用しても良い。また、カメラ付(さらにはGPS付)携帯電話のように、撮影部と撮影位置測定部が装置として一体となっている形態にも適用することができる。
さらに上述の本実施の形態において、被写体を撮影する撮影手段としてビデオカメラ2A〜2Cを適用した場合について述べたが、本発明はこれに限らず、例えば、カメラ付きパーソナルコンピュータ、ウェブカメラ及びカメラ付き携帯電話等、被写体を撮影できるものであれば種々の撮影種案に広く適用しても良い。この場合、位置情報を取得するGPSは、装置として一体化、あるいはカメラと有線または無線で通信できるような形態も考えられる。
さらに上述の本実施の形態において、メタデータを構成する位置情報は、GPS(緯度及び経度)の2次元情報に限定されることなく、例えば図1に示すビデオカメラ2A〜2Cのように、高さを含む位置情報を用いても本実施の形態を適用することができる。
さらに上述の本実施の形態においては、メディア再生用の再生装置6において再生される記録媒体7として、ビデオテープを適用した場合について述べたが、本発明はこれに限らず、ビデオテープ以外にも例えば、光ディスク、光磁気ディスク、半導体メモリ及び磁気ディスク等の種々の記録媒体に広く適用することができる。
さらに上述の実施の形態における一連の処理は、それぞれの機能を有するハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種プログラムをインストールすることにより、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、例えば記録媒体からインストールされる。
さらに上述の本実施の形態においては、複数のビデオカメラ(撮影手段)2A〜2Cから被写体の撮影結果として得られる各コンテンツデータ(映像音声素材)S1A〜S1Cにそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各ビデオカメラ(撮影手段)2A〜2Cごとに対応するコンテンツデータ(映像音声素材)S1A〜S1Cをそれぞれ蓄積する第1のステップと、特定のビデオカメラ(撮影手段)に対応するコンテンツデータ(映像音声素材)を読み出したとき、当該コンテンツデータ(映像音声素材)と同一時間に撮影された特定のビデオカメラ(撮影手段)以外の他のビデオカメラ(撮影手段)に対応するコンテンツデータ(映像音声素材)を検索する第2のステップとをコンピュータに実行させるためのプログラムを生成するようにした場合について述べたが、本発明はこれに限らず、当該プログラムを記録したコンピュータに読み取り可能な種々の記録媒体にも適用することができる。この記録媒体としては、光ディスク、光磁気ディスク、半導体メモリ及びその他パッケージメディア等を広く適用するようにしても良い。
さらに上述の本実施の形態においては、各ビデオカメラ(撮影手段)2A〜2Cを主従関係(マスタ及びスレイブの関係)を持たせた状態でグループ化しておき、当該各ビデオカメラ(撮影手段)2A〜2C同士をリンクさせるためのアドレス情報を含むメタデータ(付加情報)がそれぞれ付加された各コンテンツデータ(映像音声素材)S1A〜S1Cを入力する入力手段を、サーバ3内の入力部20から構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる入力手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、サーバ3内の入力部(入力手段)20により入力されたコンテンツデータ(映像音声素材)S1A〜S1Cからメタデータ(付加情報)を取得する取得手段を、サーバ3内の多重化及び分離部22から構成した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる取得手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、サーバ3内の入力部(入力手段)20により入力されたコンテンツデータ(映像音声素材)S1A〜S1Cと多重化及び分離部(取得手段)22により取得された当該コンテンツデータ(映像音声素材)S1A〜S1Cに対応するメタデータ(付加情報)とを、当該メタデータ(付加情報)に基づいて記憶する記憶手段として、メタストレージ部28を適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる記憶手段を広く適用するようにしても良い。
さらに上述の本実施の形態においては、特定のビデオカメラ(撮影手段)に対応するコンテンツデータ(映像音声素材)S1A〜S1Cを記憶手段から読み出した場合、当該読み出されたコンテンツデータ(映像音声素材)S1A〜S1Cにリンクするコンテンツデータ(映像音声素材)S1A〜S1Cを自動的に検索する検索手段を、サーバ3内のメタデータ処理部25及びアドレス処理部23から構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる検索手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、サーバ3内のメタデータ処理部25及びアドレス処理部23からなる検索手段により検索されたコンテンツデータ(映像音声素材)S1A〜S1Cを出力する出力手段を、サーバ3内の入力部20から構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる出力手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、各コンテンツデータ(映像音声素材)S1A〜S1Cに付加されるメタデータ(付加情報)は、それぞれ対応するビデオカメラ(撮影手段)2A〜2Cが撮影する際の時間情報及び位置情報を含むと共に、当該各時間情報は、対応する各ビデオカメラ(撮影手段)2A〜2C同士で一致させるように設定され、多重化及び分離部(取得手段)22により各コンテンツデータ(映像音声素材)S1A〜S1Cからそれぞれ取得されたメタデータ(付加情報)に基づいて、当該各コンテンツデータ(映像音声素材)S1A〜S1Cに対応する各ビデオカメラ(撮影手段)2A〜2C同士の相対位置関係及び相対時間関係を認識する認識手段として、サーバ3内のメタデータ処理部25を適用し、メタストレージ部(記憶手段)28は、メタデータ処理部(認識手段)25により認識された各ビデオカメラ(撮影手段)2A〜2C同士の相対位置関係及び相対時間関係を、各ビデオカメラ(撮影手段)2A〜2Cに対応するコンテンツデータ(映像音声素材)S1A〜S1Cにそれぞれ付加して記憶するようにした場合について述べたが、本発明はこれに限らず、要は、各ビデオカメラ(撮影手段)2A〜2C同士の相対位置関係及び相対時間関係を、当該各ビデオカメラ(撮影手段)2A〜2Cに対応するコンテンツデータ(映像音声素材)S1A〜S1Cにそれぞれ付加して記憶することができれば、その他種々の構成からなる認識手段及び記憶手段に広く適用するようにしても良い。
さらに上述の本実施の形態においては、複数のビデオカメラ(撮影手段)2A〜2Cから被写体の撮影結果として得られる各コンテンツデータ(映像音声素材)S1A〜S1Cを表示する表示制御装置として、図7に示す構成の表示制御装置60を適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる表示制御装置に広く適用するようにしても良い。
かかる上述した図7に示す表示制御装置60では、各ビデオカメラ(撮影手段)2A〜2Cを主従関係を持たせた状態でグループ化しておき、当該各ビデオカメラ(撮影手段)2A〜2C同士をリンクさせるためのアドレス情報を含むメタデータ(付加情報)がそれぞれ付加された各コンテンツデータ(映像音声素材)S1A〜S1Cから当該メタデータ(付加情報)をそれぞれ取得する取得手段として、CPU61を適用し、CPU(取得手段)61により取得された各メタデータ(付加情報)に基づいて、対応する各コンテンツデータ(映像音声素材)S1A〜S1Cを連動させる状態で表示させる表示制御手段として、画像処理部69及びモニタ68を適用した場合について述べたが、本発明はこれに限らず、このような表示方法を実現できればこの他種々の構成からなる取得手段及び表示制御手段を広く適用するようにしても良い。
さらにかかる上述した図7に示す表示制御装置60では、各コンテンツデータ(映像音声素材)S1A〜S1Cに付加されるメタデータ(付加情報)は、それぞれ対応するビデオカメラ(撮影手段)2A〜2Cが撮影する際の時間情報及び位置情報を含み、取得手段により各コンテンツデータ(映像音声素材)S1A〜S1Cからそれぞれ取得されたメタデータ(付加情報)に基づいて、当該各コンテンツデータ(映像音声素材)S1A〜S1Cに対応する各ビデオカメラ(撮影手段)2A〜2C同士の相対位置関係及び相対時間関係を認識する認識手段としてCPU61を適用し、画像処理部69及びモニタ68からなる表示制御手段は、CPU(認識手段)61により認識された相対位置関係及び相対時間関係に基づいて、各コンテンツデータ(映像音声素材)S1A〜S1Cを選択的に表示させるようにした場合について述べたが、本発明はこれに限らず、このような表示方法を実現できればこの他種々の構成からなる認識手段を広く適用するようにしても良い。
本発明は、情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法において、サーバ以外にも種々のデータを蓄積可能な情報送出装置に広く適用することができる。
本実施の形態によるサーバシステムの構成を示すブロック図である。 図1に示すサーバの内部構成を示すブロック図である。 本実施の形態によるサーバのファイルシステムの説明に供する略線図である。 相対座標への変換処理の説明に供する略線的な平面図である。 図1に示す編集端末装置の構成を示すブロック図である。 編集画面の表示状態の説明に供する略線的な平面図である。 表示制御装置の構成を示すブロック図である。 ウェブコンテンツにおけるGUI画面の表示状態の説明に供する略線的な平面図である。 撮影準備処理手順の説明に供するフローチャートである。 撮影時処理手順の説明に供するフローチャートである。 サーバ内処理手順の説明に供するフローチャートである。 サーバ内処理手順の説明に供するフローチャートである。 サーバ内処理手順の説明に供するフローチャートである。 他の実施の形態によるサーバのファイルシステムの説明に供する略線図である。
符号の説明
1……サーバシステム、2A〜2C……ビデオカメラ、3……サーバ、8……編集端末装置、9……放送配信サーバ、10……エンコーダ、11……ウェブサーバ、12……記録装置、20……入力部、20A……インターフェース部、20B……データベース、21……コマンド処理部、22……多重化及び分離部、23……アドレス処理部、24……データ変換処理部、25……メタデータ処理部、26……映像ストレージ部、27……音声ストレージ部、28……メタストレージ部、31……コンピュータ、41、61……CPU、60……表示制御装置、68……モニタ、RT1…撮影準備処理手順、RT2……撮影時処理手順、RT3、RT3、RT4……サーバ内処理手順。

Claims (15)

  1. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置において、
    各上記撮影手段の撮影結果でなる上記映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各上記撮影手段ごとに対応する上記映像音声素材をそれぞれ蓄積する蓄積手段と、
    上記蓄積手段から特定の上記撮影手段に対応する上記映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された上記特定の撮影手段以外の他の上記撮影手段に対応する上記映像音声素材を検索する検索手段と
    を具えることを特徴とする情報送出装置。
  2. 各上記撮影手段ごとに対応する上記映像音声素材に付加される付加情報に基づいて、当該各撮影手段同士の相対的な位置関係及び時間関係を認識する認識手段
    を具え、
    上記蓄積手段は、上記認識手段により認識された各上記撮影手段同士の相対的な位置関係及び時間関係を、各上記撮影手段ごとに対応する上記映像音声素材にそれぞれ付加して蓄積する
    ことを特徴とする請求項1に記載の情報送出装置。
  3. 各上記撮像手段において測定された当該各撮影手段の現在位置を、特定の上記撮影手段又は上記被写体を基準となる相対位置に変換する変換手段と
    を具えることを特徴とする請求項2に記載の情報送出装置。
  4. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出方法において、
    各上記撮影手段の撮影結果でなる上記映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各上記撮影手段ごとに対応する上記映像音声素材をそれぞれ蓄積する第1のステップと、
    特定の上記撮影手段に対応する上記映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された上記特定の撮影手段以外の他の上記撮影手段に対応する上記映像音声素材を検索する第2のステップと
    を具えることを特徴とする情報送出方法。
  5. 上記第1のステップでは、
    各上記撮影手段ごとに対応する上記映像音声素材に付加される付加情報に基づいて、当該各撮影手段同士の相対的な位置関係及び時間関係を認識しておき、当該認識された各上記撮影手段同士の相対的な位置関係及び時間関係を、各上記撮影手段ごとに対応する上記映像音声素材にそれぞれ付加して蓄積する
    ことを特徴とする請求項4に記載の情報送出方法。
  6. 上記第1のステップでは、
    各上記撮像手段において測定された当該各撮影手段の現在位置を、特定の上記撮影手段又は上記被写体を基準となる相対位置に変換する
    ことを特徴とする請求項5に記載の情報送出方法。
  7. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各上記撮影手段ごとに対応する上記映像音声素材をそれぞれ蓄積する第1のステップと、
    特定の上記撮影手段に対応する上記映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された上記特定の撮影手段以外の他の上記撮影手段に対応する上記映像音声素材を検索する第2のステップと
    をコンピュータに実行させるためのプログラム。
  8. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材にそれぞれ共通のアドレスを割り当てておき、当該アドレスに従って各上記撮影手段ごとに対応する上記映像音声素材をそれぞれ蓄積する第1のステップと、
    特定の上記撮影手段に対応する上記映像音声素材を読み出したとき、当該映像音声素材と同一時間に撮影された上記特定の撮影手段以外の他の上記撮影手段に対応する上記映像音声素材を検索する第2のステップと
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  9. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を蓄積し、必要に応じて送出する情報送出装置において、
    各上記撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各上記映像音声素材を入力する入力手段と、
    上記入力手段により入力された上記映像音声素材から上記付加情報を取得する取得手段と、
    上記入力手段により入力された上記映像音声素材と上記取得手段により取得された当該映像音声素材に対応する上記付加情報とを、当該付加情報に基づいて記憶する記憶手段と、
    特定の上記撮影手段に対応する上記映像音声素材を上記記憶手段から読み出した場合、当該読み出された映像音声素材にリンクする上記映像音声素材を自動的に検索する検索手段と、
    上記検索手段により検索された上記映像音声素材を出力する出力手段と
    を具えることを特徴とする情報送出装置。
  10. 上記主従関係は、1つのマスタと複数のスレイブとからなる
    ことを特徴とする請求項9に記載の情報送出装置。
  11. 各上記映像音声素材に付加される上記付加情報は、それぞれ対応する上記撮影手段が撮影する際の時間情報及び位置情報を含むと共に、当該各時間情報は、対応する各上記撮像手段同士で一致させるように設定され、
    上記取得手段により各上記映像音声素材からそれぞれ取得された上記付加情報に基づいて、当該各映像音声素材に対応する各上記撮像手段同士の相対位置関係及び相対時間関係を認識する認識手段
    を具え、
    上記記憶手段は、
    上記認識手段により認識された各上記撮影手段同士の上記相対位置関係及び上記相対時間関係を、各上記撮影手段に対応する上記映像音声素材にそれぞれ付加して記憶する
    ことを特徴とする請求項9に記載の情報送出装置。
  12. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を表示する表示制御装置において、
    各上記撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各上記映像音声素材から当該付加情報をそれぞれ取得する取得手段と、
    上記取得手段により取得された各上記付加情報に基づいて、対応する各上記映像音声素材を連動させる状態で表示させる表示制御手段と
    を具えることを特徴とする表示制御装置。
  13. 各上記映像音声素材に付加される上記付加情報は、それぞれ対応する上記撮影手段が撮影する際の時間情報及び位置情報を含み、
    上記取得手段により各上記映像音声素材からそれぞれ取得された上記付加情報に基づいて、当該各映像音声素材に対応する各上記撮像手段同士の相対位置関係及び相対時間関係を認識する認識手段
    を具え、
    上記表示制御手段は、
    上記認識手段により認識された相対位置関係及び相対時間関係に基づいて、各上記映像音声素材を選択的に表示させる
    ことを特徴とする請求項12に記載の表示制御装置。
  14. 複数の撮影手段から被写体の撮影結果として得られる各映像音声素材を表示する表示方法において、
    各上記撮影手段を主従関係を持たせた状態でグループ化しておき、当該各撮影手段同士をリンクさせるためのアドレス情報を含む付加情報がそれぞれ付加された各上記映像音声素材から当該付加情報をそれぞれ取得する第1のステップと、
    上記取得された各上記付加情報に基づいて、対応する各上記映像音声素材を連動させる状態で表示させる第2のステップと
    を具えることを特徴とする表示方法。
  15. 各上記映像音声素材に付加される上記付加情報は、それぞれ対応する上記撮影手段が撮影する際の時間情報及び位置情報を含み、
    上記第1のステップでは、
    各上記映像音声素材からそれぞれ取得された上記付加情報に基づいて、当該各映像音声素材に対応する各上記撮像手段同士の相対位置関係及び相対時間関係を認識し、
    上記第2のステップでは、
    上記認識された相対位置関係及び相対時間関係に基づいて、各上記映像音声素材を選択的に表示させる
    ことを特徴とする請求項14に記載の表示方法。
JP2004155220A 2004-05-25 2004-05-25 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法 Pending JP2005341064A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004155220A JP2005341064A (ja) 2004-05-25 2004-05-25 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法
US11/131,372 US7499918B2 (en) 2004-05-25 2005-05-18 Information processing apparatus and method, program, and recording medium
KR1020050044171A KR101193007B1 (ko) 2004-05-25 2005-05-25 정보 처리 장치, 정보 처리 방법, 기록 매체
CNB2005100720709A CN100481064C (zh) 2004-05-25 2005-05-25 信息处理装置和方法
US12/357,189 US7904490B2 (en) 2004-05-25 2009-01-21 Information processing apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004155220A JP2005341064A (ja) 2004-05-25 2004-05-25 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法

Publications (2)

Publication Number Publication Date
JP2005341064A true JP2005341064A (ja) 2005-12-08
JP2005341064A5 JP2005341064A5 (ja) 2006-01-26

Family

ID=35461941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004155220A Pending JP2005341064A (ja) 2004-05-25 2004-05-25 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法

Country Status (4)

Country Link
US (2) US7499918B2 (ja)
JP (1) JP2005341064A (ja)
KR (1) KR101193007B1 (ja)
CN (1) CN100481064C (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545088A (ja) * 2006-07-28 2009-12-17 ヴィジブル ワールド インコーポレイテッド 意味的編集制御およびビデオ/オーディオ編集のためのシステム及び方法
JP2013157874A (ja) * 2012-01-31 2013-08-15 Nk Works Kk 画像処理プログラムおよび画像処理装置
US10250931B2 (en) 2000-04-07 2019-04-02 Visible World, Llc Systems and methods for semantic editorial control and video/audio editing

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US8295682B1 (en) * 2005-07-13 2012-10-23 Apple Inc. Selecting previously-selected segments of a signal
US8184613B2 (en) * 2006-04-10 2012-05-22 Patel Nilesh V Portable multi-media automatic authenticating router and method for automatically routing stored data
TW200842591A (en) * 2007-04-20 2008-11-01 Genesys Logic Inc OTG device for multi-directional transmitting GPS data and controlling method of same
JP4965475B2 (ja) * 2008-02-05 2012-07-04 オリンパス株式会社 仮想移動表示装置
US20100023485A1 (en) * 2008-07-25 2010-01-28 Hung-Yi Cheng Chu Method of generating audiovisual content through meta-data analysis
US20100241659A1 (en) * 2009-03-18 2010-09-23 Sony Corporation Single library for all media content
US8606073B2 (en) * 2010-05-12 2013-12-10 Woodman Labs, Inc. Broadcast management system
US8464304B2 (en) 2011-01-25 2013-06-11 Youtoo Technologies, LLC Content creation and distribution system
US20120263439A1 (en) * 2011-04-13 2012-10-18 David King Lassman Method and apparatus for creating a composite video from multiple sources
GB2495289A (en) * 2011-10-04 2013-04-10 David John Thomas Multimedia editing by string manipulation
US9319161B2 (en) 2012-04-09 2016-04-19 Youtoo Technologies, LLC Participating in television programs
US9083997B2 (en) 2012-05-09 2015-07-14 YooToo Technologies, LLC Recording and publishing content on social media websites
KR101905638B1 (ko) * 2012-05-15 2018-12-05 삼성전자주식회사 동영상 재생 장치 및 방법
US9210385B2 (en) * 2012-11-20 2015-12-08 Pelco, Inc. Method and system for metadata extraction from master-slave cameras tracking system
JP5825279B2 (ja) * 2013-02-27 2015-12-02 ブラザー工業株式会社 端末装置及びプログラム
WO2014160198A1 (en) * 2013-03-13 2014-10-02 Build-A-Bear Workshop, Inc. Systems and methods for computer recognition of plush toys
US20150294233A1 (en) * 2014-04-10 2015-10-15 Derek W. Aultman Systems and methods for automatic metadata tagging and cataloging of optimal actionable intelligence
TW201601542A (zh) * 2014-06-26 2016-01-01 Amaryllo International Inc 網路攝影資料管理系統與方法
TW201601541A (zh) * 2014-06-26 2016-01-01 Amaryllo International Inc 網路攝影資料管理系統與方法
US9462026B2 (en) * 2014-07-31 2016-10-04 Senza Tech, Llc Communicating multimedia data
US10178325B2 (en) 2015-01-19 2019-01-08 Oy Vulcan Vision Corporation Method and system for managing video of camera setup having multiple cameras
EP3073726B1 (en) * 2015-03-24 2017-03-01 Axis AB Method for configuring a camera
EP3369073A4 (en) 2015-10-29 2019-06-26 OY Vulcan Vision Corporation VIDEO PICTURE OF A ZONE OF INTEREST USING NETWORKED CAMERAS
US10270933B2 (en) * 2016-03-15 2019-04-23 Gopro, Inc. Multi-camera system content capture and management
US10083369B2 (en) 2016-07-01 2018-09-25 Ricoh Company, Ltd. Active view planning by deep learning
JP7224855B2 (ja) * 2018-11-02 2023-02-20 キヤノン株式会社 通信装置、制御方法、およびプログラム
CN109819179B (zh) * 2019-03-21 2022-02-01 腾讯科技(深圳)有限公司 一种视频剪辑方法和装置
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04294694A (ja) 1991-03-25 1992-10-19 Nippon Telegr & Teleph Corp <Ntt> 映像の自動要約編集方法
JP3201533B2 (ja) 1991-08-19 2001-08-20 日本電信電話株式会社 映像とその撮影情報の提示方法
US5493677A (en) * 1994-06-08 1996-02-20 Systems Research & Applications Corporation Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface
JP2001245280A (ja) * 2000-02-29 2001-09-07 Canon Inc カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体
JP2002027396A (ja) 2000-07-10 2002-01-25 Matsushita Electric Ind Co Ltd 付加情報入力方法および映像編集方法並びに当該方法を用いる装置およびシステム
JP4275326B2 (ja) 2001-05-16 2009-06-10 富士フイルム株式会社 撮像装置および位置情報検出システム
US20030076413A1 (en) * 2001-10-23 2003-04-24 Takeo Kanade System and method for obtaining video of multiple moving fixation points within a dynamic scene
JP4061458B2 (ja) 2001-12-05 2008-03-19 ソニー株式会社 ビデオデータ検索方法およびビデオデータ検索システムおよびビデオデータ編集方法およびビデオデータ編集システム
US20040057697A1 (en) * 2002-09-19 2004-03-25 Peter Renzi Streaming digital recording system
GB2394611A (en) * 2002-10-21 2004-04-28 Sony Uk Ltd Metadata generation providing a quasi-unique reference value
US7685134B2 (en) * 2003-12-31 2010-03-23 Nokia Corporation Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10250931B2 (en) 2000-04-07 2019-04-02 Visible World, Llc Systems and methods for semantic editorial control and video/audio editing
JP2009545088A (ja) * 2006-07-28 2009-12-17 ヴィジブル ワールド インコーポレイテッド 意味的編集制御およびビデオ/オーディオ編集のためのシステム及び方法
JP2013157874A (ja) * 2012-01-31 2013-08-15 Nk Works Kk 画像処理プログラムおよび画像処理装置

Also Published As

Publication number Publication date
US20090138829A1 (en) 2009-05-28
US20050278618A1 (en) 2005-12-15
US7904490B2 (en) 2011-03-08
KR101193007B1 (ko) 2012-10-19
US7499918B2 (en) 2009-03-03
KR20060048097A (ko) 2006-05-18
CN1702644A (zh) 2005-11-30
CN100481064C (zh) 2009-04-22

Similar Documents

Publication Publication Date Title
JP2005341064A (ja) 情報送出装置、情報送出方法、プログラム及び記録媒体並びに表示制御装置及び表示方法
US20170257414A1 (en) Method of creating a media composition and apparatus therefore
US9779775B2 (en) Automatic generation of compilation videos from an original video based on metadata associated with the original video
US20150058709A1 (en) Method of creating a media composition and apparatus therefore
US8295650B2 (en) Information processing apparatus and method, and program
JP6367334B2 (ja) ビデオ処理方法、装置及び再生装置
US20160099023A1 (en) Automatic generation of compilation videos
US20120169855A1 (en) System and method for real-sense acquisition
JP2019160318A (ja) 情報処理装置、情報処理方法、及びプログラム
US20080260184A1 (en) Virtual Recording Studio
CN105302424A (zh) 一种多维动态标记的录制并回放的方法与系统
CN106095881A (zh) 一种显示照片相应信息的方法、系统及移动终端
US20150324395A1 (en) Image organization by date
US7590329B2 (en) Recording apparatus, editor terminal apparatus, recording medium, and video content editing support system and method using them
US20070201864A1 (en) Information processing apparatus, information processing method, and program
JP2012217144A (ja) 画像編集装置、画像編集方法、およびプログラム
CN101729876A (zh) 图像处理设备及其控制方法
JP2009225116A (ja) ネットワーク伝送機能を備えた映像記録装置
JP4946935B2 (ja) 撮像装置
US8566890B2 (en) Video information control apparatus and method
WO2016184193A1 (zh) 媒体文件生成方法和装置
JP6610030B2 (ja) 映像処理装置および映像処理方法
JP2008217123A (ja) 通信システム、端末装置、サーバ、端末装置の制御方法及びそのプログラム
JP2002027396A (ja) 付加情報入力方法および映像編集方法並びに当該方法を用いる装置およびシステム
JP2004187275A (ja) 映像プログラム制作支援システム,企画装置,処理装置,映像プログラムの処理方法,プログラムおよびデータ構造

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090409