JP2012084979A - 情報処理装置及び方法、プログラム、並びに情報処理システム - Google Patents
情報処理装置及び方法、プログラム、並びに情報処理システム Download PDFInfo
- Publication number
- JP2012084979A JP2012084979A JP2010227501A JP2010227501A JP2012084979A JP 2012084979 A JP2012084979 A JP 2012084979A JP 2010227501 A JP2010227501 A JP 2010227501A JP 2010227501 A JP2010227501 A JP 2010227501A JP 2012084979 A JP2012084979 A JP 2012084979A
- Authority
- JP
- Japan
- Prior art keywords
- event
- edit list
- digest
- template
- created
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Circuits (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
【課題】編集者にとって容易な作業で短時間にダイジェストを作成できるようにする。
【解決手段】 編集サーバ24の受信部71は、イベントの種類を特定可能なイベント情報を受信する。テンプレート取得部73は、イベント情報により特定される種類のイベントについてのテンプレートを取得する。編集リスト作成部74は、テンプレートに基づいて複数のシーンの編集リストを作成する。ダイジェスト作成部75は、編集リストに含まれる複数のシーンのデータを、収録サーバから取得した1以上の撮影素材から作成し、作成した複数のシーンの各データを結合することによってダイジェストを作成する。本発明は、時差送出システムを備えた情報処理装置に適用することができる。
【選択図】図3
【解決手段】 編集サーバ24の受信部71は、イベントの種類を特定可能なイベント情報を受信する。テンプレート取得部73は、イベント情報により特定される種類のイベントについてのテンプレートを取得する。編集リスト作成部74は、テンプレートに基づいて複数のシーンの編集リストを作成する。ダイジェスト作成部75は、編集リストに含まれる複数のシーンのデータを、収録サーバから取得した1以上の撮影素材から作成し、作成した複数のシーンの各データを結合することによってダイジェストを作成する。本発明は、時差送出システムを備えた情報処理装置に適用することができる。
【選択図】図3
Description
本発明は、情報処理装置及び方法、プログラム、並びに情報処理システムに関し、特に、編集者にとって容易な作業で短時間にダイジェストを作成できるようにした、情報処理装置及び方法、プログラム、並びに情報処理システムに関する。
従来から、放送局や番組制作会社は、主にスポーツを対象として撮影した結果得られる撮影データを収録したデータ(以下、撮影素材と称する)を、数分から数時間で編集して送出する。このような一連の作業中においては、各作業を支援する各種各様の装置が用いられており、これらの装置からなるシステムは、一般的に時差送出システムと称されている。時差送出システムでは、撮影素材の収録と並行して撮影素材の編集及び送出が行われる(特許文献1,2参照)。
このような時差送出システムを用いて、複数の撮影素材を要約したダイジェストを作成する場合、編集者は、手動で撮影素材を編集してダイジェストを作成する。すなわち、編集者は、収録された撮影素材をプレビューしてダイジェストに用いる部分を複数探し出し、該当部分をトリミングする。そして、編集者は、各部分をトリミングする毎に映像効果を適宜付加し、映像効果付付加後の各部分をつなぎ合わせることによりダイジェストを作成する。
しかしながら、例えば、ボクシングの1ラウンドや、野球の1イニングの内容が撮影素材として収録された後、次のラウンドやイニングが開始されるまでの1分乃至数分程度の間に、編集者は、当該撮影素材を編集してダイジェストを作成し、送出しなければならない。このように、撮影素材の収録が終了してからダイジェストの送出までの時間が、数分程度の短時間しかない場合があり得る。このような短時間でダイジェストを作成するためには、たとえ熟練した編集者であっても非常に困難な作業が伴う。
本発明は、このような状況に鑑みてなされたものであり、編集者にとって容易な作業で短時間にダイジェストを作成できるようにしたものである。
本発明の第1の側面の情報処理装置は、イベントの種類を特定可能なイベント情報を受信する受信手段と、複数のシーンの編集リストの元になるテンプレートであって、前記受信手段により受信された前記イベント情報により特定される種類のイベントについての前記テンプレートを取得するテンプレート取得手段と、
前記テンプレート取得手段により取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成する編集リスト作成手段と、前記編集リスト作成手段により作成された前記編集リストに含まれる前記複数のシーンのデータを、他の情報処理装置から取得した1以上の撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成するダイジェスト作成手段とを備える。
前記テンプレート取得手段により取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成する編集リスト作成手段と、前記編集リスト作成手段により作成された前記編集リストに含まれる前記複数のシーンのデータを、他の情報処理装置から取得した1以上の撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成するダイジェスト作成手段とを備える。
前記ダイジェストの映像をプレビューさせるプレビュー制御手段をさらに備えることができる。
前記編集リスト作成手段により作成された前記編集リストを修正して更新する編集リスト更新手段をさらに備え、前記ダイジェスト作成手段は、前記編集リスト更新手段により更新された前記編集リストに含まれる前記複数のシーンのデータを、前記他の情報処理装置から取得した1以上の前記撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成することができる。
前記ダイジェスト作成手段は、前記編集リスト作成手段により作成された前記編集リスト、及び前記編集リスト更新手段により更新された前記編集リストにそれぞれ含まれる前記複数のシーンのデータを、前記他の情報処理装置から取得した1以上の前記撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、それぞれのダイジェストを作成することができる。
本発明の第1の側面の情報処理方法及びプログラムは、上述した本発明の第1の側面の情報処理装置に対応する方法及びプログラムである。
本発明の第1の側面の情報処理装置及び方法並びにプログラムにおいては、イベントの種類を特定可能なイベント情報が受信され、複数のシーンの編集リストの元になるテンプレートであって、受信された前記イベント情報により特定される種類のイベントについての前記テンプレートが取得され、取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストが作成され、作成された前記編集リストに含まれる前記複数のシーンのデータが、他の情報処理装置から取得された1以上の前記撮影素材から作成され、作成された前記複数のシーンの各データが結合されることによって、ダイジェストが作成される。
本発明の第2の側面の情報処理装置は、予め設定された1以上の条件を満たすイベントを含む撮影素材を検出するイベント検出手段と、前記イベントの種類を特定可能なイベント情報を生成するイベント情報生成手段と、前記イベント情報生成手段により生成された前記イベント情報を他の情報処理装置に送信する送信手段とを備える。
前記条件は、前記撮影素材の音声に含まれる所定のキーワードとすることができる。
前記条件は、ユーザの所定の指示操作があったという条件であり、前記イベント検出手段は、前記撮影素材に対して前記ユーザの所定の指示操作があったとき、前記撮影素材にイベントが含まれているとして、前記イベントに該当する撮影データを含む撮影素材を検出することができる。
本発明の第2の側面の情報処理方法及びプログラムは、上述した本発明の第2の側面の情報処理装置に対応する方法及びプログラムである。
本発明の第2の側面の情報処理装置及び方法並びにプログラムにおいては、予め設定された1以上の条件を満たすイベントを含む撮影素材が検出され、前記イベントの種類を特定可能なイベント情報が生成され、生成された前記イベント情報が他の情報処理装置に送信される。
本発明の第1の側面の情報処理システムは、第1の情報処理装置と第2の情報処理装置を含む情報処理システムであって、前記第1の情報処理装置は、予め設定された1以上の条件を満たすイベントを含む撮影素材を検出するイベント検出手段と、前記イベントの種類を特定可能なイベント情報を生成するイベント情報生成手段と、前記イベント情報生成手段により生成された前記イベント情報を前記第2の情報処理装置に送信する送信手段とを備え、前記第2の情報処理装置は、前記イベント情報を受信する受信手段と、複数のシーンの編集リストの元になるテンプレートであって、前記受信手段により受信された前記イベント情報により特定される種類のイベントについての前記テンプレートを取得するテンプレート取得手段と、前記テンプレート取得手段により取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成する編集リスト作成手段と、前記編集リスト作成手段により作成された前記編集リストに含まれる前記複数のシーンのデータを、他の情報処理装置から取得した1以上の撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成するダイジェスト作成手段とを備える。
本発明の第1の側面の情報処理システムにおいては、前記第1の情報処理装置では、予め設定された1以上の条件を満たすイベントを含む撮影素材が検出され、前記イベントの種類を特定可能なイベント情報が生成され、生成されたイベント情報が前記第2の情報処理装置に送信される。前記第2の情報処理装置では、前記イベント情報が受信され、複数のシーンの編集リストの元になるテンプレートであって、受信された前記イベント情報により特定される種類のイベントについての前記テンプレートが取得され、取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストが作成され、作成された前記編集リストに含まれる前記複数のシーンのデータが、他の情報処理装置から取得された1以上の前記撮影素材から作成され、作成された前記複数のシーンの各データを結合することによって、ダイジェストが作成される。
以上のごとく、本発明によれば、編集者にとって容易な作業で短時間にダイジェストを作成することができる。
[時差送出システムの構成例]
図1は、時差送出システムの構成例を示すブロック図である。
図1は、時差送出システムの構成例を示すブロック図である。
図1に示されるように、時差送出システム1は、撮影セクション11、編集セクション12、及び送出セクション13の各々に設けられた各装置から構成されている。
撮影セクション11は、撮影対象を撮影し、撮影して得られる撮影データを撮影素材として収録するまでの役割を担うセクションである。このような撮影や収録を行うべく、撮影セクション11には、撮影装置21−1乃至21−n、及び収録サーバ22が設けられている。以下、撮影装置21−1乃至21−nを個々に区別する必要がない場合、これらをまとめて撮影装置21と称する。撮影装置21は、赤外線通信等を利用して無線通信を行うことにより、収録サーバ22に撮影データを送信する。また、収録サーバ22は、ケーブル、LAN(Local Area Network)、赤外線通信等を利用して、後述する編集セクション12の編集サーバ24、データベース25、表示装置26、及び送出セクション13の送出サーバ28と通信を行うことにより相互に各種情報を授受する。
撮影装置21は、撮影対象を撮影し、その結果得られる撮影データを収録サーバ22に無線通信により送信する。
収録サーバ22は、受信した撮影データを、撮影素材として収録し、編集セクション12の表示装置26と送出セクション13の送出サーバ28に転送する。また、収録サーバ22は、撮影素材からイベントを検出する。イベントとは、撮影素材に含まれる内容、すなわち撮影対象となった実世界の3次元空間で生じた事象の集合体のうち、被写体の重要な動き等の特定の事象をいう。例えば野球の試合の撮影素材では、ボールや選手が被写体になることが多いため、打者がホームランを打ったときの打者、投手等の選手やボールの動き(以下、単に「ホームラン」と表現する)が、イベントとして収録サーバ22により検出される。収録サーバ22は、検出したイベントの種類等、イベントに関する情報(以下、イベント情報と称する)を後述する編集セクション12の編集サーバ24に転送する。
編集セクション12は、撮影セクション11からイベント情報を受信すると、撮影セクション11から必要な撮影素材を取得して編集することにより、イベント情報により特定されるイベントについてのダイジェストを作成する役割を担うセクションである。このようなダイジェストの作成を行うべく、編集セクション12には、編集端末23、編集サーバ24、データベース25、及び表示装置26が設けられている。編集端末23は、編集サーバ24及びデータベース25の各々と、ケーブル等を介して各種情報を授受する。編集サーバ24はまた、データベース25、及び表示装置26の各々、とケーブル等を介して各種情報を授受する。さらに、編集サーバ24は、ケーブル、LAN、赤外線通信等を利用して、後述する送出セクション13の送出サーバ28と通信を行うことにより、各種情報を転送する。
編集端末23は、編集者からの入力操作に従って、ダイジェストの作成に用いる編集条件を作成し、データベース25に登録する。例えば本実施形態では、編集条件としてダイジェストのテンプレート、イベントが発生したことを検出するための条件(以下、イベント検出条件と称する)、及びイベント情報とテンプレートとの対応情報が採用される。
編集サーバ24は、撮影セクション11の収録サーバ22からイベント情報を受信し、イベント情報からイベントの種類を認識する。そして、編集サーバ24は、データベース25に登録されている対応情報を参照して、イベントの種類に対応するテンプレートを取得する。そして、編集サーバ24は、取得したテンプレートを用いてダイジェストの編集リストを作成し、作成した編集リストに従って収録サーバ22から取得した撮影素材からダイジェストを作成する。そして、編集サーバ24は、作成したダイジェストと編集リストを後述する送出セクション13の送出サーバ28に転送する。
データベース25は、イベントの種類毎に、ダイジェストのテンプレート、イベント検出条件、及び対応情報を記憶する。
表示装置26は、撮影セクション11の収録サーバ22から受信した撮影素材、及び編集サーバ24が作成したダイジェストをプレビューする。
送出セクション13は、編集セクション12から受信したダイジェストを送出する役割を担うセクションである。このようなダイジェストの送出を行うべく、送出セクション13には、送出端末27及び送出サーバ28が設けられている。送出端末27は、送出サーバ28とケーブル等を介して各種情報を授受する。
送出サーバ28は、編集セクション12の編集サーバ24からダイジェストと編集リストを受信して記憶する。また、送出サーバ28は、撮影セクション11の収録サーバ22から受信した撮影素材から編集リストに従ってダイジェストを作成する。送出端末27は、編集者からの送出指示の入力操作に従って、送出サーバ28に対して、送出するダイジェストの選択、ダイジェストの送出タイミング等を指示する。送出サーバ28は、送出指示に従って、ダイジェストを送出する。
なお、本実施形態では、各装置は、動画像のデータを処理する場合、フィールド又はフレームを単位として処理を実行する。このような単位を、以下、単位画像と称する。すなわち、本実施形態では、動画像は、複数の単位画像から構成されているものとして取り扱う。ただし、以下、説明の便宜上、単位画像はフレームであるものとして説明する。
次に、このような時差送出システム1の機能的構成例について、図2乃至図4を用いて説明する。
[時差送出システム1の各部の機能的構成例]
図2乃至図4は、時差送出システム1を構成する各部の機能的構成例を示すブロック図である。
図2乃至図4は、時差送出システム1を構成する各部の機能的構成例を示すブロック図である。
図2は、撮影セクション11に設けられた各装置の機能的構成例を示すブロック図である。
撮影装置21は、撮影部41、及び送信部42を有している。
撮影部41は、撮影対象を撮影し、撮影した結果得られる撮影データを出力する。
送信部42は、撮影部41から出力された撮影データを、収録サーバ22に送信する。
収録サーバ22は、収録部51、イベント検出部52、イベント情報生成部53、及び送信部54を有している。
収録部51は、送信部42から順次送信されてくる撮影データを順次受信し、所定時間分の撮影データを1つの撮影素材として順次収録していく。所定時間は、特に限定されず任意に設定可能であるが、ここでは説明の便宜上1秒とする。
イベント検出部52は、収録部51により収録される撮影素材毎に、イベント検出条件を満たすか否かを判定することによって、イベントに該当する撮影データを含む撮影素材を検出する。イベント検出条件の具体例については、図6を参照して後述する。
イベント情報生成部53は、イベント検出部52により検出されたイベントの種類を特定可能なイベント情報を生成する。
送信部54は、各撮影素材を編集セクション12の表示装置26と送出セクション13の送出サーバ28に送信する。また、送信部54は、イベント情報生成部53が生成したイベント情報を編集セクション12の編集サーバ24に送信する。
図3は、編集セクション12に設けられた各装置の機能的構成例を示すブロック図である。
編集端末23は、受付部61、及び作成部62を有している。
受付部61は、編集者からの入力操作による各種指示を受け付ける。
作成部62は、受付部61により受け付けられた各種指示に基づいて、各種編集条件を作成してデータベース25に登録する。
例えば本実施形態では、ダイジェストのテンプレート、イベント検出条件、及び、対応情報が、作成部62による作成や修正の対象となる編集条件として採用されている。詳細については後述するが、ダイジェストのテンプレートとは、ダイジェストの作成に用いられる編集リストの元となるデータである。イベント検出条件とは、イベントが発生したことを検出するための条件である。対応情報とは、イベントの種類とテンプレートとの対応関係を示す情報である。なお、ダイジェストのテンプレート、及び対応情報のさらなる詳細については、図8乃至図10を参照して後述する。
例えば、編集者は、編集端末23に所定の入力操作をすることによって、各編集条件の登録有無を問い合わせる指示をすることができる。受付部61は、このような指示を受け付けると、各編集条件が登録されているか否かを判定する。作成部62は、受付部61により登録されていないと判定された編集条件を新たに作成してデータベース25に登録する。
また例えば、編集者は、編集端末23に所定の入力操作をすることによって、編集リストの修正を指示することができる。詳細については後述するが、編集リストとは、ダイジェストの作成に用いられるデータである。受付部61は、このような指示を受け付けると、その指示内容を後述する編集リスト作成部74に通知する。編集リスト作成部74は、受付部61から通知された指示内容に基づいて、編集リストを作成する。
また例えば、ダイジェストには、CG(Computer Graphics)画像を用いることができる。詳細については後述するが、例えば、野球の試合の点数表示にCG画像を用いることができる。編集者は、編集端末23に所定の入力操作をすることによって、このようなCG画像の作成のために必要な各種指示を行うことができる。受付部61は、このような指示を受け付けると、その指示内容を作成部62に通知する。作成部62は、受付部61から通知された指示内容に基づいて、CG画像を作成する。
編集サーバ24は、受信部71、イベント情報認識部72、テンプレート取得部73、編集リスト作成部74、ダイジェスト作成部75、プレビュー制御部76、及び送信部77を有している。
受信部71は、撮影セクション11の収録サーバ22から順次送信されてくる、所定時間、例えば1秒分(30フレーム分)の各撮影素材に対応するイベント情報を順次取得する。
イベント情報認識部72は、受信部71に受信されたイベント情報からイベントの種類を認識する。
テンプレート取得部73は、データベース25に登録されている対応情報を参照して、イベント情報認識部72により認識されたイベントの種類に対応するテンプレートを取得する。
編集リスト作成部74は、テンプレート取得部73が取得したテンプレートを用いてダイジェストの編集リストを作成する。また、編集リスト作成部74は、編集リストの修正の指示がなされた場合、編集リストのうち問題があった部分を修正し、編集リストを更新する。
ダイジェスト作成部75は、編集リスト作成部74が作成した編集リストに従って、収録サーバ22から取得した撮影素材からダイジェストを作成する。
プレビュー制御部76は、ダイジェスト作成部75が作成したダイジェストを表示装置26にプレビューする制御を行う。また、プレビュー制御部76は、収録サーバ22から受信した撮影素材を表示装置26にプレビューする制御を行う。
送信部77は、編集リスト作成部74が作成した編集リストとダイジェスト作成部75が作成したダイジェストを送出セクション13に送信する。
表示部81は、プレビュー制御部76の制御に従って、撮影セクション11から受信した所定時間、すなわち1秒分の撮影素材に対応する動画像を表示する。また、表示部81は、プレビュー制御部76の制御に従って、ダイジェストを表示する。編集者は、表示部81に表示された撮影素材とダイジェストを確認し、編集リストの修正が必要であると判断した場合には、編集端末23に入力操作を行い編集リストの変更を指示する。
図4は、送出セクション13に設けられた各装置の機能的構成例を示すブロック図である。
送出端末27は、受付部91を有している。送出サーバ28は、受信部101、ダイジェスト作成部102、及び送出部103を有している。
受付部91は、編集者からの送出指示の入力操作に従って、送出サーバ28に対して、送出するダイジェストの選択、ダイジェストの送出タイミング等を指示する。受信部101は、編集セクション12からダイジェストと編集リストを受信する。また、受信部101は、撮影セクション11から撮影素材を受信する。ダイジェスト作成部102は、編集リストに従って撮影素材からダイジェストを作成する。送出部103は、受付部91が受け付けた送出指示に従って、ダイジェストを送出する。なお、送出部102は、受付部91が受け付けた送出指示に従って、撮影セクション11から受信した撮影素材をそのまま送出する場合もある。
次に、図5乃至図13を参照して、このような機能的構成を有する時差送出システム1の各部の処理について説明する。時差送出システム1の処理は、各セクションの処理の集合体である。各セクションの処理は、他のセクションの処理とは独立した処理であって、同時に実行される場合もある。ただし、所定の撮像素材に着目し、当該撮像素材の流れの観点からすると、撮影セクション11、編集セクション12、及び送出セクション13の各処理の順で実行される。そこで、以下、撮影セクション11、編集セクション12、及び送出セクション13の順で、各処理の流れについて説明する。
最初に、撮影セクション11の処理(以下、撮影処理と称する)の流れについて説明する。
[撮影処理]
図5は、撮影セクション11による撮影処理の流れを説明するフローチャートである。
図5は、撮影セクション11による撮影処理の流れを説明するフローチャートである。
ただし、図5の撮影処理は、収録サーバ22の観点で示した処理である。従って、図5の撮影処理は、撮影装置21の撮影部41が撮影対象を撮影し、撮影した結果得られる撮影データの収録サーバ22への送信が開始することをトリガとして、実行される。
ステップS1において、収録部51は、撮影装置21から順次送信されてくる撮影データのうち、所定時間分、すなわちここでは1秒分のデータを、1つの撮影素材として収録する。すると、この撮影素材に対して、次のステップS2以降の処理が実行される。
ステップS2において、イベント検出部52は、ステップS1の処理で収録された撮影素材から、イベントを検出する。本実施形態のステップS2の処理では、イベントの検出にあたり、編集セクション12のデータベース25に登録されたイベント検出条件が参照される。
ここで、図6を参照して、イベント検出条件の具体例について説明する。
[イベント条件]
図6は、イベント検出条件の具体例について説明する図である。
図6は、イベント検出条件の具体例について説明する図である。
図6には、撮影素材が野球の試合であり、イベントが「ホームラン」である場合のイベント検出条件の例が示されている。
図6の例では、イベント検出条件は、行列構造の表(テーブル)に含まれている。このテーブルは、「条件番号」、「対象素材」、「分類」、「詳細条件」、及び「コメント」という列方向の項目が設けられている。また、当該テーブルの1行に対しては、1つのイベント検出条件が対応付けられている。すなわち、当該テーブルの1行における、「条件番号」、「対象素材」、「分類」、「詳細条件」、及び「コメント」の各項目に格納された内容によって、当該1行に対応付けられたイベント検出条件が特定される。
図6の例では、n個(nは複数の整数値)のイベント条件が存在し、n個のイベント条件の各々に対して、1乃至nのうちの何れかの番号が付されている。このような番号を、以下、条件番号と称する。条件番号は、イベント条件を一意に特定するための番号であるため、同一番号が複数のイベント条件に付加されることは禁止される。このような条件番号が格納される項目が、「条件番号」として図6の表に含まれている。すなわち、所定の行の「条件番号」の項目には、当該行に対応付けられたイベント条件を一意に特定する条件番号が格納される。
図6の表の所定の行の「対象素材」の項目には、当該行に対応付けられたイベント条件を用いて、イベント検出部52によりイベントが検出される対象の撮影素材を特定するための情報が格納される。本実施形態では、このような情報として、撮影装置21の名称が「対象素材」の項目に格納される。すなわち、所定の行の「対象素材」に格納された名称の撮影装置21による撮影データが収録された撮影素材から、イベントの検出がイベント検出部52により行われる場合、当該行に対応付けられたイベント条件が用いられることになる。なお、図6に示される例では、複数の撮影装置21の名称の各々は、カメラK(Kは所定のアルファベット)とされている。
図6の表の所定の行の「分類」の項目には、当該行に対応付けられたイベント条件を用いて、イベント検出部52によりイベントが検出される対象が、音声データであるのか画像データであるのかを特定するための情報が格納される。本実施形態では、このような情報として、対象が音声データであることを示す「音声」、又は、対象が画像データであることを示す「画像」が、「分類」の項目に格納される。
ここで、撮影装置21の撮影データ及びそれから収録される撮影素材には、被写体を撮像した結果得られる画像のデータのみならず、当該動画像のデータが得られたときの周囲の音声のデータも含まれている。従って、所定の行の「分類」に「音声」が含まれていた場合には、イベント検出部52は、当該行の「対象素材」で特定される撮影素材に含まれる音声のデータに基づいて、当該行に対応付けられたイベント条件を満たすか否かを判定する。これに対して、所定の行の「分類」に「画像」が含まれていた場合には、イベント検出部52は、当該行の「対象素材」で特定される撮影素材に含まれる画像のデータに基づいて、当該行に対応付けられたイベント条件を満たすか否かを判定する。
図6の表の所定の「詳細条件」の項目には、当該行に対応付けられたイベント条件の詳細な内容が格納される。従って、イベント検出部52は、所定の行の「対象素材」及び「分類」で特定される音声データまたは画像データを解析し、その解析結果と、当該行の「詳細条件」の項目に格納された内容とを比較する。そして、イベント検出部52は、その比較結果に基づいて、当該行に対応付けられたイベント条件(当該行の「条件番号」に格納された値で特定されるイベント条件)を満たすか否かを判定する。例えば、条件番号「1」の行には「ホームラン」のキーワードが、条件番号「2」の行には「入った」のキーワードが、それぞれ「詳細条件」とされている。
図6の表の所定の「コメント」の項目には、当該行に対応付けられたイベント条件についての付帯情報、すなわち説明等が格納される。
例えば、1行目に対応付けられたイベント検出条件である条件番号「1」のイベント検出条件とは、次のような条件をいう。すなわち、「カメラM」の撮影データから得られた撮影素材のうち「音声」のデータを対象として、当該「音声」に「ホームラン」というキーワードが含まれていた場合に、当該「音声」を含む撮影素材はイベントを含むという条件が、条件番号「1」のイベント検出条件である。換言すると、1行目の「コメント」の項目に格納されているように、「音声解析によりアナウンサが「ホームラン」というキーワードを出したことを検出する」という条件が、条件番号「1」のイベント検出条件である。
例えば、2行目に対応付けられたイベント検出条件である条件番号「2」のイベント検出条件とは、次のような条件をいう。すなわち、「カメラM」の撮影データから得られた撮影素材のうち「音声」のデータを対象として、当該「音声」に「入った」というキーワードが含まれていた場合に、当該「音声」を含む撮影素材はイベントを含むという条件が、条件番号「2」のイベント検出条件である。換言すると、2行目の「コメント」の項目に格納されているように、「音声解析によりアナウンサが「入った」というキーワードを出したことを検出する」という条件が、条件番号「2」のイベント検出条件である。
例えば、3行目に対応付けられたイベント検出条件である条件番号「3」のイベント検出条件とは、次のような条件をいう。すなわち、「カメラC」の撮影データから得られた撮影素材のうち「画像」のデータを対象として、当該「画像」に「ボールがスタンドへ入る」画像が含まれていた場合に、当該「画像」を含む撮影素材はイベントを含むという条件が、条件番号「3」のイベント検出条件である。換言すると、3行目の「コメント」の項目に格納されているように、「画像解析により、ボールがスタンドへ入ったことを検出する」という条件が、条件番号「3」のイベント検出条件である。
例えば、4行目に対応付けられたイベント検出条件である条件番号「4」のイベント検出条件とは、次のような条件をいう。すなわち、「カメラK」の撮影データから得られた撮影素材のうち「音声」のデータを対象として、当該「音声」に「歓声が大きくなる」という音声が含まれていた場合に、当該「音声」を含む撮影素材はイベントを含むという条件が、条件番号「4」のイベント検出条件である。換言すると、4行目の「コメント」の項目に格納されているように、「音声解析によりスタンドの歓声が大きくなったことを検出する」という条件が、条件番号「4」のイベント検出条件である。
ここで、条件番号「1」乃至「n」のイベント検出条件は、各単体で用いることもできるが、イベントの検出精度を高めるべく組み合わせて用いることができる。条件番号「1」乃至「n」のイベント検出条件の組み合わせ方は、特に限定されず任意の組み合わせが可能である。本実施形態では、条件番号「1」乃至「n」のイベント検出条件の組み合わせは論理式によって表わされており、このような論理式を可変設定することで、条件番号「1」乃至「n」のイベント検出条件の組み合わせの変更が可能になっている。
本実施形態では、このような論理式を記述する項目として、図6の表に、「条件文」という項目が付されている。例えば図6の例では、「条件文」の項目内に「(1)×(2)+(3×4)+…」という論理式が記述されている。これは、「条件番号「1」及び「2」のイベント検出条件を満たすか、または、条件番号3、かつ条件番号4を満たす…」場合にイベントが検出されることを意味している。このように、条件番号に対応する条件が被演算子として理論式により複数組み合わされることにより、イベントの検出精度を高めることができる。
このように、イベントが発生したことを検出するための条件を示す項目として「条件文」を示す項目が付されている。また、イベント検出条件には、検出するイベントの種類を示す項目として「イベント名」を示す項目が付されている。
図5のフローチャートの説明に戻り、ステップS2の処理で、このような図6等の表に含まれたイベント検出条件に基づくイベントの検出が終了すると、処理はステップS3に進む。
ステップS3において、イベント情報生成部53は、ステップS2で検出されたイベントの種類を特定可能なイベント情報を生成する。例えば、ステップS2で検出されたイベントの種類が「ホームラン」であるならば、「ホームラン」を特定可能なイベント情報が生成される。
ステップS4において、送信部54は、所定時間分、すなわちここでは1秒分の撮影素材に対応するイベント情報を編集セクション12に転送する。
ステップS5において、送信部54は、所定時間分、すなわちここでは1秒分の撮影素材を編集セクション12の表示装置26と送出セクション13に転送する。
ステップS6において、収録部51は、収録が終了したかを判定する。
撮影装置21から撮影データが未だ送信されてきている場合、ステップS6においてNOであると判定されて、処理はステップS1に戻され、それ以降の処理が繰り返される。すなわち、撮影装置21から撮影データが送信されてきている間、ステップS1乃至ステップS6のループ処理が複数回繰り返し実行される。したがって、イベントが複数回検出された場合、複数のイベント情報が編集セクション12に転送される。なお、各回で検出されるイベントは、同一種類の場合もあるし、別の種類の場合もある。
その後、撮影装置21から撮影データの送信が終了して、最後に送信された撮影データから収録された撮影素材に対して、ステップS1乃至ステップS5までの処理が実行されると、次のステップS6においてYESであると判定されて、撮影処理は終了する。
なお、図5の撮影処理のステップS2の処理では、イベント検出部52が、イベント検出条件を参照して、撮影素材からイベントを検出した。しかしながら、イベントの検出の手法はこれに限定されない。例えば、編集者に対して、表示装置26にプレビューされた撮影素材の映像や音声を確認させ、イベントが発生したことを認識した時に編集端末23に所定の入力操作をさせ、当該入力操作を受け付けた時にイベントを検出する、といった手法を採用することもできる。
撮影セクション11において、図5に示される撮影処理が実行される一方で、編集セクション12においては、撮影素材のダイジェストの作成の前に、編集端末23は、各種編集条件をデータベース25に登録するまでの一連の処理を実行する。以下、このような編集端末23の一連の処理を編集条件作成処理と称する。
[編集条件作成処理]
図7は、編集端末23による編集条件作成処理の流れを説明するフローチャートである。
図7は、編集端末23による編集条件作成処理の流れを説明するフローチャートである。
ステップS21において、受付部61は、編集者からの入力操作を受け付け、テンプレートがデータベース25に登録されているかを判定する。
ここで、図8と図9を参照してテンプレートの具体例について説明する。
[ダイジェストのテンプレート]
図8は、テンプレートの具体例について説明する図である。
図8は、テンプレートの具体例について説明する図である。
図8には、撮影素材の内容が野球の試合であり、イベントの種類が「ホームラン」である場合のテンプレートの例が示されている。
図8の例では、テンプレートは、行列構造の表(テーブル)としてデータベース25に登録されている。この表には、「シーン番号」、「コメント」、「素材」、「In点」、「Out点」、「Duration」、「Effect」、「Speed(%)」、及び「AudioLevel(db)」という列方向の項目が設けられている。また、当該テーブルの1行に対しては、1つのシーンが対応付けられている。
シーンとは、撮影素材により表現されている実世界の3次元空間で生じた事象の集合体(野球の試合等)のうち、一部の区間の事象の集合体をいう。この一部の区間の時間長は、特に限定されず、撮影素材の処理単位、すなわちここでは1秒よりも長い場合もあるし短い場合もある。すなわち、シーンのデータは、1秒単位の撮影素材の一部として含まれる場合もあるし、複数の撮影素材より構成される場合もある。例えば、ホームランのシーンとは、投手がボールを投げて、打者がそのボールを打ち、そのボールがスタンドに入り、その結果、打者がベースを一巡するまでの各事象の集合体をいう。この場合、ホームランのシーンは、投手がボールを投げるシーン、打者がそのボールを打つシーン、そのボールがスタンドに入るシーン、打者がベースを一巡するシーン等、さらに細かい単位の複数種類のシーンにより構成される。図8に示す表では、この細かい単位のシーンの種類が、各1行に対応付けられている。なお、この細かい単位のシーンの1つとして、撮影素材そのものではなく、CG画像から構成される種類を採用してもよい(後述するシーン番号「9」の種類参照)。
すなわち、当該テンプレートの1行における、「シーン番号」、「コメント」、「素材」、「In点」、「Out点」、「Duration」、「Effect」、「Speed(%)」、及び「AudioLevel(db)」の各項目に格納された内容によって、当該1行に対応付けられたテンプレートが特定される。
また、テンプレートには、テンプレートの種類を示す項目として「テンプレート名」を示す項目が付されている。また、テンプレートの更新日時を示す項目として「更新日時」を示す項目が付されている。
図8の例では、10種類のシーンが存在し、10種類のシーンの各々に対して、1乃至10のうちの何れかの番号が付されている。このような番号を、以下、シーン番号と称する。シーン番号は、シーンを一意に特定するための番号であるため、同一番号が複数種類のシーンに付加されることは禁止される。このようなシーン番号が格納される項目が、「シーン番号」として図8の表に含まれている。すなわち、所定の行の「シーン番号」の項目には、当該行に対応付けられたシーンの種類を一意に特定するシーン番号が格納される。
図8の表の所定の行の「コメント」の項目には、当該行に対応付けられたシーンの種類の概要が記述されている。「コメント」の項目は、編集者が入力した任意の文字列を格納することができる。
図8の表の所定の行の「素材」の項目には、当該行に対応付けられたシーンの種類を構成する1以上の撮影素材を特定するための情報が格納される。本実施形態では、このような情報として、撮影装置21の名称が「素材」の項目に格納される。すなわち、所定の行の「素材」に格納された名称の撮影装置21による撮影データから収録された1以上の撮影素材から、当該行に対応付けられた種類のシーンのデータが構成されることになる。なお、図8に示される例では、図6の例と対応させて、複数の撮影装置21の名称の各々は、カメラK(Kは所定のアルファベット)とされている。ただし、9行目に示すように、撮影素材ではなくCG画像のデータによりシーンの種類を構成してもよい。
図8の表の所定の行の「In点」の項目には、当該行に対応付けられた種類のシーンの開始時刻を示すタイムコードが記述されている。タイムコードとは、撮影データ(すなわち、1以上の撮影素材)を構成するフレームの各データの各々に対して付加される、フレームの表示時刻であって、時、分、秒、およびフレーム番号の順番に配列されて構成される。ここで、フレームの表示時刻の基準時刻「00:00:00;00」は、予め定められる時刻であって、本実施形態では、イベント検出の時刻が採用されている。
例えば、撮影データのフレームレートが30フレーム/秒であった場合、タイムコードは、「時:分:秒;フレーム番号X」(Xは、0≦X≦29の整数)として表現される。例えば、タイムコードが「00:01:10;25」の場合、撮影データのうち、00時01分10秒の25フレーム目のフレームの表示時刻が、当該行に対応付けられた種類のシーンの開始時刻を示すことになる。なお、以下の説明においては、説明を簡単にするために、フレーム番号の説明は省略する。また、イベント検出時よりも前の時刻は、タイムコードの前に「−」が記述されて表現される。例えば、「−00:00:15;00」は、イベント検出時より15秒だけ前の時刻を意味する。
図8の表の所定の行の「Out点」の項目には、当該行に対応付けられた種類のシーンの終了時刻を示すタイムコードが記述されている。この場合のフレームの表示時刻の基準時刻「00:00:00;00」は、「In点」の場合と同様であり、本実施形態では、イベント検出の時刻とされている。
図8の表の所定の行の「Duration」の項目には、In点とOut点のタイムコードの差分の時間が記述されている。すなわち、「Duration」の項目には、シーンの時間長が記述されている。
図8の表の所定の行の「Effect」の項目には、当該行に対応付けられた種類のシーンと次のシーンとの間に追加される映像効果が記述されている。すなわち、「Effect」の項目には、例えば、カット、ワイプ、ディゾルブ等が記述される。
図8の表の所定の行の「Speed(%)」の項目には、当該行に対応付けられた種類のシーンの再生速度が、シーンを構成する撮影素材の元の再生速度を「100%」として相対的に記述されている。例えば、「Speed(%)」が「200%」の場合にはシーンの再生速度は、シーンを構成する撮影素材の元の再生速度の2倍とされ、「50%」の場合には0.5倍とされる。
図8の表の所定の行の「AudioLevel(db)」の項目には、当該行に対応付けられた種類のシーンの音声データの音量が、シーンを構成する撮影素材の元の音声データの音量を「0」として相対的に記述されている。例えば、「AudioLevel(db)」が「2」の場合にはシーンの音声データの音量は当該シーンを構成する撮影素材の元の音声データの音量よりも大きくされ、「3」の場合には「2」の場合よりもさらに大きされる。一方、「AudioLevel(db)」が「-1」の場合にはシーンの音声データの音量が当該シーンを構成する撮影素材の元の音声データの音量よりも小さくされ、「-2」の場合には「-1」の場合よりもさらに小さくされる。
例えば、1行目に対応付けられたシーン、すなわちシーン番号「1」のシーンは、「ピッチャー投球」のシーンであり、次のような撮影素材から構成される。すなわち、「カメラE」による撮影素材のうち、イベント検出時の「00:00:00;00」よりも15秒前の「−00:00:15;00」から10秒前の「−00:00:10;00」までの5秒間「00:00:05;00」の撮影素材により構成される。そして、シーン番号「1」のシーンにおいては、次のシーン番号「2」のシーンとの間には、「ディゾルブ」の映像効果が付加される。また、シーン番号「1」のシーンにおいては、再生速度は、当該シーンに用いる撮影素材の元の再生速度と等倍の「100%」が採用され、音声データの音量は、シーンに用いる撮影素材の元の音声データの音量と同じ「0」が採用される。
2行目に対応付けられたシーン、すなわちシーン番号「2」のシーンは、「ヒット」のシーンであり、次のような撮影素材から構成される。すなわち、「カメラB」による撮影素材のうち、イベント検出時の「00:00:00;00」よりも10秒前の「−00:00:10;00」から7秒前の「−00:00:07;00」までの3秒間「00:00:03;00」の撮影素材により構成される。そして、シーン番号「2」のシーンにおいては、次のシーン番号「3」のシーンとの間には、「ディゾルブ」の映像効果が付加される。また、シーン番号「2」のシーンにおいては、再生速度は、当該シーンに用いる撮影素材の元の再生速度と等倍の「100%」が採用され、音声データの音量は、シーンに用いる撮影素材の元の音声データの音量と同じ「0」が採用される。
3行目に対応付けられたシーン、すなわちシーン番号「3」のシーンは、「ピッチャーアップ」のシーンであり、次のような撮影素材から構成される。すなわち、「カメラE」による撮影素材のうち、イベント検出時の「00:00:00;00」よりも8秒前の「−00:00:08;00」から4秒前の「−00:00:04;00」までの4秒間「00:00:04;00」の撮影素材により構成される。そして、シーン番号「3」のシーンにおいては、次のシーン番号「4」のシーンとの間には、「ディゾルブ」の映像効果が付加される。また、シーン番号「3」のシーンにおいては、再生速度は、当該シーンに用いる撮影素材の元の再生速度と等倍の「100%」が採用され、音声データの音量は、シーンに用いる撮影素材の元の音声データの音量と同じ「0」が採用される。
4行目に対応付けられたシーン、すなわちシーン番号「4」のシーンは、「ボールがスタンドへ」のシーンであり、次のような撮影素材から構成される。すなわち、「カメラC」による撮影素材のうち、イベント検出時の「00:00:00;00」よりも4秒前の「−00:00:04;00」からイベント検出時の「00:00:00;00」までの4秒間「00:00:04;00」の撮影素材により構成される。そして、シーン番号「4」のシーンにおいては、次のシーン番号「5」のシーンとの間には、「ディゾルブ」の映像効果が付加される。また、シーン番号「4」のシーンにおいては、再生速度は、当該シーンに用いる撮影素材の元の再生速度と等倍の「100%」が採用され、音声データの音量は、シーンに用いる撮影素材の元の音声データの音量よりも小さい「-3」が採用される。なお、シーン番号「4」のシーンの音声データの音量を小さくするのは、当該シーンでは、スタンドの歓声が大きくなることが予想されるためである。
5行目に対応付けられたシーン、すなわちシーン番号「5」のシーンは、「バッターアップ」のシーンであり、次のような撮影素材から構成される。すなわち、「カメラD」による撮影素材のうち、イベント検出時の「00:00:00;00」よりも1秒前の「−00:00:01;00」から3秒後の「00:00:03;00」までの3秒間「00:00:03;00」の撮影素材により構成される。そして、シーン番号「5」のシーンにおいては、次のシーン番号「6」のシーンとの間には、「ディゾルブ」の映像効果が付加される。また、シーン番号「5」のシーンにおいては、再生速度は、当該シーンに用いる撮影素材の元の再生速度と等倍の「100%」が採用され、音声データの音量は、シーンに用いる撮影素材の元の音声データの音量と同じ「0」が採用される。
9行目に対応付けられたシーン、すなわちシーン番号「9」のシーンとは、「点数表示」のシーンであり、「素材」には「CG」が格納されているから、CG画像から構成されるシーンであることが分かる。具体的には、所定のCG画像が2秒間「00:00:02;00」用いられる。そして、シーン番号「9」のシーンにおいては、再生速度は、当該シーンに用いるCG画像の元の再生速度と等倍の「100%」が採用され、音声データの音量は、当該CG画像に用いる音声データの音量よりも小さい「-2」が採用される。
なお、シーン番号「9」のシーンの音声データの音量を小さくするのは、当該シーンでは、野球の試合の実況や解説のアナウンサのコメントが入ることが予想されるためである。また、CG画像は、受付部61により受け付けられた作成操作に従って作成されたものである。なお、CG画像は、イベントに対応させて自動的に作成され、データベース25に登録されるようにしてもよい。
10行目に対応付けられたシーン、すなわちシーン番号「10」のシーンは、「ホームラン(スロー)」のシーンであり、次のような撮影素材から構成される。すなわち、「カメラE」による撮影素材のうち、イベント検出時の「00:00:00;00」よりも10秒前の「−00:00:10;00」から7秒後の「−00:00:07;00」までの3秒間「00:00:03;00」の撮影素材により構成される。そして、シーン番号「10」のシーンにおいては、再生速度は、当該シーンに用いる撮影素材の元の再生速度よりも遅い「50%」が採用され、音声データの音量は、シーンに用いる撮影素材の元の音声データの音量と同じ「0」が採用される。
本実施形態では、このようなシーン番号「1」乃至「10」のシーンからなるテンプレートに従って、各シーンのデータが生成され、これらがつなぎ合わされることによって、「ホームラン」のシーンのダイジェストが作成される。
図8に示されるテンプレートは、図9に示されるようなXML(Extensible Markup Language)形式のドキュメントとしてデータベース25に登録されている。
図9は、テンプレートのXML形式のデータの具体例を示している。
図9には、図8のシーン番号「1」乃至「10」のうちの、シーン番号「1」乃至「4」のテンプレートのXML形式のデータが記述されており、シーン番号「5」乃至「10」のテンプレートの図示は省略されている。なお、図9の各行の左端には、説明のため行番号を付してある。
1行目のタグ<?xml version="1.0" encoding="utf-8"?>は、XMLのバージョンが「1.0」であり、XMLの文字コードが「utf-8」であることを示している。
2行目のタグ<templete title="ホームラン用テンプレート" updateDate="2010-04-01">は、テンプレート名が「ホームラン用テンプレート」であり、更新日時が「2010-04-01」であることを示している。
3行目のタグ<scene index="1">は、「シーン番号」が「1」であることを示している。
4行目のタグ<comment>とタグ</comment>の間には、図8の表の「コメント」の項目に格納される内容が格納される。例えば、図9の例では、「<comment>ピッチャー投球</comment>」と記述されており、図8の表の「コメント」には「ピッチャー投球」が格納されていることと対応しているのが分かる。
5行目のタグ<source>とタグ</source>の間には、図8の表の「素材」の項目に格納される内容が格納される。例えば、図9の例では、「<source>カメラE</source>」と記述されており、図8の表の「素材」には「カメラE」が格納されていることと対応しているのが分かる。
6行目のタグ<inTimecode>とタグ</inTimecode>の間には、図8の表の「In点」の項目に格納される内容が格納される。例えば、図9の例では、「<inTimecode>-00:00:15;00</inTimecode>」と記述されており、図8の表の「In点」には「-00:00:15;00」が格納されていることと対応しているのが分かる。
7行目のタグ<outTimecode>とタグ</outTimecode>の間には、図8の表の「Out点」の項目に格納される内容が格納される。例えば、図9の例では、「<outTimecode>-00:00:10;00</outTimecode>」と記述されており、図8の表の「Out点」には「-00:00:10;00」が格納されていることと対応しているのが分かる。
8行目のタグ<duration>とタグ</duration>の間には、図8の表の「Duration」の項目に格納される内容が格納される。例えば、図9の例では、「<duration>00:00:05;00</duration>」と記述されており、図8の表の「Duration」には「00:00:05;00」が格納されていることと対応しているのが分かる。
9行目のタグ<effect>とタグ<effect>の間には、図8の表の「Effect」の項目に格納される内容が格納される。例えば、図9の例では、「<effect>ディゾルブ<effect>」と記述されており、図8の表の「Effect」には「ディゾルブ」が格納されていることと対応しているのが分かる。
10行目のタグ<speed>とタグ</speed>の間には、図8の表の「Speed(%)」の項目に格納される内容が格納される。例えば、図9の例では、「<speed>100</speed>」と記述されており、図8の表の「Speed(%)」には「100」が格納されていることと対応しているのが分かる。
11行目のタグ<audioLevel>とタグ</audioLevel>の間には、図8の表の「AudioLevel(db)」の項目に格納される内容が格納される。例えば、図9の例では、「<audioLevel>0</audioLevel>」と記述されており、図8の表の「AudioLevel(db)」には「0」が格納されていることと対応しているのが分かる。
図7のフローチャートの説明に戻り、以上説明したようなテンプレートがデータベース25に登録されていない場合、ステップS21においてNOであると判定されて、処理はステップS22に進む。
ステップS22において、作成部62は、編集者の操作に基づいて、図8の表(実際には図9のXML文章)を作成することによって、ダイジェストのテンプレートを作成する。作成されたダイジェストのテンプレートは、データベース25に登録されて、処理はステップS21に戻される。すると、ステップS21においてYESであると判定されて、処理はステップS23に進む。
ステップS23において、受付部61は、編集者からの入力操作を受け付け、イベント検出条件がデータベース25に登録されているかを判定する。すなわち、受付部61は、図6に示されるイベント検出条件がデータベース25に登録されているかを判定する。
イベント検出条件がデータベース25に登録されていない場合、ステップS23においてNOであると判定されて、処理はステップS24に進む。
ステップS24において、作成部62は、編集者の操作に基づいて、イベント検出条件を作成する。作成されたイベント検出条件は、データベース25に登録されて、処理はステップS23に戻される。すると、ステップS23においてYESであると判定されて、処理はステップS25に進む。
ステップS25において、受付部61は、編集者からの入力操作を受け付け、対応情報がデータベース25に登録されているかを判定する。
ここで、図10を参照して対応情報の具体例について説明する。
[対応情報]
図10は、対応情報の具体例を示す図である。
図10は、対応情報の具体例を示す図である。
図10には、撮影素材の内容が野球の試合である場合の対応情報の例が示されている。
図10の例では、対応情報は、行列構造の表(テーブル)としてデータベース25に登録されている。この表には、「イベント名」、「テンプレート名」、及び「テンプレートのパス」という列方向の項目が設けられている。
図10の表の所定の行の「イベント名」の項目には、イベントの種類が記述されている。
図10の表の所定の行の「テンプレート名」にはイベントの種類に対応するテンプレートの種類が記述されている。
図10の表の所定の行の「テンプレートのパス」には、当該テンプレートのデータベース25上での所在が記述されている。
例えば、イベント名「ホームラン」に対応するテンプレート名は「ホームラン用テンプレート」であり、当該テンプレートはデータベース25上の「C:\...\homerun.xml」に登録されていることが分かる。
イベント名「満塁ホームラン」に対応するテンプレート名は「満塁ホームラン用テンプレート」であり、当該テンプレートはデータベース25上の「C:\...\grand slam hr.xml」に登録されていることが分かる。
イベント名「逆転ホームラン」に対応するテンプレート名は「逆転ホームラン用テンプレート」であり、当該テンプレートはデータベース25上の「C:\...\come_from_behind_hr.xml」に登録されていることが分かる。
イベント名「バント」に対応するテンプレート名は「バント用テンプレート」であり、当該テンプレートはデータベース25上の「C:\...\bunt.xml」に登録されていることが分かる。
図7のフローチャートの説明に戻り、以上説明したような対応条件がデータベース25に登録されていない場合、ステップS25においてNOであると判定されて、処理はステップS26に進む。
ステップS26において、作成部62は、編集者の操作に基づいて、図10の表を作成することによって、対応条件を作成する。作成された対応条件は、データベース25に登録されて、処理はステップS25に戻される。すると、ステップS25においてYESであると判定されて、編集条件作成処理は終了する。
図7に示されるような編集条件作成処理が終了した状態で、撮影セクション11から撮影素材が転送されると、編集サーバ24は、編集条件を用いてダイジェストを作成し、送出セクション13に転送するまでの一連の処理を実行する。以下、このような編集サーバ24の一連の処理を編集処理と称する。
[編集処理]
図11は、編集サーバ24による編集処理の流れを説明するフローチャートである。この処理は、撮影セクション11からイベント情報が転送されてくる毎に、繰り返し実行される。
図11は、編集サーバ24による編集処理の流れを説明するフローチャートである。この処理は、撮影セクション11からイベント情報が転送されてくる毎に、繰り返し実行される。
ステップS41において、受信部71は、撮影セクション11から1秒単位の撮影素材に対応するイベント情報を受信する。
ここでは、例えば、受信部71は、図5のステップS3において生成された「ホームラン」というイベント情報を受信したものとして説明する。なお、本編集処理と並行して、受信部71は、その後も、撮影セクション11から1秒単位の撮影素材に対応するイベント情報を順次受信するものとする。
ステップS42において、イベント情報認識部72は、ステップS41の処理時点で受信したイベント情報からイベントの種類を認識する。例えば、イベント情報認識部72は、受信した「ホームラン」というイベント情報から、イベントの種類が「ホームラン」であることを認識する。
ステップS43において、テンプレート取得部73は、データベース25に登録されている対応情報を参照して、ステップS42の処理で認識されたイベントの種類に対応するテンプレートを取得する。例えば、テンプレート取得部73は、図10に示される対応情報を参照して、「ホームラン」という種類のイベントに対応するテンプレート「ホームラン用テンプレート」を、データベース25の「C:\...\homerun.xml」から取得する。
ステップS44において、編集リスト作成部74は、テンプレートから初期編集リストを作成する。後述するように、編集リストは修正される場合があるので、最も初めに作成された編集リストを、ここでは初期編集リストと呼ぶ。
ここで、図12を参照して編集リストの具体例について説明する。
[編集リスト]
図12は、編集リストの具体例について説明する図である。
図12は、編集リストの具体例について説明する図である。
図12に示されるように、編集リストは、XML形式のデータであり、複数のシーンのデータが含まれる。編集リストは、図9に示されるテンプレートのXML形式のデータから作成され、一部を除いて図9のテンプレートのXML形式のデータと一致する。したがって、図12の編集リストのXML形式のデータのうち、図9のテンプレートのXML形式のデータと一致するデータの説明は繰り返しになるので省略し、相違するデータについてのみ説明する。なお、図12には、図9のシーン番号「1」乃至「10」のうちの、シーン番号「1」乃至「4」の編集リストのXML形式のデータが記述されており、シーン番号「5」乃至「10」の編集リストの図示は省略されている。なお、図12の各行の左端には、説明のため行番号を付してある。
2行目のタグ<edl title="20100401-19-00-00-00">は、編集リスト名が「20100401-19-00-00-00」であることを示している。編集リストでは、編集リスト名をイベントが検出された時刻とする。すなわち、編集リスト名から、イベント「ホームラン」が検出された時刻が西暦2010年4月1日「20100401」の19時00分00秒00フレーム「19:00:00;00」であることが分かる。なお、「edl」は、編集リスト(Edit Decision List)を意味している。
「シーン番号」が「1」についての編集リストのXML形式のデータは、図9のテンプレートのXML形式のデータと同様に3行目から12行目までに記述される。そのうち、図9のテンプレートのXML形式のデータと相違するのは6行目と7行目である。
6行目のタグ<inTimecode>とタグ</inTimecode>の間には、「In点」の時刻が格納される。例えば、図12の例では、「<inTimecode>18:59:45;00</inTimecode>」と記述されており、「シーン番号」が「1」のシーンが、イベント検出時刻の「19:00:00;00」よりも15秒前の時刻「18:59:45;00」から開始されることを示している。
7行目のタグ<outTimecode>とタグ</outTimecode>の間には、「Out点」の時刻が格納される。例えば、図12の例では、「<outTimecode>18:59:50;00</outTimecode>」と記述されており、「シーン番号」が「1」のシーンが、イベント検出時刻の「19:00:00;00」よりも10秒前の時刻「18:59:50;00」に終了されることを示している。
すなわち、6行目と7行目から、「シーン番号」が「1」のシーンは、イベント検出時の時刻の15秒前から10秒前までの撮影素材により構成されるシーンであることが分かる。
「シーン番号」が「2」についての編集リストのXML形式のデータは、図9のテンプレートのXML形式のデータと同様に13行目から22行目までに記述さる。そのうち、図9のテンプレートのXML形式のデータと相違するのは16行目と17行目である。
16行目のタグ<inTimecode>とタグ</inTimecode>の間には、「In点」の時刻が格納される。例えば、図12の例では、「<inTimecode>18:59:50;00</inTimecode>」と記述されており、「シーン番号」が「2」のシーンが、イベント検出時刻の「19:00:00;00」よりも10秒前の時刻「18:59:50;00」から開始されることを示している。
17行目のタグ<outTimecode>とタグ</outTimecode>の間には、「Out点」の時刻が格納される。例えば、図12の例では、「<outTimecode>18:59:53;00</outTimecode>」と記述されており、「シーン番号」が「2」のシーンが、イベント検出時刻の「19:00:00;00」よりも7秒前の時刻「18:59:53;00」に終了されることを示している。
すなわち、16行目と17行目から、「シーン番号」が「2」のシーンは、イベント検出時刻の10秒前から7秒前までの撮影素材により構成されるシーンであることが分かる。
このように図12の編集リストのXML形式のデータが、図9のテンプレートのXML形式のデータと相違するのはタグ<inTimecode>とタグ</inTimecode>、及びタグ<outTimecode>とタグ</outTimecode>が記述された行である。すなわち、図9に示されるテンプレートのXML形式のデータでは、「In点」と「Out点」には、イベント検出時のタイムコードを「00:00:00:00」とした場合のタイムコードが記述される。これに対して、図12の編集リストのXML形式のデータでは、「In点」と「Out点」には、実際のイベント検出時の時刻を基準とした場合の時刻が記述される。
図11のフローチャートの説明に戻り、以上説明したような初期編集リストが作成されると、処理はステップS45に進む。
ステップS45において、送信部77は、初期編集リストを送出セクション13に転送する。すなわち、後述するステップS46以降の処理に時間がかかる場合を想定して、初期編集リストを送出セクション13に転送しておく。そして、送出セクション13では、受信した初期編集リストに従って、撮影セクション11から受信した撮影素材からダイジェストが作成される。これにより、ステップ46以降の処理に時間がかかったとしても、後述する図13のステップS75の処理で、送出するダイジェストを確実に選択することが可能になり、ダイジェストを送出できなくなることが阻止される。
ステップS46において、ダイジェスト作成部75は、初期編集リストに従って必要な撮影素材を取得し、ダイジェストを作成する。すなわち、ダイジェスト作成部75は、図12に示されるような編集リストに従って、収録サーバ22から必要な撮影素材を取得してシーン番号「1」乃至「10」の各種類のシーンのデータをそれぞれ生成し、これらの各種類のシーンのデータをつなぎ合わせることによって、ダイジェストを作成する。
ステップS47において、送信部77は、ダイジェストを送出セクション13に転送する。すなわち、送信部77は、最も初めに作成された編集リスト、すなわち修正されていない初期編集リストにより作成されたダイジェストを送出セクション13に転送する。
ステップS48において、プレビュー制御部76は、ダイジェストの映像を表示部70にプレビュー表示する。なお、編集リストに記述されたシーン番号の種類のシーンのデータに含めるべき撮影素材が未収録であって、収録サーバ22に収録されていない場合は、そのシーン番号の種類のシーンはプレビュー表示されない。
ステップS49において、受付部61は、編集者の操作に基づいて、編集リストの修正が必要かを判定する。
すなわち、編集者は、プレビュー表示されたダイジェストを見ながら、ダイジェストを構成する各シーンに問題はないかを確認する。例えば、編集リストに含まれる所定の撮影装置21−Kの故障により、撮影装置21−Kによる撮影素材がなかった場合には、編集者は、該当するシーンの映像がプレビューされないため、問題があると認識する。このような場合、編集者は、編集端末23に所定の入力操作をすることによって、編集リストの修正の指示をすることができる。
このような編集リストの修正の指示がなされた場合、ステップS49においてYESであると判定されて、処理はステップS50に進む。
ステップS50において、編集リスト作成部74は、編集リストを修正する。すなわち、編集リスト作成部74は、編集リストのうち問題があった部分を修正し、編集リストを更新する。
なお、問題があった部分については、編集者が、編集端末23に所定の入力操作をすることによって修正を指示するものとする。すなわち、受付部61によって、その操作から修正の指示内容が解釈され、編集リスト作成部74に通知される。編集リスト作成部74は、通知された指示内容に基づいて、修正対象となる編集リストのうち、問題があった部分を修正する。
例えば、撮影装置21−Kが故障という指摘内容であった場合、編集リスト作成部74は、編集リストに含まれる撮影素材のうち、故障した撮影装置21−Kによる撮影素材を、他の撮影装置21による撮影素材に置換するように、編集リストのタグ<source>とタグ</source>の間の記述を修正する。
ステップS51において、ダイジェスト作成部75は、修正後の編集リストに従ってダイジェストを作成する。
このようにして、ステップS51の処理で、修正後の編集リストに従ってダイジェストが作成されると、処理はステップS48に戻され、それ以降の処理が実行される。この場合、修正後の編集リストに従って再作成されたダイジェストが、プレビュー表示される。
その後、編集リストの修正が必要であると編集者に判断され、所定の操作がなされている間、ステップS48乃至ステップS51のループ処理が繰り返し実行され、その都度、編集リストが修正され、修正後の編集リストに従ってダイジェストが再作成され、プレビュー表示される。
最終的に、編集リストの修正が必要でなくなったと判断され、編集端末23への所定の入力操作によりその旨が指示された場合、ステップS49においてNOであると判定されて、処理はステップS52に進む。
ステップS52において、送信部77は、ダイジェストを送出セクション13に転送する。
これにより、編集処理は終了する。
なお、実際には、ステップS47の処理と、ステップS48乃至ステップS52の処理は、同時に並行して実行される。すなわち、編集リストを修正する処理に時間がかかる場合を想定して、短時間で作成可能な初期編集リストにより作成されるダイジェストが送出セクション13に先に転送される。これにより、後述する図13のステップS75の処理で、初期編集リストにより作成されたダイジェストを送出するダイジェストとして確実に選択することが可能になり、ダイジェストを送出できなくなることが阻止される。
例えば、放送番組等を1単位とした場合、1単位内で、複数回のイベントが発生する場合がある。例えば、野球の試合では、「ホームラン」という種類のイベントと、それとは別の「三振」という種類のイベントとが時間的に離散して発生する場合がある。或いは、時間的に離散して、「ホームラン」という同一種類のイベントが複数回発生する場合がある。このような場合、1単位内で、イベントが発生する毎に、その都度、編集処理は独立して実行される。すなわち、1単位内で発生したイベントの回数分だけ、ダイジェストが生成されて、送出セクション13に転送される。
図11に示されるような編集処理が施され、作成されたダイジェストが送出セクション13に転送されると、送出セクション13によって、編集者からの送出指示に従ったダイジェストの送出が行われる。以下、送出セクション13の一連の処理を送出処理と称する。
[送出処理]
図13は、送出セクション13による送出処理の流れを説明するフローチャートである。
図13は、送出セクション13による送出処理の流れを説明するフローチャートである。
ステップS71において、受信部101は、撮影素材を受信する。すなわち、受信部101は、図5のステップS5において転送された撮影素材を受信する。
ステップS72において、受信部101は、初期編集リストを受信する。すなわち、受信部101は、図11のステップS45において転送された初期編集リストを受信する。
ステップS73において、ダイジェスト作成部102は、初期編集リストに従って撮影素材からダイジェストを作成する。すなわち、ステップS73において作成されるダイジェストは、図11のステップS46とステップS51の処理により作成され、その後転送されるダイジェストよりも早く完成する。
ステップS74において、受信部101は、ダイジェストを受信する。すなわち、受信部101は、図11のステップS47において転送された修正されていない編集リストにより作成されたダイジェスト、及び図11のステップS52において転送された修正後の編集リストに従って作成されたダイジェストを受信する。
ステップS75において、受付部91は、編集者からの送出指示を受け付ける。すなわち、ダイジェストの送出時刻等の指示が受け付けられる。また、ダイジェストが複数ある場合にはその中から送出するダイジェストが選択され、さらに、それらが組み合わされる指示が受け付けられる場合もある。また、撮影素材の収録が終了してからダイジェストの送出までの時間に応じて、ダイジェスト作成部102により作成されたダイジェスト、修正されていない編集リストにより作成されたダイジェスト、または修正後の編集リストに従って作成されたダイジェストが選択される。なお、ステップS75と後述するステップS76の処理は、ステップS73においてダイジェスト作成部102によりダイジェストが作成された時点で実行されてもよい。
ステップS76において、送出部103は、送出指示に従いダイジェストを送出する。
これにより、送出処理は終了する。なお、送出サーバ28は、編集者からの指示に基づいて、収録サーバ22から受信した撮影素材をそのまま送出する場合もある。
このように、予め用意されたテンプレートを用いることにより、使用する撮影素材を選択したり、映像効果を施す手間が省略されるので、短時間でダイジェストを作成することができる。また、編集者に必要な操作は容易であるため、短時間の編集に慣れていない編集者でも、短時間でダイジェストを作成することができる。また、テンプレートを用いて作成されたダイジェストは粗編集後のダイジェストとして利用することができる。すなわち、作成されたダイジェストに対して、さらにシーンの一部を切り取るSplite編集、別の映像に置き換えるInsert編集、AudioLevelの調整等を施して、ダイジェストの完成度をより高めることもできる。
本発明は、時差送出システムを備えた情報処理装置に適用することができる。
[本発明のプログラムへの適用]
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
この場合、上述した情報処理装置の少なくとも一部として、例えば、図14に示されるパーソナルコンピュータを採用してもよい。
図14において、CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記録されているプログラムに従って各種の処理を実行する。または記憶部208からRAM(Random Access Memory)203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。
入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイなどよりなる出力部207が接続されている。また、ハードディスクなどより構成される記憶部208、および、モデム、ターミナルアダプタなどより構成される通信部209が接続されている。通信部209は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
入出力インタフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア211が適宜装着される。そして、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図14に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)211により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置、手段などにより構成される装置全体を表すものである。
1 時差送出システム, 11 撮影セクション, 12 編集セクション, 13 送出セクション, 21 撮影装置, 22 収録サーバ, 23 編集端末, 24 編集サーバ, 25 データベース, 26 表示装置, 27 送出端末, 28 送出サーバ, 41 撮影部, 42 送信部, 51 収録部, 52 イベント検出部, 53 イベント情報生成部, 54 送信部, 61 受付部, 62 作成部, 71 受信部, 72 イベント情報認識部, 73 テンプレート取得部, 74 編集リスト作成部, 75 ダイジェスト作成部, 76 プレビュー制御部, 77 送信部, 81 表示部, 91 受付部, 101 受信部, 102 ダイジェスト作成部, 103 送出部
Claims (12)
- イベントの種類を特定可能なイベント情報を受信する受信手段と、
複数のシーンの編集リストの元になるテンプレートであって、前記受信手段により受信された前記イベント情報により特定される種類のイベントについての前記テンプレートを取得するテンプレート取得手段と、
前記テンプレート取得手段により取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成する編集リスト作成手段と、
前記編集リスト作成手段により作成された前記編集リストに含まれる前記複数のシーンのデータを、他の情報処理装置から取得した1以上の撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成するダイジェスト作成手段と
を備える情報処理装置。 - 前記ダイジェストの映像をプレビューさせるプレビュー制御手段を
さらに備える請求項1に記載の情報処理装置。 - 前記編集リスト作成手段により作成された前記編集リストを修正して更新する編集リスト更新手段をさらに備え、
前記ダイジェスト作成手段は、前記編集リスト更新手段により更新された前記編集リストに含まれる前記複数のシーンのデータを、前記他の情報処理装置から取得した1以上の前記撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成する
請求項2に記載の情報処理装置。 - 前記ダイジェスト作成手段は、前記編集リスト作成手段により作成された前記編集リスト、及び前記編集リスト更新手段により更新された前記編集リストにそれぞれ含まれる前記複数のシーンのデータを、前記他の情報処理装置から取得した1以上の前記撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、それぞれのダイジェストを作成する
請求項3に記載の情報処理装置。 - イベントの種類を特定可能なイベント情報を受信する受信ステップと、
複数のシーンの編集リストの元になるテンプレートであって、前記受信ステップの処理により受信された前記イベント情報により特定される種類のイベントについての前記テンプレートを取得するテンプレート取得ステップと、
前記テンプレート取得ステップの処理により取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成する編集リスト作成ステップと、
前記編集リスト作成ステップの処理により作成された前記編集リストに含まれる前記複数のシーンのデータを、他の情報処置装置から取得した1以上の撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成するダイジェスト作成ステップと
を含む情報処理方法。 - イベントの種類を特定可能なイベント情報を受信し、
複数のシーンの編集リストの元になるテンプレートであって、受信された前記イベント情報により特定される種類のイベントについての前記テンプレートを取得し、
取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成し、
作成された前記編集リストに含まれる前記複数のシーンのデータを他の情報処理装置から取得した1以上の撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成する
ステップを含む制御処理をコンピュータに実行させるプログラム。 - 予め設定された1以上の条件を満たすイベントを含む撮影素材を検出するイベント検出手段と、
前記イベントの種類を特定可能なイベント情報を生成するイベント情報生成手段と、
前記イベント情報生成手段により生成された前記イベント情報を他の情報処理装置に送信する送信手段と
を備える情報処理装置。 - 前記条件は、前記撮影素材の音声に含まれる所定のキーワードである
請求項7に記載の情報処理装置。 - 前記条件は、ユーザの所定の指示操作があったという条件であり、
前記イベント検出手段は、前記撮影素材に対して前記ユーザの所定の指示操作があったとき、前記撮影素材にイベントが含まれているとして、前記イベントに該当する撮影データを含む撮影素材を検出する
請求項7に記載の情報処理装置。 - 予め設定された1以上の条件を満たすイベントを含む撮影素材を検出するイベント検出ステップと、
前記イベントの種類を特定可能なイベント情報を生成するイベント情報生成ステップと、
前記イベント情報生成ステップの処理により生成された前記イベント情報を他の情報処理装置に送信する送信ステップと
を含む情報処理方法。 - 予め設定された1以上の条件を満たすイベントを含む撮影素材を検出し、
前記イベントの種類を特定可能なイベント情報を生成し、
生成された前記イベント情報を他の情報処理装置に送信する
ステップを含む制御処理をコンピュータに実行させるプログラム。 - 第1の情報処理装置と第2の情報処理装置を含む情報処理システムであって、
前記第1の情報処理装置は、
予め設定された1以上の条件を満たすイベントを含む撮影素材を検出するイベント検出手段と、
前記イベントの種類を特定可能なイベント情報を生成するイベント情報生成手段と、
前記イベント情報生成手段により生成された前記イベント情報を前記第2の情報処理装置に送信する送信手段と
を備え、
前記第2の情報処理装置は、
前記イベント情報を受信する受信手段と、
複数のシーンの編集リストの元になるテンプレートであって、前記受信手段により受信された前記イベント情報により特定される種類のイベントについての前記テンプレートを取得するテンプレート取得手段と、
前記テンプレート取得手段により取得された前記テンプレートに基づいて、前記複数のシーンの前記編集リストを作成する編集リスト作成手段と、
前記編集リスト作成手段により作成された前記編集リストに含まれる前記複数のシーンのデータを、前記第1の情報処理装置から取得した1以上の前記撮影素材から作成し、作成した前記複数のシーンの各データを結合することによって、ダイジェストを作成するダイジェスト作成手段と
を備える情報処理システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010227501A JP2012084979A (ja) | 2010-10-07 | 2010-10-07 | 情報処理装置及び方法、プログラム、並びに情報処理システム |
US13/240,145 US8824863B2 (en) | 2010-10-07 | 2011-09-22 | Information processing apparatus, information processing method, information processing program, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010227501A JP2012084979A (ja) | 2010-10-07 | 2010-10-07 | 情報処理装置及び方法、プログラム、並びに情報処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012084979A true JP2012084979A (ja) | 2012-04-26 |
Family
ID=45925214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010227501A Withdrawn JP2012084979A (ja) | 2010-10-07 | 2010-10-07 | 情報処理装置及び方法、プログラム、並びに情報処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8824863B2 (ja) |
JP (1) | JP2012084979A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014022758A (ja) * | 2012-07-12 | 2014-02-03 | Sony Corp | 情報処理装置、情報処理方法、表示制御装置および表示制御方法 |
WO2016139898A1 (ja) * | 2015-03-05 | 2016-09-09 | ソニー株式会社 | ビデオ処理装置、ビデオ処理システムおよびビデオ処理方法 |
JP2019062357A (ja) * | 2017-09-26 | 2019-04-18 | 株式会社日立国際電気 | ビデオサーバシステム |
JP2019186784A (ja) * | 2018-04-12 | 2019-10-24 | 株式会社フレイ・スリー | 映像作品を作成するための装置、方法、及びプログラム |
US11521387B2 (en) | 2018-04-03 | 2022-12-06 | Sony Corporation | Information processing apparatus and information processing method |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9984154B2 (en) * | 2015-05-01 | 2018-05-29 | Morpho Detection, Llc | Systems and methods for analyzing time series data based on event transitions |
US10582125B1 (en) * | 2015-06-01 | 2020-03-03 | Amazon Technologies, Inc. | Panoramic image generation from video |
KR102046326B1 (ko) * | 2015-09-02 | 2019-11-19 | 엘에스산전 주식회사 | 데이터 처리 장치 |
US10963841B2 (en) | 2019-03-27 | 2021-03-30 | On Time Staffing Inc. | Employment candidate empathy scoring system |
US10728443B1 (en) | 2019-03-27 | 2020-07-28 | On Time Staffing Inc. | Automatic camera angle switching to create combined audiovisual file |
US11127232B2 (en) | 2019-11-26 | 2021-09-21 | On Time Staffing Inc. | Multi-camera, multi-sensor panel data extraction system and method |
US11837262B2 (en) * | 2019-11-29 | 2023-12-05 | Naver Corporation | Electronic device for tagging event in sports play video and operating method thereof |
US11023735B1 (en) | 2020-04-02 | 2021-06-01 | On Time Staffing, Inc. | Automatic versioning of video presentations |
US11144882B1 (en) | 2020-09-18 | 2021-10-12 | On Time Staffing Inc. | Systems and methods for evaluating actions over a computer network and establishing live network connections |
US11727040B2 (en) | 2021-08-06 | 2023-08-15 | On Time Staffing, Inc. | Monitoring third-party forum contributions to improve searching through time-to-live data assignments |
US11423071B1 (en) | 2021-08-31 | 2022-08-23 | On Time Staffing, Inc. | Candidate data ranking method using previously selected candidate data |
US11907652B2 (en) | 2022-06-02 | 2024-02-20 | On Time Staffing, Inc. | User interface and systems for document creation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8087054B2 (en) * | 2002-09-30 | 2011-12-27 | Eastman Kodak Company | Automated event content processing method and system |
WO2007004699A1 (ja) | 2005-07-06 | 2007-01-11 | Sharp Kabushiki Kaisha | ダイジェスト化装置、ダイジェスト化システム、ダイジェスト化プログラムプロダクト、およびダイジェスト化プログラムを記録したコンピュータ読取り可能な記録媒体 |
US8522289B2 (en) * | 2007-09-28 | 2013-08-27 | Yahoo! Inc. | Distributed automatic recording of live event |
JP2010011409A (ja) | 2008-06-30 | 2010-01-14 | Nippon Telegr & Teleph Corp <Ntt> | 映像ダイジェスト装置及び映像編集プログラム |
US8380564B2 (en) * | 2008-07-30 | 2013-02-19 | At&T Intellectual Property I, Lp | System and method for internet protocol television product placement data |
-
2010
- 2010-10-07 JP JP2010227501A patent/JP2012084979A/ja not_active Withdrawn
-
2011
- 2011-09-22 US US13/240,145 patent/US8824863B2/en active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014022758A (ja) * | 2012-07-12 | 2014-02-03 | Sony Corp | 情報処理装置、情報処理方法、表示制御装置および表示制御方法 |
WO2016139898A1 (ja) * | 2015-03-05 | 2016-09-09 | ソニー株式会社 | ビデオ処理装置、ビデオ処理システムおよびビデオ処理方法 |
US10362266B2 (en) | 2015-03-05 | 2019-07-23 | Sony Corporation | Video processing apparatus, video processing system, and video processing method |
JP2019062357A (ja) * | 2017-09-26 | 2019-04-18 | 株式会社日立国際電気 | ビデオサーバシステム |
US11521387B2 (en) | 2018-04-03 | 2022-12-06 | Sony Corporation | Information processing apparatus and information processing method |
JP2019186784A (ja) * | 2018-04-12 | 2019-10-24 | 株式会社フレイ・スリー | 映像作品を作成するための装置、方法、及びプログラム |
JP7055297B2 (ja) | 2018-04-12 | 2022-04-18 | 株式会社フレイ・スリー | 映像作品を作成するための装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20120087640A1 (en) | 2012-04-12 |
US8824863B2 (en) | 2014-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012084979A (ja) | 情報処理装置及び方法、プログラム、並びに情報処理システム | |
US11956516B2 (en) | System and method for creating and distributing multimedia content | |
US8988528B2 (en) | Video processing device, video processing method, and program | |
US8966360B2 (en) | Transcript editor | |
US8577210B2 (en) | Image editing apparatus, image editing method and program | |
JPH10320400A (ja) | 映像の検索方法および装置 | |
CN113841418A (zh) | 动态视频精彩场面 | |
KR20070018594A (ko) | 음성 주석 생성 장치 및 방법 | |
JP4197014B2 (ja) | 映像の検索方法および装置 | |
JP5759212B2 (ja) | シナリオ編集装置およびシナリオ編集方法、ならびに撮像システム | |
JPWO2008136466A1 (ja) | 動画編集装置 | |
JP2006333065A (ja) | 写真アルバム作成方法 | |
JP4142382B2 (ja) | コンテンツ作成システム及びコンテンツ作成方法 | |
US20080304747A1 (en) | Identifiers for digital media | |
JP4333808B2 (ja) | 映像の検索方法および装置 | |
JP3997882B2 (ja) | 映像の検索方法および装置 | |
JP2019092025A (ja) | 編集システム | |
JP4129162B2 (ja) | コンテンツ作成実演システム及びコンテンツ作成実演方法 | |
JP4519805B2 (ja) | 映像編集方法及び装置 | |
CN101448095B (zh) | 基于多码流的审片方法及系统 | |
CN117544739A (zh) | 信息处理装置、信息处理程序及记录介质 | |
JP2001202082A (ja) | 映像信号編集装置および方法 | |
JP2009260693A (ja) | メタデータ編集システムおよびメタデータ編集プログラムならびにメタデータ編集方法 | |
JP2004336808A (ja) | 映像の検索方法および装置 | |
KR20170130198A (ko) | 모바일 기반의 실시간 대본 리딩 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140107 |