JP2010056681A - Sound reproducer, editing device, and video editing system - Google Patents

Sound reproducer, editing device, and video editing system Download PDF

Info

Publication number
JP2010056681A
JP2010056681A JP2008217174A JP2008217174A JP2010056681A JP 2010056681 A JP2010056681 A JP 2010056681A JP 2008217174 A JP2008217174 A JP 2008217174A JP 2008217174 A JP2008217174 A JP 2008217174A JP 2010056681 A JP2010056681 A JP 2010056681A
Authority
JP
Japan
Prior art keywords
information
schedule
selection
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008217174A
Other languages
Japanese (ja)
Inventor
Tadataka Ueda
恭敬 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008217174A priority Critical patent/JP2010056681A/en
Publication of JP2010056681A publication Critical patent/JP2010056681A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video editing system for automatically associating schedule information with video data actually photographed and performing automatic extraction (automatic cutout) of significant scenes. <P>SOLUTION: The video editing system is provided with: an image pickup recording part 3 for recording video data to a recording medium; a signal selection part 14 for inputting a plurality of signals, switching input signals according to selection of an operator, and outputting them; a selection information recording part 5 for recording selection time of day when the signal selection part 14 switches the signals and switch state information; a schedule management part 21 for managing schedule information having schedule selection information which shows switch schedule of the signal selection part 14 and a schedule selection time of day when the signal selection part performs switching; a schedule time of day differential detection part 22 for comparing the selection time of day with the schedule selection time of day to detect a time of day differential; and a video editing part 23 for associating the video data with the schedule information on the basis of the schedule selection information of the schedule information and the time of day differential, and editing video data on the basis of the associated schedule information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影本番前にスケジュール情報を作成し、そのスケジュール情報に基づいて撮影した映像に対して重要シーンの自動抽出を行う音声再生装置及び編集装置及び映像編集システムに関する。   The present invention relates to an audio reproduction device, an editing device, and a video editing system that create schedule information before actual shooting and automatically extract important scenes from video shot based on the schedule information.

近年、光ディスクや、半導体メモリなどのランダムアクセス可能な記録媒体に、映像データや音声データをファイル化して記録する装置が一般的になり、例えば、放送局や映像制作会社などにおいても、このような記録媒体を備えた編集装置を利用して映像編集作業などが行われている。また、磁気テープ媒体に記録する撮影機材を用いる場合でも、磁気テープ媒体上の映像データや音声データをファイル化した後に、上記と同様に編集装置を利用して編集作業を行うことが多い。   In recent years, devices for recording video data and audio data as files on a randomly accessible recording medium such as an optical disk or a semiconductor memory have become common. For example, in broadcasting stations and video production companies, Video editing work or the like is performed using an editing apparatus equipped with a recording medium. Even in the case of using photographic equipment for recording on a magnetic tape medium, after video data and audio data on the magnetic tape medium are filed, editing work is often performed using an editing device as described above.

ところで、撮影対象である講演会や結婚式や演劇等の行事は、あらかじめ決められたスケジュールに従って進行する。従来から、撮影者は、講演会や結婚式等の行事の様子を撮影・編集する場合に、行事の進行に沿って重要部分及びその近辺の撮影を行い、編集時に撮影した素材データから特に重要な区間(重要シーン)を切り出す作業を行っている。   By the way, events such as lectures, weddings, and theaters that are subject to photography proceed according to a predetermined schedule. Traditionally, when shooting and editing the state of events such as lectures and weddings, photographers have taken important parts and their surroundings along the course of the event, and are especially important from the material data taken at the time of editing. We are working on cutting out important sections (important scenes).

このような撮影対象の特性を活かして、撮影前に撮影方法やタイトルを含むシナリオデータを入力し、そのシナリオデータに従って撮影ガイダンスを行う技術(例えば、特許文献1)が開示されている。   A technique (for example, Patent Document 1) is disclosed in which scenario data including a shooting method and a title is input before shooting using such characteristics of the shooting target, and shooting guidance is performed according to the scenario data.

また、パーソナルコンピュータでプレゼンテーションを行う場合、プレゼンテーション資料の表示を切り替える際に、切り替え操作情報を送信して、プレゼンテーション資料の分割を自動で行う技術(例えば、特許文献2)が開示されている。
特開2006−174318号公報 特開2004−236238号公報
In addition, when a presentation is performed with a personal computer, a technique for automatically dividing a presentation material by transmitting switching operation information when switching the presentation material display is disclosed (for example, Patent Document 2).
JP 2006-174318 A JP 2004-236238 A

しかしながら、特許文献1に開示された従来の構成では、ユーザが撮影前にシナリオデータを入力し、撮影開始時にこれから撮影するシーンを撮影前に入力したシナリオデータから選択しなければならず、撮影時に手間となる。   However, in the conventional configuration disclosed in Patent Document 1, the user inputs scenario data before shooting, and the scene to be shot at the start of shooting must be selected from the scenario data input before shooting. It will be troublesome.

また、特許文献2に開示された従来の構成では、表示の切り替え時点(表示切替イベント)での分割は可能であるが、表示切替イベントから離れた区間が重要シーンである場合に、重要シーンのみを自動編集するための関連付けが困難である。例えば、プレゼンテーション資料の1ページ目から2ページ目に表示を切り替えることを表示切替イベントとしたときに、重要シーンが表示切替イベント発生時より10秒前に発生する場合や、表示切替イベント発生時にカメラレコーダによる撮影(メディアへの記録)を行っていない場合には、表示切替イベントと重要シーンを関連付けることが困難である。   Further, in the conventional configuration disclosed in Patent Document 2, it is possible to divide at a display switching time point (display switching event), but only an important scene when a section away from the display switching event is an important scene. Is difficult to associate for automatic editing. For example, when switching the display from the first page to the second page of the presentation material is a display switching event, an important scene occurs 10 seconds before the display switching event occurs, or a camera is displayed when a display switching event occurs. When shooting by a recorder (recording on a medium) is not performed, it is difficult to associate a display switching event with an important scene.

上記課題に鑑みて、本発明は、自動的にスケジュール情報と実際に撮影された映像データとの関連付けを行い、重要シーンの自動抽出(自動切り出し)を行うことができる映像編集システムを提供することを目的とする。   In view of the above problems, the present invention provides a video editing system capable of automatically associating schedule information with actually captured video data and automatically extracting important scenes (automatic segmentation). With the goal.

本発明の映像編集システムは、上記課題を解決するために、映像データを記録媒体に記録する撮像記録部と、複数の信号が入力可能であり、前記入力された信号を操作者の選択により切り替えて出力する信号選択部と、前記信号選択部が前記信号を切り替えた選択時刻および切替状態情報を記録する選択情報記録部と、前記信号選択部の切り替え予定を示す予定選択情報および、前記信号選択部が切り替える予定選択時刻を有する予定スケジュール情報を管理するスケジュール管理部と、前記選択時刻と前記予定選択時刻とを比較して時刻差分を検出するスケジュール時刻差分検出部と、前記予定スケジュール情報の予定選択情報および前記時刻差分に基づいて、前記映像データを前記予定スケジュール情報と関連付け、前記関連付けられた予定スケジュール情報に基づいて前記映像データの編集を行う映像編集部とを備えたことを特徴とする。   In order to solve the above problems, the video editing system of the present invention is capable of inputting a plurality of signals and an imaging recording unit that records video data on a recording medium, and the input signals are switched by an operator's selection. Output signal selection unit, selection information recording unit for recording selection time and switching state information when the signal selection unit switches the signal, schedule selection information indicating a switching schedule of the signal selection unit, and the signal selection A schedule management unit that manages schedule schedule information having a schedule selection time to be switched, a schedule time difference detection unit that detects a time difference by comparing the selection time and the schedule selection time, and a schedule of the schedule schedule information Based on the selection information and the time difference, the video data is associated with the scheduled schedule information, and the associated Characterized by comprising a video editing unit for editing the image data based on a constant schedule information.

また、本発明の音声再生装置は、上記課題を解決するために、記録媒体の情報を読み取って音声信号を再生する音声信号再生部と、音声を音声信号に変換する音声入力部と、前記音声信号再生部からの前記音声信号と、前記音声入力部からの前記音声信号とを操作者の選択により切り替えて音声信号を出力する信号選択部と、前記信号選択部から出力された前記音声信号を音声に変換する音声出力部と、前記信号選択部が前記音声信号を切り替えた選択時刻および切替状態情報を記録媒体に記録する選択情報記録部とを備えたことを特徴とする。ここで、音声信号は、音声出力部において、声、音、楽曲として出力される信号である。   In order to solve the above problems, an audio reproduction device of the present invention reads an information on a recording medium and reproduces an audio signal, an audio input unit that converts audio into an audio signal, and the audio The audio signal from the signal reproduction unit and the audio signal from the audio input unit are switched by an operator's selection to output the audio signal, and the audio signal output from the signal selection unit An audio output unit for converting to audio, and a selection information recording unit for recording a selection time and switching state information when the signal selection unit switches the audio signal to a recording medium are provided. Here, the audio signal is a signal output as voice, sound, or music in the audio output unit.

また、本発明の音声スイッチャ装置は、上記課題を解決するために、複数の音声信号出力部からの音声信号を操作者の選択により切り替えて1つの音声信号を出力する音声信号選択部と、前記信号選択部が前記信号を切り替えた選択時刻および切替状態情報を記録する選択情報記録部とを備えたことを特徴とする。   In order to solve the above problems, the voice switcher device of the present invention switches a voice signal from a plurality of voice signal output sections according to an operator's selection and outputs one voice signal; The signal selection unit includes a selection information recording unit that records a selection time and switching state information when the signal is switched.

また、本発明の映像編集装置は、上記課題を解決するために、複数の信号を切り替えて1つの信号を出力する信号選択部の切り替え予定を示す予定選択情報および、前記信号選択部が切り替える予定選択時刻を有する管理するスケジュール管理部と、操作者の選択により、信号選択部の信号を切り替えた選択時刻および切替状態情報を読み出し、前記予定スケジュール情報と前記選択時刻および切替状態情報とを関連付け、前記選択時刻と前記予定選択時刻との時刻差分を検出するスケジュール差分検出部と、前記予定スケジュール情報および前記時刻差分に基づいて、前記映像データを前記予定スケジュール情報と関連付け、前記関連付けられた予定スケジュール情報に基づいて前記映像データの編集を行う映像編集部とを備えたことを特徴とする。   In addition, in order to solve the above-described problem, the video editing apparatus of the present invention switches the plurality of signals and schedule selection information indicating the switching schedule of the signal selection unit that outputs one signal, and the signal selection unit plans to switch. A schedule management unit to manage having a selection time, and a selection time and switching state information when the signal of the signal selection unit is switched by an operator's selection is read, and the scheduled schedule information is associated with the selection time and switching state information; A schedule difference detection unit for detecting a time difference between the selected time and the schedule selection time; and, based on the schedule schedule information and the time difference, the video data is associated with the schedule schedule information, and the associated schedule schedule And a video editing unit for editing the video data based on the information. To.

本発明によれば、進行情報と予定スケジュールを比較することにより、自動的にスケジュール情報と撮影映像データとの関連付けを行い、重要シーンの自動抽出(自動切り出し)を行うことができる映像編集システムを提供することができる。   According to the present invention, there is provided a video editing system capable of automatically associating schedule information with captured video data and automatically extracting important scenes (automatic segmentation) by comparing progress information with a scheduled schedule. Can be provided.

本発明の映像編集システム、映像編集装置は、上記構成を基本として種々の態様をとることができる。すなわち、上記映像編集システムにおいて、前記信号は、音声信号である構成にすることができる。   The video editing system and video editing apparatus of the present invention can take various forms based on the above-described configuration. That is, in the video editing system, the signal may be an audio signal.

また、前記音声信号を前記信号選択部に入力する複数の音声信号出力部と、前記信号選択部から出力された音声信号を音声に変換する音声出力部とを備え、前記音声信号出力部の1つは、音声記録媒体の情報を読み取って音声信号を再生する音声信号再生部であり、前記予定スケジュール情報は、各スケジュールで再生する音声情報を有し、前記再生されている音声と、前記音声情報とが一致することにより前記映像データと前記予定スケジュール情報とを関連付ける構成にすることができる。   The audio signal output unit includes a plurality of audio signal output units that input the audio signal to the signal selection unit, and an audio output unit that converts the audio signal output from the signal selection unit into audio. One is an audio signal reproducing unit that reads information from an audio recording medium and reproduces an audio signal, and the scheduled schedule information includes audio information to be reproduced in each schedule, and the reproduced audio and the audio When the information matches, the video data and the scheduled schedule information can be associated with each other.

また、前記予定スケジュール情報は、重要シーン情報のシーン開始時刻と区間長情報とを有し、前記映像データから前記重要シーンを抽出する重要シーン抽出部を備える構成にすることができる。   The scheduled schedule information may include a scene start time and section length information of important scene information, and may include an important scene extraction unit that extracts the important scene from the video data.

また、上記映像編集装置において、前記予定スケジュール情報に重要シーン情報のシーン開始時刻と区間長情報を有し、前記映像データから前記重要シーンに対応するシーンを抽出する重要シーン抽出部を有する構成にすることができる。   In the video editing apparatus, the scheduled schedule information includes a scene start time and section length information of the important scene information, and includes an important scene extraction unit that extracts a scene corresponding to the important scene from the video data. can do.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施の形態における映像編集システムは、映像制作事業者などを対象とした業務用途を目的とするシステムであり、講演会、結婚式会場、音楽コンサートや演芸会場での行事の撮影、映像編集などに利用されている。例えば、講演会、結婚式会場において、映像記録装置で取得した映像データは、映像記録装置に対して着脱可能な記録媒体に記録され、さらに、編集室内において、他の映像データとともに、この記録媒体に記録された映像データを用いて編集作業が行われる。   The video editing system according to the embodiment of the present invention is a system for business use intended for video production companies and the like, taking pictures of events at lectures, wedding venues, music concerts and performance venues, and videos. It is used for editing. For example, video data acquired by a video recording device at a lecture or wedding venue is recorded on a recording medium that can be attached to and detached from the video recording device, and in addition to other video data in the editing room, this recording medium. Editing work is performed using the video data recorded in.

講演会、結婚式において、重要な区間(重要シーン)が始まる前には、司会者がマイクで開始のアナウンスを行ったり、会場に新たな楽曲が流れる等の音声の選択(切り替え)イベントが発生したりするのが一般的である。重要シーンとは、例えば、編集時に必要となるシーン(映像の区間)であり、編集後の完成映像として採用される可能性が高いシーンを意味する。   Before an important section (important scene) starts in a lecture or wedding, a sound selection (switching) event occurs, such as the starter announces with a microphone or a new song flows through the venue. It is common to do. The important scene is, for example, a scene (video section) that is necessary at the time of editing, and means a scene that is highly likely to be adopted as a completed video after editing.

本実施の形態に係る映像編集システムは、重要シーンを撮影・編集するために、音声の選択(切り替え)イベント発生時刻(前後を含む)に基づいて、重要シーンの判別を行う。   The video editing system according to the present embodiment discriminates an important scene based on the audio selection (switching) event occurrence time (including before and after) in order to photograph and edit the important scene.

(映像編集システムの構成)
図1は、本実施の形態に係る映像編集システムの構成を示すブロック図である。本実施の形態に係る映像編集システムは、音声再生選択装置1と、編集装置2と、映像記録装置3と、映像記録媒体4と、進行情報記録媒体5とを有する。
(Configuration of video editing system)
FIG. 1 is a block diagram showing a configuration of a video editing system according to the present embodiment. The video editing system according to the present embodiment includes an audio reproduction selection device 1, an editing device 2, a video recording device 3, a video recording medium 4, and a progress information recording medium 5.

音声再生選択装置1は、音声用記録媒体11に記録された音楽や楽曲等を音声出力部15で音声として再生可能な楽曲信号を再生する音声信号再生部13と、マイク部12と、音声スイッチャ14と、音声出力部15とを有する。なお、音声信号再生部13により楽曲信号を再生することを、以後CD再生と呼ぶ。音声用記録媒体11は、例えば、音楽用Compact Disc(以下、CDと呼ぶ)等の記録媒体である。また、マイク部12は、例えば、司会者の声を記録、あるいは、拡声するために用いられ、音声出力部15において音声として出力可能なマイク音声信号を生成する。音声スイッチャ14は、音声選択部16と進行情報記録部17とを有する。音声選択部16は、音声信号再生部13から出力される楽曲信号と、マイク部12から出力されるマイク音声信号を選択あるいは多重化した音声出力信号を出力する。   The audio reproduction selection device 1 includes an audio signal reproduction unit 13 that reproduces music signals that can be reproduced as audio by the audio output unit 15, music, music, and the like recorded on the audio recording medium 11, a microphone unit 12, and an audio switcher. 14 and an audio output unit 15. The reproduction of the music signal by the audio signal reproduction unit 13 is hereinafter referred to as CD reproduction. The audio recording medium 11 is a recording medium such as a music compact disc (hereinafter referred to as a CD). In addition, the microphone unit 12 is used, for example, for recording or amplifying the voice of the presenter, and generates a microphone audio signal that can be output as a voice in the voice output unit 15. The voice switcher 14 includes a voice selection unit 16 and a progress information recording unit 17. The audio selection unit 16 outputs an audio output signal obtained by selecting or multiplexing the music signal output from the audio signal reproduction unit 13 and the microphone audio signal output from the microphone unit 12.

進行情報記録部17には、イベント発生時に、音声選択部16によりイベント情報およびイベント時刻情報とを含む進行情報が記録される。イベントとは、音声選択部16が出力する音声出力信号を楽曲信号からマイク音声信号に切り替える(マイクの音源をONにする)こと、音声出力信号をマイク音声信号からマイク音声信号と楽曲信号とを多重化した信号とすることなどの音声選択部16が切り替わる動作のことである。また、イベントには、音声信号再生部13が再生する音声用記録媒体11に記録された音声信号(楽曲)を変更することも含まれる。イベント情報とは、音声選択部16が出力する音声出力信号を楽曲信号からマイク音声信号に切り替わったことなどのイベントの内容を示す情報である。また、イベント時刻情報とは、イベント発生時の時刻を示す情報である。   In the progress information recording unit 17, progress information including event information and event time information is recorded by the voice selection unit 16 when an event occurs. An event refers to switching the audio output signal output from the audio selection unit 16 from a music signal to a microphone audio signal (turning on the sound source of the microphone), and changing the audio output signal from the microphone audio signal to the microphone audio signal and the music signal. This is an operation of switching the voice selection unit 16 such as making a multiplexed signal. The event also includes changing the audio signal (music) recorded on the audio recording medium 11 reproduced by the audio signal reproducing unit 13. The event information is information indicating the contents of the event such as switching the sound output signal output from the sound selection unit 16 from the music signal to the microphone sound signal. The event time information is information indicating the time when the event occurs.

また、イベント時刻の検出は、Real Time Clock(RTC)機能を有する集積回路を進行情報記録部17あるいは音声スイッチャ14に搭載すれば実現できる。本実施の形態では、RTC機能を有する集積回路を音声スイッチャ14に搭載した場合を例に説明する。   The event time can be detected by mounting an integrated circuit having a Real Time Clock (RTC) function on the progress information recording unit 17 or the voice switcher 14. In this embodiment, a case where an integrated circuit having an RTC function is mounted on the voice switcher 14 will be described as an example.

音声スイッチャ14は、進行情報を進行情報記録媒体5に記録する。音声出力部15は、スピーカ等で構成され、音声スイッチャ14から出力される音声出力信号を音声として出力する。   The voice switcher 14 records the progress information on the progress information recording medium 5. The audio output unit 15 includes a speaker or the like, and outputs an audio output signal output from the audio switcher 14 as audio.

進行情報記録媒体5は、音声再生選択装置1および編集装置2に着脱可能に形成されている。進行情報記録媒体5は、音声スイッチャ14により、進行情報が記録され、スケジュール時刻差分検出部22により、進行情報が取り出される。   The progress information recording medium 5 is detachably attached to the audio reproduction selection device 1 and the editing device 2. In the progress information recording medium 5, the progress information is recorded by the voice switcher 14, and the progress information is taken out by the schedule time difference detection unit 22.

映像記録装置3は、カメラレコーダであり、被写体を撮像するカメラ部と、カメラ部により撮像された映像を映像データとして映像記録媒体に記録する記録部とを有する。業務用途向けに発売されているカメラレコーダであれば、カメラ部と記録部とその他必要な機能(機能の具体的説明は後述する)は、搭載されている場合が多い。映像記録媒体4は、映像記録装置3により撮影された映像データを記録し、映像記録装置3に対して着脱可能な記録媒体である。   The video recording apparatus 3 is a camera recorder, and includes a camera unit that captures an image of a subject and a recording unit that records video captured by the camera unit as video data on a video recording medium. In the case of a camera recorder released for business use, a camera unit, a recording unit, and other necessary functions (a specific description of the function will be described later) are often installed. The video recording medium 4 is a recording medium that records video data captured by the video recording device 3 and is detachable from the video recording device 3.

なお、映像記録媒体4と進行情報記録媒体5は、映像データおよび進行情報以外の情報が保存される記録媒体と同じ記録媒体であってもよい。本実施の形態では、進行情報記録媒体5と映像記録媒体4は、SDカードの形状である構成を例に説明し、映像記録媒体4と進行情報記録媒体5は、SD I/F規格に基づき接続される。なお、記録媒体は、SDカード形状でなくてもよい。   The video recording medium 4 and the progress information recording medium 5 may be the same recording medium as the recording medium in which information other than the video data and the progress information is stored. In the present embodiment, the progress information recording medium 5 and the video recording medium 4 will be described by taking an example of a configuration in the form of an SD card. The video recording medium 4 and the progress information recording medium 5 are based on the SD I / F standard. Connected. The recording medium may not be in the form of an SD card.

編集装置2は、スケジュール管理部21と、スケジュール時刻差分検出部22と、映像編集部23と、重要シーン切り出し部24とを有する。本実施の形態においては、編集装置2は、一般的なノンリニア編集プログラムに、スケジュール管理部21とスケジュール時刻差分検出部22と重要シーン切り出し部24とを追加したプログラムをコンピュータ上で動作させることで実現できる。   The editing device 2 includes a schedule management unit 21, a schedule time difference detection unit 22, a video editing unit 23, and an important scene cutout unit 24. In the present embodiment, the editing apparatus 2 operates a program in which a schedule management unit 21, a schedule time difference detection unit 22, and an important scene cutout unit 24 are added to a general nonlinear editing program on a computer. realizable.

スケジュール管理部21は、講演会や結婚式等の行事の開始前にあらかじめ決められた予定イベント情報および予定イベント時刻情報とを含むスケジュール情報を管理する。スケジュール情報は、予定イベント情報および予定イベント時刻情報をリスト形式で構成されている。予定イベント情報とは、予め決められたイベント(音声選択イベント)の内容を示す情報である。また、予定イベント時刻情報とは、イベント発生する予定の時刻を示す情報である。   The schedule management unit 21 manages schedule information including scheduled event information and scheduled event time information determined in advance before the start of events such as lectures and weddings. The schedule information is composed of scheduled event information and scheduled event time information in a list format. Scheduled event information is information indicating the contents of a predetermined event (voice selection event). Further, the scheduled event time information is information indicating the time at which an event is scheduled to occur.

スケジュール時刻差分検出部22は、進行情報記録媒体5から進行情報を取り出し、予定イベント情報をスケジュール管理部21から取り出す。スケジュール時刻差分検出22は、イベントごとに進行情報と予定イベント情報とを対応付けて、対応付けされた進行情報のイベント時刻情報とスケジュール情報の予定イベント時刻情報との差分時刻を検出し、差分時刻情報を重要シーン切り出し部24に供給する。   The schedule time difference detection unit 22 extracts the progress information from the progress information recording medium 5 and extracts the scheduled event information from the schedule management unit 21. The schedule time difference detection 22 associates the progress information and the scheduled event information for each event, detects the difference time between the event time information of the associated progress information and the scheduled event time information of the schedule information, and the difference time Information is supplied to the important scene cutout unit 24.

重要シーン切り出し部24は、スケジュール時刻差分検出部22により検出された差分時刻に基づいて、映像音声データから重要シーンを切り出す。   The important scene cutout unit 24 cuts out an important scene from the video / audio data based on the difference time detected by the schedule time difference detection unit 22.

映像編集部23は、切り出された重要シーンを結合して、重要映像データを生成する。映像データを編集(例えば、カット編集や画像効果を付加する)する。また、映像編集部23は、映像記録媒体4から映像データを取り出し、カット編集や映像加工を行う。   The video editing unit 23 combines the extracted important scenes to generate important video data. Video data is edited (for example, cut editing or image effect is added). The video editing unit 23 takes out video data from the video recording medium 4 and performs cut editing and video processing.

(映像編集システムの動作の概要)
次に、本映像編集システムにおける撮影前の準備から撮影、編集までの動作の概要について説明する。ここで、講演会や結婚式、音楽コンサート、プレゼンテーション、演劇、芝居公演等の撮影を行う対象となる行事(催し)を撮影対象行事と呼ぶ。この撮影対象行事の様子を撮影し、撮影した映像データに対して行事後あるいは行事中に編集作業を行う。
(Overview of video editing system operation)
Next, an outline of operations from preparation before shooting to shooting and editing in the video editing system will be described. Here, events (events) that are subject to photography such as lectures, weddings, music concerts, presentations, plays, and performances are called photography events. The state of the event to be photographed is photographed, and editing work is performed on the photographed video data after or during the event.

撮影対象行事において、進行が遅れると、イベントの発生もその時間分遅れる。本映像編集システムは、撮影対象行事の進行が遅れても、その遅れ分をイベント発生の遅れとして検出し、その遅れ分だけずらした時刻の映像データを切り出すことにより、重要シーンの編集を自動的に行うことができる。   In the shooting target event, if the progress is delayed, the occurrence of the event is also delayed by that time. This video editing system automatically detects important scenes even if the shooting target event is delayed, and automatically extracts important scenes by extracting the video data at the time shifted by that delay. Can be done.

まず、撮影対象行事の開始される前、すなわち撮影開始以前にあらかじめ、予定イベント情報と、予定イベント時刻情報と、予定のイベントに追従して定義される重要シーンに関する情報とを含んだ予定スケジュール情報を作成し、スケジュール管理部21に記録する。予定スケジュール情報の詳細に関しては、後述する。   First, scheduled schedule information including scheduled event information, scheduled event time information, and information related to an important scene defined following the scheduled event before the shooting target event is started, that is, before shooting starts. Is recorded in the schedule management unit 21. Details of the schedule information will be described later.

次に、撮影者の操作により、映像記録装置3が、撮影対象行事の撮影を開始する。映像記録装置3の映像データは、映像記録媒体4に保存される。映像記録装置3による撮影において、電子化した予定スケジュール情報を映像記録媒体4に記録しておき、その予定スケジュール情報を映像記録装置3のビューファインダーに表示可能な構成にしてもよい。また、予定スケジュール情報の完成時に紙に記載(あるいは、印刷)しておき、その紙を参照しながら撮影してもよい。さらには、撮影対象行事が行われている間は常に撮影対象の映像を記録し続ける(撮影対象行事の途中で記録を停止しない)方法でもよく、常に記録することで重要シーンのとり逃しを防ぐことができる。   Next, the video recording device 3 starts shooting the event to be shot by the operation of the photographer. The video data of the video recording device 3 is stored in the video recording medium 4. In photographing by the video recording device 3, the computerized schedule schedule information may be recorded on the video recording medium 4, and the schedule schedule information may be displayed on the viewfinder of the video recording device 3. Further, it may be recorded (or printed) on paper when the scheduled schedule information is completed, and photographing may be performed while referring to the paper. Furthermore, it is possible to always record the video of the shooting target while the shooting target event is being performed (the recording is not stopped in the middle of the shooting target event), and it is always possible to prevent the important scene from being missed. be able to.

本実施の形態では、映像記録装置3は、撮影位置を固定して、撮影対象の記録開始、記録停止を間歇的に繰り返して撮影する場合を例に説明する。ここで、撮影対象とは、撮影対象行事の中で主要な人物等を指し、例えば、撮影対象が講演会であれば講演者、結婚式であれば新郎新婦、演劇や芝居公演であれば舞台全体や主演者である。   In the present embodiment, the video recording apparatus 3 will be described by taking as an example a case where the shooting position is fixed and shooting is started and stopped by intermittently repeating the shooting of the shooting target. Here, the subject of photography refers to the main person, etc. in the subject of photography, for example, if the subject is a lecture, a speaker, if the subject is a wedding, the bride and groom, if the subject is a theater or play, the stage The whole and the leading actor.

次に、撮影対象行事が、開始される。なお、撮影対象行事の開始後に撮影を始めてもよい。撮影対象行事は、撮影対象行事の司会者など(以下、撮影対象行事の進行役を司会者と称する)により、あらかじめ決められた予定スケジュールに従って進行する。   Next, the shooting target event is started. The shooting may be started after the start of the shooting target event. The shooting target event proceeds according to a predetermined schedule by a host of the shooting target event (hereinafter, the facilitator of the shooting target event is referred to as a moderator).

音声再生選択装置1では、予定スケジュールに従い、司会者が、音声選択部16に対して、撮影対象行事が行われている会場へ音声を出力するなどの音声選択イベントを起こす。例えば、司会者が撮影対象行事の開始をアナウンスする場合は、音声選択部16がマイク部12と音声出力部15とを接続すること(音声選択イベント)により、マイク部12から入力される音声が撮影対象行事の会場に流される。また、音楽を再生する場合には、音声選択部16は、マイク部12と音声出力部15との接続を切り、音声再生選択部13と音声出力部15とを接続する。そして、音声信号再生部13は、音声用記録媒体11の音楽データを再生することにより、撮影対象行事の会場に音楽(楽曲)が流される。   In the audio reproduction selection device 1, according to the scheduled schedule, the presenter causes the audio selection unit 16 to generate an audio selection event such as outputting audio to the venue where the shooting target event is being performed. For example, when the moderator announces the start of the shooting target event, the voice selection unit 16 connects the microphone unit 12 and the voice output unit 15 (voice selection event), so that the voice input from the microphone unit 12 is received. It is thrown to the venue for the event. When playing back music, the audio selection unit 16 disconnects the microphone unit 12 and the audio output unit 15 and connects the audio reproduction selection unit 13 and the audio output unit 15. Then, the audio signal reproducing unit 13 reproduces the music data of the audio recording medium 11 so that music (music) is played to the venue of the shooting target event.

司会者が音声選択イベントを起こすと、音声選択部16は、イベント情報およびイベント時刻情報を生成し、進行情報記録部17に記録する。進行情報記録部17は、イベント情報およびイベント時刻情報を進行情報記録媒体5に保存する。   When the moderator causes a voice selection event, the voice selection unit 16 generates event information and event time information and records the event information and event time information in the progress information recording unit 17. The progress information recording unit 17 stores event information and event time information in the progress information recording medium 5.

次に、撮影対象行事が終了して、撮影が終了すると、編集者により、進行情報記録媒体5が編集装置2に取り付けられる。編集作業に入ると、スケジュール時刻差分検出部22は、進行情報記録媒体5から進行情報を取り出し、スケジュール管理部21からスケジュール情報を取り出す。スケジュール時刻差分検出部22は、進行情報とスケジュール情報とを比較して、音声選択イベントごとに対応付けを行う。スケジュール時刻差分検出部22は、対応付けた進行情報のイベント時刻情報と、スケジュール情報の予定イベント時刻情報との差分時刻情報を検出して、進行情報とスケジュール情報と差分時刻情報とを重要シーン切り出し部24に供給する。   Next, when the shooting target event ends and shooting ends, the progress information recording medium 5 is attached to the editing device 2 by the editor. When entering the editing operation, the schedule time difference detection unit 22 extracts the progress information from the progress information recording medium 5 and extracts the schedule information from the schedule management unit 21. The schedule time difference detection unit 22 compares the progress information with the schedule information, and performs association for each voice selection event. The schedule time difference detection unit 22 detects difference time information between the event time information of the associated progress information and the scheduled event time information of the schedule information, and extracts the progress information, the schedule information, and the difference time information from the important scene. To the unit 24.

重要シーン切り出し部24には、さらに映像編集部23を介して映像記録媒体4から映像データが供給される。重要シーン切り出し部24は、スケジュール情報の重要シーン位置に対して、差分時刻情報の分ずらした時刻の映像データを重要シーンと判断し、切り出す。重要シーン切り出し部24は、切り出した重要シーンの映像データを映像編集部23に供給する。   The important scene cutout unit 24 is further supplied with video data from the video recording medium 4 via the video editing unit 23. The important scene cutout unit 24 determines that the video data at the time shifted by the difference time information with respect to the important scene position of the schedule information is the important scene, and cuts out the video data. The important scene cutout unit 24 supplies video data of the cutout important scene to the video editing unit 23.

映像編集部23は、供給された重要シーンの映像データを繋ぐことにより、映像編集を行う。編集形態としては、例えば、重要シーンの切り出し結果に対応する映像データをカット編集で繋ぐ方法や、前記繋ぎ目に対して映像効果(エフェクト)を付与する方法が挙げられる。なお、カット編集で繋ぐ方法や、前記繋ぎ目に対して映像効果(エフェクト)を付与する方法は、一般的なノンリニア編集機が用いている方法で実現可能なため詳細な説明は省略する。   The video editing unit 23 performs video editing by connecting the supplied video data of important scenes. Examples of the editing mode include a method of connecting video data corresponding to the cut-out result of the important scene by cut editing, and a method of applying a video effect (effect) to the joint. Note that a method for connecting by cut editing and a method for applying a video effect (effect) to the joint can be realized by a method used by a general non-linear editing machine, and detailed description thereof will be omitted.

以上のように、映像データの編集に関する処理流れを説明したが、スケジュール管理部21における予定スケジュール情報管理方法や、スケジュール時刻差分検出部22における検出方法や、重要シーン切り出し部24における重要シーンの切り出し方法の詳細は後述する。また、本実施の形態では、編集装置2として1つのプログラムで実現する例で説明したが、コンピュータ上で動作しているので、スケジュール管理部21やスケジュール時刻差分検出部22や重要シーン切り出し部24を別プログラムとして実現してもよい。   As described above, the processing flow related to the editing of video data has been described. However, the schedule schedule information management method in the schedule management unit 21, the detection method in the schedule time difference detection unit 22, and the extraction of important scenes in the important scene extraction unit 24 Details of the method will be described later. In this embodiment, the editing apparatus 2 is described as an example realized by a single program. However, since the editing apparatus 2 operates on a computer, the schedule management unit 21, the schedule time difference detection unit 22, and the important scene cutout unit 24 are operated. May be realized as a separate program.

以上のように、本実施の形態に係る映像編集システムは、撮影対象行事の進行の遅れを音声選択イベント発生の遅れとして検出し、その遅れ分だけずらした位置の映像データを切り出すことにより、重要シーンの編集を行うことができる。   As described above, the video editing system according to the present embodiment detects the delay in the progress of the shooting target event as a delay in the occurrence of the audio selection event, and extracts the video data at the position shifted by the delay. You can edit the scene.

次に、本実施の形態の映像編集システムにおいて、撮影方法や編集方法についてそれぞれ具体的に説明する。   Next, in the video editing system of the present embodiment, a shooting method and an editing method will be specifically described.

(映像記録装置)
まず、本実施の形態における映像記録装置3に必要な機能について具体的に説明する。映像記録装置3は、記録(撮影)時刻と映像が関連付けられた映像データを記録媒体に記録する機能を備えていれば本発明の効果を発揮することができる。この機能を実現する方法としては、映像データ1フレームに対して撮影日時、撮影時刻情報やタイムコード情報を埋め込んで記録する方法や、映像データと、映像データを管理するための管理情報とを記録し、管理情報に先頭の撮影時刻情報やタイムコード情報を記録しておき、映像のフレーム位置(フレームオフセット)により任意の映像データ撮影時刻を特定する方法が挙げられる。本実施の形態では、映像の1フレームに対して時刻情報やタイムコード情報を埋め込む方式について説明する。
(Video recording device)
First, functions necessary for the video recording apparatus 3 in the present embodiment will be specifically described. The video recording device 3 can exert the effect of the present invention as long as it has a function of recording video data in which recording (shooting) time and video are associated with each other on a recording medium. As a method for realizing this function, a method of recording shooting date and time, shooting time information and time code information in one frame of video data, recording video data, and management information for managing the video data are recorded. In addition, there is a method in which the first shooting time information or time code information is recorded in the management information, and an arbitrary video data shooting time is specified by a video frame position (frame offset). In this embodiment, a method of embedding time information and time code information in one frame of a video will be described.

これらの映像記録装置3は、業務用途や民生用途のカメラレコーダにおいて一般的に広く実現されている技術であるため詳細の説明は省略する。なお、本実施の形態では、映像圧縮方式やコンテンツ(撮影映像データ)管理方式に依存しないため、どのようなコンテンツ管理方式でも用いることができる。また、映像記録装置3単体で撮影時刻情報が特定できなくても、少なくとも編集装置2において算出可能な構成であればよい。   Since these video recording apparatuses 3 are techniques that are generally widely implemented in camera recorders for business use and consumer use, detailed description thereof is omitted. In the present embodiment, any content management method can be used because it does not depend on the video compression method or the content (captured video data) management method. Further, even if the video recording device 3 alone cannot identify the shooting time information, at least the configuration that can be calculated by the editing device 2 is sufficient.

(映像記録媒体)
次に、映像記録媒体4について説明する。映像記録媒体4は、磁気テープ媒体や半導体メモリ、光ディスクである。例えば、磁気テープ媒体の場合には、業務用のデジタルVTR(Video Tape Recoder)の規格の一つであるSMPTE(Society of Motion Picture and Television Engineers)−314M(DV−Based 25M)規格のようにDIFとして映像データに撮影日時、撮影時刻情報やタイムコード情報を関連付けて記録可能な構成となっている記録方式を採用することができる。
(Video recording medium)
Next, the video recording medium 4 will be described. The video recording medium 4 is a magnetic tape medium, a semiconductor memory, or an optical disk. For example, in the case of a magnetic tape medium, DIF as in the SMPTE (Society of Motion Picture and Television Engineers) -314M (DV-Based 25M) standard, which is one of the standards for business-use digital VTR (Video Tape Recorder). As a recording method, the recording date and time, the shooting time information, and the time code information can be recorded in association with the video data.

さらに、半導体メモリや光ディスク等のランダムアクセス可能な記録媒体である場合にも、SMPTE−314M規格に従って生成された映像データと撮影日時、撮影時刻情報を含むデータをファイルとして記録する方式を用いることで、映像記録媒体4として用いることができる。なお、撮影時刻は映像データを管理する管理情報として別ファイルに記録してもよいし、あるいは、映像データを記録するためのファイルシステム上のタイムスタンプを参照してもよい。   Furthermore, even in the case of a randomly accessible recording medium such as a semiconductor memory or an optical disk, a method of recording video data generated according to the SMPTE-314M standard, data including shooting date and time, and shooting time information as a file is used. The video recording medium 4 can be used. The shooting time may be recorded in a separate file as management information for managing video data, or a time stamp on a file system for recording video data may be referred to.

(予定スケジュール情報のデータ構造及び記録形式)
次に、予定スケジュール情報のデータ構造及び記録形式に関して具体的に説明する。予定スケジュール情報の構成例を図2に示す。図2(a)は、予定スケジュール情報を管理するための構成例を示している。構成要素としては「スケジュール識別子」があり、「スケジュール識別子」は予定スケジュール情報を管理するための識別子である。例えば、「S0001」等の文字列や番号を予定スケジュール情報に付与し、文字列や番号の一致を検索することにより、同一の予定スケジュール情報であることを識別する。
(Data structure and recording format of scheduled schedule information)
Next, the data structure and recording format of the scheduled schedule information will be specifically described. A configuration example of the scheduled schedule information is shown in FIG. FIG. 2A shows a configuration example for managing scheduled schedule information. There is a “schedule identifier” as a component, and the “schedule identifier” is an identifier for managing scheduled schedule information. For example, a character string or a number such as “S0001” is assigned to the scheduled schedule information, and a match between the character string or the number is searched to identify the same scheduled schedule information.

図2(b)は、予定スケジュール情報の1項目(1イベント)の1構成例を示している。予定スケジュール情報は、図2(b)で示す項目のリスト構造で表現され、図2(b)の項目が、複数(複数イベント)構成される。予定スケジュール情報には、予定情報と、重要シーンとが含まれる。予定情報は、音声選択イベントに関する情報であり、「予定時刻」、「予定音声選択」、「予定内容」がある。重要シーンには、「開始時刻」、「重要シーン長」、「タイトル」がある。   FIG. 2B shows one configuration example of one item (one event) of the scheduled schedule information. The scheduled schedule information is expressed by a list structure of items shown in FIG. 2B, and a plurality of items (multiple events) are configured in FIG. The schedule information includes schedule information and important scenes. The schedule information is information related to a voice selection event, and includes “schedule time”, “schedule voice selection”, and “schedule content”. The important scenes include “start time”, “important scene length”, and “title”.

一般的に、行事における重要なシーン(撮影して後日見たい区間)は限られる、もしくはパターン化されることが多い。このため、予定スケジュール情報が決まっていれば行事の開始前に重要シーンを設定しておくことが可能である。重要シーンとしては、例えば、講演会における特に重要事項を説明する区間、結婚式における新郎新婦の登場する区間、演劇においては開演から終演まですべての区間が挙げられる。   In general, important scenes (events that you want to see after shooting) are often limited or patterned. For this reason, if the schedule information is determined, it is possible to set an important scene before the event starts. The important scenes include, for example, a section explaining particularly important matters in the lecture, a section where the bride and groom appear at the wedding, and all sections from the start to the end in the play.

「予定時刻」は、予定イベント時刻情報に対応し、音声選択イベントが発生する予定時刻を示す。「予定音声選択」は、予定している音声選択部16により選択(切り替え)された結果、最終的に音声出力部15から出力される音声出力の種別であり、例えば、マイク音声が出力されている、CD再生音が出力されているといった音声選択情報である。「予定内容」は、音声選択部16により選択(切り替え)された結果、最終的に音声出力部15から出力される音声の属性情報を表し、例えば、マイク番号や、音楽(楽曲)の名前(任意の文字列)を示す。   The “scheduled time” corresponds to the scheduled event time information and indicates the scheduled time when the voice selection event occurs. “Scheduled audio selection” is a type of audio output that is finally output from the audio output unit 15 as a result of selection (switching) by the scheduled audio selection unit 16, for example, a microphone audio is output. Voice selection information such as CD playback sound being output. “Schedule content” represents attribute information of the sound that is finally output from the sound output unit 15 as a result of being selected (switched) by the sound selection unit 16, and includes, for example, a microphone number and a name of music (music) ( Any character string).

「開始時刻」は、予定情報どおりに進行した場合の重要シーンの開始時刻を示す。「重要シーン長」は、予定情報どおりに進行した場合における重要シーンの区間長を示す。また、区間長の代わりに予定情報どおりに進行した場合の重要シーンの終了時刻を示す構成にしてもよい。「タイトル」は、重要シーンのタイトルであり、任意の文字列であればよい。これは、例えば編集時においてシーン選択等を画面に表示して利用される。   The “start time” indicates the start time of the important scene when proceeding according to the schedule information. The “important scene length” indicates the section length of the important scene when proceeding according to the schedule information. Moreover, you may make it the structure which shows the end time of the important scene when it progresses according to schedule information instead of section length. “Title” is a title of an important scene and may be any character string. This is used, for example, by displaying scene selection on the screen during editing.

図3(a)は、図2に示した予定スケジュール情報を記録するための記録ファイル(以下、予定スケジュール情報ファイルと呼ぶ)の項目を示す図である。図3(b)は、予定スケジュール情報ファイルの1具体例を示す図である。予定スケジュール情報ファイルは、テキスト形式とし、文字列を「,」で区切るComma Separated Values(CSV)形式で記録されている。   FIG. 3A is a diagram showing items of a recording file (hereinafter referred to as a scheduled schedule information file) for recording the scheduled schedule information shown in FIG. FIG. 3B shows a specific example of the scheduled schedule information file. The scheduled schedule information file is recorded in a text format and in a Comma Separated Values (CSV) format in which character strings are separated by “,”.

図3(b)の予定スケジュール情報ファイルの内容としては、ファイル先頭に図2で説明したスケジュール識別子を記述し、図2で説明した構成を順にならべて「,」で区切る形式とする。「予定時刻」、「開始時刻」には、午前の場合は「AM」、午後であれば「PM」を先頭につけて、「AM:10:00:00」のように記述する。「予定音声選択」には、音声信号再生部13から再生される音声信号を音声出力部15に出力する場合には「CD再生」、マイク部12の音声信号を音声出力部15に出力する場合には「マイク音声」と記述する。   The schedule schedule information file shown in FIG. 3B has a format in which the schedule identifier described in FIG. 2 is described at the head of the file, and the configurations described in FIG. 2 are arranged in order and separated by “,”. The “scheduled time” and “start time” are described as “AM: 10:00: 00” with “AM” in the morning and “PM” in the afternoon. In “scheduled voice selection”, “CD playback” is used when the audio signal reproduced from the audio signal reproduction unit 13 is output to the audio output unit 15, and the audio signal of the microphone unit 12 is output to the audio output unit 15. Is described as “microphone sound”.

「予定内容」には、どのような文字列が記載されていてもよいが、本実施の形態では「予定音声選択」が「CD再生」の場合には楽曲名(図3の例では「楽曲A」、「楽曲B」、「楽曲C」)を、「マイク音声」の場合にはマイク番号(図3の例では「マイクB」)と記述する。「重要シーン長」には、時間表示で「00:02:00」と記述する。「タイトル」には、任意の文字列であるのでユーザが自由に記述することができる。なお、情報なしを表す場合、「NO_INFO」と記述することとする。本実施の形態では、時刻情報を文字列として表したが、時刻情報を意味するならばどのような記述形式でもよい。   Any character string may be described in “schedule content”, but in this embodiment, when “schedule audio selection” is “CD playback”, a song name (in the example of FIG. A ”,“ Song B ”,“ Song C ”) are described as a microphone number (“ Mic B ”in the example of FIG. 3) in the case of“ Mic voice ”. In “important scene length”, “00:02:00” is described in time display. Since the “title” is an arbitrary character string, the user can freely describe it. When no information is indicated, “NO_INFO” is described. In the present embodiment, the time information is represented as a character string. However, any description format may be used as long as the time information is meant.

(進行情報のデータ構造及び記録形式)
次に、進行情報のデータ構造及び記録形式について具体的に説明する。進行情報とは、実際に撮影対象行事で行われた進行状態に関する情報であり、スケジュール時刻差分検出部22においてスケジュール情報との関連付けが行われる(詳細は後述する)。すなわち、進行情報には、上記関連付けのための要素が必要になるため、予定スケジュール情報と同様のリスト形式である。
(Data structure and recording format of progress information)
Next, the data structure and recording format of the progress information will be specifically described. The progress information is information regarding the progress state actually performed at the shooting target event, and is associated with the schedule information in the schedule time difference detection unit 22 (details will be described later). In other words, the progress information requires an element for the association, and thus has the same list format as the scheduled schedule information.

図4は、進行情報の1構成例を示す。「進行情報識別子」は、進行情報を管理/識別するための識別子であり、任意の文字列である。同じ撮影対象行事に対しては、予定スケジュール情報のスケジュール識別子と一致することが好ましい。これは、予定スケジュール情報と、進行情報との関連付けが容易となるためである。なお、識別子ではなく、ファイルとして記録する際は、ファイル名に同一の文字列を付与して関連付けを行う方法でもよい。   FIG. 4 shows one configuration example of the progress information. The “progress information identifier” is an identifier for managing / identifying the progress information, and is an arbitrary character string. For the same shooting target event, it is preferable to match the schedule identifier of the scheduled schedule information. This is because the schedule schedule information can easily be associated with the progress information. When recording as a file instead of an identifier, a method of assigning the same character string to a file name and performing association may be used.

「実開始時刻」は、イベント時刻情報に対応し、撮影対象行事の進行における音声選択イベント発生時刻(実際に音声選択イベントが発生した時刻)を表す。「音声選択結果」は、実開始時刻における音声選択部16の選択状態を表し、図2に示す「予定音声選択」と対応する。「内容結果」は、音声選択部16により選択(切り替え)された結果、最終的に音声出力部15から出力される音声信号の属性情報を表し、図2に示す「予定内容」と対応する。   “Actual start time” corresponds to the event time information, and represents a voice selection event occurrence time (time when the voice selection event actually occurs) in the progress of the shooting target event. The “voice selection result” represents the selection state of the voice selection unit 16 at the actual start time, and corresponds to the “scheduled voice selection” shown in FIG. The “content result” represents attribute information of the audio signal that is finally output from the audio output unit 15 as a result of being selected (switched) by the audio selection unit 16, and corresponds to the “scheduled content” illustrated in FIG.

また、進行情報記録部17は、進行情報を進行情報ファイルとして進行情報記録媒体5に記録する。進行情報ファイルの形式は、予定スケジュール情報ファイルと同様にテキスト形式(CSV形式)とする。   The progress information recording unit 17 records the progress information as a progress information file on the progress information recording medium 5. The format of the progress information file is assumed to be a text format (CSV format) similarly to the scheduled schedule information file.

(撮影対象)
次に、本実施の形態の映像編集システムにおける撮影方法と撮影対象行事の進行との関連を具体的に説明する。まず、想定される撮影対象行事について説明する。例えば、講演会、結婚式、演劇等では、司会者の行事開始のアナウンスがスピーカ等で出力される場合や、音楽(楽曲)の再生が開始されるのに合わせて講演者や演者が登場する場合がある。これらの例のように、撮影対象行事の進行中に音声選択イベントが発生する。これらの音声選択イベントは、重要シーンの開始直前や直後に発生する場合が多い。この撮影対象行事の進行中に音声選択イベントの発生時刻と音声選択結果を編集時に利用することで編集効率の向上を目指し、さらには、事前(撮影対象行事の開始以前)に作成する予定スケジュール情報を用いた重要シーンの切り出し編集が可能になる。
(Shooting target)
Next, the relationship between the shooting method and the progress of the shooting target event in the video editing system of the present embodiment will be specifically described. First, an assumed shooting target event will be described. For example, in lectures, weddings, theater performances, etc., announcements of the start of the host's events are output on speakers, etc., and speakers and performers appear as music (music) starts to play There is a case. As in these examples, a voice selection event occurs during the shooting event. These audio selection events often occur immediately before or after the start of an important scene. The scheduled time information to be created in advance (before the start of the shooting event), aiming to improve the editing efficiency by using the occurrence time of the audio selection event and the audio selection result during editing during the shooting target event. This makes it possible to cut out and edit important scenes using.

本実施の形態では、映像記録装置3を用いて、撮影対象行事の開始以前から撮影対象を記録開始、記録停止を間歇的に繰り返す撮影方法で撮影が行われる場合について説明する。なお、映像記録媒体4に記録可能な時間が撮影対象行事に対して十分長ければ、講演会や結婚式、演劇のように撮影対象が動く範囲が限定される場合にはカメラレコーダの撮影位置を固定化して、常に記録することにより撮影者が撮影状況を監視せずに撮影を行うことも可能である。   In the present embodiment, a case will be described in which the video recording apparatus 3 is used to perform shooting by a shooting method in which recording of a shooting target is started and stopped before and after the start of the shooting target event. If the time that can be recorded in the video recording medium 4 is sufficiently long for the event to be photographed, the photographing position of the camera recorder is set when the range of movement of the photographing object is limited, such as a lecture, wedding, or theater. By fixing and always recording, it is possible for the photographer to take a picture without monitoring the photographing situation.

(重要シーンの抽出方法)
次に、編集時に重要シーンを抽出する基本的な概念を説明する。まず、編集の基本となる映像データのシーン分割について、図5を参照しながら説明する。図5は、映像データのシーン分割を示す概念図である。音声出力(a)は、音声出力部15から出力された音声信号の様子を模式的に表しており、時刻00:00:00:00において、音声出力部15から「楽曲A」(音声信号再生部13がCD再生する)が出力されている。同じように、00:00:02:15において、音声出力部15から出力される音声信号が、CD再生音声からマイク音声(マイク部12から入力される音声信号)に切り替わり、時刻00:00:13:20に再度CD再生音声に切り替わり「楽曲C」が出力されている。
(Important scene extraction method)
Next, the basic concept of extracting important scenes during editing will be described. First, scene division of video data that is the basis of editing will be described with reference to FIG. FIG. 5 is a conceptual diagram showing scene division of video data. The audio output (a) schematically represents the state of the audio signal output from the audio output unit 15, and at time 00: 00: 00: 00, the audio output unit 15 outputs “Song A” (audio signal reproduction). The unit 13 plays a CD). Similarly, at 00: 00: 02: 15, the audio signal output from the audio output unit 15 is switched from the CD playback audio to the microphone audio (audio signal input from the microphone unit 12), and time 00:00: At 13:20, the CD playback sound is switched again and “Song C” is output.

記録形式(b)は、映像記録媒体4に記録された映像データを示す図である。また、再生形式(c)は、映像データが編集(分割)された状態を示す図である。   The recording format (b) is a diagram showing video data recorded on the video recording medium 4. The reproduction format (c) is a diagram showing a state in which the video data is edited (divided).

この音声選択部16において行われる音声選択の変更や、再生曲変更を分割点(図5における分割点1、分割点2、分割点3)としてシーン分割することができる。以上が、編集時におけるシーンの自動シーン分割の基本的な概念である。   The change of the audio selection performed in the audio selection unit 16 and the change of the reproduction music can be divided into scenes as division points (division point 1, division point 2, division point 3 in FIG. 5). The above is the basic concept of automatic scene division of a scene at the time of editing.

ここで、音声選択部16は、音声信号再生部13に対して、指定した曲を再生する構成とする(詳細は後述する)。また、図5における時刻はタイムコード値を表しており、時、分、秒、フレーム桁を「:」により区切った表記である。例えば、00:00:02:15は、2秒15フレームを表す。この分割点の撮影時刻情報を映像データに関連付けて映像記録媒体4に記録しておけば、編集装置2において容易にシーン分割を行うことができる。   Here, the audio selection unit 16 is configured to reproduce the designated song with respect to the audio signal reproduction unit 13 (details will be described later). In addition, the time in FIG. 5 represents a time code value, and is a notation in which an hour, minute, second, and frame digit are separated by “:”. For example, 00: 00: 02: 15 represents 15 frames for 2 seconds. If the shooting time information of the division point is associated with the video data and recorded in the video recording medium 4, the editing apparatus 2 can easily perform scene division.

しかしながら、上記の基本的なシーン分割の概念を映像記録装置3のみで実現する場合には、ユーザが所望するシーン分割を行えない場合がある。例えば、記録停止や記録開始を間歇的に行う記録方法においては、音声選択イベントの発生時に撮影していない可能性があり、この場合には、映像データに分割点を関連付けることができないため、シーン分割を行うことができない。   However, when the above basic concept of scene division is realized only by the video recording apparatus 3, there are cases where the user cannot perform the desired scene division. For example, in a recording method in which recording is stopped or started intermittently, there is a possibility that shooting was not performed when an audio selection event occurred. In this case, since a division point cannot be associated with video data, Cannot split.

本実施の形態では、映像編集装置2において、上記進行記録媒体5と、映像記録媒体4と予定スケジュール情報から映像編集部23において映像編集を行う。図6は、本実施の形態における映像データの重要シーン切り出し方法の概念図である。「予定スケジュール情報」(a)は、音声選択変更や再生曲変更の発生時刻(予定する音声選択イベント発生時刻)及び予定スケジュール情報が含まれる重要シーン情報を有する。   In the present embodiment, in the video editing device 2, the video editing unit 23 performs video editing from the progress recording medium 5, the video recording medium 4, and the scheduled schedule information. FIG. 6 is a conceptual diagram of a method for extracting an important scene of video data in the present embodiment. The “scheduled schedule information” (a) includes important scene information including the occurrence time (scheduled sound selection event occurrence time) of the sound selection change or the reproduction music change and the schedule schedule information.

「実際の進行(音声出力)」(b)に記載している内容は、例えば会場にスピーカで出力される音声とその切り替えタイミング情報を(音声選択イベントの発生時刻と音声選択結果及び内容結果)有する。「記録データ」(c)は、「進行情報」と「映像データ」からなる。「進行情報」は、実際の進行の音声選択変更、再生曲変更が音声選択イベント0、1、2、3のように進行情報として進行情報記録媒体5に記録されている。   The content described in “actual progress (sound output)” (b) includes, for example, the sound output from the speaker to the venue and the switching timing information thereof (sound generation event occurrence time, sound selection result and content result). Have. “Recording data” (c) includes “progress information” and “video data”. “Progress information” is recorded in the progress information recording medium 5 as progress information, such as voice selection events 0, 1, 2, and 3, as actual audio selection changes and playback song changes.

「重要シーン切り出し後」(d)は、予定スケジュール情報に含まれる重要シーン情報に対応する映像データを抽出して撮影順にならべられたものである。なお、撮影順に並べるのではなく、任意の順番に並べるためには、重要シーン情報に順番情報(番号)を付与しておけば容易に実現できる。   In “after important scene cutout” (d), video data corresponding to important scene information included in the scheduled schedule information is extracted and arranged in the order of shooting. Note that, in order to arrange in an arbitrary order instead of arranging in the order of photographing, it can be easily realized by adding order information (number) to the important scene information.

本実施の形態では、重要シーンは、イベント時点を時刻の基準に規定されている。したがって、図6に示すように、楽曲Aの開始位置が予定スケジュールからずれると、これにともない分割点(音声選択変更など)もずれる。重要シーンは、分割点から一定時間離れて(あるいは同時に)始まるので、重要シーンも予定スケジュールからずれる。映像データにおいて、分割点から一定時間離れた区間を切り出すことにより、重要シーンを抽出することができる。   In the present embodiment, the important scene is defined based on the time point of the event. Therefore, as shown in FIG. 6, when the start position of the music piece A deviates from the scheduled schedule, the division points (such as voice selection changes) are also shifted accordingly. Since the important scene starts at a certain time away from (or at the same time) from the division point, the important scene also deviates from the scheduled schedule. In the video data, an important scene can be extracted by cutting out a section that is separated from the dividing point by a certain time.

したがって、本実施の形態に係る映像編集システムは、イベント2に示すように、イベント開始時には映像記録装置3が映像を記録していなくても、重要シーン開始時に映像記録装置3が映像を記録していれば、重要シーンを切り出すことができる。   Therefore, as shown in event 2, the video editing system according to the present embodiment records video at the start of an important scene even if the video recording device 3 does not record video at the start of the event. If so, important scenes can be cut out.

次に、本実施の形態における映像編集システムの各部の動作についてさらに詳細に説明する。   Next, the operation of each part of the video editing system in the present embodiment will be described in more detail.

(音声スイッチャの動作)
まず、音声選択部16における撮影対象行事の進行中における音声選択イベント発生の検出について具体的に説明する。図7は、本実施の形態における音声スイッチャ14のより詳細な構成を示すブロック図である。音声選択部16は、ユーザから操作を受け付けるための操作入力部31と、操作入力部31の操作情報に基づいて出力音声信号を選択する切替部32と、操作入力部31の操作情報に基づいて音声信号再生部13に再生を指示し、楽曲名を取得する再生指示部33とを有する。
(Operation of voice switcher)
First, the detection of the occurrence of a voice selection event during the shooting target event in the voice selection unit 16 will be specifically described. FIG. 7 is a block diagram showing a more detailed configuration of the voice switcher 14 in the present embodiment. The voice selection unit 16 is based on an operation input unit 31 for receiving an operation from a user, a switching unit 32 that selects an output audio signal based on operation information of the operation input unit 31, and operation information of the operation input unit 31. The audio signal reproduction unit 13 is instructed to reproduce and a reproduction instruction unit 33 that acquires the music title is included.

また、音声信号(楽曲信号、マイク音声信号)を入力するための第1の音声入力部34、第2の音声入力部35を有する。さらに、切替部32から供給される音声選択結果と、再生指示部33から供給される再生開始情報と楽曲名とを進行情報記録部17に通知する音声選択イベント情報通知部36と、音声選択イベント発生時刻を生成するための時刻生成部37とを有する。なお、第1の音声入力部34、第2の音声入力部35に関しては、必要な音声信号の入力数に応じて変更すればよい。   Moreover, it has the 1st audio | voice input part 34 and the 2nd audio | voice input part 35 for inputting an audio | voice signal (music signal, microphone audio | voice signal). Furthermore, a voice selection event information notification unit 36 for notifying the progress information recording unit 17 of the voice selection result supplied from the switching unit 32, the playback start information and the song name supplied from the playback instruction unit 33, and a voice selection event A time generation unit 37 for generating the generation time. In addition, what is necessary is just to change about the 1st audio | voice input part 34 and the 2nd audio | voice input part 35 according to the input number of a required audio | voice signal.

操作入力部31は、ユーザから操作を受け付け、切替部32と再生指示部33に操作情報を供給する。操作入力部31は、CD再生からマイク音声に切り替える時のように、第1の音声入力部34と第2の音声入力部35の選択切り替えが発生する場合には、切替部32に、操作情報を供給する。また、操作入力部31は、CD再生を開始する場合、あるいはCD再生する楽曲を変更する場合には、再生指示部33に操作情報を供給する。   The operation input unit 31 receives an operation from the user and supplies operation information to the switching unit 32 and the reproduction instruction unit 33. When the selection switching between the first audio input unit 34 and the second audio input unit 35 occurs, such as when switching from CD playback to microphone sound, the operation input unit 31 sends the operation information to the switch unit 32. Supply. Further, the operation input unit 31 supplies operation information to the reproduction instruction unit 33 when starting CD reproduction or when changing the music to be reproduced on the CD.

切替部32は、操作入力部31の操作情報(すなわち音声選択)に基づいて第1の音声入力部34から供給される楽曲信号及び第2の音声入力部35から供給されるマイク音声信号のいずれかまたは両方を選択して音声出力部15に供給する。また、切替部32は、音声選択イベント情報通知部36に、音声選択が行われた旨(音声選択結果)と、その内容結果とを通知する。切替部32は、一般的な音声スイッチャに搭載されている一般的な機能と同じである。   The switching unit 32 selects either the music signal supplied from the first audio input unit 34 or the microphone audio signal supplied from the second audio input unit 35 based on the operation information (that is, audio selection) of the operation input unit 31. Or both are selected and supplied to the audio output unit 15. In addition, the switching unit 32 notifies the audio selection event information notification unit 36 that the audio selection has been performed (audio selection result) and the content result thereof. The switching unit 32 is the same as a general function installed in a general voice switcher.

再生指示部33は、操作入力部31の操作情報(再生指示情報)に基づいて、音声信号再生部13に再生開始及び再生停止を指示する。また、再生中(及び再生の開始を指示している)の楽曲名(進行情報の内容結果に対応する)を取得し、音声選択イベント情報通知部36に供給する。本実施の形態の再生指示部33は、一般的な音楽用再生機に搭載される技術で実現可能であるので詳細は省略する。第1の音声入力部34、第2の音声入力部35は、それぞれ音声信号再生部13とマイク部12から供給される音声信号(楽曲信号、マイク音声信号)を受け取り、切替部32に供給するインターフェースである。音声信号の伝送媒体等は特に問わず、一般的な音声インターフェースで実現可能である。   The reproduction instruction unit 33 instructs the audio signal reproduction unit 13 to start and stop reproduction based on the operation information (reproduction instruction information) of the operation input unit 31. Also, the name of the song (corresponding to the result of the progress information) that is being played back (and instructed to start playback) is acquired and supplied to the voice selection event information notification unit 36. Since the reproduction instruction unit 33 of the present embodiment can be realized by a technique mounted on a general music player, details thereof are omitted. The first audio input unit 34 and the second audio input unit 35 receive audio signals (music signal and microphone audio signal) supplied from the audio signal reproduction unit 13 and the microphone unit 12, respectively, and supply them to the switching unit 32. Interface. An audio signal transmission medium is not particularly limited, and can be realized by a general audio interface.

時刻生成部37は、音声選択イベント発生時の時刻を生成し、音声選択イベント発生時刻として音声選択イベント情報通知部36に供給する。時刻生成部37は、Real Time Clock(RTC)機能を有する集積回路を搭載することで時刻を生成する。音声選択イベント情報通知部36が、音声選択イベント発生時に時刻生成部37に対して音声選択イベント発生時刻を取得する構成とするため、時刻生成部37はRTCにより各時々の時刻を算出できる構成であればよい。   The time generation unit 37 generates a time when a voice selection event occurs, and supplies the time to the voice selection event information notification unit 36 as the voice selection event occurrence time. The time generation unit 37 generates a time by mounting an integrated circuit having a Real Time Clock (RTC) function. Since the voice selection event information notification unit 36 is configured to acquire the voice selection event occurrence time from the time generation unit 37 when the voice selection event occurs, the time generation unit 37 is configured to be able to calculate the time of each time by the RTC. I just need it.

音声選択イベント情報通知部36は、切替部32から供給される音声選択結果および内容結果と、再生指示部33から供給される再生中の(及び再生を開始指示している)楽曲名と、時刻生成部37から取得する音声選択イベント発生時刻とから1イベント分の進行情報を生成する。図8は、進行情報ファイルの1具体例を示す図である。図8の進行情報は、図3(a)の予定スケジュール情報に対応するものである。   The audio selection event information notification unit 36 includes the audio selection result and content result supplied from the switching unit 32, the name of the music being played (and instructed to start playback) supplied from the playback instruction unit 33, and the time The progress information for one event is generated from the voice selection event occurrence time acquired from the generation unit 37. FIG. 8 is a diagram showing a specific example of the progress information file. The progress information in FIG. 8 corresponds to the scheduled schedule information in FIG.

(進行情報生成方法)
次に、音声選択イベント情報通知部36における進行情報生成方法について説明する。図8に示すように、例えば、図4で説明した進行情報について、「実開始時刻」は、音声選択イベント発生時刻に対応し、時刻情報をそのまま記述すればよい。「音声選択結果」は、切替部32から供給される音声選択結果(例えば、図8における「マイク音声」あるいは「CD再生」)に対応する。
(Progress information generation method)
Next, the progress information generation method in the voice selection event information notification unit 36 will be described. As shown in FIG. 8, for example, with respect to the progress information described in FIG. 4, “actual start time” corresponds to the voice selection event occurrence time, and the time information may be described as it is. The “sound selection result” corresponds to the sound selection result (for example, “microphone sound” or “CD playback” in FIG. 8) supplied from the switching unit 32.

また、「内容結果」は、音声選択結果により記述する内容が異なり、切替部32から供給される内容結果を記述するか、再生指示部33から供給される再生中の(及び再生開始を指示している)楽曲名を記述するかを選択することにより得られる。例えば、音声選択結果が「マイク音声」である場合には、切替部32から供給される内容結果(例えば、図8における「マイクB」)を記述し、「CD再生」である場合には、再生指示部33から供給される再生中の(及び再生開始を指示している)楽曲名(例えば、図8における「楽曲A」、「楽曲B」、「楽曲C」)を記述する。   The “content result” differs depending on the audio selection result. The content result describes the content result supplied from the switching unit 32 or the playback in progress (and the playback start instruction supplied from the playback instruction unit 33). It is obtained by selecting whether to describe the music name. For example, when the sound selection result is “microphone sound”, the content result (for example, “microphone B” in FIG. 8) supplied from the switching unit 32 is described, and when it is “CD playback”, A music name (for example, “Song A”, “Song B”, “Song C” in FIG. 8) being played (and instructed to start playing) supplied from the playback instruction unit 33 is described.

なお、切替部32から供給される内容結果の文字列の生成に関しては、説明の便宜上「マイクB」としているが、単に「マイク」としても、音声選択を切り替える毎に数値をインクリメントして「マイク1」、「マイク2」、・・・とする方式でもよい。本実施の形態では、「マイクB」と「マイク」を同一のもの(すなわち「B」は意味が無いもの)として説明する。   In addition, regarding the generation of the character string of the content result supplied from the switching unit 32, “Mike B” is used for convenience of explanation. However, even if “Mic” is used, the numerical value is incremented every time the voice selection is switched. 1 ”,“ microphone 2 ”,... In the present embodiment, “Mike B” and “Mike” are assumed to be the same (that is, “B” has no meaning).

また、音声選択イベント情報通知部36は、生成した1イベント分の進行情報を進行情報記録部17に供給する。進行情報記録部17は、音声選択イベント情報通知部36から供給される1イベント分の進行情報を保持し、リスト化して全イベント分の進行情報を管理する。音声選択イベント情報通知部36は、好ましくは撮影対象行事の開始から終了までの間における進行情報を保持する。ただし、撮影対象行事の開始後など、撮影開始直後からの映像を記録する場合には、進行情報を電源投入時やユーザからの行事開始操作を受け付けてから終了するまでの間の進行情報を保持しておけばよい。   The voice selection event information notification unit 36 supplies the generated progress information for one event to the progress information recording unit 17. The progress information recording unit 17 holds the progress information for one event supplied from the voice selection event information notification unit 36 and manages the progress information for all events in a list. The audio selection event information notification unit 36 preferably holds the progress information from the start to the end of the shooting target event. However, when recording video from immediately after the start of shooting, such as after the start of the shooting target event, the progress information is retained from the time the power is turned on or after the event start operation from the user is received until it ends. You just have to.

また、進行情報記録部17で作成、保持している進行情報(全イベント分のリスト)を撮影対象行事の終了の時点で進行情報記録媒体5に記録する。撮影対象行事の終了は、ユーザから明示的に終了指示により行われる。   In addition, the progress information (list of all events) created and held by the progress information recording unit 17 is recorded in the progress information recording medium 5 at the end of the shooting target event. The shooting target event is ended by an explicit end instruction from the user.

(映像データの編集の詳細)
次に、映像データの編集について詳細に説明する。まず、スケジュール管理部21における予定スケジュール情報の管理方法を具体的に説明する。スケジュール管理部21に必要な機能としては、第1に予定スケジュール情報を作成する機能、第2に指定したスケジュール識別子に対応する予定スケジュール情報をスケジュール時刻差分検出部22に供給する機能、第3に過去に作成した予定スケジュール情報を保持する機能、第4に保持している過去の予定スケジュール情報を修正して新規の予定スケジュール情報を作成する機能である。
(Details of editing video data)
Next, editing of video data will be described in detail. First, the management method of the schedule schedule information in the schedule management part 21 is demonstrated concretely. The functions necessary for the schedule management unit 21 include firstly a function of creating schedule schedule information, secondly a function of supplying schedule schedule information corresponding to the designated schedule identifier to the schedule time difference detection unit 22, and thirdly A function for holding the schedule schedule information created in the past, and a function for correcting the past schedule schedule information held in the past and creating new schedule schedule information.

予定スケジュール情報を記録する予定スケジュール情報ファイルは、CSV形式のテキストファイルであり、かつ、スケジュール管理部21は、本実施の形態ではコンピュータ上のプログラムとして実現している。このため、上記4つの必要な機能を有する予定スケジュール管理部21は、一般的なコンピュータ処理技術で実現可能である。   The schedule information file for recording the schedule information is a text file in CSV format, and the schedule management unit 21 is realized as a program on a computer in the present embodiment. Therefore, the schedule schedule management unit 21 having the above four necessary functions can be realized by a general computer processing technique.

次に、スケジュール時刻差分検出部22における予定スケジュール情報と進行情報の音声選択イベント発生時刻の時刻差分検出方法を具体的に説明する。時刻差分を検出するために、2段階の処理を行う必要がある。第1段階として予定スケジュール情報と進行情報の各情報の関連付けを行い、第2段階として関連付けされた予定時刻と音声選択イベント発生時刻の差分を算出する。   Next, a method for detecting the time difference between the scheduled schedule information and the progress information voice selection event occurrence time in the schedule time difference detection unit 22 will be described in detail. In order to detect the time difference, it is necessary to perform a two-stage process. As the first stage, the schedule schedule information and the progress information are associated with each other, and as the second stage, the difference between the scheduled time and the voice selection event occurrence time is calculated.

第1段階の処理である予定スケジュール情報と進行情報の各情報(各イベント)との関連付け方法について説明する。まず、スケジュール時刻差分検出部22は、進行情報記録媒体5に記録された進行情報を読み込み、スケジュール管理部21から読み込んだ進行情報に対応する予定スケジュール情報を取得する。対応する予定スケジュール情報は、進行情報の進行情報識別子と予定スケジュール情報のスケジュール識別子を比較し、一致を確認することにより進行情報と関連付けられる。   A method for associating scheduled schedule information with each piece of information (each event) of progress information, which is processing in the first stage, will be described. First, the schedule time difference detection unit 22 reads the progress information recorded on the progress information recording medium 5 and acquires the schedule information corresponding to the progress information read from the schedule management unit 21. The corresponding schedule schedule information is associated with the progress information by comparing the progress information identifier of the progress information with the schedule identifier of the schedule schedule information and confirming a match.

次に、予定スケジュール情報と進行情報中に含まれる各時刻情報や音声選択情報、内容結果から各イベントの対応付けを行う。図9は、予定スケジュール情報と進行情報との対応付けの具体例を示す図である。図9(a)は予定スケジュール情報であり、図9(b)は進行情報である。図9(c)は、図9(a)の予定スケジュール情報と、図9(b)の進行情報との対応付け結果を示す。図9(a)のスケジュール識別子と、図9(b)の進行情報識別子の図示を省略しているが両識別子とも「S0001」とする。   Next, each event is associated with each other from the time information, voice selection information, and content results included in the scheduled schedule information and the progress information. FIG. 9 is a diagram illustrating a specific example of association between schedule schedule information and progress information. FIG. 9A shows schedule schedule information, and FIG. 9B shows progress information. FIG. 9C shows a correspondence result between the schedule information in FIG. 9A and the progress information in FIG. 9B. The schedule identifier in FIG. 9A and the progress information identifier in FIG. 9B are omitted, but both identifiers are “S0001”.

まず、スケジュール時刻差分検出部22は、図9(b)の進行情報を進行情報記録媒体5から読み込む。次に、スケジュール時刻差分検出部22は、スケジュール管理部21から予定スケジュール情報を取得する。   First, the schedule time difference detection unit 22 reads the progress information of FIG. 9B from the progress information recording medium 5. Next, the schedule time difference detection unit 22 acquires scheduled schedule information from the schedule management unit 21.

次に、スケジュール時刻差分検出部22は、予定スケジュール情報の各イベントの各要素を比較して、予定スケジュール情報のイベントと進行情報のイベントとを対応付ける。具体的には、「予定音声選択」と「音声選択結果」、「予定内容」と「内容結果」を比較しすべて一致した場合、同一イベントとして検出する。例えば、図9に示す「予定イベント1」と「進行イベント1」を比較する場合、予定音声選択と音声選択結果(「CD再生」)と、予定内容と内容結果(「楽曲A」)が一致するため、同一イベントとして検知し、図9(c)の「イベント1」として、予定スケジュール情報と進行情報との対応付けを行う。   Next, the schedule time difference detecting unit 22 compares each element of each event of the scheduled schedule information and associates the event of the scheduled schedule information with the event of the progress information. Specifically, “scheduled voice selection” and “sound selection result”, “schedule content” and “content result” are compared, and if all match, they are detected as the same event. For example, when comparing “scheduled event 1” and “progress event 1” shown in FIG. 9, the scheduled voice selection and the voice selection result (“CD playback”) match the scheduled content and the content result (“music A”). Therefore, it is detected as the same event, and as the “event 1” in FIG. 9C, the schedule schedule information and the progress information are associated with each other.

同様にして、「イベント2」、「イベント3」、「イベント4」についても、対応付けが行われる。一般的に、スケジュールは時刻順に記述されるため、予定スケジュール情報の時刻が最古のイベントと、進行情報の時刻が最古のイベントから順次比較すれば、同一イベント検出処理を効率的に行うことができる。   Similarly, “event 2”, “event 3”, and “event 4” are also associated. Generally, schedules are written in order of time, so the same event detection process can be performed efficiently if the events with the earliest scheduled schedule information are compared with the events with the earliest progress information. Can do.

次に、第2段階の処理である対応付けされた予定時刻と音声選択イベント発生時刻の時刻差分を算出する方法を説明する。上記第1段階の処理において、予定スケジュール情報と進行情報の各イベントとの対応付けが完了する。したがって、予定時刻からイベント発生時刻の時刻差分を算出するには、各イベントに対する実開始時刻から予定時刻を減算すればよい。ずなわち、時刻差分t(時刻差分)は、以下の式で表される。   Next, a method for calculating the time difference between the associated scheduled time and the voice selection event occurrence time, which is the second stage process, will be described. In the process of the first stage, the association between the scheduled schedule information and each event of the progress information is completed. Therefore, in order to calculate the time difference of the event occurrence time from the scheduled time, the scheduled time may be subtracted from the actual start time for each event. In other words, the time difference t (time difference) is expressed by the following equation.

t(時刻差分)=t(実開始時刻)−t(予定時刻)
ここで、t(実開始時刻)を進行情報の実開始時刻、t(予定時刻)を予定スケジュール情報の予定情報における予定時刻とする。
t (time difference) = t (actual start time) -t (scheduled time)
Here, t (actual start time) is the actual start time of the progress information, and t (planned time) is the scheduled time in the schedule information of the scheduled schedule information.

また、図10は、図9(c)で対応付けられた予定スケジュール情報と進行情報における時刻差分算出結果を示す図である。「時刻差分」において、各イベントが10分〜12分予定時刻より遅れていることがわかる。ここで「時刻差分」の「00:10:00」は、10分を表し、時間、分、秒の桁を「:」で区切る形式とする。   FIG. 10 is a diagram illustrating a time difference calculation result in the schedule information and the progress information associated with each other in FIG. In “Time difference”, it can be seen that each event is delayed from the scheduled time of 10 to 12 minutes. Here, “00:10:00” of “time difference” represents 10 minutes, and the hour, minute, and second digits are separated by “:”.

次に、重要シーン切り出し部24における重要シーンの切り出し方法について具体的に説明する。図11は、重要シーン切り出し処理前と重要シーン切り出し処理後の関係を示す図である。   Next, the important scene cutout method in the important scene cutout unit 24 will be specifically described. FIG. 11 is a diagram illustrating the relationship before the important scene cutout process and after the important scene cutout process.

まず、「切り出し開始時刻」は、重要シーンとして映像データの切り出しを開始する点(カット編集点)を示し、開始時刻から時刻差分を加算した時刻である。ただし、時刻差分は負の値もあり得るため、時間差が負の値の場合は、負の値を加算する、すなわち、実開始時刻から時刻差分を減算した値となる。例えば、図11の重要シーン1について、重要シーン情報の開始時刻がAM10:00:00で、時刻差分が00:10:00であるため、切り出し開始時刻はAM10:10:00となる。切り出しシーン長は、重要シーンとして切り出す区間長(時間長)を表し、重要シーン情報の重要シーン長と同じ区間長(時間長)である。切り出しタイトルは、重要シーン切り出し後のタイトルを表し、重要シーン情報のタイトルと同じ文字列である。   First, “cutout start time” indicates a point (cut edit point) at which video data starts to be cut out as an important scene, and is a time obtained by adding a time difference from the start time. However, since the time difference can be a negative value, when the time difference is a negative value, a negative value is added, that is, a value obtained by subtracting the time difference from the actual start time. For example, for the important scene 1 in FIG. 11, since the start time of the important scene information is AM 10:00 and the time difference is 00:10:00, the extraction start time is AM 10:10:00. The cut-out scene length represents a section length (time length) cut out as an important scene, and is the same section length (time length) as the important scene length of the important scene information. The cut-out title represents the title after the important scene is cut out, and is the same character string as the title of the important scene information.

次に、図6を参照しながら映像と重要シーン切り出し結果との関係を説明する。ここで、図11と図6は同一の具体例を示してしており、図6と図11の例では、予定スケジュール情報に対して実際の進行における撮影対象行事の開始時刻は10分遅れている。   Next, the relationship between the video and the important scene cutout result will be described with reference to FIG. Here, FIG. 11 and FIG. 6 show the same specific example. In the example of FIG. 6 and FIG. 11, the start time of the shooting target event in actual progress is delayed by 10 minutes with respect to the scheduled schedule information. Yes.

また、重要シーン切り出し部24は、映像記録媒体4に記録された映像データに対応されている撮影時刻情報から、音声選択イベント発生時刻と同一時刻に対応付けられる映像データ(1フレーム分の映像データ)の位置(例えば、先頭の映像データからのフレームオフセット)を検出する。すなわち、図6に示す「記録データ」に記載されているとおり、上記の方法で映像データと進行情報とが関連付けられる。   Further, the important scene cutout unit 24 obtains video data (one frame worth of video data) associated with the same time as the audio selection event occurrence time from the shooting time information corresponding to the video data recorded on the video recording medium 4. ) Position (for example, a frame offset from the first video data) is detected. That is, as described in “recording data” shown in FIG. 6, the video data and the progress information are associated with each other by the above method.

次に、重要シーンの切り出し部24は、上記進行情報と映像データとを対応付けた結果と、予定スケジュール情報における重要シーン情報とに基づいて、重要シーンの切り出し処理を行う。切り出す重要シーンの開始点の時刻t(重要シーン開始)は、下記の式で表すことができる。   Next, the important scene cutout unit 24 performs an important scene cutout process based on the result of associating the progress information with the video data and the important scene information in the scheduled schedule information. The start time t (important scene start) of the important scene to be cut out can be expressed by the following equation.

t(重要シーン開始)=t(開始時刻)+t(時刻差分)
ここで、t(時刻差分)を前述した時刻差分、t(開始時刻)を予定スケジュール情報の重要シーン情報としての開始時刻とする。
t (important scene start) = t (start time) + t (time difference)
Here, t (time difference) is the time difference described above, and t (start time) is the start time as the important scene information of the scheduled schedule information.

また、切り出す重要シーンの終了点の時刻t(重要シーン終了)は、下記の式で表すことができる。   The time t (important scene end) at the end point of the important scene to be extracted can be expressed by the following equation.

t(重要シーン終了)=t(重要シーン開始)+t(重要シーン長)
ただし、t(重要シーン長)は、予定スケジュール情報の重要シーン情報としての重要シーン長である。
t (important scene end) = t (important scene start) + t (important scene length)
However, t (important scene length) is an important scene length as important scene information of the scheduled schedule information.

次に、以上の重要シーンの切り出し方法で算出された重要シーンの開始点の時刻(t(重要シーン開始))から終了点の時刻(t(重要シーン終了))に対応する映像データの区間を重要シーンとして切り出す。図12は、切り出された重要シーンの開始点の時刻と終了点の時刻の算出方法と重要シーンの切り出しの具体例(図6における重要シーンBの切り出しの例)を示す図である。   Next, the video data section corresponding to the end point time (t (important scene end)) from the start point time (t (important scene start)) of the important scene calculated by the above important scene cutout method is obtained. Cut out as an important scene. FIG. 12 is a diagram showing a calculation method of the start point time and end point time of the cut out important scene and a specific example of cut out of the important scene (example of cut out of the important scene B in FIG. 6).

なお、t(時刻差分)の算出は、重要シーン情報の開始時刻(t(開始時刻))に一番時刻が近い音声選択イベント(の実開始時刻)に基づいて算出すればよい。また、切り出し後の重要シーンの開始点の時刻と終了点の時刻とを対応する映像データは、映像データの各フレームに関連付けられた撮影時刻を参照して検出してもよいし、予定時刻(t(予定時刻))と開始時刻(t(開始時刻))の差分からフレームオフセットを算出し、各撮影時刻に対応する映像データを導き出してもよい。   Note that t (time difference) may be calculated based on the voice selection event (actual start time) closest to the start time (t (start time)) of the important scene information. Also, the video data corresponding to the start time and end time of the important scene after clipping may be detected with reference to the shooting time associated with each frame of the video data, or the scheduled time ( The frame offset may be calculated from the difference between t (scheduled time)) and the start time (t (start time)) to derive video data corresponding to each shooting time.

以上の方法により、実際の進行の遅れによらず、予定スケジュール情報の重要シーン情報どおりに重要シーンの切り出しが行われる。なお、図6に示すように、例えば、イベント2の時刻では映像データの記録が行われていない。この場合にも、上述した方法で重要シーンの切り出しを行うことが可能である。   By the above method, the important scene is cut out according to the important scene information of the scheduled schedule information regardless of the actual progress delay. As shown in FIG. 6, for example, video data is not recorded at the time of event 2. Also in this case, the important scene can be cut out by the method described above.

以上のように、本実施の形態の映像編集システムによれば、編集効率を飛躍的に向上させることができ、ユーザにとって利便性の高い編集装置を実現することができる。   As described above, according to the video editing system of the present embodiment, editing efficiency can be dramatically improved, and an editing device that is highly convenient for the user can be realized.

なお、予定スケジュール情報ファイルおよび進行情報ファイルを記録する際に、テキスト形式(CSV形式)により記録する方法を説明したが、例えば、XML(eXtensible Markup Language)形式等のマークアップ言語や、テキスト形式をバイナリデータ化した形式等で記述しても同様の効果を発揮する。   The method of recording in the text format (CSV format) when recording the scheduled schedule information file and the progress information file has been described. For example, a markup language such as XML (extensible Markup Language) format or a text format is used. The same effect is exhibited even if it is described in a binary data format.

さらに、本実施の形態では、音声選択イベントに関して説明したが、例えば、映像からシーンチェンジを検出することや、音声から大きな音を検出する新たに手段を備えれば、同様の構成で同様の効果を発揮することが可能である。   Furthermore, although the audio selection event has been described in the present embodiment, for example, if a new means for detecting a scene change from video or detecting a loud sound from audio is provided, the same effect can be obtained with the same configuration. It is possible to demonstrate.

さらに、映像記録装置3における撮影時刻の記録に関して、映像データを管理する管理情報(例えば、映像データと別ファイル)として記録してもよいし、ファイルシステム上のタイムスタンプを参照してもよい。   Further, regarding the recording of the shooting time in the video recording device 3, it may be recorded as management information for managing video data (for example, a separate file from the video data), or a time stamp on the file system may be referred to.

なお、本実施の形態において、スケジュール時刻差分検出部22は、スケジュール管理部21からスケジュール情報を取得して、スケジュール情報と進行情報とを比較する場合について説明した。しかし、本発明のこの実施形態に限定されず、例えば、スケジュール時刻差分検出部22は、進行情報識別子(例では「S0001」)をスケジュール管理部21に供給して対応する図9(a)の予定スケジュール情報を取得する構成にすることもできる。   In the present embodiment, the schedule time difference detection unit 22 has acquired the schedule information from the schedule management unit 21 and compares the schedule information with the progress information. However, the present invention is not limited to this embodiment. For example, the schedule time difference detection unit 22 supplies the progress information identifier (“S0001” in the example) to the schedule management unit 21 and corresponds to FIG. 9A. It is also possible to obtain a schedule schedule information.

本発明にかかる映像編集システムは、ユーザの編集における利便性を飛躍的に向上させるもので、磁気テープ媒体や半導体メモリや光ディスク等を応用した映像編集システムや映像編集装置や音響設備等を含むイベント会場の設備等に広く利用可能である。   The video editing system according to the present invention dramatically improves user editing convenience, and includes events such as video editing systems, video editing apparatuses, audio equipment, and the like that apply magnetic tape media, semiconductor memory, optical disks, etc. It can be widely used for venue equipment.

本発明の実施の形態に係る映像編集システムの構成を示すブロック図The block diagram which shows the structure of the video editing system which concerns on embodiment of this invention 本実施の形態における予定スケジュール情報の1構成例を示す図The figure which shows one structural example of the schedule schedule information in this Embodiment 本実施の形態における予定スケジュール情報ファイルの1具体例を示す図The figure which shows one specific example of the schedule schedule information file in this Embodiment 本実施の形態における進行情報の1構成例を示す図The figure which shows one structural example of the progress information in this Embodiment. 本実施の形態における映像データのシーン分割を示す概念図Conceptual diagram showing scene division of video data in the present embodiment 本実施の形態における映像データの重要シーンの切り出しを示す概念図Conceptual diagram showing the extraction of important scenes of video data in the present embodiment 本実施の形態における音声スイッチャの詳細な構成を示すブロック図The block diagram which shows the detailed structure of the voice switcher in this Embodiment 本実施の形態における進行情報ファイルの1具体例を示す図The figure which shows one specific example of the progress information file in this Embodiment 本実施の形態における予定スケジュール情報と進行情報との関連付け結果の1具体例を示す図The figure which shows one specific example of the correlation result of schedule schedule information and progress information in this Embodiment 本実施の形態における時刻差分を算出した結果の1具体例を示す図The figure which shows one specific example of the result of having calculated the time difference in this Embodiment 本実施の形態における重要シーン切り出し処理前と重要シーン切り出し処理後の関係を示す図を示す図The figure which shows the figure which shows the relationship before the important scene cut-out process in this Embodiment, and after an important scene cut-out process 本実施の形態における重要シーン切り出し開始時刻と終了時刻算出方法を示す概念図Conceptual diagram showing an important scene cutout start time and end time calculation method in the present embodiment

符号の説明Explanation of symbols

1 音声再生選択装置
2 編集装置
3 映像記録装置
4 映像記録媒体
5 進行情報記録媒体
11 音声用記録媒体
12 マイク部
13 音声信号再生部
14 音声スイッチャ
15 音声出力部
16 音声選択部
17 進行情報記録部
21 スケジュール管理部
22 スケジュール時刻差分検出部
23 映像編集部
24 重要シーン切り出し部
31 操作入力部
32 切替部
33 再生指示部
34 第1の音声入力部
35 第2の音声入力部
36 音声選択イベント情報通知部
37 時刻生成部
DESCRIPTION OF SYMBOLS 1 Audio reproduction selection apparatus 2 Editing apparatus 3 Video recording apparatus 4 Video recording medium 5 Progress information recording medium 11 Audio recording medium 12 Microphone part 13 Audio signal reproduction part 14 Audio switcher 15 Audio output part 16 Audio selection part 17 Progress information recording part 21 Schedule management unit 22 Schedule time difference detection unit 23 Video editing unit 24 Important scene cutout unit 31 Operation input unit 32 Switching unit 33 Playback instruction unit 34 First voice input unit 35 Second voice input unit 36 Voice selection event information notification Unit 37 Time generation unit

Claims (8)

映像データを記録媒体に記録する撮像記録部と、
複数の信号が入力可能であり、前記入力された信号を操作者の選択により切り替えて出力する信号選択部と、
前記信号選択部が前記信号を切り替えた選択時刻および切替状態情報を記録する選択情報記録部と、
前記信号選択部の切り替え予定を示す予定選択情報および、前記信号選択部が切り替える予定選択時刻を有する予定スケジュール情報を管理するスケジュール管理部と、
前記選択時刻と前記予定選択時刻とを比較して時刻差分を検出するスケジュール時刻差分検出部と、
前記予定スケジュール情報の予定選択情報および前記時刻差分に基づいて、前記映像データを前記予定スケジュール情報と関連付け、前記関連付けられた予定スケジュール情報に基づいて前記映像データの編集を行う映像編集部とを備えた映像編集システム。
An imaging recording unit for recording video data on a recording medium;
A plurality of signals can be input, and a signal selection unit that switches and outputs the input signals according to an operator's selection;
A selection information recording unit for recording a selection time and switching state information when the signal selection unit switches the signal;
A schedule management unit that manages schedule selection information indicating a switching schedule of the signal selection unit, and schedule schedule information having a schedule selection time to be switched by the signal selection unit;
A schedule time difference detection unit for detecting a time difference by comparing the selected time with the scheduled selection time;
A video editing unit that associates the video data with the schedule schedule information based on the schedule selection information of the schedule schedule information and the time difference, and edits the video data based on the associated schedule schedule information; Video editing system.
前記信号は、音声信号である請求項1記載の映像編集システム。   The video editing system according to claim 1, wherein the signal is an audio signal. 前記音声信号を前記信号選択部に入力する複数の音声信号出力部と、
前記信号選択部から出力された音声信号を音声に変換する音声出力部とを備え、
前記音声信号出力部の1つは、音声記録媒体の情報を読み取って音声信号を再生する音声信号再生部であり、
前記予定スケジュール情報は、各スケジュールで再生する音声情報を有し、
前記再生されている音声と、前記音声情報とが一致することにより前記映像データと前記予定スケジュール情報とを関連付ける請求項2記載の映像編集システム。
A plurality of audio signal output units for inputting the audio signal to the signal selection unit;
An audio output unit that converts the audio signal output from the signal selection unit into audio;
One of the audio signal output units is an audio signal reproduction unit that reads information on an audio recording medium and reproduces an audio signal;
The scheduled schedule information includes audio information to be reproduced in each schedule,
The video editing system according to claim 2, wherein the video data and the scheduled schedule information are associated when the reproduced audio and the audio information match.
前記予定スケジュール情報は、重要シーン情報のシーン開始時刻と区間長情報とを有し、
前記映像データから前記重要シーンを抽出する重要シーン抽出部を備える請求項1記載の映像編集システム。
The scheduled schedule information includes scene start time and section length information of important scene information,
The video editing system according to claim 1, further comprising an important scene extraction unit that extracts the important scene from the video data.
記録媒体の情報を読み取って音声信号を再生する音声信号再生部と、
音声を音声信号に変換する音声入力部と、
前記音声信号再生部からの前記音声信号と、前記音声入力部からの前記音声信号とを操作者の選択により切り替えて音声信号を出力する信号選択部と、
前記信号選択部から出力された前記音声信号を音声に変換する音声出力部と、
前記信号選択部が前記音声信号を切り替えた選択時刻および切替状態情報を記録媒体に記録する選択情報記録部とを備えた音声再生装置。
An audio signal reproducing unit that reads information on a recording medium and reproduces an audio signal;
An audio input unit for converting audio into an audio signal;
A signal selection unit that outputs the audio signal by switching between the audio signal from the audio signal reproduction unit and the audio signal from the audio input unit according to an operator's selection;
An audio output unit that converts the audio signal output from the signal selection unit into audio;
An audio reproducing apparatus comprising: a selection information recording unit that records a selection time and switching state information when the signal selection unit switches the audio signal on a recording medium.
複数の音声信号出力部からの音声信号を操作者の選択により切り替えて1つの音声信号を出力する音声信号選択部と、
前記信号選択部が前記信号を切り替えた選択時刻および切替状態情報を記録する選択情報記録部とを備えた音声スイッチャ装置。
An audio signal selection unit that outputs audio signals by switching audio signals from a plurality of audio signal output units according to an operator's selection;
A voice switcher device comprising: a selection information recording unit for recording a selection time and switching state information when the signal selection unit switches the signal.
複数の信号を切り替えて1つの信号を出力する信号選択部の切り替え予定を示す予定選択情報および、前記信号選択部が切り替える予定選択時刻を有する管理するスケジュール管理部と、
操作者の選択により、信号選択部の信号を切り替えた選択時刻および切替状態情報を読み出し、前記予定スケジュール情報と前記選択時刻および切替状態情報とを関連付け、前記選択時刻と前記予定選択時刻との時刻差分を検出するスケジュール差分検出部と、
前記予定スケジュール情報および前記時刻差分に基づいて、前記映像データを前記予定スケジュール情報と関連付け、前記関連付けられた予定スケジュール情報に基づいて前記映像データの編集を行う映像編集部とを備えた映像編集装置。
Schedule selection information indicating a switching schedule of a signal selection unit that switches a plurality of signals and outputs one signal, and a schedule management unit that manages the schedule selection time that the signal selection unit switches;
The selection time when the signal of the signal selection unit is switched and the switching state information are read by the operator's selection, the scheduled schedule information is associated with the selected time and the switching state information, and the time between the selected time and the scheduled selection time A schedule difference detector for detecting differences;
A video editing apparatus comprising: a video editing unit that associates the video data with the scheduled schedule information based on the scheduled schedule information and the time difference and edits the video data based on the associated scheduled schedule information .
前記予定スケジュール情報に重要シーン情報のシーン開始時刻と区間長情報を有し、
前記映像データから前記重要シーンに対応するシーンを抽出する重要シーン抽出部を有する請求項7記載の映像編集装置。
The scheduled schedule information includes important scene information scene start time and section length information,
The video editing apparatus according to claim 7, further comprising an important scene extraction unit that extracts a scene corresponding to the important scene from the video data.
JP2008217174A 2008-08-26 2008-08-26 Sound reproducer, editing device, and video editing system Withdrawn JP2010056681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008217174A JP2010056681A (en) 2008-08-26 2008-08-26 Sound reproducer, editing device, and video editing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008217174A JP2010056681A (en) 2008-08-26 2008-08-26 Sound reproducer, editing device, and video editing system

Publications (1)

Publication Number Publication Date
JP2010056681A true JP2010056681A (en) 2010-03-11

Family

ID=42072177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008217174A Withdrawn JP2010056681A (en) 2008-08-26 2008-08-26 Sound reproducer, editing device, and video editing system

Country Status (1)

Country Link
JP (1) JP2010056681A (en)

Similar Documents

Publication Publication Date Title
JP4580925B2 (en) Imaging apparatus and imaging system
JP4285512B2 (en) Recording apparatus, recording method, reproducing apparatus, reproducing method, recording / reproducing apparatus, recording / reproducing method, imaging recording apparatus, and imaging recording method
JP2006157689A (en) Method of communication between viewers, apparatus thereof and program
WO2007071954A1 (en) Live performance entertainment apparatus and method
JP4850605B2 (en) Video recording method
JP2005005810A (en) Media data management method, disk recording apparatus, disk player, media data management system, computer program, and computer-readable recording medium
JP6229356B2 (en) Imaging apparatus, imaging method, and program
JP4193743B2 (en) Editing apparatus and method, program, and recording medium
JP2008067272A (en) Information processing apparatus and method, as well as program
JP2009010548A (en) Video and sound encoded data editing apparatus
JP2010056681A (en) Sound reproducer, editing device, and video editing system
JP2002027396A (en) Method for inputting extra information and method for editing video and apparatus and system using these methods
JP4618379B2 (en) Recording apparatus, recording method, reproducing apparatus, reproducing method, recording / reproducing apparatus, recording / reproducing method, imaging recording apparatus, and imaging recording method
JP2002199330A (en) Recorder and reproducing device
JP2005236950A (en) Video recording and reproducing device
KR102625045B1 (en) Video editing device, video editing method, and computer program
JP2006092681A (en) Image management method, image management device and image management system
JP5287338B2 (en) Imaging device, video editing device, and video editing system
JP2002237973A (en) Recorder, recording method and imaging device
KR20010038639A (en) Producing and Operating System of Person
JP5458073B2 (en) Video recording apparatus and video recording method
JP2012194347A (en) Sound reproduction device and imaging apparatus
JP2007174296A (en) Video storing device, method and program
JP2018038058A (en) Sound output device, imaging system, sound output method, and program
JP2009060664A (en) Imaging apparatus, and program producing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111101