WO2005039175A1 - 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法 - Google Patents

映像音声記録再生装置、映像音声記録方法及び映像音声再生方法 Download PDF

Info

Publication number
WO2005039175A1
WO2005039175A1 PCT/JP2004/009489 JP2004009489W WO2005039175A1 WO 2005039175 A1 WO2005039175 A1 WO 2005039175A1 JP 2004009489 W JP2004009489 W JP 2004009489W WO 2005039175 A1 WO2005039175 A1 WO 2005039175A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
information
recording
video
additional
Prior art date
Application number
PCT/JP2004/009489
Other languages
English (en)
French (fr)
Inventor
Daisuke Hayashi
Hideaki Mita
Toru Yamashita
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/575,715 priority Critical patent/US20070127888A1/en
Priority to CA002542390A priority patent/CA2542390A1/en
Priority to JP2005514705A priority patent/JP4271195B2/ja
Priority to EP04746958A priority patent/EP1677531A4/en
Publication of WO2005039175A1 publication Critical patent/WO2005039175A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Definitions

  • Video / audio recording / reproducing apparatus video / audio recording method, and video / audio reproducing method
  • the present invention relates to an apparatus and method for recording and reproducing video and audio, such as a memory recorder, and more particularly, to an apparatus and method for recording and reproducing audio and additional information in association with main video and audio information.
  • Nonlinear editing devices that perform such editing work capture information such as video and audio recorded on tapes that have been collected as raw materials into a recording medium such as a hard disk that can be accessed randomly, and capture the information into this hard disk. Edit video and audio with random access.
  • a video / audio recording / reproducing apparatus comprises: a video / audio input unit for inputting main information of video and audio; and an audio additional information input unit for inputting additional audio information added to the main information.
  • a video / audio output unit for outputting main information and additional audio information; a recording medium for recording the main information and additional audio information; and a recording / reproduction for recording / reproducing the main information and additional audio information to / from the recording medium.
  • control unit for controlling operations of the video / audio input unit, the audio / voice additional information input unit, the video / audio output unit, and the recording / reproducing unit.
  • the control unit controls the audio additional information to be recorded on the recording medium in association with a specific frame position in the main information.
  • a video / audio recording method includes: inputting audio additional information added to the main information by manually inputting video and audio main information; and converting the audio additional information to a specific frame in the main information. The information is recorded on the recording medium in association with the position.
  • a method for reproducing a recording medium on which main information and audio additional information are recorded by the video / audio recording method wherein a thumbnail image of the main information is displayed and the same main information is displayed. Is associated with one or more pieces of additional audio information, and when any one of the one or more pieces of additional audio information is selected, the selected additional audio information is located at the associated frame position. The thumbnail image of the main information is displayed.
  • the main information and the audio This is a method of reproducing a recording medium on which additional information is recorded, and reproduces the audio additional information without synchronization with the time axis of the main information.
  • audio additional information for explaining the content of video and audio main information
  • voice memo for explaining the content of video and audio main information
  • Multiple voice memos can be recorded at one point.
  • a specific frame position in the main information may be designated by the number of frames from the beginning of the main information, so that even when the time code of the material data is discontinuous, the voice additional data is stored in the unique position of the material data.
  • audio additional information may be associated with each of the continuously recorded material data (clips), whereby the audio additional information can be used as a memo for each scene.
  • audio additional data associated with the entire recording medium may be recorded.
  • audio additional data may be associated with each recording medium, so that even if some recording media are removed, the remaining recording may be performed. Audio-added data associated with main information recorded on a medium can be recorded and reproduced.
  • the recording of the audio additional information may be terminated when the recording of the main information is completed, thereby saving the user the trouble of ending the recording of the audio additional data when the recording of the material data is completed.
  • the additional audio information may be recorded at a sampling rate or a bit rate different from that of the main information audio data. For example, by recording the additional audio information at a lower rate, the recordable time of the additional audio data is increased. be able to.
  • the audio additional information may be recorded in a file format different from the audio data of the main information. By recording the data in the format for general-purpose PCs, it becomes possible to reproduce the audio additional data on the PC.
  • an area for recording the audio additional information may be reserved in the recording medium in advance, and the recording of the audio additional data can be ensured even when the free space of the main information is exhausted. It is also possible to record additional audio information while recording main information, while recording is paused, when recording is stopped, during playback, when playback is paused, and when playback is stopped. This makes editing work easier.
  • the additional audio information related to the deleted main information may be deleted at the same time, so that unnecessary audio additional data can be prevented from being forgotten to be erased. it can.
  • the selected additional audio information is associated.
  • the thumbnail image of the main information at the specified frame position may be displayed, which makes it easy to find the necessary audio additional information.
  • a thumbnail of the main information associated with the additional audio information or the video information in the main information may be displayed, and the main information can be confirmed during the reproduction of the additional audio information. It becomes.
  • the main information may be reproduced from a frame position of the main information associated with the selected additional audio information, and the additional audio information is used as a key. After searching, the associated main information can be checked immediately, which improves editing work efficiency.
  • the main information may be reproducible from the frame position of the main information associated with the audio additional information being reproduced. Since information can be checked immediately, editing work efficiency is improved.
  • management information on the audio additional information including information indicating a state at the start of recording the audio additional information, and reproducing the audio additional information by various methods with reference to this management information. Becomes possible.
  • the audio additional information is recorded in association with the main information asynchronously with the time axis of the main information. This makes it easier to control the reproduction of the audio additional information.
  • FIG. 1 is a diagram showing a configuration of a video / audio recording / playback apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram for explaining association of a voice memo with a specific position in a clip.
  • FIG. 3 is a diagram showing an example of management information (voice memo management table) indicating the relationship between a voice memo file and a clip.
  • FIG. 4 is a diagram showing an example of management information (clip management table) indicating the relationship between a clip and material files (video and audio files) constituting the clip.
  • FIG. 5 is a flowchart of a process for reproducing main data (clip) associated with voice memo data during voice memo reproduction.
  • FIG. 6 is a flowchart of a process for reproducing a voice memo associated with a clip during clip reproduction.
  • FIG. 7 is a diagram showing a configuration of a video / audio recording / reproducing apparatus having a plurality of recording media according to Embodiment 2 of the present invention.
  • FIG. 8 is a diagram for explaining association of a voice memo with a specific position in a shot recorded over a plurality of recording media.
  • FIG. 9 is a diagram showing an example of an operation unit in the recording / reproducing device.
  • FIG. 10 is a flowchart of the recording operation of the voice memo.
  • FIG. 11 is a diagram illustrating a display example of a clip list screen.
  • FIG. 12 is a diagram showing a display example of a voice memo tapping list screen.
  • FIG. 13 is a flowchart of a voice memo playback operation.
  • FIG. 14 is a diagram illustrating a display example of a screen during voice memo playback.
  • FIG. 15 is a diagram showing a directory structure of contents in a recording medium.
  • FIG. 16 is a diagram for explaining tags for managing clip information.
  • Figure 17 is a diagram showing an example of an XML description of a clip file.
  • Embodiment 1
  • FIG. 1 is a block diagram showing a schematic configuration of a memory recording power mera recorder according to the present invention. '
  • the video / audio input unit 100 inputs audio information and video information as main information.
  • Video information can be input via an image sensor or a playback device, and audio information can be input via a microphone, a playback device, or the like.
  • any means can be used as long as video and audio information can be input.
  • “main information” refers to video / audio information to which audio additional information can be added, and is also referred to as “main part”.
  • the compression / expansion circuit 101 is capable of compressing the main information of video and audio input from the video / audio input unit 100 and outputting it to the recording / reproducing unit 140 as main data of video and audio data.
  • the video / audio main data and the audio additional data reproduced from the recording / reproducing unit 140 are decompressed to the video / audio output unit 102 as video / audio main information and audio additional information. Output.
  • the video / audio output unit 102 externally outputs video and audio main information and audio additional information from the compression / expansion circuit 101.
  • the voice memo microphone 110 is voice additional information input means, and inputs a voice memo as voice additional information.
  • the audio additional information input means instead of providing a microphone in the camera recorder, an audio input terminal may simply be provided, and an input means such as a microphone may be connected and used there.
  • the voice memo processing circuit 111 converts the voice additional information input by the voice memo microphone 110, compresses the data, and outputs it to the recording / reproducing unit 140 as voice additional data.
  • the control unit 120 controls the operation of each unit such as the recording / reproducing unit 140 and the display unit 121.
  • the display unit 122 displays the voice memo number and the thumbnail (representative image) specified by the control unit 120.
  • the operation unit 130 has a recording button, a reproduction button, a voice memo reproduction button, and the like, and receives a user's operation from the outside.
  • Record The playback unit 140 records the video and audio main data from the compression / decompression circuit 101 and the voice additional data of the voice memo processing circuit 111 on the recording medium 150, and records the data.
  • the video and audio main data and audio additional data reproduced from the medium 150 are output to the compression / decompression circuit 101.
  • the recording medium 150 is a random-accessible recording medium for recording video and audio main data and audio additional data from the recording / reproducing unit 140.
  • the recording medium 150 may be any type of recording medium as long as it is a randomly accessible recording medium, and may be plural without any limitation such as a built-in type, an external type, and a removable type.
  • a hard disk, an optical disk, a magneto-optical disk, a semiconductor memory, and the like can be considered. In this embodiment, it is assumed that there is only one recording medium.
  • the clip is composed of one material file, but the main video data and main audio data are different.
  • a clip may be composed of a plurality of material files.
  • the main video data and the main audio data are recorded on the recording medium 150 as separate files.
  • the main video data is composed of one video file, and It is assumed that the main data is composed of audio files of multiple channels.
  • the main video data is simply referred to as “video data”
  • the main audio data is simply referred to as “audio data”.
  • the voice information input from the voice memo microphone 110 is converted into voice additional data by the voice memo processing circuit 111 and output.
  • This additional voice data is called "voice memo data”.
  • the voice memo data is recorded in association with the time code in the clip.
  • the time code to be associated may be the time code for the first frame in the clip, or May be a time code for an arbitrary frame.
  • voice memo data By recording the voice memo data in association with the time code of the clip, it becomes possible to record a plurality of voice memos for one clip. In addition, it is possible to associate the material data with detailed positions in frame units. At the time of editing, listening to the voice memo has an effect that the position of desired material data can be easily found.
  • the voice memo data may be associated with the clip frame offset (the number of frames from the beginning) instead of the clip time code.
  • the time at the position of the frame offset associated with voice memo # 2 (412) may be earlier than the end time of voice memo # 1 (41 1).
  • It is also possible to record another voice memo # 3 (413) in association with the frame (frame offset 8) to which voice memo # 2 (412) is associated.
  • the recording time of the voice memo does not directly affect the recording time of the material clips constituting the main data.
  • the voice memo is recorded at one point on the frame offset of the associated clip. Therefore, it is also possible to record a voice memo for a long time even with the material clip.
  • the upper limit of the recording time of the voice memo is described later, but it must be within the set time.
  • the voice memo data may be associated with a specific frame offset value of the clip, for example, the first frame of the clip.
  • the voice memo may be defined as being associated with the entire clip.
  • a management table (hereinafter referred to as a “voice memo management table”) showing a relationship between a clip and a voice memo file as shown in FIG. It is conceivable to use a management table (hereinafter referred to as “clip management table”) that indicates the relationship between clips and their material files (video and audio data files).
  • FIGS. 3 and 4 show a management table in a case where voice memo data is associated with a frame offset of a clip.
  • the clip name 200 indicates the ID of the clip. Note that all clips in the same recording medium have unique IDs.
  • the frame offset 201 is the number of frames from the beginning of the clip.
  • Memo ID 202 is a unique ID attached to multiple voice memos associated with the same tulip.
  • Voice memo file name 203 is the file name of the voice memo file, and all voice memo file names within the same clip have unique filenames.
  • the AV type 301 is information indicating whether the type of clip (material file) constituting the main data is video data or audio data.
  • the channel number 302 specify the channel number for audio data, and do not need to specify it for video data.
  • the material file name 303 is a unique file name of video data or audio data as a material file constituting a clip.
  • the voice memo file name of the voice memo being played is unique within the same clip. Therefore, refer to the voice memo management tape file 20 and enter the voice memo file name.
  • a clip name and a frame offset associated with the clip name are obtained (S11).
  • the file names (material file names 303) of all material files constituting the clip of the obtained clip name are acquired (S 12). In other words, the material file names are obtained for the number of files that make up the clip. Playback is started from the position indicated by the previously obtained frame offset for each of the data files having the respective material file names obtained here (S13).
  • the clip name of the clip currently being played is obtained (S 21). Then, by referring to the voice memo management table 20, a memo ID associated with the obtained clip name and a voice memo file name corresponding to the memo ID are obtained (S22). The voice memo data indicated by the acquired voice memo file name is reproduced (S23). The specific method of specifying the voice memo to be reproduced will be described later.
  • the clip and the voice memo data can be associated with each other using the management information 20 and 30. Also, since the voice memo is associated with the time code / frame offset in the clip, a plurality of voice memo data can be associated with one clip. It is also possible to associate multiple voice memos on the same frame offset of a particular clip.
  • the video and audio information is compressed by the compression / decompression circuit 101, and the video and audio data is decompressed.
  • the non-compressed data is not compressed and decompressed. Certain video and audio information may be handled as is.
  • the management table shown in FIGS. 3 and 4 is used as a means for associating the frame offset in the clip with the pois memo data, but other means may be used as long as the association can be realized. .
  • the voice memo is calculated by dividing the frame offset of the clip by the time. If the voice memo is associated with the code, but the voice memo can be associated with a position on the specific time axis within the clip, that is, if the information can specify the frame position within the clip, the voice memo is associated with the clip frame offset. It does not have to be a time code.
  • audio data may be additionally recorded by video recording with respect to video and audio data shot in advance, and may be regarded as audio data for video data and reproduced.
  • the audio data additionally recorded by post-recording is recorded on the assumption that it is reproduced in synchronization with the video data recorded at the time of the first shooting. Therefore, when additionally recording audio data by after-recording, it is common to reproduce the video data and record the additional audio data while maintaining synchronization.
  • the voice memo in the present invention is memo information for indicating what the clip (material data) is, and the synchronous reproduction with the main video and audio data is not essential. Therefore, there is no limitation on the state of the main data when recording the voice memo, and the voice memo is recorded even if the main data is in various states, such as stopped, playing, special playing (multiple search playback, reverse playback, etc.). can do.
  • the voice memo is associated with a specific point on the time axis of the main data, and can be recorded without synchronization with the main data.
  • the number of additional audio data is limited to the number of audio output channels of the device. For example, for a device that can output only up to four channels of audio, the audio can be recorded on up to four channels.
  • the voice memo of the present invention a plurality of voice memos can be recorded in association with the same time axis position of the main data regardless of the number of audio output channels.
  • the memory recording power mera recorder has only one recording medium 150, but in the present embodiment, the recording medium 150 is A case will be described in which the recording medium is composed of a plurality of removable recording media (recording medium # 1 (501), recording medium # 2 (502), recording medium # 3 (503)) as shown.
  • the recording data unit when video and audio main data are recorded continuously over a plurality of recording media, the recording data unit is called a “shot”. For example, when the material of one shot is recorded on one recording medium, the shot becomes one clip. On the other hand, if the material of one shot is recorded over a plurality of recording media, a separate clip will be created for each recording medium. In this case, the voice memo data is associated with each divided clip.
  • shot 600 starts recording from recording medium # 1 (501) and ends recording on recording medium # 3 (503) over recording medium # 2 (502).
  • the shot 600 is composed of the clip # 1 (611) in the recording medium # 1 (501), the clip # 2 (612) in the recording medium # 2 (502), and the clip in the recording medium # 3 (503). # 3 (613) recorded.
  • the voice memo data when voice memo data is recorded in association with a specific position in the shot 600, the voice memo data is recorded on the same recording medium as the recording medium on which the entity data to which the voice memo data is added is recorded. .
  • the voice memo data (voice memo # 1 (621)) is recorded on recording medium # 1 (501).
  • the voice memo data is recorded on recording medium # 2 (502) (voice memo # 2 (622)).
  • the end time of voice memo # 2 (622) may be later than the end time of clip # 2 (612).
  • voice memo # 2 (622) is transferred from recording medium # 2 (502) to recording medium # 3.
  • the voice memo data (voice memo # 3 (6 2 3)) is recorded on the recording medium # 3 (503).
  • the end time of voice memo # 3 (6 2 3) may be later than the end time of shot 600.
  • the voice memo data is recorded on the recording medium in which the main part data of the frame offset of the clip to which the voice memo data is associated is recorded.
  • the recording time of the voice memo data must be within the upper limit of the recording time of the voice memo, as in the first embodiment.
  • voice memo data is associated with a clip including video or audio data.
  • a clip hereinafter, referred to as “dummy clip”
  • Voice memo data may be associated with the dummy clip.
  • the voice memo data associated with the dummy clip may be associated with the entire recording medium.
  • the recording medium can be distinguished from other recording media. This makes it easier to perform the task.
  • FIG. 9 shows an example of the operation unit 130 operated by the user when recording and reproducing a voice memo.
  • a voice memo recording button 1101 On the operation unit 130, a voice memo recording button 1101, a selection button 1102, and a decision button 111 are provided.
  • the voice memo recording button 111 is used when recording a voice memo is started and when recording a voice memo is ended. When the voice memo recording button 111 is pressed while no voice memo is recorded, the voice memo recording operation starts. If the voice memo recording button 111 is pressed while a voice memo is being recorded, the recording operation of the voice memo ends. Note that the voice memo recording button 111 may be divided into a button for starting recording and a button for ending recording.
  • the selection button 1102 is, for example, a button for moving a force in a thumbnail (representative image) list of clips and moving a force in various option items.
  • the decision button 111 is a button for deciding the selection. For example, when the enter button 1103 is pressed while a certain voice memo is selected, the reproduction of the voice memo is started.
  • the operation unit 130 may include various buttons (not shown).
  • the voice memo recording operation starts.
  • the clip name and the frame offset of the clip that associates the voice memo to be recorded are obtained, and the information is stored (S31).
  • the specific method of determining the clip-to-frame offset for associating a voice memo will be described later (see Embodiment 5).
  • the memo ID and the file name are determined and stored so as not to be duplicated in the same clip by referring to the management tables 20 and 30 (S32).
  • the method of determining the file name will be described later (see Embodiment 7).
  • recording of the voice memo is started (S33).
  • the voice memo is memo information indicating what the material data is, and is rarely edited after recording. Also, unlike voice data of material, voice memos do not require high sound quality. Therefore, the sampling rate and bit rate of the voice memo are recorded at a lower rate than the audio data of the material. This reduces the file size of voice memos and makes them more efficient.
  • recording is performed with the sampling rate of the audio data of the material set to 48 kHz and the sampling rate of the voice memo set to 8 kHz.
  • bit rate of the audio data of the material is set to 16 bps (Bits Persample), and the bit rate of the voice memo is set to 8 bps.
  • the voice memo can be recorded in the size of the audio data of the material in the size of 112, so that it is possible to record more video and audio data of the material on a limited-capacity recording medium. Become.
  • the file format of the voice memo can be different from the file format of the audio data of the material.
  • WAVE used on a general-purpose PC is used as the format of MXF (Material Exchange Format) s voice memo, which is a format for material exchange.
  • MXF Media Exchange Format
  • a material exchange format such as MX F facilitates editing on an editing machine, etc., and increases editing efficiency.
  • a voice memo uses a format that can be handled by a general-purpose PC, such as WAVE, thumbnails (representative images), etc., described later, can be used to easily edit titles and other data on a PC without having to look at actual material data. Is obtained.
  • the following is a specific example of recording material data and voice memos on a recording medium.
  • the parameters of each data are as follows, assuming that the sound quality of the voice memo is set slightly higher.
  • Frame G: 30 fps (Frames PerSecnd), Frame size of main video data: 120 kB,
  • Bit rate of main audio data 16 bps
  • the clip is composed of video data 1 ch and audio data 2 ch.
  • the data size per second of the clip is
  • an area dedicated to voice memo recording may be reserved in advance on the recording medium.
  • the recording capacity (7.2 MB) required to record a voice memo for 5 minutes (300 seconds) is equivalent to the recording capacity for recording a clip for about 1.9 seconds (about 57 frames).
  • voice memo # 2 can be recorded on recording medium # 2 (502).
  • the maximum recordable time of the voice memo is set to 5 minutes.
  • the force may not be set to 5 minutes, and may be set arbitrarily by the user.
  • the capacity of the voice memo recording dedicated area is set by the voice memo recording time, the ratio of the voice memo recording area to the total capacity of the recording medium may be set. Further, the capacity to be secured may be directly set in units of bits.
  • the voice memo starts recording while recording the main information of video and audio, recording pause, recording stop, playback, playback pause, playback stop. be able to. Since voice memos can be recorded from a plurality of states, the effect of increasing the convenience of voice memo recording is obtained. The method of recording voice memos in each state is described below.
  • the method of recording a voice memo while recording the main information will be described.
  • the voice signal input from the voice memo microphone 110 is processed by the voice memo processing circuit 111.
  • the data is converted and recorded on the recording medium 150 as a voice memo.
  • the voice memo is associated with the frame offset of the clip recorded when the voice memo button is pressed. This association is performed by registering and updating management information.
  • the voice memo continues to be recorded on the recording medium at the start of recording of the voice memo.
  • the voice memo can be reproduced.
  • the voice memo button When the recording operation is stopped during the recording operation of the main information and the voice memo button is pressed, the audio signal input from the voice memo microphone 110 is subjected to data conversion and recorded as a voice memo. The voice memo is then linked to the last shot recorded. When a shot is recorded in multiple clips, The text is associated with the entire last recorded clip. As a result, the voice memo can be recorded after the main information recording (video shooting), so that the user can concentrate on recording the main information (video shooting) during the recording.
  • the voice memo button is pressed while the recording of the main information is stopped, the voice memo may be recorded in association with the next shot to be taken. At that time, a dummy clip is created temporarily, and a voice memo is associated with the entire dummy clip. Then, when shooting is resumed, the recorded voice memo is re-associated with the clip being shot, and the dummy clip is deleted. If the next shot does not start, delete the recorded voice memo.
  • a voice memo can be recorded before the main information is recorded, so that the user can concentrate on shooting video during recording.
  • Whether to record the voice memo after recording the main information or whether to record the voice memo before recording the main information may be set so that the setting can be changed according to the use of the user.
  • the voice memo button When the voice memo button is pressed during the reproduction of the main information, the voice input from the voice memo microphone 110 is converted into data and recorded on the recording medium as a voice memo. At this time, this voice memo is associated with the frame offset of the clip being played at the time when the voice memo button is pressed. According to this method, after recording the main information, the voice memo can be associated while confirming the video of the main information, so that it can be associated with a more accurate position of a predetermined scene.
  • the voice memo button When the voice memo button is pressed while the main information is being reproduced, the voice input from the voice memo microphone 110 is converted into data and recorded as a voice memo. At this time, the voice memo is associated with the frame offset of the clip at the position in the clip where playback is paused. According to this method, as in the case where the voice memo button is pressed during playback, the voice memo can be associated while confirming the main information after recording, so that it can be associated with a more accurate position in a predetermined scene. can get.
  • the stop position will be If it is in the middle of a voice memo, the voice signal input from the voice memo microphone 110 is data converted and recorded as a voice memo. The voice memo is then associated with the entire shot. If the shot is recorded in multiple clips, it is associated with the entire clip including the stop position. According to this method, a voice memo can be recorded in association with a shot or an entire clip during editing, and an effect that retrieval of a clip unit using a voice memo as a key is facilitated is obtained.
  • the sampling rates of the audio data and the voice memo of the main information are set to 48 kHz and 12 kHz, respectively, but the respective values may be different values.
  • the bit rates of the main information voice data and voice memo are both 16 bps, but each value may be different.
  • a common sampling rate or common bit is used for voice data of main information and voice memo.
  • a rate may be used, and the magnitude relation does not matter.
  • MXF and WAVE are used as the format of the voice data and voice memo of the main information, other formats may be used.
  • a common format may be used for the voice data of the main information and the voice memo for reasons such as simplifying the control.
  • the clip is composed of one channel of video data and two channels of audio data, but the number of channels may be arbitrary. For example, a clip of only one channel of audio data may be used. Is also good.
  • FIG. 11 shows an example of the clip list screen displayed on the display unit 12 1.
  • the clip list screen displays a list of clips recorded in the recording medium 150. If all the clips do not fit on the screen, scroll the screen using the selection cursor 1102 and display them.
  • thumbnails depictative images of clips of each recorded clip are displayed side by side.
  • the thumbnail 1402 may be video data of the first frame of the clip or video data of another frame in the clip.
  • an image such as a blue background is embedded in the thumbnail 1402. It should be noted that a different image other than the video data in the clip may be set as the thumbnail 1442 by the user.
  • the clip number 1 4 0 3 of the clip is also displayed together with the thumbnail 1 4 0 2.
  • the clip number 1403 can be determined independently of the clip name, and may be freely set as long as it is unique within the recording medium.
  • a voice memo mark 144 is displayed for a clip to which a voice memo is associated.
  • the voice memo is associated with the clips having the clip numbers “0 2”, “0 3 J”, and “0 5”.
  • a display 144 indicating that the thumbnail is selected is added to the outer frame.
  • FIG. 12 is a diagram showing an example of the voice memo clip list screen.
  • the voice memo clip list screen is derived from the clip list screen.
  • the voice memo clip list screen displays a list of only the clips associated with the voice memo among the clips recorded on the recording medium.
  • the transition to the voice memo clip list screen can be performed by using an option button on the operation unit 130, and the like.
  • the means does not matter.
  • the voice memo clip list screen has a voice memo display area 1502 and a clip display area 1504.
  • the clip display area 1504 is an area for displaying a thumbnail (hereinafter referred to as “clip 'thumbnail J”) 1402 of the clip to which the voice memo is associated.
  • voice memo display area 1502 a list of thumbnails related to the voice memo associated with the currently selected clip (hereinafter referred to as “voice memo 'thumbnail') 1501 is displayed.
  • the voice memo .Thumbnail 1501 is a reduced image of the still image at the position in the clip with which the voice memo is associated. If there is no video data in the associated clip, that is, if the clip is composed of only audio data, an image such as a blueback is embedded in the voice memo / thumbnail 1501.
  • the voice memo number 1503 is displayed in the thumbnail 1501.
  • the voice memo number 1503 can be determined independently of MemoID985 described later, and the voice memo number 1503 may be set freely as long as it is a uke in a clip.
  • voice memo information 1505 displaying information of the currently selected voice memo is displayed. For example, the clip number 1443 associated with the currently selected voice memo and the voice memo number 1503 of the currently selected voice memo are displayed. In the example of FIG. 12, the voice memo information 1505 indicates that the voice memo with the clip number “0 2” and the voice memo number “0 2” is selected. In this example, it is shown that a total of three voice memos are associated with the clip having the clip number “02”.
  • the information displayed in the voice memo information 1505 may not be displayed unless it is necessary, and other information may be displayed if necessary.
  • the user moves to the voice memo clip list screen to play the voice memo, and selects and determines the clip associated with the voice memo to be played. Selection of the tap to be played is performed by the selection button 1 1 0 2 on the operation unit 1 3 0, and the decision button 1 The selection is determined by 103.
  • a tap is selected / determined by a user operation on the voice memo clip list screen (S41).
  • the cursor is moved to the voice memo display area 1502, and the voice memo to be reproduced by the user in the voice memo display area 1502 is determined whether or not the thumbnail is selected.
  • FIG. 14 is a diagram showing a screen during voice memo playback.
  • a display 1601 indicating that the voice memo is being played is displayed together with the still image of the video data of the main part.
  • the display 1601 may be a blinking display.
  • the playback of the moving image of the main video data may be started from the position associated with the voice memo to be played.
  • the still image or the blue-back image of the last frame of the main part of the video data may be continuously output.
  • the display automatically returns to the voice memo clip list screen.
  • a predetermined button for example, a decision button 1103, a stop button (not shown)
  • the voice memo playback operation may be interrupted when is pressed.
  • the main play button (not shown) or the selection decision button 1103 is pressed during the voice memo reproduction, the reproduction of the voice memo is interrupted, and the main memo is reproduced from the position associated with the reproduced voice memo.
  • the reproduction of the video and audio data may be started.
  • the tuple frame offset and the voice memo data are related.
  • a management table as shown in FIGS. 2 and 3 is used.
  • information relating to voice memo association is described in an XML (extensible Marque Language: W3C recommendation) file.
  • various information about clips such as information about video data and audio data that make up clips, is described in XML files.
  • FIG. 15 shows an example of a directory structure of each content recorded on the recording medium 150.
  • the Connts directory 800 is located on the recording medium 150 under the root directory. All the files that make up the clip are located under the Connects directory 800.
  • the C1ip directory 810 is located under the Connects directory 800.
  • the XML file describing the clip information is stored under the Cip directory 810.
  • the Video directory 820 is located under the Content directory 800.
  • the video data file is stored under the Video directory 820.
  • the Au d i o directory 830 is located under the Connects directory 800.
  • the audio data file is stored under the audio directory 830.
  • the Voice directory 850 is located below the Connect directory 800.
  • the voice memo data file is stored under the Voice directory 850.
  • Each of the clip files 811 and 812 is an XML file in which all types of tap information such as voice memo additional information are described.
  • One tuple file is created for one tulip.
  • Video files 821 and 822 are the video data that make up the clip, respectively. It is Huai Nore.
  • Each of the audio files 831-834 is an audio data file constituting a clip.
  • Voice memo files 51 to 853 are voice memo data files associated with clips.
  • Figure 16 shows the items that are specifically described in the XML description.
  • the items described in FIG. 16 are examples enumerated for describing the present embodiment, and items not described in FIG. 16 may exist. May not be present. Each item may have its attribute.
  • the C1ipContnt tag 900 has the following information about clips as elements.
  • the C 1 ip N ame tag 901 has a name of a tulip as an element.
  • the Duratation tag 902 has the number of frames of the tap as an element.
  • the Ess enc eList tag 910 has a list of essences such as video and audio data as elements.
  • the Video tag 920 has the following video data information as elements. Also, by adding, for example, an attribute (not shown), such as Va 1 id Audio F 1 ag, as an attribute of the video tag 920, it is determined whether or not the audio data is multiplexed in the video data. May be.
  • an attribute such as Va 1 id Audio F 1 ag
  • the Video Format tag 921 has a final format of video data as an element.
  • the MXF file format is conceivable, but other formats may be used.
  • 11 (1 1 (> tag 940) has the following audio data information as elements.
  • the Au dioFormat tag 941 has a file format of audio data as an element.
  • the MXF file format is conceivable, but other formats may be used.
  • the SamlinGrate tag 942 has a sampling rate of audio data as an element. For example, 4800 OHz is conceivable, but any value can be used for the sampling rate.
  • the BitsPerSample tag 943 has the bit rate of audio data as an element. For example, 16 bps, 24 bs, etc. can be considered, but the value of the bit rate is not limited.
  • the C 1 i pMeta d a ta tag 960 has, as an element, information of metadata other than the material data associated with the tap, such as a voice memo.
  • the MemoList tag 970 has a list of memos to be associated with the tulip as elements. If the memo does not exist, the Memo List tag 970 may be omitted.
  • the Memo tag 980 has the following pieces of memo information as elements. Note that Memo ID 985 is added as an attribute to the Memo tag 980. Memo ID 985 is a 2-digit value that is independent for each tulip, and up to 100 memos can be associated with each tulip. Also, Memo ID 985 need not be a two-digit value, and the maximum number of notes associated with each clip need not be 100.
  • the Offset tag 981 has, as an element, the frame offset of the clip to which the memo is associated.
  • the Offset tag 981 may not be necessary if necessary. Without the Offset tag 981, the note should be associated with the entire clip.
  • the Perso 11 tag 982 has, as elements, the name of the person who created the memo. For example, when recording a voice memo, the person who recorded the voice memo is described in the Person tag 982. This clarifies the person who recorded the voice memo, and if you want to know the situation when the voice memo was recorded, you can contact that person. In addition, it is not necessary to add the Person tag 982 unless necessary.
  • the Vo ice tag 990 has the following information of voice memos as elements. If no voice memo is associated, there is no need for the Vo ice tag 990.
  • the Voice Format tag 991 has a finale format of voice memo data as an element.
  • tfWAVE file format can be considered.
  • Other formats may be used.
  • the VoiceSam1ingRate tag 992 has a voice memo data sampling rate as an element. For example, 12000 Hz is conceivable, but any value can be used for the sampling rate.
  • the Voice BizPerSamle tag 993 has a bit rate of voice memo data as an element. For example, 16 bp s is conceivable, but any value can be used for the bit rate.
  • the RecCont i d i on tag 994 has a state at the time of recording the voice memo as an element.
  • a PLAY state, a STILL state, and the like are conceivable, but there may be other states, and those states may be subdivided. It should be noted that the RecCondition tag 994 may not be provided if it is not necessary.
  • the Rec Condition i on tag 994 is set to "P LAY".
  • Rec Condition tag 994 When playing a voice memo, refer to Rec Condition tag 994. If it is "PLAY”, the video data of the main part is started from the position associated with the voice memo. Play them simultaneously. On the other hand, if the Rec Condition tag is 994 power S "ST ILL", the voice memo is reproduced while the still image of the main video data at the position associated with the voice memo is continuously output. In this case, “PLAY” and “ST I LL” are set for the RecCondition tag 994. However, other states may be defined separately. For example, if a voice memo is recorded during search playback, The value indicating the search reproduction speed at that time may be described in the Rec Condition tag 994. In this case, it is also possible to acquire the search playback speed by referring to the Rec Conditio 11 tag 994, and to play back the voice memo while performing search playback of the main data at the acquired speed.
  • the voice memo may be played back while the still image data of the main part is continuously output.
  • the user may freely determine the relationship between the RecCondition tag 994 and the voice memo reproduction method.
  • the Rec Cond i it on tag 994 need not be recorded, and in that case, the method of reproducing the voice memo may be unified.
  • the note memo may be reproduced by the reproduction method set by the user.
  • the number of voice memo reproducing means can be increased.
  • the video and audio when playing back video and audio data of a material, the video and audio must be synchronized. At this time, it is general that the difference between the video and the audio by one frame is not allowed. If the video data and audio data are not multiplexed and the video data file and the audio data file (including multiple channels) are separate files, control to play all these files in synchronization Is complicated. Also, when playing two or more audio data files with different sampling rates, the control of playing them while synchronizing them becomes more complicated. On the other hand, if it is not necessary to play back video and audio while synchronizing them, that is, if a shift of several frames is permissible, even if the video data file and audio data file are separate files, they are independent. Playback is simpler and the control is simpler.
  • voice memo data is memo data indicating what the material data is, it is not considered necessary to reproduce it in strict synchronization with the material data. Therefore, if the voice memo is played back without synchronizing with the main data, the control becomes easier.
  • the voice memo is associated with a specific point on the time axis of the main data, and by recording the voice memo without synchronizing with the main data, the voice memo can be recorded for a longer time than the duration of the associated clip. I can do it. For example, for a clip of several seconds, a voice memo of several tens of seconds can be recorded.
  • voice memos can be recorded in various states, such as during stoppage, during playback, during special playback, etc. (multiple search playback, reverse playback, etc.).
  • the value of the Rec Condition tag 994 may be set to "STI LL" as the voice memo management information. The method will be described later.)
  • a voice memo can be recorded in advance before recording the material. For example, for a scene to be shot from now, a description of the scene is recorded in advance as a voice memo, then the target scene is shot, and the previously recorded voice memo is associated with the clip. You can also. Also, when recording a voice memo during recording and playback of the main part data, the value of the Rec Condition tag 994 may be set to “P LAY”.
  • the voice memo playback method at this time will be described later.
  • the voice memo to be recorded does not necessarily have to be synchronized with the main data. Therefore, as shown in the second embodiment, even when the main data is recorded over a plurality of recording media, or even when the main data is recorded, the voice memo can be recorded without straddling the plurality of recording media. Also, especially when recording a voice memo during playback of the main data, it is possible to continue recording the voice memo during the voice memo recording even after the end of the main data has passed.
  • the value of the Rec Condition tag 994 should be set to a value that indicates the status of each. Les ,.
  • the playback method may be selected by referring to the RecCondition tag 994 added at the time of recording the voice memo.
  • the value of the Rec Condition tag 994 is “PL AY”, that is, when the state of the main part at the time of recording the voice memo is recording or reproducing, the position of the voice memo associated with the voice memo is set.
  • the main video data is reproduced at the same time.
  • the main data and the voice memo do not always need to be synchronized, they can be reproduced with simpler control. If you want to listen to the voice memo quickly with a long-time voice memo, you can play only the voice memo at 1.5 or 2x speed while playing the main part at the same magnification. Conversely, if the voice message left in the voice memo is too fast to be heard, etc., only the voice memo may be played back at 0.5x speed while the main part is being played at 1: 1.
  • the Rec Condition tag 994 has a value indicating search playback, etc., for example, a value indicating search playback at 4x speed
  • the main data is searched and played back at 4x speed from the position where the voice memo is associated. You can play voice memos.
  • the RecCondition tag 994 indicates a reverse playback, the voice memo can be played back while the main data is played back from the position where the voice memo is associated.
  • FIG. 17 shows an example of an XML description for part of the directory structure in Figure 15.
  • FIG. 15 includes a clip file # 1 (81 1) whose clip name is "0001 AB" and a clip file # 2 (812) whose clip name is S "0001 CD”.
  • FIG. 17 shows an XML description of the clip file # 1 (811).
  • FIG. 17 shows a part of the contents described in the clip file # 1 (81 1), and the described items are only those necessary for describing the present embodiment. Items not described in FIG. 17 may exist, and some of the items illustrated in FIG. 17 may not exist. Each item may have its attribute.
  • the clip name (ClipNarae) of clip file # 1 (811) is 0001 AB ".
  • the length (Duration) of clip file # 1 (811) is 1000 frames.
  • File format of voice memo using MX F as file format (Video Format, AudioFormat) of main video data and main audio data
  • the bit rates (BitsPerSample, VoiceBitsPerSample) of voice data and voice memo are both 16 bps.
  • Clip file # 1 (811) is video file # 1 (821), audio file # 1 (831), audio file # 2 (832), voice memo file # 1 (851), and voice memo file # 2 ( 852).
  • the voice memo file # 1 (851) has been created by a user having "User Name 1" as the user name (Person).
  • the voice memo is in one of the following states: material recording is paused, recording is stopped, playback is paused, or playback is stopped.
  • Voice memo file # 2 uses "U ser Name 2".
  • Each data file is named as follows.
  • the file name of clip file # 1 (811) is clip name "0001 A
  • the file name of the video file # 1 (821) is obtained by adding the extension ".mxf ,,” to the clip name "0001 AB” and becomes "0001 AB.mxf".
  • the file names of audio file # 1 (831) and audio file # 2 (832) are further extended to clip name "0001 AB” with 2-digit channel numbers "00" and "01” It is obtained by adding the child “.mxf", which becomes “OOO IABOO.mxf” and "OOO IABO I.mxf", respectively.
  • the channel numbers of the audio data are assigned as follows: 0 channel, 1 channel, 2 channels,... ′ In the order of the list of elements of the Audio tag 940 registered in the EssecceList tag 910.
  • the channel number of the audio data may be determined by adding a channel number as an attribute of the audio tag 940 shown in FIG. 9 and determined from the value. Alternatively, the channel information may be obtained from another tag.
  • the means does not matter.
  • voice memo file # 1 (851) and voice memo file # 2 (852) is the clip name "0001 AB" with the two-digit value "00" and "01" of each Memo ID 985 added.
  • the extension ". Wa V” is added, and they become “OOO IABO O. wa v” and “OOO IAB O I. wa v”, respectively.
  • the above-mentioned files are stored based on the directory structure shown in FIG. With this configuration, related information such as material data and voice memo data constituting the clip can be known only by referring to the clip file # 1 (811).
  • the file name of each file may be determined by a method other than the above example. In this embodiment, only the method for associating a clip with video, audio data, and voice memo data and items necessary for explaining the effects thereof have been described. However, detailed information of each material data and a representative image of the clip are used. Various information such as information on a certain thumbnail file, information on a shooting location, user information of a photographer, and information on a shooting device may be described in a clip file. By doing so, you can get all the information of a clip just by referring to the clip file.
  • XML is used as the description language of the clip file.
  • XML is a language that is standardized (recommended) by the World Wide Web Consortium (W3C).
  • W3C World Wide Web Consortium
  • management information can be transferred to another database. Operations such as migration can also be performed, which is expected to increase versatility.
  • management information can be easily added by defining a new tag, so it is considered to be highly extensible.
  • XML is a text file, a user can directly and easily refer to a clip file using a general-purpose information device, and can roughly grasp clip information.
  • the user can directly edit the clip file using a general-purpose information device, and can perform simple editing. Industrial applicability
  • the present invention is useful for a video / audio recording / reproducing apparatus for efficiently performing an editing operation such as a non-linear editing based on a collected media captured and recorded by a memory recording camera recorder or the like.
  • an editing operation such as a non-linear editing based on a collected media captured and recorded by a memory recording camera recorder or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

映像音声記録再生装置は、映像、音声の主情報を入力する映像・音声入力部(100)と、主情報に付加される音声付加情報(ボイスメモ)を入力する音声付加情報入力部(110)と、映像、音声データの記録、再生を行う記録再生部(140)と、映像、音声データを記録する記録媒体(150)と、各部の動作を制御する制御部(120)とを備える。制御部(120)は、音声付加情報を、主情報における特定のフレーム位置に関連付けして記録媒体(150)に記録する。特定のフレーム位置は、タイムコードやオフセット(主情報の先頭からのフレーム数)等により指定される。

Description

映像音声記録再生装置、 映像音声記録方法及び映像音声再生方法 技術分野
本発明は、 メモリ記録力メラレコーダなどの映像音声の記録再生装置及び方法 に関し、 特に、 映像及び音声の主情報に音声付加情報を関連づけて記録し、 再生 する装置及び方法に関する。
1
背景技術 田
カメラ一体型 V T Rで撮影録画した取材済書みテープを元に、 番組を制作する場 合には、 撮影録画された多くのカット (シーン) 力 ^必要な場面のみ編集して 1 本の番組を制作するという作業が一般的に行われている。
かかる編集作業を行う従来のノンリニア編集装置は、 素材となる取材済みテー プに記録された映像および音声などの情報を、 ハードディスクのようなランダム アクセスが可能な記録媒体に取り込み、 このハードディスクに取り込んだ映像お よび音声をランダムアクセスしながら編集を行う。
この編集作業を効率的に行うためには、 編集者は、 各カットの撮影内容がどの ようなものであるかを確認する必要がある。 このため、 従来では各カットの先頭 に、 そのカットの内容を説明する文字タイトルなどの静止画を、 いわゆるクレジ ット (編集を補助するための付加情報) として撮影して挿入し、 ハードディスク に記録していた。 その後の編集時に、 この記録した静止画のクレジットを再生し てモニタに表示することにより、 各カツトにどのような内容が撮影されているか を容易に把握できる。 発明の開示
(発明が解決しょうとする課題)
上記のように、 各カットの先頭に、 その内容を説明する文字タイトルなどのク レジットを撮影し揷入する作業は面倒であり、 より簡単に各カツトの内容を把握 できる方法が要望されていた。
これに対し特開 2 0 0 1— 1 3 6 4 8 2号公報では、 各力ットの撮影内容を知 るための手段として、 映像および音声の主情報とは別に、 音声による付加情報 (ボイスメモ) を前記主情報に関連付けて記録再生する方法が提案されている。 し力 し、 上記特許文献では、 付加情報 (ボイスメモ) を各カットの素材と関連 付けする概念については述べられているが、 メモリ記録カメラレコーダ等に適用 する際の具体方法については言及されていない。 また、 主情報の再生中にしかボ イスメモを記録することができないという問題点があつた。 (その解決方法)
本発明は、 上記課題を解決するためになされたものであり、 映像音声記録再生 装置において各力ットに対して付加情報を付加する際の具体的な方法を提案する。 本発明の第 1の態様において、 映像音声記録再生装置は、 映像及び音声の主情 報を入力する映像音声入力部と、 主情報に付加される音声付加情報を入力する音 声付加情報入力部と、 主情報および音声付加情報を出力する映像音声出力部と、 主情報および音声付加情報を記録する記録媒体と、 主情報および音声付加情報を、 記録媒体へ記録または記録媒体から再生する記録再生部と、 映像音声入力部、 音 声付加情報入力部、 映像音声出力部、 記録再生部の動作を制御する制御部とを備 える。 制御部は、 音声付加情報を主情報における特定のフレーム位置に関連付け して記録媒体に記録するように制御する。
本発明の第 2の態様において、 映像音声記録方法は、 映像及び音声の主情報を 人力し、 主情報に付加される音声付加情報を入力し、 音声付加情報を主情報にお ける特定のフレーム位置に関連付けして記録媒体に記録する。
本発明の第 3の態様において、 上記の映像音声記録方法により主情報と音声付 加情報とが記録された記録媒体の再生方法であつて、 主情報のサムネイル画像を 表示し、 同一の主情報に一つ以上の音声付加情報が関連付けされており、 一つ以 上の音声付加情報のうちのいずれか一つが選択されたときに、 選択された音声付 加情報が関連付けられたフレーム位置にある主情報のサムネイル画像を表示する。 本発明の第 4の態様において、 上記の映像音声記録方法により主情報と音声付 加情報とが記録された記録媒体の再生方法であつて、 音声付加情報を主情報の時 間軸と同期を取らずに再生する。
(従来技術より有利な効果)
本発明によれば、 映像および音声の主情報の内容等を説明するための音声付加 情報 (ボイスメモ) を、 主情報の特定フレーム位置に関連付けて記録することが でき、 主情報内の時間軸上の一点において複数のボイスメモを記録することがで きる。
また、 主情報における特定のフレーム位置を主情報の先頭からのフレーム数で 指定してもよく、 これにより、 素材データのタイムコードが不連続の場合でも音 声付加データを素材データの一意の位置に関連付けすることができる。
また、 連続に記録された素材データ (クリップ) 毎に音声付加情報を関連付け てもよく、 これにより、 音声付加情報をシーン毎のメモとして用いることができ る。
また、 記録媒体全体に関連付けた音声付加データを記録してもよく、 その記録 媒体にどのようなショットが記録されているのかを音声付加データとして関連付 けすることにより、 他の記録媒体との区別が容易になる。
また、 複数の記録媒体にまたがって記録された主情報 (ショット) において、 記録媒体毎に音声付加データを関連付けしてもよく、 これにより、 一部の記録媒 体が取り外されても残りの記録媒体に記録されている主情報に関連付けた音声付 加データを記録、 再生することができる。
また、 主情報の記録を終了したときに音声付加情報の記録を終了させてもよく、 これにより、 ユーザによる素材データの記録終了時に音声付加データの記録を終 了する手間が省ける。
また、 音声付加情報を主情報の音声データと異なるサンプリングレートまたは ビットレートで記録してもよく、 例えば、 音声付加情報をより低レートで記録す ることにより、 音声付加データの記録可能時間を増やすことができる。
また、 音声付加情報を主情報の音声データとは異なるファイルフォーマツトで 記録してもよく、 例えば、 主情報を編集機専用のフォーマットで、 音声付加情報 を汎用 P C用のフォーマツトで記録することにより、 P C上でも音声付加データ を再生することが可能となる。
また、 記録媒体に音声付加情報を記録するための領域を予め確保しておいても よく、 主情報の空き容量がなくなっても音声付加データの記録が確保できる。 また、 主情報の記録中、 記録一時停止中、 記録停止中、 再生中、 再生一日寺停止 中、 再生停止中のいずれの状態からでも、 音声付加情報を記録できるようにして もよく、 これにより、 編集作業が容易になる。
また、 音声付加情報が関連付けされている主情報を削除した場合、 削除された 主情報に関連する音声付加情報も同時に削除するようにしてもよく、 不要な音声 付加データの消し忘れを防ぐことができる。
また、 同一の主情報に一つ以上の音声付加情報が関連付けされている場合に、 一つ以上の音声付加情報のうちの一つが選択されたときに、 その選択された音声 付加情報が関連付けられたフレーム位置にある主情報のサムネイル画像を表示す るようにしてもよく、 これにより、 必要な音声付加情報を探すのが容易になる。 また、 音声付加情報の再生時に、 音声付加情報に関連付けされた主情報のサム ネイルまたは主情報中の映像情報を表示してもよく、 音声付加情報の再生中に主 情報を確認することが可能となる。
また、 一つの音声付加情報が選択されたときに、 選択された音声付加情報と関 連付けされている主情報のフレーム位置から主情報を再生可能としてもよく、 音 声付加情報をキーとした検索後に、 関連付けられた主情報をすぐに確認できるの で編集の作業効率が上がる。
また、 音声付加情報を再生中に、 再生中の音声付加情報と関連付けされている 主情報のフレーム位置から主情報を再生可能としてもよく、 音声付加情報をキー とした検索後に、 関連付けられた主情報をすぐに確認できるので編集の作業効率 が上がる。
また、 音声付加情報の記録開始時の状態を示す情報を含んだ、 音声付加情報に 関する管理情報を有してもよく、 この管理情報を参照して様々な方法で音声付加 情報を再生することが可能となる。
また、 音声付加情報を主情報の時間軸と非同期に主情報と関連付けて記録して もよく、 これにより、 音声付加情報の再生制御が容易になる。 図面の簡単な説明
図 1は、 本発明の実施の形態 1における映像音声記録再生装置の構成を示した 図である。
図 2は、 ボイスメモの、 クリップ内の特定位置への関連付けを説明するための 図である。
図 3は、 ボイスメモファイルとクリップの関係を示す管理情報の例 (ボイスメ モ管理テーブル) を示した図である。
図 4は、 クリップとそのクリップを構成する素材ファイル (映像、 音声フアイ ル) の関係を示す管理情報の例 (クリップ管理テーブル) を示した図である。 図 5は、 ボイスメモ再生中に、 ボイスメモデータに関連付けられた本編のデー タ (クリップ) を再生する時の処理のフローチャートである。
図 6は、 クリップ再生中に、 クリップに関連付けられているボイスメモを再生 する時の処理のフローチャートである。
図 7は、 本発明の実施の形態 2における、 複数の記録媒体を有する映像音声記 録再生装置の構成を示した図である。
図 8は、 複数の記録媒体にまたがって記録されたショット内の特定位置への、 ボイスメモの関連付けを説明する図である。
図 9は、 記録再生装置における操作部の例を示した図である。
図 1 0は、 ボイスメモの記録動作のフローチヤ一トである。
図 1 1は、 クリップ一覧画面の表示例を示す図である。
図 1 2は、 ボイスメモタリップ一覧画面の表示例を示す図である。
図 1 3は、 ボイスメモの再生動作のフローチャートである。
図 1 4は、 ボイスメモ再生中の画面の表示例を示す図である。
図 1 5は、 記録媒体内のコンテンツのディレクトリ構成を示した図である。 図 1 6は、 クリップ情報を管理するタグを説明した図である。
図 1 7は、 クリップファイルの XML記述の例を示した図である。 発明を実施するための最良の形態
以下、 添付の図面を用いて本発明に係る映像音声記録再生装置の好ましい実施 形態について詳細に説明する。 実施の形態 1
図 1は、 本 明に係るメモリ記録力メラレコーダの概略構成を示すプロック図 である。 '
映像 ·音声入力部 1 0 0は音声情報及ぴ映像情報を主情報として入力する。 映 像情報は撮像素子や再生装置等を介して、 また、 音声情報はマイクや再生装置等 を介して入力できるが、 映像、 音声情報を入力することができればその手段は問 わない。 ここで、 「主情報」 とは、 音声付加情報が付加され得る対象となる映 像 ·音声情報をいい、 「本編」 とも呼ぶ。
圧縮伸長回路 1 0 1は、 映像■音声入力部 1 0 0で入力した映像、 音声の主情 報をデータ圧縮して映像、 音声データの主データとして記録再生部 1 4 0に出力 する力、 あるいは、 記録再生部 1 4 0から再生された映像、 音声の主データおよ ぴ音声付加データをデータ伸長して映像、 音声の主情報および音声付加情報とし て映像 ·音声出力部 1 0 2に出力する。
映像 ·音声出力部 1 0 2は、 圧縮伸長回路 1 0 1からの映像、 音声の主情報お よび音声付加情報を外部出力する。
ボイスメモマイク 1 1 0は音声付加情報入力手段であり、 ボイスメモを音声付 加情報として入力する。 なお、 音声付加情報入力手段としては、 カメラレコーダ にマイクを設ける代わりに単に音声入力端子を設けておき、 そこにマイク等の入 力手段を接続して使用するようにしてもよい。 ボイスメモ処理回路 1 1 1は、 ボ イスメモマイク 1 1 0で入力した音声付加情報をデータ変換、 データ圧縮して音 声付加データとして記録再生部 1 4 0に出力する。
制御部 1 2 0は、 記録再生部 1 4 0および表示部 1 2 1等の各部の動作を制御 する。 表示部 1 2 1は、 制御部 1 2 0によって指定されたボイスメモ番号および サムネイル (代表画像) 等を表示する。 操作部 1 3 0は、 記録釦、 再生釦、 ボイ スメモ再生釦等を有し、 それらによるユーザの操作を外部から受け付ける。 記録 再生部 1 4 0は、 圧縮伸長回路 1 0 1からの映像、 音声の主データおよび、 ボイ スメモ処理回路 1 1 1力、らの音声付加データを記録媒体 1 5 0に記録し、 また、 記録媒体 1 5 0から再生される映像、 音声の主データおよび音声付加データを圧 縮伸長回路 1 0 1に出力する。
記録媒体 1 5 0は、 記録再生部 1 4 0からの映像、 音声の主データや音声付加 データなどを記録するランダムアクセス可能な記録媒体である。 記録媒体 1 5 0 はランダムアクセス可能な記録媒体であればその種類を問わず、 内蔵型、 外付け 型、 着脱可能型等の制限もなく、 複数存在してもよい。 例えば、 ハードディスク、 光ディスク、 光磁気ディスク、 半導体メモリなどが考えられる。 本実施例では、 唯一つの記録媒体しか存在しない場合を想定することにする。
素材データを構成する映像及び音声それぞれの主データが単一の記録媒体 1 5 0において連続して記録されている場合において、 その記録された一連のデータ 単位を 「クリップ」 と呼ぶ (なお、 1つの素材データが複数の記録媒体にまたが つて記録される場合については後述する。 ) 。
映像の主データおよび音声の主データが同一ファイルとして記録媒体 1 5 0に 記録されている場合、 クリップは一つの素材ファイルから構成されるが、 映像の 主データおよび音声の主データが異なる別々のファイルとして記録媒体 1 5 0に 記録されている場合は、 クリップは複数の素材ファイルから構成されることもあ る。 本実施形態では、 映像の主データと音声の主データが別々のファイルとして 記録媒体 1 5 0に記録されており、 一つのクリップにおいて、 映像の主データは 一つの映像フアイルで構成され、 音声の主データは複数チヤンネルの音声フアイ ルから構成されているものとする。 以下、 映像の主データのことを単に 「映像デ ータ」 、 音声の主データのことを単に 「音声データ」 と呼ぶ。
ボイスメモマイク 1 1 0から入力した音声情報はボイスメモ処理回路 1 1 1に よつて音声付加データに変換されて出力される。 この音声付加データのことを 「ポイスメモデータ」 と呼ぶ。
記録再生部 1 4 0が記録媒体 1 5 0にデータを記録する際、 このボイスメモデ 一タはクリップ中のタイムコードと関連付けて記録される。 関連付けるタイムコ ードは、 クリップ内の最初のフレームについてのタイムコードでもよいし、 途中 の任意のフレームについてのタイムコードでもよい。
ボイスメモデータをクリップのタイムコードと関連付けて記録することにより、 一つのクリップに対して複数のボイスメモを記録することが可能となる。 また、 素材データのフレーム単位での詳細な位置に関連付けすることが可能となる。 編 集時には、 ボイスメモを聴取することにより、 所望の素材データの位置を容易に 見つけることができる、 という効果が得られる。
また、 ボイスメモデータをクリップのタイムコードではなく、 クリップのフレ ームオフセット (先頭からのフレーム数) に関連付けてもよい。
図 2を参照し、 ボイスメモデータと、 クリップのフレームオフセットとの関連 付けについて具体的に説明する。
クリップ 400内の一つのフレーム (フレームオフセット =4) に関連付けて ボイスメモ # 1 (41 1) が記録されている。 また、 ボイスメモ # 1 (41 1) が関連付けされたフレームよりも後ろのフレーム (フレームオフセット =8) に ボイスメモ # 2 (412) が関連付けて記録されている。 ボイスメモ # 1 (41 1) の終了時刻よりもボイスメモ # 2 (412) の関連付けたフレームオフセッ トの位置の時刻が早くてもよい。 また、 ボイスメモ #2 (412) を関連付けし たフレーム (フレームオフセット =8) と全く同じフレームに関連付けて別のポ イスメモ # 3 (413) を記録してもよレヽ。
このように、 ボイスメモの記録時間は、 本編データを構成する素材クリップの 記録時間とは直接影響しない。 つまり、 ボイスメモは関連付けられたクリップの フレームオフセット上の一点に記録されていると考えることができる。 よって、 素材クリップょりも長い時間のボイスメモを記録することも可能である。 ただし、 ボイスメモの記録時間の上限については後述しているが、 その設定時間以内でな ければならない。
ここで、 ボイスメモデータをクリップの特定のフレームオフセット値、 例えば クリップの先頭フレームに関連付けしてもよく、 このときは、 そのボイスメモは クリップ全体に関連付けされたと定義してもよい。 このようにクリップ全体と関 連付けすることにより、 ボイスメモをキーとしたクリップ単位での検索が容易に なる、 という効果が得られる。 また、 ボイスメモデータをクリップのフレームオフセットと関連付けて記録す ることにより、 タリップ内のタイムコードが不連続な場合でも一意的に関連付け することができる、 という効果が得られる。
タリップのフレームオフセットとボイスメモデータを関連付けする方法として は、 例えば、 図 3に示すようなクリップとボイスメモファイルの関係を示す管理 テーブル (以下 「ボイスメモ管理テーブル」 と呼ぶ。 ) および図 4に示すような クリップとその素材ファイル (映像'音声データファイル) の関係を示す管理テ 一ブル (以下 「クリップ管理テーブル」 と呼ぶ。 ) を用いることが考えられる。 なお、 図 3及び図 4は、 ボイスメモデータをクリップのフレームオフセットと関 連付けた場合の管理テーブルを示している。
図 3に示すボイスメモ管理テーブル 2 0において、 クリップ名 2 0 0はクリツ プの I Dを示す。 なお、 同一記録媒体内で全クリップはユニークな I Dを持って いる。 フレームオフセット 2 0 1は、 クリップの先頭からのフレーム数である。 メモ I D 2 0 2は、 同じタリップに関連付けられた複数のボイスメモに対して付 加されたユニークな I Dである。 ボイスメモファイル名 2 0 3はボイスメモファ ィルのファイル名であり、 同一クリップ内で全ボイスメモファイル名はユニーク なフアイノレ名を持っている。
図 4に示すクリップ管理テーブル 3 0において、 A Vタイプ 3 0 1は、 本編デ ータを構成するクリップ (素材ファイル) のタイプが映像データか音声データか を示す情報である。 チャンネノレ番号 3 0 2は、 音声データであればそのチャンネ ル番号を指定し、 映像データであれば特に指定しなくてもよレ、。 素材ファィノレ名 3 0 3は、 クリップを構成する素材ファイルとしての映像データまたは音声デー タのユニークなフアイル名である。
以下に、 図 5のフローチャートを用いて、 ボイスメモの再生中に、 そのボイス メモデータに関連付けられた主データ (クリップ) を再生する時の処理を説明す る。 なお、 クリップとボイスメモとは図 2及び図 3の管理情報を介して関連づけ られている。
再生中のボイスメモのボイスメモファイル名は同一クリップ内でユニークであ る。 よって、 ボイスメモ管理テープノレ 2 0を参照し、 ボイスメモファイル名をキ 一として、 それに関連づけられたクリップ名、 フレームオフセットを求める (S 1 1 ) 。 そして、 次に、 クリップ管理テーブル 3 0を参照し、 求めたクリップ名 のクリップを構成する全ての素材ファイルのフアイノレ名 (素材ファイル名 3 0 3 ) を取得する (S 1 2 ) 。 すなわち、 素材フアイノレ名を、 クリップを構成して いるファイルの数だけ取得する。 ここで得られた各素材ファイル名を持つデータ フアイノレのそれぞれについて、 先に求めたフレームオフセットが示す位置から再 生を開始する (S 1 3 ) 。 このように管理情報 2 0、 3 0を参照することにより、 ボイスメモと本編データ (クリップ) との対応を認識でき、 ボイスメモの再生中 にそのボイスメモに関連するタリップを再生することができる。
次に、 図 6のフローチャートを用いて、 クリップを再生中に、 そのクリップに 関連付けられているボイスメモを再生する時の処理を説明する。
クリップ管理テーブル 3 0を参照し、 現在再生中のクリップのクリップ名を取 得する (S 2 1 ) 。 そして、 ボイスメモ管理テーブル 2 0を参照し、 その取得し たクリップ名に関連付けられているメモ I D、 そのメモ I Dに対応するボイスメ モファイル名を取得する (S 2 2 ) 。 取得したボイスメモファイル名で示される ボイスメモデータを再生する (S 2 3 ) 。 再生するボイスメモの具体的な指定方 法等については後述する。
上述の方法により、 管理情報 2 0、 3 0を用いてクリップとボイスメモデータ を関連付けることができる。 また、 ボイスメモをクリップ内のタイムコードゃフ レームオフセットと関連付けるので、 一つのクリップに対して複数のボイスメモ データを関連付けることができる。 また、 特定のクリップの同じフレームオフセ ット上に複数のボイスメモを関連付けすることも可能である。
なお、 本実施の形態では、 圧縮伸長回路 1 0 1によって、 映像、 音声情報を圧 縮、 また、 映像、 音声データを伸長しているが、 圧縮、 伸長を行わずに非圧縮デ ータである映像、 音声情報をそのまま扱ってもよい。
また、 本実施の形態では、 クリップ内のフレームオフセットとポイスメモデー タを関連付ける手段として、 図 3およぴ図 4に示す管理テーブルを用いたが、 そ れらの関連づけが実現できれば他の手段でもよい。
また、 本実施形態では、 ボイスメモをクリップのフレームオフセットゃタイム コードに関連付けしたが、 ポイスメモをクリップ内での特定の時間軸上の位置に 関連付けることができれば、 すなわち、 クリップ内のフレーム位置を特定できる 情報であれば、 ボイスメモの関連付け先はクリップのフレームオフセットゃタイ ムコードでなくてもよい。
ここで、 本発明のボイスメモと従来の編集装置によるァフレコ機能により記録 される音声情報との違いについて説明する。
従来の編集機等では、 あらかじめ撮影した映像、 音声のデータに対して、 ァフ レコによって音声データを追加記録し、 それを映像データに対する音声データと みなして再生することがある。 この場合、 アフレコによって追加記録した音声デ ータは、 最初の撮影時に記録した映像データと同期を取って再生することを前提 として記録される。 よって、 アフレコによって音声データを追加記録する時は、 映像データを再生し同期を取りながら音声データを追加記録することが一般的で ある。
これに対し、 本発明におけるボイスメモは、 クリップ (素材データ) が何であ るかを示すためのメモ情報であり、 映像、 音声の主データとの同期再生は必須で はない。 よって、 ボイスメモ記録時の主データの状態に制限はなく、 主データが、 停止中、 再生中、 特殊再生中等 (複数倍サーチ再生、 逆再生等) 、 様々な状態に あっても、 ボイスメモを記録することができる。
つまり、 ボイスメモは、 主データの時間軸の特定の一点に関連付けられるもの であり、 主データと同期を取ることなく記録することができる。
また、 音声データをアフレコにより追加記録する場合、 追加数は、 機器の音声 出力チャンネルの数に制限される。 例えば、 音声が 4チャンネルまでしか出力で きない機器に対しては、 音声は最大 4チャンネルし力記録できない。 これに対し、 本発明のボイスメモは、 音声の出力チャンネノレ数とは無関係に、 主データの同一 の時間軸の位置に複数のボイスメモを関連付けて記録することができる。 実施の形態 2
実施の形態 1では、 メモリ記録力メラレコーダが唯一つの記録媒体 1 5 0しか 備えていない場合を想定したが、 本実施の形態では、 記録媒体 1 5 0が、 図 7に 示すように着脱可能な複数の記録媒体 (記録媒体 # 1 (501) 、 記録媒体 # 2 (502) 、 記録媒体 # 3 (503) ) で構成される場合を説明する。
本実施形態において、 複数の記録媒体にまたがって映像、 音声の主データが連 続して記録されている場合に、 その記録データ単位を 「ショット」 と呼ぶ。 例え ば、 一つのショットの素材を一つの記録媒体に記録した場合には、 そのショット は一つのクリップとなる。 一方、 一つのショットの素材を複数の記録媒体にまた がって記録すると、 各記録媒体毎に別々のクリップが作成されることになる。 こ の場合、 ボイスメモデータは分割されたクリップ毎に関連付けられる。
図 8を用いて、 複数の記録媒体にまたがって記録される一つのショット 600 に対するボイスメモの付加について詳細に説明する。
ショット 600は、 記録媒体 # 1 (501) から記録が開始され、 記録媒体 # 2 (502) をまたがって記録媒体 # 3 (503) で記録が終了したとする。 こ の時、 ショット 600は、 記録媒体 # 1 (501) 内のクリップ # 1 (611) 、 記録媒体 # 2 (502) 内のクリップ # 2 (612) 、 記録媒体 # 3 (503) 内のクリップ # 3 (613) に分割されて記録されている。
本実施形態では、 ショット 600内のある特定の位置に関連付けてボイスメモ データを記録する場合、 ボイスメモデータは、 それが付加される実体データが記 録されている記録媒体と同じ記録媒体に記録される。 例えば、 ボイスメモを関連 付けしたい位置がクリップ # 1 (61 1) 内のデータである場合、 そのボイスメ モデータ (ボイスメモ # 1 (621) ) は記録媒体 # 1 (501) 上に記録され る。 同様に、 ボイスメモを関連付けしたい位置がクリップ # 2 (612) 内のデ ータである場合、 そのボイスメモデータは記録媒体 # 2 (502) 上に記録され る (ボイスメモ # 2 (622) ) 。 この時、 ボイスメモ # 2 (622) の終了時 刻はクリップ # 2 (612) の終了時刻よりも後になってもよレ、。 しかし、 この 場合、 ボイスメモ # 2 (622) は記録媒体 # 2 (502) から記録媒体 # 3
(503) にまたぐことなく、 関連付けられた位置の本編データが記録されてい る記録媒体 (すなわちここでは記録媒体 # 2 (502) ) と同じ記録媒体上に記 録されることになる。 また、 同様に、 ボイスメモを関連付けしたい位置がクリツ プ # 3 (613) 内のデータである場合、 そのボイスメモデータ (ボイスメモ # 3 ( 6 2 3 ) ) は記録媒体 # 3 ( 5 0 3 ) 上に記録される。 その際、 ボイスメモ # 3 ( 6 2 3 ) の終了時刻はショット 6 0 0の終了時刻よりも後になってもよい。 このように、 ボイスメモデータは、 それが関連付けられる、 クリップのフレー ムオフセットの本編データの記録されている記録媒体上に記録する。 また、 ボイ スメモデータの記録時間は実施の形態 1と同様に、 ボイスメモの記録時間の上限 以内でなければならない。
上記の方法を用いてボイスメモデータとタリップ内のデータとの関連付けをす ることによって、 それぞれの記録媒体にぉ 、て本編データとボイスメモを関連付 けた状態で再生することができる。 例えば、 記録媒体 # 3 ( 5 0 3 ) が取り外さ れた場合でも、 クリップ # 1 ( 6 1 1 ) 内のデータに関連付けされているボイス メモ # 1 ( 6 2 1 ) およびクリップ # 2 ( 6 1 2 ) 内のデータに関連付けされて いるボイスメモ # 2 ( 6 2 2 ) は再生することができる、 という効果が得られる。 なお、 実施の形態 1では、 ボイスメモデータを映像または音声データを含むク リップに関連付けしたが、 無効な映像および音声データから構成されるタリップ (以下 「ダミークリップ」 と呼ぶ。 ) を作成し、 このダミークリップにボイスメ モデータを関連付けしてもよい。 そして、 ダミークリップに関連付けされたボイ スメモデータは、 記録媒体全体に関連付けされたものとしてもよい。
例えば、 ある映像、 音声データが記録された記録媒体全体に、 その記録媒体に どのようなデータが記録されているかを示すボイスメモデータを関連付けするこ とにより、 その記録媒体を他の記録媒体と区別することが容易になる、 という効 果が得られる。
ダミークリップには、 本来、 映像、 音声データは必要ないが、 ダミークリップ の無効な映像データとしてブルーパック映像データを用いると、 既存のクリップ と同様の管理が可能となる。 クリップがダミークリップかどう力^判断をするた めには、 例えば、 クリップがダミークリップである力否かを示すフラグを図 3の 管理テーブルに付カ卩しておけばよい。 そして、 ダミークリップ作成時にはこのフ ラグを立てるようにする。 実施の形態 3 本実施形態では、 ボイスメモの記録処理について簡単に説明する。
図 9に、 ボイスメモを記録、 再生する時にユーザが操作する操作部 1 3 0の例 を示す。 操作部 1 3 0上にはボイスメモ記録釦 1 1 0 1、 選択釦 1 1 0 2、 決定 釦 1 1 0 3が設けられている。
ボイスメモ記録釦 1 1 0 1はボイスメモの記録を開始する時、 およびボイスメ モの記録を終了する時に用いられる。 ボイスメモが記録されていない状態でボイ スメモ記録釦 1 1 0 1が押下されると、 ボイスメモの記録動作が開始する。 また、 ボイスメモが記録されている状態でボイスメモ記録釦 1 1 0 1が押下されると、 ボイスメモの記録動作が終了する。 なお、 ボイスメモ記録釦 1 1 0 1は、 記録開 始用の釦および記録終了用の釦にそれぞれ分けて構成してもよい。
選択釦 1 1 0 2は、 例えば、 クリップのサムネイル (代表画像) 一覧における 力一ソルの移動および各種ォプション項目での力一ソノレ移動等を行うための釦で あ
決定釦 1 1 0 3は、 選択を決定するための釦である。 例えば、 あるボイスメモ が選択されている常態で決定釦 1 1 0 3を押すと、 そのボイスメモの再生が開始 される。 なお、 操作部 1 3 0には図示しない各種の釦が存在してもよい。
図 1 0を用いて、 ボイスメモを記録してクリップに関連付けるまでの処理の流 れを説明する。
ユーザによりボイスメモ非記録状態でボイスメモ記録釦 1 1 0 1が押下される と、 ボイスメモの記録動作が開始する。 その時、 まず、 記録すべきボイスメモを 関連づけるクリップのクリップ名およびフレームオフセットを取得し、 それらの 情報を記憶しておく (S 3 1 ) 。 なお、 ボイスメモを関連付けるクリップゃフレ ームオフセットの具体的な決定方法は後述する (実施の形態 5参照) 。 また、 こ の時、 管理テーブル 2 0、 3 0を参照し、 同一クリップにおいて重複しないよう にメモ I D及びファイル名を決定し、 記憶しておく (S 3 2 ) 。 なお、 ファイル 名の決定方法等は後述する (実施の形態 7参照) 。 そして、 ボイスメモの記録が 開始される (S 3 3 ) 。
その後、 ボイスメモ記録動作中に、 ユーザのボイスメモ記録釦 1 1 0 1の押下 による記録停止操作の有無を判断する (S 3 4 ) 。 記録停止操作があると、 ボイ スメモの記録を終了する (S 35) 。 その時、 ボイスメモ記録開始時に記憶して おいたボイスメモ関連付先のクリップ名、 フレームオフセット、 メモ I D、 ファ ィル名等の関連付け情報を図 3に示すような管理テーブルに記録する ( S 36 ) 。 実施の形態 4
本実施の形態では、 ボイスメモの具体的な記録方法について述べる。
ボイスメモは素材データが何であるかを示すためのメモ情報であり、 記録後に 編集が行われることはほとんどない。 また、 ボイスメモは素材の音声データと違 レ、、 高音質は要求されないと考えられる。 よって、 ボイスメモのサンプリングレ ートおよびビットレートを素材の音声データに比べて低いレートで記録する。 こ れによりボイスメモのフアイルサイズが小さくなり、 効率的になる。
例えば、 素材の音声データのサンプリングレートを 48 kHz、 ボイスメモの サンプリングレートを 8 kHzにして記録する。 また、 素材の音声データのビッ トレートを 16 b p s (B i t s P e r S amp l e) 、 ボイスメモのビッ トレートを 8 b p sにして記録する。 これにより、 ボイスメモは素材の音声デー タの 1 1 2のサイズで記録することができるので、 限られた容量の記録媒体な どでは、 素材の映像、 音声データをより多く記録することが可能となる。
また、 ボイスメモのファイルフォーマットは、 素材の音声データのファイルフ ォーマットと異なるものを用いることができる。
例えば、 本編の音声データのフォーマツトとしては素材交換用フォーマツトで ある MXF (Ma t e r i a l Ex c h a n g e Fo rma t) s ボイスメ モのフォーマツトとしては汎用 PCで用いられている WAVEを用いる。
本編の音声データは、 編集を行うのが前提なので、 MX Fのような素材交換用 フォーマットを用いると、 編集機等での編集が容易になり、 編集効率が上がる。 また、 ボイスメモに WAVEのような汎用 PCで扱えるフォーマットを用いると、 後述するサムネイル (代表画像) 等を用いることにより、 実際の素材データを見 なくとも PC上でタイトル揷入などの簡易編集が可能となる、 という効果が得ら れる。
以下、 素材データおよぴボイスメモを記録媒体に記録する場合について具体的 に説明する。 なお、 ボイスメモの音質を若干高めに設定することを想定して、 各 データのパラメータは以下の通りとする。
フレーム —ト: 30 f p s (F r ame s P e r S e c o n d) 、 本編の映像データのフレームサイズ: 1 20 kB、
本編の音声データのサンプリングレート: 48 kHz、
ボイスメモのサンプリングレート : 1 2 k H z、
本編の音声データのビットレート: 1 6 b p s、
ポイスメモのビットレート: 1 6 b p s、
ここで、 クリップは映像データ 1 c h、 音声データ 2 c hで構成されていると する。 この時、 クリップの 1秒当たりのデータサイズは、
(l 20 kBX 30 f p s) + ( (48 kHz) X 1 6 b p s/8 b i t) X 2 c h= 3. 79 2MB (式 1 )
となる。
また、 ボイスメモ 1秒当たりのデータサイズは、
1 2 kHz X 16 b p s/8 b i t = 24 k B (式 2)
となる。
なお、 ここでは説明の簡単化のため、 素材データファイルおよびボイスメモフ 了ィルのデータ部以外の部分 (へッダゃフッタ部等) の記録は考慮しないことに する。
また、 記録媒体に、 予めボイスメモ記録専用の領域を確保しておくようにして あよい。
例えば、 記録媒体に 5分間 (300秒) 分のボイスメモの記録用の領域を確保 する。 ボイスメモを 5分間 (300秒) 記録するのに必要な記録容量は、 (式 2) より、
24 kBX 300秒 = 7. 2MB (式 3)
となる。 つまり、 ボイスメモを 5分間 (300秒) 記録するのに必要な記録容量 (7. 2MB) は、 クリップを約 1. 9秒 (約 5 7フレーム) 記録する記録容量 に相当する。
ここで、 記録容量が 1 GBの記録媒体にクリップのみを記録する場合、 すなわ ち、 ボイスメモ記^ S域を確保しない場合の記録可能時間を計算すると、 (式 1) より、
1 GB/3. 792MB = 約 264秒 (式 4)
となる。 記録容量が 1 G Bの記録媒体において予め 5分間 (300秒) 分のボイ スメモの記^ S域を確保した場合は、 クリップの記録可能時間は約 262秒とな る。 すなわち、 5分間 (300秒) 分のボイスメモの記^ B域を確保しても、 記 録可能時間は確保しない場合とほとんど変わらない。
よって、 記録媒体に予めボイスメモの記憶領域を確保しておいても、 素材デー タの記録可能時間にほとんど影響を与えないと言える。 また、 予め確保しておい た記憶領域に、 仮にボイスメモを記録しなくても、 記録媒体の使用効率もほとん ど無駄がない。
また、 図 8に示すように、 クリップ # 2 (612) およびボイスメモ #2 (6 22) を記録媒体 # 2 (502) 上に記録している際、 記録媒体 # 2 (502) 上の本編データ用の空き領域がなくなり、 本編データの続きを記録媒体 #3 (5 03) 上にクリップ # 3 (613) として記録を続行した場合でも、 記録媒体 #
2 (502) に予め確保していたボイスメモ専用の記録領域が残っていれば、 ボ イスメモ # 2 (622) は記録媒体 # 2 (502) 上に記録できる、 という効果 が得られる。
なお、 上記の例では、 ボイスメモの最大記録可能時間を 5分間として説明した 力 その値は 5分間でなくてもよく、 ユーザが任意に設定できるようにしてもよ い。 また、 ボイスメモ記録専用領域の容量をボイスメモ記録時間で設定したが、 記録媒体の全容量に対するボイスメモ記録領域の割合を設定してもよい。 また、 確保する容量を By t e単位等で直接設定してもよい。 実施の形態 5
本実施形態では、 ボイスメモの記録処理について種々のバリエーションについ て説明する。
ボイスメモは、 映像'音声の主情報の記録中、 記録一時停止中、 記録停止中、 再生中、 再生一時停止中、 再生停止中のいずれの状態においても記録を開始する ことができる。 複数の状態からボイスメモを記録することができるので、 ボイス メモ記録の利便性が上がる、 という効果が得られる。 以下、 それぞれの状態にお けるボイスメモの記録方法について述べる。
最初に、 主情報の記録 (撮影) 中にボイスメモを記録する方法について述べる。 主情報を記録 (撮影) 中に、 ユーザにより操作部 1 3 0に設けられたボイスメ モ釦が押下されると、 ボイスメモマイク 1 1 0から入力された音声信号がボイス メモ処理回路 1 1 1によりデータ変換され、 ボイスメモとして記録媒体 1 5 0に 記録される。 その際、 このボイスメモはボイスメモ釦を押した時点に記録された クリップのフレームオフセットに関連付けられる。 この関連付けは管理情報の登 録、 更新により行われる。 この方法により、 主情報の撮影とボイスメモの記録を 同時に記録でき、 主情報撮影後に改めてボイスメモを記録する必要がなくなる。 また、 ボイスメモ記録中にクリップが変わった時、 すなわち現在記録している 記録媒体の主情報記録用の空き容量が 0になり、 別の記録媒体に主情報の続きを 記録する時は、 実施の形態 2に示したように、 ボイスメモは、 そのボイスメモの 記録開始時の記録媒体上にそのまま記録され続ける。 これにより、 ボイスメモが 関連付けられたクリップが記録されている記録媒体以外の記録媒体が取り外され ても、 そのボイスメモを再生することが可能となる。
次に主情報の記録一時停止中にボイスメモを記録する方法について述べる。 主情報の記録一時停止中にボイスメモ釦が押下されると、 ボイスメモマイク 1 1 0から入力された音声信号をデータ変換し、 ボイスメモとして記録媒体に記録 する。 それと共に、 このボイスメモは、 クリップ内の記録一時停止中の位置のク リップのフレームオフセットに関連付けられる。 この方法により、 前述の記録中 にボイスメモ釦が押された場合と同様に、 本編撮影後にボイスメモを記録する必 要がなくなる、 という効果がある。
次に主情報の記録停止中にボイスメモを記録する方法について述べる。
主情報の記録動作中に記録動作を停止し、 ボイスメモ釦が押下されると、 ボイ スメモマイク 1 1 0から入力された音声信号がデータ変換され、 ボイスメモとし て記録される。 その際、 このボイスメモは、 最後に記録されたショット全体に関 連付けられる。 ショットが複数のクリップに分かれて記録された場合、 ボイスメ モは、 最後に記録されたクリップ全体に関連付けられる。 これにより、 主情報記 録 (映像撮影) 後にボイスメモを記録することができるので、 記録中は主情報の 記録 (映像撮影〉 に集中することができる。
なお、 主情報の記録停止中にボイスメモ釦が押された場合、 次に撮影されるシ ヨットにボイスメモを関連付けて記録するようにしてもよい。 その際、 ダミーク リップを一時的に作成し、 そのダミークリップ全体にボイスメモを関連付けする。 その後、 撮影が再開されると、 記録したボイスメモを撮影中のクリップに関連付 けし直し、 ダミークリップを削除する。 もし次の撮影が開始されなければ、 記録 したボイスメモを削除する。 この方法により、 主情報の記録前にボイスメモを記 録することができるので、 記録中は映像の撮影に集中することができる。
主情報記録後にボイスメモを記録するカゝ、 主情報記録前にボイスメモを記録す るかは、 ユーザの用途に合わせて設定を変更できるようにしてもよい。
次に主情報の再生中にボイスメモを記録する方法について述べる。
主情報の再生中にボイスメモ釦が押下されると、 ボイスメモマイク 1 1 0から 入力された音声がデータ変換され、 ボイスメモとして記録媒体に記録される。 こ のとき、 このボイスメモは、 ポイスメモ釦を押した時点に再生中のクリップのフ レームオフセットに関連付けられる。 この方法により、 主情報記録後に、 主情報 の映像を確認しながらボイスメモを関連付けできるので、 所定のシーンのより正 確な位置に関連付けすることができる。
次に主情報の再生一日寺停止中にボイスメモを記録する方法について述べる。 主情報の再生一 B寺停止中にボイスメモ釦が押下されると、 ボイスメモマイク 1 1 0から入力された音声はデータ変換され、 ボイスメモとして記録される。 その 際、 このボイスメモは、 クリップ内の再生一時停止中での位置のクリップのフレ ームオフセットに関連付けられる。 この方法により、 再生中にボイスメモ釦が押 された時と同様に、 記録後に主情報を確認しながらボイスメモを関連付けできる ので、 所定のシーンのより正確な位置に関連付けすることができる、 という効果 が得られる。
次に主情報の停止中にボイスメモを記録する方法について述べる。
主情報の再生後の停止中にボイスメモ釦が押下された場合、 停止位置がショッ トの途中だった場合は、 ボイスメモマイク 1 1 0から入力された音声信号がデー タ変換されボイスメモとして記録される。 その際、 このボイスメモはそのショッ ト全体に関連付けられる。 また、 ショットが複数のクリップに分力れて記録され ている場合には、 停止位置を含むクリップ全体に関連付けられる。 この方法によ り、 編集中にショットまたはクリップ全体に関連付けてボイスメモを記録でき、 ボイスメモをキーとしたクリップ単位の検索が容易になる、 という効果が得られ る。
なお、 一つ以上のボイスメモが関連付けされているタリップを削除した場合、 クリップに関連付けられているボイスメモも同時に削除するようにする。 この操 作により、 ボイスメモを消す手間が省けると共に、 不必要になったボイスメモの 消し忘れを防ぐことができる、 という効果が得られる。
また、 主情報とボイスメモを同時に記録している時に、 主情報の記録を終了す ると、 ボイスメモの記録も終了する。 この方法により、 ボイスメモ記録を終了す る手間が省けると共に、 不注意等によるボイスメモ記録の終了処理忘れがなくな る、 という効果が得られる。
なお、 本実施の形態では、 主情報の音声データおよびボイスメモのサンプリン グレートを、 それぞれ 4 8 k H zおよび 1 2 k H zとしたが、 それぞれの値は別 の値でもよい。 また、 主情報の音声データおよびボイスメモのビットレートを、 共に 1 6 b p sとしたが、 それぞれの値は別の値でもよい。 また、 記録媒体の容 量に余裕がある場合、 ボイスメモの高音質が要求される場合、 および制御を簡単 化する等の理由により、 主情報の音声データとボイスメモで共通のサンプリング レートまたは共通のビットレートを用いてもよく、 その大小関係は問わない。 また、 主情報の音声データおょぴボイスメモのフォーマットとして、 それぞれ MX Fおよび WAV Eを用いたが、 他のフォーマットを用いてもよい。 また、 制 御を簡単化する等の理由により、 主情報の音声データとボイスメモで共通のフォ 一マツトを用いてもよい。
また、 本実施形態では、 クリップが、 映像データ 1 c h、 音声データ 2 c hで 構成されているものとしたが、 そのチャンネル数は任意でもよく、 例えば音声デ ータ 1 c hだけのクリップであってもよい。 実施の形態 6
本実施形態では、 ボイスメモの再生方法を具体的に説明する。
最初に、 ボイスメモの再生指示のために表示部 1 2上に表示される画面につい て説明する。
図 1 1に表示部 1 2 1に表示されるクリップ一覧画面の例を示す。 クリップ一 覧画面は、 記録媒体 1 5 0内に記録されているクリップの一覧を表示する。 全て のクリップが画面に入りきらない場合は、 選択カーソル 1 1 0 2を用いて画面を スクロールさせて表示する。
クリップ一覧画面において、 記録されている各クリップのサムネィノレ (クリッ プの代表画像) 1 4 0 2が整列して表示される。 サムネイル 1 4 0 2は、 クリツ プの先頭フレームの映像データでもよく、 クリップ内のその他のフレームの映像 データでもよい。 クリップに映像データが存在しない場合、 すなわち音声データ のみで構成されるタリップの場合は、 サムネィノレ 1 4 0 2にはブルーバック等の 画像を埋め込む。 なお、 サムネイル 1 4 0 2には、 クリップ内の映像データでは ない別の画像をユーザが設定してもよい。
サムネィノレ 1 4 0 2とともに、 そのクリ ップのクリップ番号 1 4 0 3 も表示さ れる。 クリップ番号 1 4 0 3はクリップ名とは無関係に決定することができ、 記 録媒体内でユニークであれば、 自由に設定してよい。
さらに、 ボイスメモが関連付けられているクリップについては、 ボイスメモマ ーク 1 4 0 4が表示される。 図 1 1の例ではクリップ番号が 「0 2」 、 「0 3 J および 「0 5」 のクリップにボイスメモが関連付けられている。
選択釦 1 1 0 2の操作により選択されたサムネイルについては、 選択されてい ることを示す表示 1 4 0 5が外枠に付加される。
図 1 2は、 ボイスメモクリップ一覧画面の例を示した図である。 ボイスメモク リップ一覧画面はクリップ一覧画面から導かれる。
ボイスメモクリップ一覧画面は、 記録媒体に記録されているクリップの中でポ イスメモが関連付けられているタリップのみを一覧表示する。 ボイスメモクリッ プ一覧画面への移行は、 操作部 1 3 0上のォプション釦等を用いて行えばよく、 その手段は問わない。 ボイスメモクリップ一覧画面には、 ボイスメモ表示領域 1 5 0 2及びクリップ表示領域 1 5 0 4が設けられている。
クリップ表示領域 1 5 0 4は、 ボイスメモが関連付けられているクリップのサ ムネイル (以下 「クリップ'サムネイル J と呼ぶ) 1 4 0 2を表示する領域であ る。
ボイスメモ表示領域 1 5 0 2には、 現在選択されているクリップに関連付けら れているボイスメモに関するサムネイル (以下 「ボイスメモ 'サムネイル」 と呼 ぶ。 ) 1 5 0 1の一覧が表示される。 ボイスメモ .サムネイル 1 5 0 1は、 ボイ スメモが関連付けられたクリップ中の位置の静止画の縮小画像である。 関連付け られているクリップに映像データが存在しない場合、 すなわち音声データのみで 構成されるタリップの場合は、 ボイスメモ ·サムネイル 1 5 0 1にはブルーバッ ク等の画像を埋め込む。
ボイスメモ .サムネイル 1 5 0 1にはボイスメモ番号 1 5 0 3が表示される。 ボイスメモ番号 1 5 0 3は、 後述の M e m o I D 9 8 5と無関係に決定すること ができ、 クリップ内でュユークであれば、 ボイスメモ番号 1 5 0 3は自由に設定 してよい。
ボイスメモ表示領域 1 5 0 2には、 現在選択されているボイスメモの情報を表 示するボイスメモ情報 1 5 0 5が表示される。 例えば、 現在選択されているボイ スメモの関連付先のクリップ番号 1 4 0 3、 現在選択されているボイスメモのボ イスメモ番号 1 5 0 3が表示される。 図 1 2の例では、 ボイスメモ情報 1 5 0 5 により、 クリップ番号 「0 2」 、 ボイスメモ番号 「0 2」 のボイスメモが選択さ れていることが示されている。 この例において、 クリップ番号 「0 2」 のクリツ プにはボイスメモが合計 3つ関連付けされていることが示されている。
なお、 ボイスメモ情報 1 5 0 5に表示する情報は、 必要がなければ表示しなく てもよく、 また、 必要ならば他の情報を表示してもよい。
図 1 3を用いてボイスメモの再生動作を説明する。
ユーザは、 ボイスメモを再生するために、 ボイスメモクリップ一覧画面に移行 し、 再生したいボイスメモが関連付けられているクリップを選択 '決定する。 再 生したいタリップの選択は操作部 1 3 0上の選択釦 1 1 0 2で行われ、 決定釦 1 1 0 3によってその選択が決定される。
ボイスメモクリップ一覧の画面上でユーザ操作によりタリップが選択■決定さ れたか否かを判断する ( S 4 1 ) 。 タリップが選択■決定されると、 カーソルを ボイスメモ表示領域 1 5 0 2に移動し、 ボイスメモ表示領域 1 5 0 2においてュ 一ザにより再生したいボイスメモ ·サムネイルが選択された力否かを判断する
( S 4 2 ) 。 再生したいボイスメモが選択されている状態で、 決定釦 1 1 0 3が 押下されると、 その選択が確定し、 選択されたボイスメモが再生される (S 4 3 ) 。 その時、 ボイスメモの再生開始と同時に、 再生するボイスメモが関連付け られた位置にある本編の映像データの静止画が表示される (S 4 4 ) 。 その後、 ボイスメモデータがその終端まで再生されると、 ボイスメモの再生は終了し、 そ れとともに、 本編の映像データの静止画の表示も停止する。
図 1 4は、 ボイスメモ再生中の画面を示した図である。
本編の映像データの静止画とともに、 ボイスメモが再生中であることを示す表 示 1 6 0 1が表示されている。 表示 1 6 0 1は点滅表示でもよい。
なお、 ボイスメモの再生開始と同時に、 再生するボイスメモの関連付けられた 位置から本編の映像データの動画の再生を開始してもよい。 この時、 ボイスメモ の再生が終了する前に本編の映像データの動画の再生が終了した場合は、 本編の 映像データの最終フレームの静止画、 またはブルーバック画像等を出力し続ける とよい。
ボイスメモの再生が終了すると、 自動的にボイスメモクリップ一覧画面に戻る < ボイスメモの再生途中での終了を可能とするために、 所定の釦 (例えば、 決定釦 1 1 0 3、 停止釦 (図示せず) ) が押下されたときにボイスメモの再生動作を中 断するようにしてもよい。 また、 ボイスメモ再生中に、 本編再生釦 (図示せず) または選択決定釦 1 1 0 3が押下されると、 ボイスメモの再生を中断し、 再生し ていたボイスメモが関連付けられている位置から、 本編の映像、 音声データの再 生を開始するようにしてもよい。 実施の形態 7
実施の形態 1では、 タリップのフレームオフセットとポイスメモデータを関連 付ける手段として図 2および図 3に示すような管理テーブルを用いたが、 本実施 の形態では、 XML (ex t e n s i b l e Ma r ku La n g u a g e : W3C勧告) ファイルにボイスメモの関連付けに関する情報を記述する。 ま た、 クリップとボイスメモの関連情報以外にも、 クリップを構成する映像データ および音声データに関する情報等、 クリップに関する種々の情報を XMLフアイ ルに記述する。
(記録媒体のディレクトリ構成)
図 15に、 記録媒体 150に記録する各コンテンツのディレクトリ構成の例を 示す。
C o n t e n t sディレクトリ 800は、 記録媒体 150の r o o tディレク トリの下に配置される。 クリップを構成する全てのファイルは、 Co n t e n t sディレクトリ 800の下に配置される。
C 1 i pディレクトリ 810は、 Co n t e n t sディレクトリ 800の下に 配置される。 クリップ情報の記述された XMLファイルは C 1 i pディレクトリ 810の下に格納される。
V i d e oディレクトリ 820は、 Co n t e n t sディレクトリ 800の下 に配置される。 映像データファイルは V i d e oディレクトリ 820の下に格納 される。
Au d i oディレクトリ 830は、 Co n t e n t sディレクトリ 800の下 に配置される。 音声データファイルは A u d i oディレクトリ 830の下に格納 される。
Vo i c eディレク トリ 850は、 Co n t e n t sディレク トリ 800の下 に配置される。 ボイスメモデータファイ^/は Vo i c eディレクトリ 850の下 に格納される。
クリップファイル 811および 812はそれぞれ、 ボイスメモの付加情報等の あらゆるタリップ情報が記述された XMLファイルである。 1つのタリップに対 して 1つのタリップファイルが作成される。
映像ファイル 821および 822はそれぞれ、 クリップを構成する映像データ フアイノレである。
音声ファイル 831〜834はそれぞれ、 クリップを構成する音声データファ ィルである。
ボイスメモフアイ 51〜853はそれぞれ、 クリップに関連付けられるポ イスメモデータファイルである。
なお、 上記例では、 本実施の形態を説明するために必要な構成要素のみを用い た。 必要に応じて、 例えば図示しない I c o nディレクトリや、 図示しない I c o nファイル等をこの構成に組み入れてもよい。 また、 記録媒体 150内のディ レクトリ構成は別の構成でもよい。
(XMLによるタリップファイルの定義)
以下、 XMLを用いたクリップファイルの具体的な記述方法について説明する。 図 16に、 XML記述内に具体的に記述する項目を示す。 図 16に記載されて いる項目は、 本実施の形態を説明するために列挙した一例であり、 図 16に記述 していない項目が存在してもよく、 また、 図 16に示されている項目のいくつか が存在しなくてもよい。 また、 各項目においてはその属性が存在してもよい。
C 1 i p C o n t e n tタグ 900は、 以下に示すクリップに関する情報を要 素として持つ。
C 1 i p N a m eタグ 901は、 タリップの名前を要素として持つ。
D u r a t i o nタグ 902は、 タリップのフレーム数を要素として持つ。
E s s e n c e L i s tタグ 910は、 映像、 音声データ等のエッセンスのリ ストを要素として持つ。
V i d e oタグ 920は、 以下に示す映像データの情報を要素として持つ。 ま た、 V i d e oタグ 920の属性として、 例えば図示しない V a 1 i d Au d i o F 1 a gという属性を付加することにより、 映像データの中に音声データが多 重化されて 、るかどうかを判断してもよい。
V i d e o F o rma tタグ 921は、 映像データのフアイノレフォーマツトを 要素として持つ。 例えば MXFファイルフォーマットなどが考えられるが、 その 他のフォーマツトでもよい。 11 (1 1 (>タグ940は、 以下に示す音声データの情報を要素として持つ。
Au d i o F o r ma tタグ 941は、 音声データのファイルフォーマツトを 要素として持つ。 例えば MXFファイルフォーマットなどが考えられるが、 その 他のフォーマツトでもよい。
S am l i n gRa t eタグ 942は、 音声データのサンプリングレートを 要素として持つ。 例えば 4800 OHzなどが考えられるが、 サンプリングレー トの値は何でもよい。
B i t s P e r S amp l eタグ 943は、 音声データのビットレートを要素 として持つ。 例えば 16 b p s、 24 b sなどが考えられるが、 ビットレート の値は何でもよい。
C 1 i pMe t a d a t aタグ 960は、 ボイスメモなど、 タリップに関連付 けられる素材データ以外のメタデータの情報を要素として持つ。
Memo L i s tタグ 970は、 タリップに関連付けするメモのリストを要素 として持つ。 なお、 メモが存在しなければ、 Memo L i s tタグ 970はなく てもよい。
M e m oタグ 980は、 以下に示すメモの各情報を要素として持つ。 なお、 M emoタグ 980には属性として Memo I D 985を付加する。 Memo I D 985は、 タリップ毎に独立な 2桁の値であり、 各タリップに最大 100個まで メモを関連付けることができる。 また、 Memo I D 985は 2桁の値でなくて もよく、 クリップ毎に関連付けられるメモの最大数は 100でなくてもよい。
O f f s e tタグ 981は、 メモを関連付けするクリップのフレームオフセッ トを要素として持つ。 O f f s e tタグ 981は必要がなければなくてもよい。 O f f s e tタグ 981がなければ、 そのメモはクリップ全体に関連付けられた ものとすればよい。
P e r s o 11タグ 982は、 メモを作成した人の名前等を要素として持つ。 例 えば、 ボイスメモ記録時に、 誰が記録したかを P e r s o nタグ 982内に記述 する。 これにより、 ボイスメモの記録者が明確になり、 ボイスメモを記録した時 の状況などが知りたければ、 その記録者に問い合わせればよい。 なお、 特に必要 がない場合は P e r s o nタグ 982を付加しなくてもよレヽ。 Vo i c eタグ 990は、 以下に示すボイスメモの各情報を要素として持つ。 もしボイスメモが関連付けされていなければ Vo i c eタグ 990はなくてよい。
Vo i c e Fo rma tタグ 991は、 ボイスメモデータのフアイノレフォーマ ットを要素として持つ。 例え tfWAVEファイルフォーマツトなどが考えられる 力 その他のフォーマットでもよい。
Vo i c e S am 1 i n gRa t eタグ 992は、 ボイスメモデータのサン プリングレートを要素として持つ。 例えば 12000Hz等が考えられるが、 サ ' ンプリングレートの値は何でもよい。
Vo i c eB i s P e r S am l eタグ 993は、 ボイスメモデータのビ ットレートを要素として持つ。 例えば 16 b p s等が考えられるが、 ビットレー トの値は何でもよい。
Re cCo n t i d i o nタグ 994は、 ボイスメモを記録した時の状態を要 素として持つ。 例えば、 PLAY状態、 ST I LL状態等が考えられるが、 それ 以外の状態があってもよく、 また、 それらの状態を細分化してもよい。 なお、 R e c Co n d i t i o nタグ 994は必要がなければ設けなくてもよい。
なお、 クリップファイルに記述する項目として上記のような例を上げたが、 ク リップとボイスメモを関連付けすることができれば、 その構造、 項目、 要素、 属 性は問わない。 (ボイスメモ記録時の状態管理)
ボイスメモ記録時の状態を管理する方法について説明する。
例えば、 本編データの記録中または本編データの再生中にボイスメモを記録す る場合には、 Re c Co n d i t i o nタグ 994を "P LAY" にする。 また. 本編データの記録一時停止中、 記録停止中、 再生停止中および再生一時停止中に ボイスメモを記録する場合、 すなわち、 本編データと同期を取らずにボイスメモ を記録する場合に、 Re c Co n d i t i o nタグ 994を "ST I LL" にす る。
ボイスメモを再生する場合は、 Re c Co n d i t i o nタグ 994を参照し "PLAY" ならば、 そのボイスメモに関連付けられた位置から本編の映像デー タを同時に再生する。 一方、 Re c Co n d i t i o nタグ 994力 S "ST I L L" ならば、 そのボイスメモに関連付けられた位置の本編の映像データの静止画 を出力し続けながらボイスメモを再生する。 ここでは、 Re cCo n d i t i o nタグ 994のィ直を "PLAY" および " ST I LL" としたが、 それ以外の状 態を別途定義してもよく、 例えば、 サーチ再生中にボイスメモを記録した場合は、 そのときのサーチ再生速度を示す値を R e c C o n d i t i o nタグ 994に記 述してもよい。 その場合は、 Re c Co n d i t i o 11タグ 994を参照してサ ーチ再生速度を取得し、 本編データを、 その取得した速度でサーチ再生しながら ボイスメモを再生する、 といったことも可能となる。
なお、 Re c Co n d i t i o nタグ 994の値に関わらず、 常に本編の映像 データの静止を出力し続けながらボイスメモを再生してもよい。 また、 Re c C o n d i t i o nタグ 994とボイスメモの再生方法との関係はユーザが自由に 決定してもよい。 また、 Re c Co n d i t i o nタグ 994は記録しなくても よく、 その場合はボイスメモの再生方法を統一化するようにすればよい。 また、 Re c Co n d i t i o nタグ 994の値には関係なく、 ユーザが設定した再生 方法でポィスメモを再生してもよい。
このように、 ボイスメモを記録した時の状態を管理することにより、 ボイスメ モの再生手段を増やすことができる。
なお、 ボイスメモを再生する場合、 関連付けられた位置から本編の映像データ のみを同時に再生する例を挙げたが、 同時に本編音声データを再生してもよい。
(ボイスメモデータの非同期記録、 非同期再生)
一般的に、 素材の映像、 音声データを再生する時は、 映像と音声は同期を取る 必要がある。 この時、 映像と音声が 1フレームのずれも許されないのが一般的で ある。 映像データと音声データが多重化されておらず、 映像データファイル、 音 声データファイル (複数チャンネルの場合も含む) がそれぞれ別々のフアイルで ある場合、 これら全てのファイルの同期を取りながら再生する制御は複雑なもの となる。 また、 サンプリングレートの異なる 2つ以上の音声データファイルを再 生する場合、 これらの同期を取りながら再生する制御はより複雑なものとなる。 一方、 映像と音声で同期を取りながら再生する必要がない場合、 すなわち、 数 フレームのずれならば許される場合は、 映像データファイル、 音声データフアイ ルが別々のファイルであっても、 それぞれ独立して再生すればよく、 その制御は より簡易なものとなる。
前述したように、 ボイスメモデータは素材データが何であるかを示すためのメ モデータなので、 素材データと厳密な同期を取って再生する必要はないと考えら れる。 よって、 ボイスメモを本編データと同期を取ることなく再生すると、 制御 がより簡単なものとなる。
また、 ボイスメモは本編データの時間軸の特定の一点に関連付けられるもので あり、 ボイスメモを本編データと同期を取ることなく記録することにより、 関連 付けるクリップの Du r a t i o nよりも長時間ボイスメモを記録することがで きる。 例えば、 数秒のクリップに対して、 数十秒のボイスメモを記録することも できる。 また、 本編データの、 停止中、 再生中、 特殊再生中等 (複数倍サーチ再 生、 逆再生等) 、 様々な状態でボイスメモを記録することができる。
例えば、 本編データの停止中、 一時停止中等にボイスメモを記録する場合は、 ボイスメモの管理情報として、 Re c Co n d i t i o nタグ 994の値を " S T I LL" にしておけばよい (この時のボイスメモの再生方法については後述す る。 ) 。 この時、 素材の記録前にあらかじめボイスメモを記録しておくこともで きる。 例えば、 今から撮影するシーンに対して、 そのシーンの説明等をボイスメ モとしてあらかじめ記録しておき、 その後に対象となるシーンを撮影し、 そのク リップにあらかじめ記録しておいたボイスメモを関連付けることもできる。 また、 本編データの記録中および再生中にボイスメモを記録する場合は、 Re c Co n d i t i o nタグ 994の値を "P LAY" にしておけばよい。 (この 時のボイスメモの再生方法については後述する。 ) この時、 記録するボイスメモ は本編データと必ずしも同期を取る必要はない。 よって、 実施の形態 2で示した ように、 本編データが複数の記録媒体にまたがって記録する、 または記録されて いる場合でも、 ボイスメモは複数の記録媒体にまたぐことなく記録することがで きる。 また、 特に本編データ再生中にボイスメモを記録する場合には、 ボイスメ モ記録中に、 本編データの終端が過ぎてもボイスメモの記録を続けることができ る。
また、 本編データの特殊再生中等 (複数倍サーチ再生、 逆再生等) にボイスメ モを記録する場合は、 Re c Co n d i t i o nタグ 994の値を、 それぞれの 状態を示すような値にしておけばよレ、。
上記のように記録されたボイスメモを再生する時は、 ボイスメモ記録時に付加 しておいた R e cCo n d i t i onタグ 994を参照することにより、 その再 生方法を選択するようにすればよい。
Re cCo n d i t i o nタグ 994の値が "ST I LL" の時、 すなわち、 ボイスメモを記録した時の本編の状態が停止または一時停止だつた時は、 ボイス メモが関連付けられた位置の本編の映像データの静止画を出力し続けながらボイ スメモを再生する。
また、 Re c Co n d i t i o nタグ 994の値が "P L AY" の時、 すなわ ち、 ボイスメモを記録した時の本編の状態が記録中または再生中だった時は、 ボ イスメモが関連付けられた位置の本編の映像データを同時に再生する。 この時、 前述したように、 本編データとボイスメモでは必ずしも同期をとる必要がないた め、 より簡単な制御で再生することができる。 ここで、 長時間にわたるボイスメ モ等で、 早くボイスメモを聞きたい場合は、 本編を等倍再生中に、 ボイスメモの みを 1. 5ないし 2倍速で再生することもできる。 逆に、 ボイスメモで残された 音声メッセージが速すぎて聞き取れない場合等は、 本編を等倍再生中に、 ボイス メモのみを 0. 5倍速で再生してもよい。
また、 R e c C o n d i t i o nタグ 994が、 サーチ再生等を示す値だった 時、 例えばサーチ再生 4倍速を示す値だった時は、 ボイスメモが関連付けられた 位置から本編データを 4倍速でサーチ再生しながらボイスメモを再生することが できる。 また、 Re cCo n d i t i o nタグ 994が逆再生を示すィ直だった時 は、 ボイスメモが関連付けられた位置から本編データを逆再生しながらボイスメ モを再生することもできる。
(XML記述の具体例)
図 17は、 図 15におけるディレクトリ構造の一部に対する XML記述の例を 示した図である。 すなわち、 図 15に示す例には、 クリップ名が "0001 A B" であるクリップファイル # 1 (81 1) と、 クリップ名力 S "0001 CD" であるクリップファイル # 2 (812) とが含まれているが、 図 17は、 そのう ちのクリップファイル # 1 (811) に関する XML記述を示している。 ただし、 図 17はクリップファイル # 1 (81 1) に記述されている内容の一部を示し、 記載されている項目は、 本実施の形態を説明するために必要な項目のみである。 図 17に記述していない項目が存在してもよく、 また、 図 17に示されている項 目のいくつかが存在しなくてもよい。 また、 各項目においてはその属性が存在し てもよい。
図 17の XML記述には以下の内容が定義されている。
クリップファイル # 1 (811) のタリップ名 (ClipNarae) は,, 0001 A B" である。
クリップファイル # 1 (811) の長さ (Duration) は 1000フレームであ る。 本編の映像データおよび本編の音声データのフアイルフォーマット(Video Format, AudioFormat)として MX Fを用い、 ボイスメモのファイルフォーマット
(VoiceForraat)として WAVEを用いている。 また、 本編の音声データのサンプ リングレート (SamplingRate)は 48 k H zとし、 ボイスメモデータのサンプリン グレート(VoiceSamplingRate)は 12 k H zである。 また、 音声データおよびボ イスメモのビッ トレート(BitsPerSample, VoiceBitsPerSample)は共に 16 b p sである。
クリップファイル # 1 (811) は、 映像ファイル # 1 (821) 、 音声ファ ィル # 1 (831) 、 音声ファイル # 2 (832) 、 ボイスメモファイル # 1 (851) 、 および、 ボイスメモファイル # 2 (852) から構成されている。 ボイスメモファイル # 1 (851) は "U s e r Name 1" をユーザ名 (Person)に持つユーザにより作成されている。 そのボイスメモは、 素材の記録一 時停止中、 記録停止中、 再生一時停止中、 再生停止中のいずれかの状態
(RecCondition) で記録され、 このタリップの 0フレーム目(Offset)に関連付け られている。
また、 ボイスメモファイズレ # 2 (852) は " U s e r N ame 2" をユー ザ名(Person)に持つユーザにより作成され、 そのボイスメモは、 素材の記録中ま たは再生中 (RecCondition) に記録され、 このクリップの 100フレーム目 (Offset)に関連付けられている。
各データフアイルは以下のように名付けられる。
クリップファイル # 1 (811) のファイル名は、 クリップ名 " 0001 A
B" に拡張子 ". xm 1" を付カ卩したものであり、 "0001AB. x m 1" と なる。
また、 映像ファイル # 1 (821) のファイル名は、 クリップ名 " 0001 A B" に、 拡張子 ". mx f,, を付カ卩したものであり、 "0001 AB. mx f " となる。
音声ファイル # 1 (831) および音声ファイル # 2 (832) のファイル名 は、 クリップ名 "0001 AB" に 2桁のチャンネル番号 "00" および "0 1" を付カ卩したものに、 さらに拡張子 ". mx f " を付カ卩したものであり、 それ ぞれ "O O O IABOO. mx f " および "O O O IABO I. mx f " となる。 なお、 音声データのチャンネル番号は、 E s s e n c e L i s tタグ 910に登 録されている A u d i oタグ 940の要素のリスト順に 0チャンネル、 1チャン ネル、 2チャンネル、 . ■ 'のように割り当てられる。 音声データのチャンネル 番号は、 図 9で示す A u d i oタグ 940の属性としてチヤンネノレ番号を付カロし、 その値から決定してもよく、 また、 別のタグからチャンネル情報を取得してもよ く、 その手段は問わない。
ボイスメモファイル # 1 (851) およびボイスメモファイル # 2 (852) のフアイノレ名は、 クリップ名 "0001 AB" にそれぞれの Memo I D 985 の 2桁の値 "00" および "01" を付加したものに、 さらに拡張子 ". wa V" を付加したものであり、 それぞれ、 "O O O IABO O. wa v" および "O O O IAB O I. wa v" となる。
上述した各ファイルを図 16のようなディレクトリ構成に基づいて格納してお く。 この構成により、 クリップファイル # 1 (811) を参照するだけで、 クリ ップを構成する素材データやボイスメモデータ等の関連情報を知ることができる。 なお、 各ファイルのファイル名の決定方法は、 上記の例以外の方法でもよい。 本実施の形態では、 クリップと映像、 音声データおよびボイスメモデータを関 連付けする方法やその効果を説明するために必要な項目についてのみ述べたが、 各素材データの詳細情報、 クリップの代表画像であるサムネイルファイルに関す る情報、 撮影した場所の情報、 撮影者のユーザ情報、 撮影機器の情報等、 様々な 情報をクリップファイルに記述しておいてもよい。 そうすることにより、 クリツ プファイルを参照するだけでクリップのあらゆる情報を知ることができる。
本実施の形態では、 クリップファイルの記述言語として XMLを用いた。 XM Lは W 3 C (World Wide Web Consortium) により規格ィヒ (勧告) されている言語 であるので、 例えば、 XM Lを扱うことのできる変換ソフト等を用いれば管理情 報を他のデータベースに移行する、 等の操作も可能となり、 より汎用性が増すと 考えられる。 また、 新規のタグを定義することにより管理情報も容易に追加する こともできるため、 拡張性が高いと考えられる。 また、 XM Lはテキストフアイ ルであるため、 汎用の情報機器を用いてユーザはクリップファイルを直接かつ容 易に参照でき、 クリップ情報をおおよそ把握することができる。 また、 ユーザは 汎用の情報機器を用いて、 直接クリップファイルを編集でき、 簡易編集も可能と なる。 産業上の利用可能性
本発明は、 メモリ記録カメラレコーダ等で撮影録画した取材済みメディァを元 にノンリニア編集等の編集作業を効率的に行うための映像音声記録再生装置に有 用である。 本発明は、 特定の実施形態について説明されてきたが、 当業者にとっては他の 多くの変形例、 修正、 他の利用が明らかである。 それゆえ、 本発明は、 ここでの 特定の開示に限定されず、 添付の請求の範囲によってのみ限定され得る。 なお、 本出願は日本国特許出願、 特願 2 0 0 3— 3 5 6 0 7 9号 (2 0 0 3年 1 0月 1 6日提出に関連し、 それらの内容は参照することにより本文中に組み入れられる。

Claims

請 求 の 範 囲
1 . 映像及び音声の主情報を入力する映像音声入力部と、
前記主情報に付加される音声付加情報を入力する音声付加情報入力部と、 前記主情報および前記音声付加情報を出力する映像音声出力部と、
前記主情報および前記音声付加情報を記録する記録媒体と、
前記主情報および前記音声付加情報を、 前記記録媒体へ記録または記録媒体か ら再生する記録再生部と、
前記映像音声入力部、 前記音声付加情報入力部、 前記映像音声出力部、 前記記 録再生部の動作を制御する制御部とを有し、
前記制御部は、 前記音声付加情報を前記主情報における特定のフレーム位置に 関連付けして前記記録媒体に記録するように制御する、 映像音声記録再生装置。
2. 前記主情報における特定のフレーム位置を前記主情報のタイムコードで指 定し、 前記音声付加情報を前記主情報のタイムコードと関連付けして前記記録媒 体に記録する、 請求項 1記載の映像音声記録再生装置。
3 . 前記主情報における特定のフレーム位置を前記主情報の先頭からのフレー ム数で指定し、 前記音声付加情報を前記主情報の先頭からのフレーム数と関連付 けして前記記録媒体に記録する、 請求項 1記載の映像音声記録再生装置。
4 . 前記記録媒体が単一の媒体で構成される場合に、 該単一の記録媒体に連続 に記録された主情報であるクリップ内の特定のフレーム位置に関連付けされた前 記音声付加情報は前記クリップ全体に関する情報を含む、 請求項 1記載の映像音 声記録再生装置。
5 . 前記特定のフレームはクリップ内の先頭フレームである、 請求項 4記載の 映像音声記録再生装置。
6 . 前記記録媒体全体に対して音声付加情報を付加するために、 ダミーの主情 報を作成し、 該作成したダミーの主情報に前記音声付加情報を関連付け、 前記ダ ミ一の主情報と前記音声付加情報を前記記録媒体に記録する、 請求項 1記載の映 像音声記録再生装置。
7 · 前記記録媒体が複数の媒体で構成され、 一連の動作で撮影された前記主情 報が複数媒体に亘つて分割されて記録されている場合、 分割された前記主情報毎 に前記音声付加情報を関連付けし、 前記主情報と、 前記主情報と関連付けられた 前記音声付加情報とを同一の媒体に記録する、 請求項 1記載の映像音声記録再生 装置。
8 . 前記主情報および前記音声付加情報の記録動作において、 前記主情報の記 録を終了したときに前記音声付加情報の記録を終了する、 請求項 1記載の映像音 声記録再生装置。
• 9 . 前記音声付加情報を、 前記主情報の音声データとは異なるサンプリングレ ートまたはビットレートで記録する、 請求項 1記載の映像音声記録再生装置。
1 0 . 前記音声付加情報を、 前記主情報の音声データとは異なるファイルフォ 一マットで記録する請求項 1記載の映像音声記録再生装置。
1 1 . 前記記録媒体には、 前記音声付加情報を記録するための領域を予め確保 しておく請求項 1記載の映像音声記録再生装置。
1 2 . 前記主情報の記録中、 記録一時停止中、 記録停止中、 再生中、 再生一時 停止中、 再生停止中のいずれの状態からでも前記音声付加情報を記録することが 可能な請求項 1記載の映像音声記録再生装置。
1 3 . 前記主情報の記録中に前記音声付加情報の記録を開始する場合、 前記音 声付加情報の記録開始時点で記録中の主情報のフレーム位置に前記音声付加情報 を関連付けて記録する、 請求項 1 2記載の映像音声記録再生装置。
1 4 . 前記主情報の記録一時停止中に前記音声付加情報の記録を開始する場合、 記録一時停止中の前記主情報のフレーム位置に前記音声付加情報を関連付けて記 録する、 請求項 1 2記載の映像音声記録再生装置。
1 5 . 前記主情報の記録停止中に前記音声付加情報の記録を開始する場合、 最 後に記録した主情報に前記音声付加情報を関連付けて記録する、 請求項 1 2記載 の映像音声記録再生装置。
1 6 . 前記主情報の記録停止中に前記音声付加情報の記録を開始する場合、 次 に記録する前記主情報に前記音声付加情報を関連付けて記録する請求項 1 2記載 の映像音声記録再生装置。
1 7 . 前記主情報の再生中に前記音声付加情報の記録を開始する場合、 前記音 声付加情報の記録開始時点で再生中の前記主情報のフレーム位置に前記音声付加 情報を関連付けて記録する、 請求項 1 2記載の映像音声記録再生装置。
1 8 . 前記主情報の再生一時停止中に前記音声付加情報の記録を開始する場合、 再生一時停止中の前記主情報のフレーム位置に前記音声付加情報を関連付けて記 録する、 請求項 1 2記載の映像音声記録再生装置。
1 9 . 前記主情報の再生停止中に前記音声付加情報の記録を開始する場合、 停 止中の前記主情報に関連付けして記録する、 請求項 1 2記載の映像音声記録再生 装置。
2 0 . 前記音声付加情報が関連付けされている前記主情報を削除した場合、 削 除された主情報に関連する音声付加情報も同時に削除する、 請求項 1記載の映像 音声記録再生装置。
2 1 . 前記主情報のサムネイル画像を表示する表示部をさらに有し、
同一の主情報に一つ以上の音声付加情報が関連付けされている場合、 一つ以上 の音声付加情報のうちのいずれか一つが選択されると、 前記表示部は、 該選択さ れた音声付加情報が関連付けられたフレーム位置にある主情報のサムネイル画像 を表示する、 請求項 1記載の映像音声記録再生装置。
2 2 . 前記音声付加情報を再生する時、 該音声付加情報に関連付けされた主情 報の静止画を表示し続ける、 請求項 2 1記載の映像音声記録再生装置。
2 3 . 前記音声付加情報を再生する時、 該音声付加情報に関連付けされた前記 主情報中の映像情報を同時に再生する請求項 2 1記載の映像音声記録再生装置。 2 4. 前記一つの音声付加情報が選択されたときに、 該選択された音声付加情 報と関連付けされて 、る前記主情報のフレーム位置から前記主情報を再生可能と する、 請求項 2 1記載の映像音声記録再生装置。
2 5 . 前記音声付加情報を再生中に、 再生中の音声付加情報と関連付けられて いる前記主情報の特定のフレーム位置から前記主情報を再生可能とする、 請求項 2 1記載の映像音声記録再生装置。
2 6 . 前記音声付加情報に関する管理情報を有し、 該管理情報は前記音声付加 情報の記録開始時の、 前記主情報の状態を示す情報を含む、 請求項 1記載の映像 音声記録再生装置。
2 7 . 前記音声付加情報を前記主情報の時間軸と非同期に前記主情報と関連付 けて記録する請求項 1記載の映像音声記録再生装置。
2 8 . 前記音声付加情報を前記主情報の時間軸と同期を取らずに再生する、 請 求項 1記載の映像音声記録再生装置。
2 9 . 前記音声情報を付カ卩した使用者を特定する情報を管理ファイル内に記録 する、 請求項 1記載の映像音声記録再生装置。
3 0 . 前記音声付加情報の管理情報を XM Lファイルで記録する、 請求項 1記 載の映像音声記録再生装置。
3 1 . 映像及び音声の主情報を入力し、
前記主情報に付加される音声付加情報を入力し、
前記音声付加情報を前記主情報における特定のフレーム位置に関連付けして記 録媒体に記録する、 映像音声記録方法。
3 2 . 前記主情報における特定のフレーム位置を前記主情報のタイムコードで 指定し、 前記音声付加情報を前記主情報のタイムコードと関連付けして前記記録 媒体に記録する、 請求項 3 1記載の映像音声記録方法。
3 3 . 前記主情報における特定のフレーム位置を前記主情報の先頭からのフレ ーム数で指定し、 前記音声付加情報を前記主情報の先頭からのフレーム数と関連 付けして前記記録媒体に記録する、 請求項 3 1記載の映像音声記録方法。
3 4. 前記記録媒体が単一の媒体で構成される場合に、 該単一の記録媒体に連 続に記録された主情報であるクリップ内の特定のフレーム位置に関連付けされた 前記音声付加情報は前記クリップ全体に関する情報を含む、 請求項 3 1記載の映 像音声記録方法。
3 5 . 前記特定のフレームはクリップ内の先頭フレームである、 請求項 3 4記 載の映像音声記録方法。
3 6 . 前記記録媒体全体に対して音声付加情報を付加するために、 ダミーの主 情報を作成し、 該作成したダミーの主情報に前記音声付加情報を関連付け、 前記 ダミーの主情報と前記音声付加情報を前記記録媒体に記録する、 請求項 3 1記載 の映像音声記録方法。
3 7 . 前記記録媒体が複数の媒体で構成され、 一連の動作で撮影された前記主 情報が複数媒体に亘つて分割されて記録されている場合、 分割された前記主情報 毎に前記音声付加情報を関連付けし、 前記主情報と、 前記主情報と関連付けられ た前記音声付加情報とを同一の媒体に記録する、 請求項 3 1記載の映像音声記録 方法。
3 8 . 前記主情報および前記音声付加情報の記録動作において、 前記主情報の 記録を終了したときに前記音声付加情報の記録を終了する、 請求項 3 1記載の映 像音声記録方法。
3 9 . 前記音声付加情報を、 前記主情報の音声データとは異なるサンプリング レートまたはビットレートで記録する、 請求項 3 1記載の映像音声記録方法。 4 0 . 前記音声付加情報を、 前記主情報の音声データとは異なるファイルフォ 一マツトで記録する請求項 3 1記載の映像音声記録方法。
4 1 . 前記記録媒体には、 前記音声付加情報を記録するための領域を予め確保 しておく請求項 3 1記載の映像音声記録方法。
4 2 . 前記主情報の記録中、 記録一 B寺停止中、 記録停止中、 再生中、 再生一時 停止中、 再生停止中のいずれの状態からでも前記音声付加情報を記録することが 可能な請求項 3 1記載の映像音声記録方法。
4 3 . 前記主情報の記録中に前記音声付加情報の記録を開始する場合、 前記音 声付加情報の記録開始時点で記録中の主情報のフレーム位置に前記音声付加情報 を関連付けて記録する、 請求項 4 2記載の映像音声記録方法。
4 4 . 前記主情報の記録一時停止中に前記音声付加情報の記録を開始する場合、 記録一時停止中の前記主情報のフレーム位置に前記音声付加情報を関連付けて記 録する、 請求項 4 2記載の映像音声記録方法。
4 5 . 前記主情報の記録停止中に前記音声付加情報の記録を開始する場合、 最 後に記録した主情報に前記音声付加情報を関連付けて記録する、 請求項 4 2記載 の映像音声記録方法。
4 6 . 前記主情報の記録停止中に前記音声付加情報の記録を開始する場合、 次 に記録する前記主情報に前記音声付加情報を関連付けて記録する請求項 4 2記載 の映像音声記録方法。
4 7 . 前記主情報の再生中に前記音声付加情報の記録を開始する場合、 前記音 声付加情報の記録開始時点で再生中の前記主情報のフレーム位置に前記音声付加 情報を関連付けて記録する、 請求項 4 2記載の映像音声記録方法。
4 8 . 前記主情報の再生一時停止中に前記音声付加情報の記録を開始する場合、 再生一時停止中の前記主情報のフレーム位置に前記音声付加情報を関連付けて記 録する、 請求項 4 2記載の映像音声記録方法。
4 9 . 前記主情報の再生停止中に前記音声付加情報の記録を開始する場合、 停 止中の前記主情報に関連付けして記録する、 請求項 4 2記載の映像音声記録方法。
5 0 . 前記音声付加情報が関連付けされている前記主情報を削除した場合、 削 除された主情報に関連する音声付加情報も同時に削除する、 請求項 3 1記載の映 像音声記録方法。
5 1 . 前記音声付加情報の記録開始時の、 前記主情報の状態を示す情報を記録 する、 請求項 3 1記載の映像音声記録方法。
5 2 . 前記音声付加情報を前記主情報の時間軸と非同期に前記主情報と関連付 けて記録する、 請求項 3 1記載の映像音声記録方法。
5 3 . 前記音声情報を付加した使用者を特定する情報を管理ファイル内に記録 する、 請求項 3 1記載の映像音声記録方法。
5 4 . 前記音声付加情報の管理情報を XM Lフアイルで記録する、 請求項 3 1 記載の映像音声記録方法。
5 5 . 請求項 3 1記載の映像音声記録方法により主情報と音声付加情報とが記 録された記録媒体の再生方法であって、
前記主情報のサムネイル画像を表示し、
同一の主情報に一つ以上の音声付加情報が関連付けされており、 一つ以上の音 声付加情報のうちのいずれか一つが選択されたときに、 該選択された音声付加情 報が関連付けられたフレーム位置にある主情報のサムネイル画像を表示する、 映 像音声再生方法。
5 6 . 前記音声付加情報を再生する時、 該音声付加情報に関連付けされた主情 報の静止画を表示し続ける、 請求項 5 5記載の映像音声再生方法。
5 7 . 前記音声付加情報を再生する時、 該音声付加情報に関連付けされた前記 主情報中の映像情報を同時に再生する請求項 5 5記載の映像音声再生方法。
5 8 . 前記一つの音声付加情報が選択されたときに、 該選択された音声付加情 報と関連付けされている前記主情報のフレーム位置から前記主情報を再生可能と する、 請求項 5 5記載の映像音声再生方法。
5 9 . 前記音声付加情報を再生中に、 再生中の音声付加情報と関連付けられて いる前記主情報の特定のフレーム位置から前記主情報を再生可能とする、 請求項 5 5記載の映像音声再生方法。
6 0 . 請求項 3 1記載の映像音声記録方法により主情報と音声付加情報とが記 録された記録媒体の再生方法であって、
前記音声付加情報を前記主情報の時間軸と同期を取らずに再生する、 映像音声 再生方法。
PCT/JP2004/009489 2003-10-16 2004-06-29 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法 WO2005039175A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/575,715 US20070127888A1 (en) 2003-10-16 2004-06-29 Audio and video recording and reproducing apparatus, audio and video recording method, and audio and video reproducing method
CA002542390A CA2542390A1 (en) 2003-10-16 2004-06-29 Audio and video recording and reproducing apparatus, audio and video recording method, and audio and video reproducing method
JP2005514705A JP4271195B2 (ja) 2003-10-16 2004-06-29 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法
EP04746958A EP1677531A4 (en) 2003-10-16 2004-06-29 VIDEO / AUDIO RECORDING / PLAYBACK, VIDEO / AUDIO RECORDING AND PLAYBACK METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-356079 2003-10-16
JP2003356079 2003-10-16

Publications (1)

Publication Number Publication Date
WO2005039175A1 true WO2005039175A1 (ja) 2005-04-28

Family

ID=34463188

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/009489 WO2005039175A1 (ja) 2003-10-16 2004-06-29 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法

Country Status (7)

Country Link
US (1) US20070127888A1 (ja)
EP (1) EP1677531A4 (ja)
JP (1) JP4271195B2 (ja)
KR (1) KR100801396B1 (ja)
CN (1) CN100484222C (ja)
CA (1) CA2542390A1 (ja)
WO (1) WO2005039175A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100409681C (zh) * 2005-08-19 2008-08-06 上海晨兴电子科技有限公司 影音同步录制及播放方法
JP2008219345A (ja) * 2007-03-02 2008-09-18 Xing Inc 合成装置、合成システム、合成方法及びプログラム
JP2011090751A (ja) * 2009-10-24 2011-05-06 Korg Inc 多重録音装置
WO2016151994A1 (ja) * 2015-03-23 2016-09-29 パナソニックIpマネジメント株式会社 ウェアラブルカメラ及びウェアラブルカメラシステム

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8301995B2 (en) * 2006-06-22 2012-10-30 Csr Technology Inc. Labeling and sorting items of digital data by use of attached annotations
KR100856407B1 (ko) 2006-07-06 2008-09-04 삼성전자주식회사 메타 데이터를 생성하는 데이터 기록 및 재생 장치 및 방법
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
KR101309284B1 (ko) 2006-12-05 2013-09-16 삼성전자주식회사 오디오 사용자 인터페이스 처리 방법 및 장치 및 그를적용한 오디오 기기
CN101202873B (zh) * 2006-12-13 2012-07-25 株式会社日立制作所 信息记录再现装置和信息记录再现方法
US8553856B2 (en) * 2007-01-07 2013-10-08 Apple Inc. Voicemail systems and methods
US20080167009A1 (en) * 2007-01-07 2008-07-10 Gregory Novick Voicemail Systems and Methods
KR101125286B1 (ko) 2007-03-27 2012-03-21 삼성전자주식회사 부가 데이터 업데이트 방법 및 재생 장치
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US20090062944A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Modifying media files
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8682848B2 (en) * 2008-07-08 2014-03-25 Broadcom Corporation Method and system for automatic detection of multimedia settings
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
KR101641240B1 (ko) * 2009-12-17 2016-07-21 엘지전자 주식회사 영상 표시 방법 및 그 장치
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
CN102013179A (zh) * 2010-12-02 2011-04-13 无敌科技(西安)有限公司 同时同步录播方式的电子学习系统及方法
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
JP2013055569A (ja) * 2011-09-06 2013-03-21 Sony Corp 撮像装置、情報処理装置、それらの制御方法、および、プログラム
KR101356006B1 (ko) * 2012-02-06 2014-02-12 한국과학기술원 구간설정이 가능한 음성기반 멀티미디어 컨텐츠 태깅 방법 및 장치
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
KR102042265B1 (ko) * 2012-03-30 2019-11-08 엘지전자 주식회사 이동 단말기
CN102682820B (zh) * 2012-05-03 2015-01-28 福建星网视易信息系统有限公司 嵌入式linux平台媒体播放方法和系统
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR101943320B1 (ko) * 2012-09-21 2019-04-17 엘지전자 주식회사 이동단말기 및 그 제어방법
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN110740275B (zh) * 2019-10-30 2022-07-19 中央电视台 一种非线性编辑系统
AU2021303296A1 (en) * 2020-06-30 2023-02-02 Seff Technology Corporation System and method for digital information management

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136482A (ja) * 1999-11-09 2001-05-18 Matsushita Electric Ind Co Ltd 映像音声記録再生装置
JP2001285780A (ja) * 2000-03-28 2001-10-12 Pioneer Electronic Corp 映像編集方法及び装置、並びにそのための記憶媒体
JP2003158697A (ja) * 2001-11-21 2003-05-30 Fuji Photo Film Co Ltd 撮像装置及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3528214B2 (ja) * 1993-10-21 2004-05-17 株式会社日立製作所 画像表示方法及び装置
US5600775A (en) * 1994-08-26 1997-02-04 Emotion, Inc. Method and apparatus for annotating full motion video and other indexed data structures
US6006241A (en) * 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
US6529920B1 (en) * 1999-03-05 2003-03-04 Audiovelocity, Inc. Multimedia linking device and method
US6378132B1 (en) * 1999-05-20 2002-04-23 Avid Sports, Llc Signal capture and distribution system
GB2366926A (en) * 2000-09-06 2002-03-20 Sony Uk Ltd Combining material and data
US20020089519A1 (en) * 2001-01-05 2002-07-11 Vm Labs, Inc. Systems and methods for creating an annotated media presentation
US20040216173A1 (en) * 2003-04-11 2004-10-28 Peter Horoszowski Video archiving and processing method and apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136482A (ja) * 1999-11-09 2001-05-18 Matsushita Electric Ind Co Ltd 映像音声記録再生装置
JP2001285780A (ja) * 2000-03-28 2001-10-12 Pioneer Electronic Corp 映像編集方法及び装置、並びにそのための記憶媒体
JP2003158697A (ja) * 2001-11-21 2003-05-30 Fuji Photo Film Co Ltd 撮像装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1677531A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100409681C (zh) * 2005-08-19 2008-08-06 上海晨兴电子科技有限公司 影音同步录制及播放方法
JP2008219345A (ja) * 2007-03-02 2008-09-18 Xing Inc 合成装置、合成システム、合成方法及びプログラム
JP2011090751A (ja) * 2009-10-24 2011-05-06 Korg Inc 多重録音装置
WO2016151994A1 (ja) * 2015-03-23 2016-09-29 パナソニックIpマネジメント株式会社 ウェアラブルカメラ及びウェアラブルカメラシステム

Also Published As

Publication number Publication date
KR20060096026A (ko) 2006-09-05
CN100484222C (zh) 2009-04-29
US20070127888A1 (en) 2007-06-07
EP1677531A4 (en) 2009-03-04
CN1868209A (zh) 2006-11-22
CA2542390A1 (en) 2005-04-28
JPWO2005039175A1 (ja) 2007-02-08
KR100801396B1 (ko) 2008-02-05
EP1677531A1 (en) 2006-07-05
JP4271195B2 (ja) 2009-06-03

Similar Documents

Publication Publication Date Title
WO2005039175A1 (ja) 映像音声記録再生装置、映像音声記録方法及び映像音声再生方法
KR100387387B1 (ko) 콘텐츠를 액세싱하기 위한 방법 및 장치
JPH0944394A (ja) マルチメディアデータファイリングシステム
WO2004021701A1 (ja) データ処理装置および方法、並びにプログラム
WO2004051999A1 (ja) ビデオ信号処理装置、ビデオ信号記録装置、ビデオ信号再生装置、ビデオ信号処理装置の処理方法、ビデオ信号記録装置の処理方法、ビデオ信号再生装置の処理方法、記録媒体
JPH11205718A (ja) 情報再生装置及び情報記録再生装置
US8995003B2 (en) Method and system for displaying a menu which has an icon and additional information corresponding to stored video data, wherein the icon can selectively display a still image and a video image of the video data with the additional information
EP1059640A2 (en) Information editing apparatus and information reproducing apparatus
JP4218029B2 (ja) 映像記録装置
WO2004095451A1 (ja) 入力データ記録装置及び入力データ記録方法
JP4807250B2 (ja) 記録方法
JP2003244637A (ja) 再記録可能記録媒体への静止画像記録方法
CN100562938C (zh) 信息处理设备和方法
JPH0965271A (ja) 映像信号記録装置、編集方法及びそのシステム
JPWO2005081522A1 (ja) データ処理装置およびデータ処理方法
JP4375052B2 (ja) 映像編集支援方法
JPH11273227A (ja) 続き再生時のダイジェスト再生機能付きdvdビデオ再生システム
JP4118073B2 (ja) 画像記録装置
JP2008147727A (ja) 記録方法
JP3815398B2 (ja) 編集方法及び編集装置
JP4434633B2 (ja) 情報処理装置および方法、プログラム記録媒体、並びにプログラム
JP2002008353A (ja) 再生装置、記録再生装置及び記録装置
KR20010038639A (ko) 개인의 동영상 제작 및 운용시스템
JP2000217055A (ja) 画像処理装置
JP4784548B2 (ja) 記録方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480030418.1

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005514705

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2542390

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2007127888

Country of ref document: US

Ref document number: 10575715

Country of ref document: US

Ref document number: 1020067007101

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004746958

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004746958

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10575715

Country of ref document: US