WO1998046019A1 - Processeur de signaux video - Google Patents

Processeur de signaux video Download PDF

Info

Publication number
WO1998046019A1
WO1998046019A1 PCT/JP1998/001561 JP9801561W WO9846019A1 WO 1998046019 A1 WO1998046019 A1 WO 1998046019A1 JP 9801561 W JP9801561 W JP 9801561W WO 9846019 A1 WO9846019 A1 WO 9846019A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
time code
video signal
recording
audio data
Prior art date
Application number
PCT/JP1998/001561
Other languages
English (en)
French (fr)
Inventor
Keiko Abe
Koji Yanase
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to GB9824044A priority Critical patent/GB2328552B/en
Publication of WO1998046019A1 publication Critical patent/WO1998046019A1/ja
Priority to US09/204,462 priority patent/US6134378A/en

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
    • G11B2220/415Redundant array of inexpensive disks [RAID] systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Definitions

  • the present invention relates to a video signal processing device, for example, a video / audio signal recorded at a news gathering site is downloaded to a server device of a broadcasting station, and various video and audio materials recorded on the server device are edited.
  • the present invention is suitable for use in a news program production and broadcast system for generating a video and audio signal for broadcasting (hereinafter, this video and audio signal for broadcasting is referred to as a program).
  • a camera-integrated video tape recorder (hereinafter referred to as a camcorder) is used to shoot the scene of an incident and the like.
  • the obtained video / audio signal is transmitted to a broadcasting station via a predetermined communication line, so that the video / audio signal is recorded in a server device as a recording / reproducing means installed in the broadcasting station (or The video and audio signals recorded by returning the videotape to the broadcasting station are recorded on the server device.)
  • the desired materials are read out from various video and audio materials stored in the server device, and are combined.
  • a program is generated by performing editing processing such as adding narration or narration.
  • a server device using a non-linear recording medium such as a hard disk, that can be accessed randomly, instead of a reusable recording medium such as a video tape, is used. It has been widely used in recent years.
  • this type of server unit When recording the transmitted video and audio signals and the video and audio signals recorded on the videotape on the internal recording medium, this type of server unit combines the relevant video and audio signals into one file. To be recorded.
  • the server device 'Rather than recording using the timecode added by the mcoder as it is, by assigning a new timecode to each video / audio signal, video that fits in one file It is recorded so that the time code of the audio signal is continuous.
  • the time code is prevented from being duplicated in the file.
  • video and audio signals can be managed using time codes.
  • the time code newly assigned by the server device starts at the beginning of a file called a start time code (hereinafter simply referred to as STC (Start Time Code)). And a time code indicating a relative position from the beginning of the file, which is called a file time code (hereinafter simply referred to as FTC (File Time Code)).
  • STC Start Time Code
  • FTC File Time Code
  • an arbitrary value can be set as the STC by a user setting, but a time code value that generally indicates the recording start time to the server device is used.
  • the FTC the value of the time code that is reset to zero at the recording start time and counted up sequentially every time the frame of the video / audio signal to be recorded changes is used.
  • the STC and FTC are based on the STC and FTC.
  • the video and audio signals of the specified frame can be read.
  • the present invention has been made in view of the above points, and it is an object of the present invention to propose a video signal processing device with further improved usability.
  • a video signal as a material is recorded by a predetermined recording / reproducing unit, and the video signal recorded on the recording / reproducing unit is read and subjected to a desired editing process.
  • detecting means detects material information added to the video signal and generates predetermined control information based on the material information;
  • Storage means for storing the control information generated by the control unit.
  • the video signal when a video signal is recorded by the recording / reproducing means, the video signal By detecting the material information added to the control information and generating the predetermined control information and storing the control information, the control information can be easily set without the operator inputting the control information. Thus, it is possible to execute an editing process based on the control information, and thus to realize a video signal processing device with improved usability.
  • FIG. 1 is a block diagram showing a configuration of a news program production and broadcast system according to an embodiment of the present invention.
  • Fig. 2 is a block diagram for explaining the flow until the video and audio data reaches the broadcasting station.
  • FIG. 3 is a block diagram showing the configuration of the daily server.
  • FIG. 4 is a schematic diagram used to specifically explain the structure of video and audio data and the correspondence between time codes.
  • FIGS. 5A and 5B are tables showing tables of image index information.
  • FIG. 6 is a chart showing a time code management table.
  • FIG. 7 is a flowchart showing a process of creating a time code management table and a process of detecting image index information.
  • FIG. 8 is a flowchart showing a process of creating a time code management table and a process of detecting image index information in combination with FIG.
  • FIG. 9 is a schematic diagram illustrating a display screen of the editing device.
  • FIG. 10 is a flowchart showing a processing procedure when the same real-time code exists in the same file.
  • FIG. 11 is a block diagram showing another configuration of the daily server. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 20 denotes a news program production / broadcasting system to which the present invention is applied as a whole, and specifies how to edit video and audio data obtained by interviewing and when to edit.
  • An offline EDL creation system 22 for the operator to create a list (hereinafter referred to as EDL (Edit Decision List)) and a list defining the broadcast time of each edited video and audio data
  • EDL Edit Decision List
  • An online list creation system for the operator to create a list (hereinafter referred to as an online list), news manuscripts, and the order of use of the news manuscripts, and an offline EDL creation system 22
  • An online editing and sending system 24 that executes the editing process based on the EDL created in 2; a key live 25 for storing the necessary video and audio data; Broadcasting system 2
  • the system is composed of a system control section 26 that controls the entire system. These sections include an offline EDL creation system 22, an online list creation system 23, an online editing and sending system 24, and an archive 25.
  • the system controller 26 is connected via a LAN (Local Area Network) 27.
  • the news program production / broadcasting system 20 transmits video / audio data D 10 that is transferred from a news gathering site via a telephone line or a satellite communication line or the like, or reproduced from a news gathering tape by a video-telecoder.
  • video / audio data D 10 that is transferred from a news gathering site via a telephone line or a satellite communication line or the like, or reproduced from a news gathering tape by a video-telecoder.
  • each video and audio data D 10 is uncompressed or low-compressed (for example, MPEG (Moving Picture Eperts Group)), which is compressed according to the 24 022 professional fine tone main level standard. Shall be supplied.
  • the directory server 30 is an AV server having a recording / reproducing unit having a disk array configuration and a dedicated data compression / decompression unit represented by, for example, MPEG2, and under the control of the system control unit 26, A plurality of specified systems of video / audio data D 10 are simultaneously taken from the supplied video / audio data D 10, each of which is filed, and the specified address in the recording / reproducing unit is designated. Store in position.
  • the input buffer device 31 is supplied under the control of the system controller 26.
  • the video and audio data D 10 of the same system as that of the delivery server 30 is sequentially fetched from each of the video and audio data D 10.
  • the input buffer device 31 outputs the video / audio data.
  • the data D10 is sent to the encoder unit 32 as it is.
  • the input buffer device 31 operates in a case where the acquired video / audio data D 10 is a second data rate whose compression rate is lower than that of the first data rate and whose transfer rate is lower than the first data rate
  • the video / audio data D 10 is time-divided into a plurality of channels, and the video / audio data D 10 of each channel is decompressed in real time (first data rate).
  • the video and audio data D11A to D11N of each channel obtained as described above are transmitted to the encoder unit 32, respectively.
  • the encoder section 32 sequentially takes in the supplied video / audio data D 10 or each video / audio data D 11, and fetches the data in accordance with J PEG (JointPphotograph—).
  • High efficiency compression encoding is performed to about 2 [Mbps] by a predetermined compression method such as the 1cExpertsGrouup) method, and the obtained high compression encoded data D12 is transmitted to the clip server 33.
  • the clip server 33 is an AV server having a recording / reproducing unit in a disk array configuration and no data compression / decompression unit, and controls the input high-compression encoded data D 12 by the system control unit 26.
  • the file is sequentially captured under the following conditions, converted to a file, and stored in the designated address position in the recording / reproducing section.
  • the data of each file (highly-compressed encoded data D 12) recorded in the clip server 33 is transferred to a plurality of EDL creating devices 34 connected to the clip server 33. Reading can be performed using A to 34 N, respectively.
  • each EDL creation device 34A to 34N sequentially goes through the clip server 33 and the LAN 27 when the operator inputs a desired file read command in the EDL creation mode. To access the system control unit 26
  • the relevant clip server 3 By controlling the clip server 3 3 via 26, the relevant clip server 3 The high-compression encoded data D 12 of the file corresponding to 3 is sequentially read.
  • the EDL creation devices 34A to 34N decode the high-compression encoded data D20 read from the clip server 33, and display a video based on the obtained video / audio data on a monitor.
  • the operator controls the clip server 33 via the EDL creating devices 34A to 34N, and operates the clip server 33 as desired (playback, rewind, fast forward, etc.).
  • various kinds of information necessary for editing the in-points, the in-points, etc. can be obtained while visually confirming the images displayed on the monitors of the EDL creating devices 34A to 34N.
  • EDLs can be created by inputting them to the EDL creation devices 34A to 34N.
  • the EDL creation devices 34A to 34N read the corresponding high-compression encoded data D20 from the clip server 33 based on the created EDL, decode the data, and obtain the data.
  • the video and audio data can be edited and processed based on the EDL, and the edited results can be displayed on a monitor, so that the edited results based on the created EDL can be checked by operators and directors. It has been done.
  • EDL data created using the EDL creation devices 34 A to 34 N (hereinafter referred to as EDL data) is sent from the EDL creation devices 34 A to 34 N to the clip server 3.
  • the data is sequentially transferred to the system controller 26 via the LAN 3 and the LAN 27 and registered as a database in the external storage device 35 under the control of the system controller 26.
  • a database management device 36 of a personal computer configuration an external storage device 37, a database management device 36, and a network 38 are connected.
  • Personal computers 39 A to 39 N which are connected to each other.On-air lists using these personal computers 39 A to 39 N, and each news item in each news program It is designed so that an analyst can create a manuscript to be read.
  • the created tone list and manuscript data are stored in the database management unit.
  • the data Under the control of the computer, the data is registered as a database in the external storage device 37, and the air list data (hereinafter referred to as on air list data) is transmitted to the system control via the LAN 27. This is given to the unit 26, which is registered as a database in the external storage device 35.
  • the system control unit 26 controls the online editing / transmission system 24 based on the EDL data and the online list data registered in the external storage device 35.
  • the system control unit 26 operates the EDL execution devices 40 A to 40 C, which are a plurality of automatic editing execution devices connected to the online editing and sending system 24 directory server 30. The status is constantly monitored, and when any of the EDL execution devices 40A to 40C completes the preceding editing processing described later, the EDL data stored in the external storage device 35 is released on-air. The on-air data is read out preferentially based on the data, and is sent to the EDL execution devices 40A to 40C via the LAN 27.
  • the EDL execution devices 40A to 40C control the releaser server 30 based on the EDL data supplied from the system control unit 26, and the uncompressed data stored in the corresponding release server 30 Alternatively, the necessary video / audio data D 10 is sequentially read from the low-compression video / audio data D 10. If the video / audio data D10 is low-compressed, the EDL execution device 40A to 40C decodes the video / audio data D10 based on the given EDL data. The video and audio data D13A to D13C are sent to the on-air server 41, respectively.
  • An editing device 42 for manual operation is also connected to the directory server 30, and the operator reads out the video and audio data D10 stored in the directory server 30 using the editing device 42. It can be edited and processed. Then, the edited video and audio data D13D obtained as a result is sent to the on-air server 41.
  • the on-air server 41 is an AV server having a recording / reproducing unit in a disk array configuration, and sequentially takes in the input video / audio data D 13 A to D 13 D under the control of the system control unit 26. This is filed and specified in the recording / playback unit. 'Store in position.
  • Each file data (edited audio / video data D13A to D13D) recorded in the on-line server 41 is thereafter based on the area list data stored in the external storage device 35.
  • the broadcast time is managed by an on-board personal computer 49 connected to the LAN 27 and the broadcast time is managed by the on-air server 41 under the control of the system control section 26 at the designated time.
  • the data is read out and sent to a downstream air device (not shown).
  • the editing process is executed using D10, and the obtained video / audio data D13A to D13D can be transmitted to the on-air device based on the on-air list data.
  • the edited news video and audio can be broadcast in the specified state.
  • an inexpensive and large-capacity recording / reproducing unit such as an M 0 (Magneto Optical) changer is used in the online editing / transmission system 24.
  • a near-line server 43 which is an AV server, is provided, and under the control of the system control unit 26, the video and audio data D 10 stored in the directory server 30 and the on-air server 41 are stored.
  • D 13 A to D 13 D are transferred to the user server 43, and can be stored in the user server 43.
  • the video and audio data D 10 and D 13 A to D 13 D stored in the user server 43 are transferred to the directory server 30 under the control of the system control unit 26 and
  • the online editing and sending system 2 can be stored in the directory server 30 without increasing the storage capacity of the recording / reproducing unit of the directory server 30 having an expensive disk array configuration.
  • the storage capacity of the input stage 4 can be increased.
  • the user server 43 is connected to the cart machine 4 in the key drive 25 via a predetermined interface such as SCSI (Sm a-11 Computer System Interface). 4, and under the control of the system control unit 26, the video and audio data D 10 and D 13 A to D 13 D in the near-line server 43 are stored in the archive 25.
  • the video and audio data D 10 and D 13 A to D 13 D are transferred to the cart machine 4 via the cart machine 44 and are recorded on a predetermined recording medium such as a magnetic tape. Can be recorded. This allows the news program production and broadcast system 20 to store necessary video and audio data as materials.
  • the database management device 45 of the personal computer installed in the archive 25 receives the video / audio data D 1 from the system control unit 26 via the LAN 27. 0, D13A to D13D Various management data related to the contents of D are supplied. Then, the various management data is given to the external storage device 46 under the control of the database management device 45, and is stored as a database.
  • the database management device 45 of the archive 25 receives the control of the system control unit 26 from the database management device 36 of the online list creation system 23.
  • Original data corresponding to the video and audio data can be transferred via the LAN 27, and can be registered in the database in the external storage device 46 under the control of the database management device 45.
  • the video and audio data D10, D13A to D13D recorded on a recording medium such as a magnetic tape stored in the archive 25 are reproduced by a cart machine 44 and turned off. It can be transferred to the input buffer device 31 of the line EDL creation system 22 and the directory server 30 of the online editing and sending system 24, and the stored video and audio data D10, D13A to D13D can be used again for editing.
  • a personal computer-configured firing terminal 47 is connected to the LAN 27, and the corresponding fan is connected to the LAN 27.
  • the ring terminal 47 the designation of the video / audio data D10 to be taken into the input buffer device 31 and the directory server 30 and the file name of the specified video / audio data D10 And the contents of the video / audio data D 10 recorded in the daily server 30 can be confirmed.
  • a personal computer-configured EDL preview terminal 48 is also connected to the LAN 27, and an external storage device is used by using the EDL preview terminal 48.
  • the EDL data stored in the EDL data is read out, an edit based on the EDL data is executed by one of the EDL execution devices 40A to 40C, and the execution result is read from the EDL execution device 40A to 40C. It can be displayed on a monitor (not shown) connected to 40 C and output from the speaker.
  • desired file data (edited video and audio data Dl 3 A to D 1) stored in the on-air server 41 using the on-air terminal 49. 3D), and the video and audio based on the file data can be displayed on a monitor (not shown) connected to the amplifier server 41 and output from the speaker, whereby the operator can actually edit the broadcast.
  • the news videos can be checked before broadcast.
  • the directory server 30 for recording video / audio data will be described.
  • the directory server 30 is a data storage unit.
  • the news program production / broadcasting system 20 reads out various video and audio materials recorded in the directory server 30 and edits and reads them. It is designed to generate programs for
  • video data is generated by photographing an object to be news material, such as a landscape or a person, using a camcorder 50, and this is recorded on a video tape in the camcorder 50.
  • the voice of the interviewer is also collected, and the resulting audio data is recorded on a video tape together with the video data.
  • the camco recorder 50 records the video data by adding a time code to the video data for each frame as information about the material (hereinafter referred to as material information). .
  • time codes There are two types of time codes, one is a so-called VITC (Vertical Interval Code) that is inserted and recorded during the vertical synchronization period of video data.
  • VITC Very Interval Code
  • LTC Long Time Code
  • these time codes differ only in the recording format, and the same value of the time code is recorded for the same frame of video data.
  • the VITC time code and the LTC time code indicate the actual time at the time of recording, and in the following description, these will be referred to as real time code.
  • the camcorder 50 uses the shooting date, camcorder model name, and camcorder serial number (for example, the serial number assigned to the camcorder 50) as material information. ) Is automatically recorded on videotape. Also, if the camera coder 50 performs a predetermined operation, the camera coder 50 also records the index data such as the camera name, the cassette number assigned to the video tape, and the shooting location on the video tape as material information. Has been made. Incidentally, these index data are recorded in a user area set in the vertical synchronization period of the video data. In the following description, it is assumed that these index data are added to the video / audio data D50 output from the camcorder 50 as material information.
  • Camcoder 50 is a good material that can be used in broadcast programs. Is also recorded as material information, and when Cameraman performs a predetermined operation, the data of the good shot mark is recorded on the frame at that time. It is recorded. By the way, the data of this shot shot mark is also recorded in the user area set in the vertical synchronization period of the video data, and is recorded in the user area of the frame when Cameraman performs a predetermined operation. Good shot mark data is recorded. In the following description, it is assumed that the data of the good shot mark is added to the video / audio data D50 output from the camcorder 50 as material information.
  • the video / audio data D 50 generated by the camcorder 50 in this manner is reproduced from a video tape and input to the field editor 51.
  • the field editing machine 51 is an editing machine for performing simple editing work, such as connecting several pieces of video and audio data D50 collected at the interview site and combining them into one file. Yes, some video / audio data D 50 supplied from the camcorder 50 in one operation are combined into one data stream, and the resulting video / audio data D 51 is transmitted to a transmission device. 5 Output to 2.
  • each piece of continuous video / audio data D50 before being combined into one data stream is referred to as a block.
  • the transmission device 52 is a device for transmitting the video and audio data D51 generated at the interview site to the broadcasting station 53, and includes a communication line 54 using a satellite wave, a communication line 55 using a terrestrial wave, or The video / audio data D 51 is transmitted to the broadcasting station 53 via the telephone line 56.
  • the video / audio data D 51 is recorded on the video tape 57 by the field editor 51, and this video tape is recorded. It is possible that the video and audio data D 51 may be carried by bringing 57 back to the broadcasting station 53. In this way, the video / audio data D51 delivered to the broadcasting station 53 is recorded in the directory server 30 as described above.
  • reference numeral 30 denotes a delay server as a whole, which can be roughly divided into a router 60, first and second information detectors 61, 62, and a server management system (not shown). SMS) 63 and server storage 64.
  • This daily server 30 actually has two input ports IN 1 and IN 2 and two output ports OUT 1 and OUT 2, and transmits to the broadcasting station in the manner described above.
  • the received video / audio data D 60 and D 61 are received via the input ports IN 1 and IN 2, and are input to the internal router 60.
  • the router 60 is signal path switching means having a plurality of signal paths inside. By selecting a desired signal path from the plurality of signal paths, for example, the input video / audio data D 6 0 is supplied to the first information detector 61, and the video / audio data D61 is supplied to the second information detector 62.
  • the first information detector 61 detects image index information from the input video / audio data D 60 and records the video index information with the real-time code added to the video / audio data D 60. For management purposes, a correspondence table with the newly assigned time code (hereinafter referred to as server recording time code) for the video / audio data D60 is created, and the detected image index information and The created time code correspondence table is output to the server management system 63 as file information D 62. Also, the first information detector 61 sends the input video / audio data D 60 to the server storage 64 as video / audio data D 64 for the recording operation, The newly assigned server recording time code D66 is transmitted to the server bus 64.
  • the second information detector 62 detects the image index information from the input video / audio data D 61, and detects the real-time code added to the video / audio data D 61.
  • a correspondence table with the server recording time code newly assigned to the video / audio data D61 for management is created, and the detected image index information and the created time code are used.
  • the correspondence table is used as the file information D63 as the server manager. —Output to one-dimensional system 63.
  • the second information-detector 61 transmits the input video / audio data D61 to the server storage 64 as video / audio data D65 for the recording operation, The newly allocated server recording time code D 67 is transmitted to the server storage 64.
  • assigning a new time code here means that instead of managing each frame of video and audio data with a real time code added when recording with a camcorder, a new time code is assigned.
  • the assigned server recording timecode manages each frame of video and audio data, and the realtime code added when recording with the camcorder is recorded on the server recording timecode. It does not mean that it can be rewritten.
  • the video and audio data D60 and D61 are composed of a data stream in which several related video and audio data blocks are connected into one.
  • the video / audio data D 60 and D 61 in which several video / audio data blocks are connected in this way are recorded as files, respectively.
  • the time code consists of a start time code (STC), which indicates the start of the file, and a file time code (FTC), which indicates the relative position from the start of the file.
  • STC start time code
  • FTC file time code
  • the server storage 64 is, for example, a recording / reproducing unit having therein a recording medium composed of a plurality of hard disks connected in an array, and includes a newly allocated server recording time code D66, While managing the video and audio data D64 and D65 using D67, the video and audio data D64 and D65 are recorded in a desired area of the storage medium.
  • the bus storage 64 is composed of the address of the area for recording the video / audio data D64 and the data of the audio / video data D64 written in the area of the recording address.
  • the data code here, the newly assigned server recording time code D66
  • the recording address can be checked by referring to the corresponding relationship, and the specified video and audio data D64 can be reproduced. .
  • the storage storage 64 stores the address of the area for recording the video / audio data D65 and the time code of the video / audio data D65 written to the area of the recording address (here). Knows the newly assigned server recording time code D67) by associating it, and records the video and audio data D65 on the storage medium according to the correspondence.
  • the recording address can be checked by referring to the corresponding relationship, and the specified video / audio data D65 can be reproduced.
  • the video and audio data D64 and D65 reproduced from the storage bus 6 are routers 60 and output ports OUT1 and OUT6 as video and audio data D68 and D69, respectively.
  • the server storage 6 also includes a data compression / decompression unit, which performs predetermined compression processing when recording the video / audio data D64 and D65 if necessary, and decompresses the data during playback. It has been done.
  • the server management system 63 is a control means for controlling the entire operation of the directory server 30.
  • the server management system 63 outputs a control signal S 70 to output the router 60, the first and second information detectors 6. 1, 62 and the operation of the sub-storage 64. For example, a signal path to be selected is instructed to the router 60 and the first and second information detectors 6
  • the server management system 63 includes file information D 62, D composed of a correspondence table of image index information received from the first and second information detectors 61, 62 and a time code. 6 3 is transferred to the system control unit 26 via the LAN 27, whereby the corresponding file information D 62 and D 63 are transferred to the system control unit 26.
  • the data can be stored as a database in an external storage device 35 connected to the control section 26.
  • the first information detector 61 includes an input buffer 61A, a read clock generator 61B, a time code register 61C, a CPU (central processing unit) 61D, It is composed of an image code management table storage unit 61E and an image index storage unit 61F, and the supplied video / audio data D60 is supplied to the input buffer 61A and the readout clock generator. 6 1 B is entered.
  • the input buffer 61A is composed of, for example, memory, and the supplied video / audio data D60 is sequentially stored in an internal memory area.
  • the input buffer 61A synchronizes with the server recording time code D66 newly allocated by the CPU 61D as described later, reads out the video / audio data D60, and reads this video / audio data D60. Output to the storage bus 64 as 6 4.
  • the read-out clock generator 61 generates a clock signal S71 indicating the frame timing of the video / audio data D60 based on the supplied video / audio data D60. This is output to the time code register 6 IC and the CPU 61D.
  • the CPU 61 D is a control circuit that controls the overall operation of the information detector 61.
  • the CPU 61D reads the material information D72 sequentially from the video / audio data D60 stored in the input buffer 61A by accessing the input buffer 61 #.
  • the material information D 72 to be read is stored in the VITC time code inserted in the vertical synchronization period of the video data and in the user area similarly in the vertical synchronization period of the video data.
  • the date of the shooting, the model name, or index data such as the cassette number and the shooting location, and the data of the good shot mark.
  • the CPU 61D stores the user area in the data read from the input buffer 61A.
  • Data that is, index data such as the shooting date, model name, etc. and the data of the good shot mark
  • the CPU 61D organizes the data for each block of the video / audio data D60 and creates a table of image indexes, which is referred to as image index information D73. And store it in the image index storage unit 61F.
  • the CPU 61D converts the VITC time code added to the first frame of the video / audio data D60 obtained by reading data from the input buffer 61A into a VITC indicating the head of the block. Store it as a time code in the time code register 61C and set it in the internal time code counter. Then, the CPU 61D increments the value of the time code power counter in order based on the clock signal S71 from the read clock generator 61B (that is, the clock). The time code value is increased one by one in synchronization with signal S71), and the incremented time code value and the video / audio read from input buffer 61A are incremented.
  • the end of the first video / audio data block constituting the video / audio data D60 is detected by sequentially comparing the value of the data D60 with the value of the VITC time code, and the end of the block is detected. Detects the VITC time code indicating. As a result, the CPU 61D generates a VITC time code indicating the beginning of the first audio / video data block constituting the video / audio data D60 and a VITC time code indicating the end of the block. To detect.
  • the CPU 6 ID obtains the VITC time code added to the first frame of the block next to the video / audio data D 60 from the input buffer 61A, and obtains the VITC time code from the time code register 6 1 Store in C and set to internal time code counter. Then, a VITC time code indicating the end of the next video / audio data block is obtained by the same comparison processing. Hereinafter, by repeating this in order, the VITC time code at the beginning and end of each video / audio data block ⁇ constituting the video / audio data D60 is detected.
  • the CPU 61D uses the VITC time code at the beginning and end of this block. In parallel with the data detection processing, allocation processing of the server recording time code to the video / audio data D60 is performed. Specifically, first, the CPU 61D sets the value of the time code counter for the STC contained therein to a predetermined value, and sets the value of the time code for the FTC to the count value of the FTC. Reset and set to “0: 0: 0: 0: 0: 0”.
  • the predetermined value to be set in the STC time code counter may be any value as long as the value indicates the recording start time. For example, a reference time code prepared in a broadcasting station may be used. Is used.
  • the CPU 6 ID increments the value of the time code counter for FTC in order based on the clock signal S71 supplied from the read clock generator 61B. Then, the FTC value indicated by the FTC time code counter and the STC value indicated by the STC time code counter are sequentially allocated to each frame of the video / audio data D60. That is, the predetermined value initially set as the STC value for the first frame of the video / audio data D 60 input to the input buffer 61 A, and “0” as the FTC value. 0: 00: 00: 0: 0 "is assigned, and the FTC value consisting of the same STC value and" 0: 00: 0: 0: 0 1 "is assigned to the next frame.
  • the CPU 61D allocates a new server recording time code that is continuous in the file to the video / audio data D60 that is recorded as the same file. .
  • the CPU 61D transmits the newly assigned server recording time code to the server storage 64 as the time code D66.
  • the CPU 61D uses the VITC time code at the beginning and end of each block detected in this way to newly assign the server recording time code (STC and FTC) and the video / audio data D 6
  • the correspondence relationship between the VITC timecode already added to 0 and the VITC timecode already added is organized for each block, whereby the newly assigned server recording timecode and the VITC timecode already added are arranged.
  • a time code correspondence table is created and stored in the time code management table storage unit 61E as time code correspondence table information D74.
  • the timecode management table storage unit 61E is composed of, for example, memory, and the CPU 61 Time code correspondence table information stored by D processing! As described above, 74 is output to the server management system 63 as file information D62.
  • the image index storage unit 61F is made of, for example, memory, and the image index information D73 stored by the processing of the CPU 61D is used as file information D62. Output to the server management system 63.
  • the file information D62 comprising the image index information and the time code correspondence table can be transferred to the system control unit 26 via the server management system 63, and this news program production can be performed.
  • the file information D62 can be commonly referred to in each device of the broadcasting system 20.
  • the video / audio data D 60 is composed of, for example, six video / audio data blocks, and the first block has “00: 0: 0” as a real-time code. 5: 0 00: 00 "VITC time code up to" 00: 10: 00: 00: 00 "is added, and the real time code is added to the second block. It is assumed that VITC time codes from “00: 07: 00: 0: 0” to “00: 14: 00: 00: 00” are added.
  • the third to sixth blocks include real-time codes from “00: 0: 5: 30: 0” to “00: 11: 0: 0: 00”. VITC time code up to "0: 0 6: 0 0: 0 0" Force, etc.
  • VITC time code up to "0 0: 1 2: 0 0: 0 0", "0: 0 5" : 0 0: 0 0 '' to VITC time code from ⁇ 0 0: 1 2: 0 0: 0 0 '', from ⁇ 0 0: 1 0: 0 0: 0 0 '' to ⁇ 0 0: 18: 0 '' It is assumed that VITC time codes up to “0: 0” are respectively added.
  • the video and audio data of each block is accompanied by index data such as shooting date, camcorder model name, camcorder serial number, cassette number, shooting location, etc. as material information.
  • index data such as shooting date, camcorder model name, camcorder serial number, cassette number, shooting location, etc.
  • data of a good shot mark is added.
  • arrows 70A to 70H indicate the frame positions where the shortcut mark is added.
  • S0M start-to-media
  • E ⁇ M added to the end of the video / audio data D60 indicates the end of the data stream consisting of multiple blocks. This is the information to be shown.
  • the CPU 61D extracts material information in order from the video / audio data D60, and stores index data and good shot data.
  • the index data is stored in the image index storage unit 61F as image index information D73.
  • the CPU 61D organizes the data for each block and creates a table as shown in, for example, FIG. 5 (A) or FIG. 5 (B), which is stored in the image index storage unit. 6 Store in 1F.
  • the table shown in Fig. 5 (A) is an index table in which the shooting date, model name, serial number, cassette number, and shooting location are arranged for each block.
  • the table shown in) is a good shot table in which frames with a good shot mark are indicated by VITC timecode and are arranged in block order.
  • the CPU 61D When such video / audio data D60 is input to the input buffer 61A, the CPU 61D extracts VITC time codes from the video / audio data D60 in order, and executes Detects leading and trailing VITC time codes. In addition, the CPU 61D adds STC indicating the head position of the file and FTC indicating the relative position from the file head as a new server recording time code for the video / audio data D60. Assign to frames in order. For example, as shown in FIG. 4, a time code of “01: 00: 00: 00: 0” is assigned as the STC, and “00: 00: 0: 0: 0” is assigned as the FTC. Assign consecutive timecodes beginning with each frame.
  • the CPU 61D uses the VITC time codes at the beginning and end of each detected block as shown in FIG. 6 to newly assign the server recording time code (ST (: , FTC) and a VITC timecode already added to the video / audio data D60, to create a timecode management table, which is referred to as timecode correspondence table information D74. And the timecode management table Store in storage section 6 1 E. As shown in Fig.
  • the timecode management table is organized for each block, and the STC and FTC: assigned to the top of the block, and from the top to the end of the block Duration (Dur) indicating the length of the block, VITC time code (S—VITC) added to the beginning of the block, and VITC time code added to the end of the block (E—VITC).
  • S—VITC VITC time code
  • E—VITC VITC time code added to the end of the block
  • step SP 2 entered from step SP 1, an instruction to record video / audio data D 60 is received from the system control unit 26, and the server management system 63 sends a command to each unit in the directory server 30.
  • step SP 3 a signal path is set by the router 60, and the video / audio data D 60 to be recorded is sequentially input to the input buffer 61 A of the information detector 61.
  • the CPU 61D of the information detector 61 performs a new time code assignment process on the video / audio data D60. That is, the CPU 61D reads the VITC time code added to the first frame of the video / audio data D60 from the input buffer 61A, and reads the value into the time code register 61C. As well as the time code counter inside the CPU 61D. Further, the CPU 61D sets a predetermined value indicating the recording start time in the time code counter for the STC inside the CPU 61D, and resets the time code counter for the FTC.
  • the CPU 61D stores the time code management table Store the initial VITC time code value, STC, and FTC values in the time code register 61 C for the storage section 61E, and create a time code management table.
  • the CPU 61D reads the index data such as the shooting date and the model name and the data of the good shot mark from the input buffer 61A, and reads the image index. It is written to the image index storage unit 61F as information D73.
  • each data is organized for each block to create an index table / good shot table, and this is stored in the image index storage unit. 6 Store in 1F.
  • the CPU 61 D uses the internal clock signal S 71 generated by the read clock generator 61 B to indicate the frame timing. Increment the value of the time code counter and the value of the time code counter for FTC.
  • the CPU 61D compares the value of the VITC time code read from the input buffer 61A with the value of the time code counter based on the cook signal S71. If the values are different, it is determined that the point is a discontinuity of the time code (that is, the block of the video and audio data is switched), and the value of the time code counter is used.
  • the value immediately before the block is stored as the VITC time code at the end of the block in the time code management table storage section 61F, and the time code management table relating to the block is stored. create. Also, the CPU 61D newly stores the VITC time code read from the input buffer 61A as the first time code of the next video / audio data block in the time code register 61C.
  • the CPU 61D In the next step SP9, the CPU 61D generates a new book number in the time code management table storage unit 61F, and writes the new block number to the time code register 61C. The value of the imcode and the STC and FTC values are stored in the timecode management table storage unit 61F, and the creation of the timecode management table for the next block is started.
  • the CPU 61D determines whether or not the recording is completed, and if not, returns to step SP6 and repeats the processing. If the recording is completed, the process proceeds to the next step SP11.
  • the CPU 61D manages the image index table and the time code management while arranging the correspondence between the image index information and the time code for each block of the video / audio data D60. Create a table.
  • the image index storage unit 61F and the time code management table storage unit 61E store the image index table and the time code management table.
  • the file information D 62 is transferred to the server management system 63 as information D 62, whereby the file information D 62 is transferred from the server management system 63 to the system control unit 26.
  • the process moves to the next step SP12 and ends.
  • the image index table shown in FIG. 5 and the time code management table shown in FIG. 6 are transferred to the system control unit 26, and the relevant system control It is stored in the external storage device 35 connected to the unit 26.
  • these table information can be referred to as control information at the time of editing or the like.
  • the editing device 42 accesses the directory server 30 to read out desired video and audio materials, and edits these to create a broadcast program.
  • the editing device 42 has a monitor (not shown) as a display means, and a graphical user interface (hereinafter referred to as a GUI) displayed on the monitor. ) To perform the editing process.
  • the editing device 42 can read the video material used for the program from the releaser 30 and display it, so that the editing operation can be performed while checking the video material. It has become so.
  • the display screen displayed on the monitor of the editing device 42 is shown in FIG.
  • the display screen of the editing device 42 is roughly divided into a view window 80, a log window 81, a program window 82, and a command area 83. It is constituted by.
  • the view window 80 is an area for displaying an image of the material and for generating an event by cutting out a desired portion from the material by specifying an in-point / art point.
  • the editing device 42 refers to the time code management table stored in the external storage device 35 of the system control unit 26 as described above, and thereby, the real time Check the server recording time code (STC, FTC) of the frame specified by the command, and access the deleter server 30 using the server recording time code specified. It is designed to call out the frame video signal.
  • STC server recording time code
  • FTC server recording time code
  • the time code management table and record the server recording data of the corresponding frame. Examine the imcode and read out each frame video signal from the releaser 30. Then, as shown in FIG. 9, the same time code display area 90 is opened on the display screen, and the respective frame image signals 9 OA to 90 0 read out in the display area 90 are opened. D is displayed in a reduced scale (hereinafter, the reduced display of this frame video signal is referred to as a stamp picture). This allows the operator to know that there are multiple frames of the specified real-time code in the file.
  • the log window 81 specifies the in-point and the in-point by clicking the in-point button 80 E and the in-point button 80 G of the view window 80. This is an error for storing the event cut by clicking the entry button 80H.
  • clip images 81A to 81G of the in-point or out-point of the event are displayed to indicate the cut-out event. Clicking on a specific command button in the command button area 81 H provided in the log window 81 will cause a good shot mark in the currently accessed file.
  • the stamp pictures of the added frames are displayed side by side in the same manner as the clip images 81A to 81G.
  • the editing device 42 refers to the good shot mark table stored in the external storage device 35 of the system control unit 26 as described above, and thereby uses the good shot mark.
  • the read frame video signal is read and a stamp victim is displayed.
  • the real time code of the frame is displayed together with the stamp picture. This makes it possible to check the contents of the frame to which the good shot mark is added, know the real-time code of the frame, and display the video in the material display area 80A. You can edit with the good shot mark as a guide.
  • the program window 82 retrieves the desired events from the events contained in the window 81 and rearranges them in a desired order, or -An area for specifying a broadcast program by giving a special effect processing instruction to a desired event.
  • the program window 82 is a virtual space, and only by arranging the events in this area, the actual editing process is not performed. Editing processing is executed only when the command button is clicked and an instruction to execute the editing processing is input.
  • the command area 83 is an area where various commands related to the editing process are arranged. With this editing device 42, it is possible to input commands for various editing processes by clicking the various command buttons provided in the command area 83 with a mouse. it can.
  • the commands related to the dedicated processing performed in each of the windows 80, 81, and 82 are described in the commands provided in each of the windows 80, 81, and 82. It is available in Dobotan Area 80 I, 80 H, and 82 A.
  • step SP21 entered from step SP20 when the real time code to be accessed is set by the operator, the editing device 42 enters the next step SP22. Move on.
  • step SP22 the editing device 42 determines whether or not a plurality of specified real-time codes exist in the file to be accessed. When a plurality of the specified real time codes exist in the same file, the editing device 42 accesses the deleter server 30 to start the specified real time code. Obtain all the stamp victims and open the same time code display area 90 to display their stamp victims.
  • step SP23 when the operator clicks the stamp picture of the scene to be accessed by the operator, the editing device 42 moves to the next step SP24.
  • step SP24 the image of the stamp picture specified by the click is read out from the directory server 30 and is displayed on the material display area 80A in the view window 80.
  • the editing device 42 proceeds to the next step SP 25. 'Transfer and close the same time code display area 90 closely. Move to step SP26 and end the processing.
  • video and audio data obtained by shooting at the news gathering site are recorded in the directory server 30 and stored in the directory server 30. It creates a broadcast program by performing editing processing using various video and audio materials.
  • the releaser 30 collectively records, for example, a plurality of video and audio data recorded at the same interview site.
  • the directory server 30 adds a new server recording time code (STC, FTC) to the video / audio data so that the plurality of video / audio data can be managed by the time code. ) And record.
  • STC server recording time code
  • FTC server recording time code
  • the material can be read out using a real-time code that indicates the actual time at the time of recording that was added when recording with the camcorder. Can not be done.
  • the directory server 30 detects the real time code (VITC time code in this case) added when recording with the camcorder from the video / audio data D60 (or D61).
  • a time code management table that indicates the correspondence between the real time code and the newly assigned server recording time code (STC, FTC) is created, transferred, and transmitted to the external system control system. It is stored in the storage device 3 5.
  • the editing device 42 refers to the time code management table and refers to the real time code and the newly assigned server. You can know the correspondence with the recording time code. Therefore, the editing device 42 adjusts the server recording time code using the time code management table even when the operator specifies the material using the real time code.
  • the material specified by the real time code can be easily read from the directory server 30.
  • the server recording time code assigned when recording to the directory server 30 and the real time added when recording by the force coder are performed.
  • the directory server 3 can be specified by the real-time code. The material can be read from 0, which can improve usability during editing.
  • the stamp picture of the same time code is edited.
  • the operator can easily specify the material to be accessed even when there are a plurality of the same time code, and perform the editing work efficiently. Can be done.
  • the data of the good shot mark added when recording with the camcorder is detected from the video / audio data D60 (or D61), and the real time of the frame to which the good shot mark is added is detected.
  • the stamp picture of the frame to which the shot shot mark has been added can be displayed on the screen of the editing device 42, whereby the shot shot mark added during shooting can be displayed.
  • the editing work can be performed with the target as a guide, and the usability at the time of editing can be improved.
  • the index data such as the shooting date, camcorder model name, camcorder serial number, cassette number, and shooting location added at the time of shooting are detected from the video / audio data D60 (or D61).
  • this is stored in the external storage device 35 of the system control unit 26 as an index table, the operator does not need to input the index data as in the related art. This can reduce the labor of the operator.
  • the video and audio data When recording D60 (or D61), material information added to the material, such as real-time code, data of the D-shot, index data, etc. 60 (or D61), and based on the detection result, generates predetermined control information such as a time code management table, a good shot mark table, and an index table.
  • predetermined control information such as a time code management table, a good shot mark table, and an index table.
  • the material information added to the material is detected from the video / audio data D60 (or D61), predetermined control information is generated based on the detection result, and this is externally stored.
  • the control information relating to the material can be easily set, and the editing process can be performed based on the control information, thereby improving the usability at the time of editing. I can do it.
  • a table is created from these data, and the table is stored in the external storage device 35.
  • the present invention is not limited to this. It is also possible to detect material information from the high-compression encoded data D 12, create similar various tables based on the material information, and store this in the external storage device 35 as control information. good.
  • the material can be specified by the real-time code by referring to the control information, and the same real-time code is added. It can display a stamp picture of the inserted frame, and can improve usability when creating EDL.
  • the file information D62 (or D63) including the time code correspondence table information D74 and the image index information D73 is transmitted to the server manager.
  • the case where the data is transferred to the system control unit 26 via the client system 63 and stored in the external storage device 35 connected to the system control unit 26 has been described.
  • a buffer 61 G for receiving the image index information D 73 and the time code correspondence table information D 74 is provided in the information detector 61 (or 62).
  • the file information D62 (or D63) comprising the image index information D73 and the time code correspondence table information D74 via the buffer 61G. It may be transferred to the system control unit 26. In this way, the processing load on the management system 63 can be reduced.
  • a news program production broadcast that generates a broadcast program by editing various video and audio materials stored in the directory server 30
  • the present invention is not limited to this, and a video signal as a material is recorded by a predetermined recording / reproducing means, and is recorded by the recording / reproducing means.
  • the present invention can be widely applied to any video signal processing device that reads out a video signal and performs desired editing processing.
  • detection means for detecting material information from the video signal and generating predetermined control information based on the detection result is provided.
  • the video signal processing device can be used for a news program production system, a video signal as material information recorded at a news gathering site is downloaded to a server device of a broadcasting station.
  • material information added to the video signal is detected, and predetermined control information is generated. : Record the generated control information for the video signal.

Description

明 細 書 ' 映像信号処理装置 技術分野
本発明は映像信号処理装置に関し、 例えば取材現場で収録した映像音声信号を 放送局のサーバ装置にダウ ン — ド し、 当該サーバ装置に記録されている各種映 像素材や音声素材を編集して放送用の映像音声信号 (以下、 この放送用の映像音 声信号をプ ダラムと呼ぶ) を生成するニュース番組制作放送シス テム に適用し て好適なものである。 背景技術
従来、 放送局においては、 例えばニュース番組のプロ グラムを生成する場合、 まずカメ ラ一体型ビデオテープレコーダ (以下、 これをカ ムコーダと呼ぶ) を使 用して事件現場等を撮影し、 その結果得られた映像音声信号を所定の通信回線を 介して放送局に電送するこ とによ り当該映像音声信号を放送局に設置されている 記録再生手段と してのサーバ装置に記録し (又はビデオテープを放送局に持ち帰 つて収録されている映像音声信号をサーバ装置に記録する) 、 次にこのサーバ装 置に蓄積されている各種映像素材や音声素材から所望の素材を読み出してこれを 組み合わせたり、 或いはナレーショ ンを付加する等して編集処理を行う こ とによ りプロ グラムを生成するようになされている。
と ころで上述したサーバ装置と しては、 ビデオテープのよう な リ ユア記録媒体 ではな く 、 例えばハー ドディ スク のよう にラ ンダムアクセス可能なノ ン リ ニア記 録媒体を使用したサーバ装置が近年広く用いられている。 この種のサーバ装置は 、 電送されてきた映像音声信号やビデオテープに収録されている映像音声信号を 内部の記録媒体に記録する際、 関係のある映像音声信号をそれぞれ 1 つのフアイ ルにま とめて記録するよう になされている。 その際、 サーバ装置は、 撮影時に力 'ムコーダによって付加されたタ イ ムコー ドをそのまま使用して記録するのではな く 、 それぞれの映像音声信号に新たなタ イ ムコー ドを割り当てるこ とによ り 1 つ のフアイ ル内に収まる映像音声信号のタ ィ ムコ 一 ドが連続するよう にして記録す るようなされている。 これによ り この種のサーバ装置では、 同時刻に収録された 映像音声信号を 1 つのファイ ルにまとめて記録するよう な場合でも、 ファイ ル内 でタイ ムコ ー ドが重複することを回避し得、 タイ ムコー ドによる映像音声信号の 管理を行い得る。
ここでサーバ装置によって新たに割り当てられるタ イ ムコー ドは、 スター ト タ ィ 厶コ ー ド (以下、 これを単に S T C ( S t a r t T i m e C o d e ) と呼 ぶ) と言われるファイ ルの先頭を示すタ イ ムコ ー ドと、 ファイ ルタ イ ムコ ー ド ( 以下、 これを単に F T C ( F i l e T i m e C o d e ) と呼ぶ) と言われる ファイ ル先頭からの相対的位置を示すタ イ ムコー ドとによって構成される。 この 場合、 S T Cと してはユーザ設定によ り任意の値が設定可能であるが、 一般的に はサーバ装置への記録開始時刻が分かるようなタイ 厶コ ー ドの値が用いられる。 また F T Cと しては、 記録開始時刻に零に リ セッ ト され、 記録する映像音声信号 のフ レームが変わる毎に逐次カ ウ ン ト アップされたタ イ ムコ ー ドの値が用いられ る。 従ってファイ ルにまとめられて記録された映像音声信号のうち所望の映像音 声信号のフ レームにァクセスする場合には、 この S T Cと F T Cをサーバ装置に 指示すれば、 その S T Cと F T Cを基に指示されたフ レームの映像音声信号を読 み出すことができる。
と ころで上述したよう なサーバ装置を用いたニュース番組制作放送システムで は、 サーバ装置に蓄積されている各種映像素材や音声素材を使用してプログラム を編集する際、 当該サーバ装置によって新たに割り当てたタ イ ムコー ドを指示し て所望の素材を読み出さなければならず、 使い勝手が悪いといった不都合がある 。 通常、 編集オペレータ は、 「〇〇時△△分」 頃に撮影された素材をプロ グラム に使用したいと所望することが多いので、 撮影時に力 ムコーダによって付加され た実時間を示すタ イ ムコ ー ドを指示して素材を読み出せれば編集作業が一段と行 い易く なると思われる。 .
また最近の力ムコ一ダでは、 プログラムに使用できそう な良好素材を撮影した とき、 カメ ラマンが所定操作を行う と、 プログラムに使用できそう な良好素材で あることを示すマーク、 いわゆるグッ ト ショッ トマークをビデオテープ上に記録 し得るよう になされているが、 上述したようなニュース番組制作放送シス テムで は折角記録されているグッ ト シ ョ ッ ト マ一クを検出し得ないので、 グッ ト シ ョ ッ トマークを目安と した編集ができず、 この点においても使い勝手が悪いといった 不都合がある。
さ らに最近のカムコーダでは、 カムコーダの製造会社名とその機種名、 カムコ ーダ毎に割り当てられたシ リ アル番号 (例えば製造番号等) 、 撮影日時、 ビデオ テープに付与されたカセッ ト番号等の情報をィ ンデックスデータ と して撮影時に ビデオテープ上に記録し得るよう になされているが、 上述したよう なニュース番 組制作放送システムでは折角記録されているィ ンデックスデータを検出し得ない ので、 サーバ装置にダウ ンロー ドする際にオペレータがこれらのィ ンデックスデ —タをわざわざ入力し直さなければならず、 この点においても使い勝手が悪いと いった不都合ある。 発明の開示
本発明は以上の点を考慮してなされたもので、 使い勝手が一段と向上した映像 信号処理装置を提案しょう とするものである。
かかる課題を解決するため本発明においては、 素材と しての映像信号を所定の 記録再生手段によって記録し、 当該記録再生手段に記録されている映像信号を読 み出して所望の編集処理を施す映像信号処理装置において、 映像信号を記録再生 手段によって記録する際、 映像信号に付加されている素材情報を検出し、 当該素 材情報に基づいて所定の制御情報を生成する検出手段と、 検出手段によって生成 した制御情報を記憶する記憶手段とを設けるようにした。
本発明によれば、 映像信号を記録再生手段によって記録する際、 当該映像信号 に付加されている素材情報を検出して所定の制御情報を生成し、 当該制御情報を 記憶するよう にしたことによ り、 オペレータが制御情報を入力しな く ても容易に 設定し得ると共に、 当該制御情報に基づいた編集処理を実行し得、 かく して使い 勝手が向上した映像信号処理装置を実現し得る。 図面の簡単な説明
図 1 は、 本発明の一実施の形態によるニュース番組制作放送システムの構成を示 すブロ ック図である。
図 2 は、 映像音声データが放送局に届く までの流れを説明するためのブ n ック図 である。
図 3 は、 ディ リ ーサーバの構成を示すブロ ック図である。
図 4 は、 映像音声データの構造及びタィ ム コ 一 ドの対応関係の具体的説明に供す る略線図である。
図 5 ( A ) 及び (B ) は、 画像イ ンデック ス情報のテーブルを示す図表である。 図 6 は、 タ イ ムコー ド管理テーブルを示す図表である。
図 7 は、 タ イ ムコ ー ド管理テーブルの作成処理及び画像ィ ンデックス情報の検出 処理を示すフローチヤ一トである。
図 8 は、 図 7 と組み合わせて、 タ イ ムコ ー ド管理テーブルの作成処理及び画像ィ ンデッタス情報の検出処理を示すフ ロ ーチヤ一トである。
図 9 は、 編集装置の表示画面を示す略線図である。
図 1 0 は、 同一フアイル内に同じ リ アルタィ ム コ 一 ドが存在するときの処理手順 を示すフ ロ ーチヤ一 トである。
図 1 1 は、 ディ リ ーサーバの他の構成を示すブロ ック図である。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
( 1 ) 本実施の形態によるニュース番組制作放送システムの構成 ' 図 1 において、 2 0 は全体と して本発明を適用したニュース番組制作放送シス テムを示し、 取材によ り得られた映像音声データをどのよう に編集するかといつ た編集内容を規定した リ ス ト (以下、 これを E D L ( E d i t D e c i s i o n L i s t ) と呼ぶ) をオペレータが作成するためのオフ ライ ン E D L 作成系 2 2 と、 編集した各映像音声データの放送時刻を規定した リ ス ト (以下、 これをオ ンエア リ ス ト と呼ぶ) やニュース原稿及び当該ニュース原稿の使用順番 等をオペレータが作成するためのオ ンエア リ ス ト作成系 2 3 と、 オフ ライ ン E D L作成系 2 2 において作成された E D Lに基づいて編集処理を実行するオ ン ラ イ ン編集送出系 2 4 と、 必要な映像音声データを保管するためのァ一力イ ブ 2 5 と 、 このニュース番組制作放送システム 2 0全体の制御を司る シス テム制御部 2 6 とから構成され、 これらオフ ライ ン E D L作成系 2 2、 オ ンエア リ ス ト作成系 2 3、 オ ンライ ン編集送出系 2 4、 アーカイ ブ 2 5及びシステム制御部 2 6が L A N ( L o c a l A r e a N e t w o r k ) 2 7 を介して接続されている。 この場合このニュース番組制作放送シス テム 2 0 には、 取材現場から電話回線 又は衛星通信回線等の電送回線を介して転送され、 又は取材テープからビデオテ —プレコーダにより再生された映像音声データ D 1 0が複数系統で供給され、 こ れがオンライ ン編集送出系 2 4のディ リ 一サーバ 3 0及びオフライ ン E D L作成 系 2 2の入力バッファ装置 3 1 に入力される。 なお以下の説明においては、 各映 像音声データ D 1 0 は非圧縮又は低圧縮 (例えば M P E G (M o v i n g P i c t u r e E p e r t s G r o u p ) 2 4 2 2プロ フアイ ノレアッ ト メ イ ンレベル規格による圧縮) で供紿されるものとする。
ディ リ ーサーバ 3 0 においては、 ディ スクアレイ構成の記録再生部と、 例えば M P E G 2 に代表される専用のデータ圧縮伸長部とを有する A Vサーバでなり、 システム制御部 2 6の制御のもとに、 供給される各映像音声データ D 1 0のなか から指定された複数系統の映像音声データ D 1 0 を同時に取り込み、 これらをそ れぞれフ ァイ ル化して記録再生部内の指定されたア ドレス位置に格納する。 一方入力バッフ ァ装置 3 1 は、 シス テ ム制御部 2 6 の制御のもとに、 供給され る各映像音声データ D 1 0のなかからディ リ ーサーバ 3 0 と同じ系統の映像音声 データ D 1 0 を順次取り込む。 そして入力バッファ装置 3 1 は、 この取り込んだ 映像音声データ D 1 0が非圧縮又は低圧縮でかつ転送レー トが実時間的な第 1 の データ レー トであった場合には当該映像音声デ一タ D 1 0 をそのままエンコーダ 部 3 2 に送出する。
これに対して入力バッファ装置 3 1 は、 取り込んだ映像音声データ D 1 0が低 圧縮かつその転送レー トが第 1 のデータ レー ト よ り も高速な第 2のデータ レ一 ト であった場合には、 当該映像音声データ D 1 0 を複数チャ ンネルに時分割すると 共に、 各チヤンネルの映像音声データ D 1 0 をそれぞれ実時間 (第 1 のデ一タ レ ー ト) に伸長し、 かく して得られた各チャンネルの映像音声データ D 1 1 A〜 D 1 1 Nをそれぞれエ ンコーダ部 3 2 に送出する。
エ ンコーダ部 3 2 は、 供給される映像音声データ D 1 0又は各映像音声データ D 1 1 を順次取り込み、 これを J P E G ( J o i n t P h o t o g r a p h —
1 c E x p e r t s G r o u p ) 方式等の所定の圧縮方式で 2 〔M b p s 〕 程度に高能率圧縮符号化し、 得られた高圧縮符号化データ D 1 2 をク リ ップサー バ 3 3 に送出する。
ク リ ップサーバ 3 3 は、 ディ スクアレイ構成の記録再生部を有し、 かつデータ 圧縮伸長部を有さない A Vサーバでなり、 入力する高圧縮符号化データ D 1 2 を システム制御部 2 6 の制御のもとに順次取り込み、 これをフアイ ル化して記録再 生部内の指定されたァ ドレス位置に格納する。
そ してこのク リ ップサーバ 3 3 に収録された各ファイ ルのデータ (高圧縮符号 化データ D 1 2 ) は、 当該ク リ ップサーバ 3 3 に接続された複数合の各 E D L作 成装置 3 4 A〜 3 4 Nをそれぞれ用いて読み出すことができる。
実際上各 E D L作成装置 3 4 A〜 3 4 Nは、 E D L作成モー ド時、 オペレータ によ り所望のフアイ ルの読み出し命令が入力されると、 ク リ ップサーバ 3 3及び L A N 2 7 を順次介してシステム制御部 2 6 にアクセス し、 当該システム制御部
2 6 を介してク リ ップサーバ 3 3 を制御するこ とにより、 当該ク リ ップサーバ 3 3 に対応するフアイ ルの高圧縮符号化データ D 1 2 を順次読み出させる。
また E D L作成装置 3 4 A〜 3 4 Nは、 こ のク リ ップサーバ 3 3から読み出さ せた高圧縮符号化データ D 2 0 を復号し、 得られた映像音声データ に基づく映像 をモニタ表示する。
このときオペレータ は、 E D L作成装置 3 4 A〜 3 4 Nを介してク リ ップサ一 バ 3 3 を制御し、 当該ク リ ップサーバ 3 3 に所望の動作 (再生、 巻戻し又は早送 り等) を実行させることができ、 またこのとき当該 E D L作成装置 3 4 A〜 3 4 Nのモニタに表示された映像を目視確認しながらィ ン点及びァゥ 卜点等の編集に 必要な各種情報を当該 E D L作成装置 3 4 A〜 3 4 Nに入力するよう にして E D Lを作成する こ とができ る。
さ らに E D L作成装置 3 4 A〜 3 4 Nは、 作成された E D Lに基づいてク リ ッ プサーバ 3 3から対応する高圧縮符号化データ D 2 0を読み出してこれを復号し 、 得られた映像音声データを E D L に基づいて編集加工し、 編集結果をモニタ表 示するこ とができ、 これによ り作成した E D L に基づく編集結果をオペレータ及 びディ レクタ等が確認することができるよう になされている。
E D L作成装置 3 4 A〜 3 4 Nを用いて作成された E D Lのデータ (以下、 こ れを E D Lデータ と呼ぶ) は、 当該 E D L作成装置 3 4 A〜 3 4 Nからク リ ップ サーバ 3 3及び L A N 2 7 を順次介してシス テム制御部 2 6 に転送され、 当該シ ステム制御部 2 6 の制御のもと に外部記憶装置 3 5 にデータベースと して登録さ れる。
一方ォ ンェア リ ス ト作成系 2 3 においては、 パーソナルコ ンピュータ構成のデ 一夕ベース管理装置 3 6 と、 外部記憶装置 3 7 と、 データベース管理装置 3 6 と ネッ ト ワーク 3 8 を介して接続された複数台のパーソナルコ ン ピュータ 3 9 A〜 3 9 Nとから構成されており、 これらパーソ ナルコ ンピュータ 3 9 A〜 3 9 Nを 用いてオンエア リ ス トゃ、 各ニュース番組における各ニュース項目のアナゥ ンサ が読む原稿を作成し得るよう になされている。
作成されたォンェア リ ス ト及び原稿の各データ は、 データベース管理装置 3 6 'の制御のもとに外部記憶装置 3 7 にデータベース と して登録されると共に、 オ ン エア リ ス トのデータ (以下、 これをオンエアリ ス トデータ と呼ぶ) が L A N 2 7 を介してシステム制御部 2 6 に与えられ、 これが外部記憶装置 3 5 にデータベー スと して登録される。
そしてシステム制御部 2 6 は、 この外部記憶装置 3 5 に登録された E D Lデ一 タ及びォンエア リ ス トデータに基づいてォンライ ン編集送出系 2 4を制御する。 実際上システム制御部 2 6 は、 オ ンラ イ ン編集送出系 2 4 のディ リ 一サーバ 3 0 と接続された複数台の自動編集実行装置でなる E D L実行装置 4 0 A〜 4 0 C の稼働状態を常時監視しており、 いずれかの E D L実行装置 4 0 A〜 4 0 Cが先 行する後述の編集処理を終了すると、 外部記憶装置 3 5 に記憶された E D Lデ一 タをオンエア リ ス トデータ に基づいてオンエアの早いものを優先的に読み出し、 これを L A N 2 7 を介してその E D L実行装置 4 0 A〜 4 0 Cに送出する。
E D L実行装置 4 0 A〜 4 0 Cは、 システム制御部 2 6から与えられる E D L データ に基づいてディ リ ーサ一バ 3 0 を制御し、 当該ディ リ ーサーバ 3 0 に格納 されている非圧縮又は低圧縮された映像音声データ D 1 0のなかから必要な映像 音声データ D 1 0 を順次読み出させる。 また E D L実行装置 4 0 A〜 4 0 Cは、 この映像音声データ D 1 0が低圧縮されている場合にはこれを復号した後、 この 映像音声データ D 1 0 を与えられた E D Lデータ に基づいて指定された状態に編 集加工し、 得られた映像音声データ D 1 3 A〜 D 1 3 Cをそれぞれオ ンエアサ一 バ 4 1 に送出する。
なおディ リ 一サーバ 3 0 にはマニュアル操作の編集装置 4 2 も接続されており 、 オペレータが当該編集装置 4 2 を用いてディ リ 一サーバ 3 0 に格納された映像 音声データ D 1 0を読み出し、 編集加工することもできる。 そ してこの結果得ら れた編集された映像音声データ D 1 3 Dがオ ンエアサーバ 4 1 に送出される。 オンエアサーバ 4 1 は、 ディスク アレイ構成の記録再生部を有する A Vサーバ でなり、 入力する映像音声データ D 1 3 A〜 D 1 3 Dをシステム制御部 2 6の制 御のもとに順次取り込み、 これをフアイル化して記録再生部内の指定されたァ ド 'レ 位置に格納する。 - オ ンエアサーバ 4 1 に収録された各ファイ ルデータ (編集された映像音声デー タ D l 3 A〜D 1 3 D) は、 この後外部記憶装置 3 5 に格納されたォンェア リ ス トデータ に基づいて、 L A N 2 7 に接続されたパーソ ナルコ ン ピュータ構成のォ ンエアター ミ ナル 4 9 により放送時刻が管理され、 指定された時刻になると シス テム制御部 2 6の制御のもとにオ ンエアサーバ 4 1 から読み出されて図示しない 後段のォンエア装置に送出される。
このよう にしてこのニュース番組制作放送システム 2 0 では、 オフ ライ ン E D L作成系 2 2 において作成された E D Lに基づいてォンライ ン編集送出系 2 4 に おいて非圧縮又は低圧縮された映像音声データ D 1 0 を用いて編集処理を実行し 、 得られた映像音声デ一タ D 1 3 A〜 D 1 3 Dをオ ンエア リ ス トデータに基づい てォンエア装置に送出し得るよう になされ、 これにより指定された時刻に指定さ れた状態に編集されたニュース映像及び音声を放送させることができるよう にな されている。
かかる構成に加え、 このニュース番組制作放送システム 2 0 の場合、 オ ンライ ン編集送出系 2 4 には、 例えば M 0 (M a g n e t o O p t i c a l ) チェン ジャ等の安価なかつ記憶容量の大きい記録再生部を有する A Vサーバでなるニァ ラ イ ンサーバ 4 3が設けられており、 システム制御部 2 6の制御のもとに、 ディ リ 一サーバ 3 0及びォンエアサーバ 4 1 に格納された映像音声データ D 1 0、 D 1 3 A〜D 1 3 Dをユアライ ンサーバ 4 3 に転送し、 これを当該ユアライ ンサ一 ノ 4 3内に格納することができるよう になされている。
またユアライ ンサーバ 4 3内に格納された映像音声データ D 1 0、 D 1 3 A〜 D 1 3 Dは、 システム制御部 2 6の制御のもとに、 ディ リ ーサーバ 3 0 に転送し て当該ディ リ 一サーバ 3 0内に格納することができ、 これによ り高価なディ スク アレイ構成のディ リ ーサーバ 3 0 の記録再生部の記憶容量を増加させることなく 、 オ ンライ ン編集送出系 2 4の入力段の記憶容量を増加させ得るようになされて いる。 さ らにユアライ ンサーバ 4 3 は、 S C S I ( S m a-1 1 C o m p u t e r S y s t e m I n t e r f a c e ) 等の所定のイ ンタ 一フ ェースを介してァ一 力 イ ブ 2 5 内のカー トマ シ ン 4 4 と接続されており、 シス テム制御部 2 6 の制御 のもとに、 ニァラ イ ンサーバ 4 3 内の映像音声データ D 1 0、 D 1 3 A〜D 1 3 Dをアーカイ ブ 2 5 内のカー ト マ シ ン 4 に転送し、 当該映像音声データ D 1 0 、 D 1 3 A〜D 1 3 Dをこのカ ー トマ シ ン 4 4 を介して磁気テ一プ等の所定の記 録媒体に記録することができる。 これにより このニュース番組制作放送シス テム 2 0 では、 必要な映像音声データを資料と して保管し得るよう になされている。 このときァ一カイ ブ 2 5 に設置されたパーソ ナルコ ン ビュ一タ構成のデータべ ース管理装置 4 5 には、 システム制御部 2 6から L A N 2 7 を介してその映像音 声データ D 1 0、 D 1 3 A〜D 1 3 Dの内容に関する各種管理データが供給され る。 そしてこの各種管理データがデータベース管理装置 4 5の制御のもとに、 外 部記憶装置 4 6 に与えられ、 データベースと して保存される。
さ らにこのときアーカイ ブ 2 5 のデータベース管理装置 4 5 には、 シス テム制 御部 2 6の制御のもとに、 オ ンエア リ ス ト作成系 2 3のデ一タベース管理装置 3 6から L A N 2 7 を介してその映像音声データ に対応する原稿データを転送させ ることができ、 これをデータベース管理装置 4 5 の制御のもとに外部記憶装置 4 6 内のデータベースに登録させることもでき る。
またアーカイ ブ 2 5 内に保管された磁気テープ等の記録媒体に記録された映像 音声データ D 1 0、 D 1 3 A ~ D 1 3 Dは、 カー トマ シ ン 4 4 により再生してォ フ ラ イ ン E D L作成系 2 2の入力バッフ ァ装置 3 1 及びォンライ ン編集送出系 2 4のディ リ一サーバ 3 0 に転送することができ、 これにより保管した映像音声デ 一夕 D 1 0、 D 1 3 A〜D 1 3 Dを再び編集に利用することができるよう になさ れている。
なおこのニュース番組制作放送シス テム 2 0 の場合、 L A N 2 7 にはパ一ソナ ルコ ン ピュータ構成のフ アイ リ ングタ ー ミ ナル 4 7 が接続されており、 当該フ ァ ィ リ ングター ミ ナル 4 7 を用いて、 入力バッファ装置' 3 1 及びディ リ 一サーバ 3 0 に取り込ませる映像音声データ D 1 0の指定や、 当該指定した映像音声データ D 1 0 のフアイ ル名の入力、 及びディ リ ーサーバ 3 0 に収録され映像音声データ D 1 0 の内容確認を行う ことができ る。
またこのニュース番組制作放送システム 2 0 の場合、 L A N 2 7 にはパーソナ ルコ ンピュータ構成の E D Lプレビューター ミ ナル 4 8 も接続されており、 当該 E D Lプレビュータ ー ミ ナル 4 8 を用いて外部記憶装置 3 5 内に格納された E D Lデータを読み出し、 当該 E D Lデータ に基づく編集をいずれかの E D L実行装 置 4 0 A〜 4 0 Cに実行させて、 その実行結果をその E D L実行装置 4 0 A〜 4 0 Cに接続された図示しないモニタ に表示させ、 ス ピーカから出力させることが できる。
さ らにこのニュース番組制作放送システム 2 0 の場合、 オ ンエアタ ー ミ ナル 4 9 を用いてオ ンエアサーバ 4 1 に格納された所望のフアイ ルデータ (編集された 映像音声データ D l 3 A〜D 1 3 D ) を読み出し、 当該ファイ ルデータ に基づく 映像及び音声をォンヱァサーバ 4 1 に接続された図示しないモニタに表示させ、 ス ピーカから出力させることができ、 これによ りオペレータが実際に放送される 編集されたニュース映像を放送前に事前に確認することができ るよう になされて いる。
( 2 ) ディ リ ーサ一バの構成
この項では、 映像音声データを記録するディ リ ーサーバ 3 0 について説明する 。 ディ リ 一サーバ 3 0 はデータ蓄積手段であり、 取材現場から所定の通信回線を 介して電送されてきた映像音声データや、 取材現場から持ち帰ったビデオテープ を再生することによって得られた映像音声データを記録するよう になされており 、 このニュース番組制作放送システム 2 0 では、 このディ リ 一サーバ 3 0 に記録 されている各種映像素材や音声素材を読み出して編集処理するこ とによ り放送用 のプロ グラムを生成するよう になされている。
ここでディ リ ーサ一バ 3 0の構成を説明する前に、 当該ディ リ ーサーバ 3 0 に 記録される映像音声データ について図 2を用いて説明する。 まず取材現場におい ては、 風景や人物等、 ニュース素材となる対象物をカ ムコーダ 5 0 によって撮影 することにより映像データを生成し、 これをカ ムコーダ 5 0内のビデオテープに 記録する。 その際、 必要であれば取材人物の音声等も集音し、 その結果得られる 音声データ も映像データ と共にビデオテープに記録する。 またこのときカ ムコ 一 ダ 5 0は、 素材に関する情報 (以下、 これを素材情報と呼ぶ) と して、 映像デー タ に対して各フ レーム毎にタ イ ムコ 一 ドを付加して記録する。 このタ イ ムコ 一 ド は 2種類あり、 1 つは映像データの垂直同期期間に挿入されて記録されるいわゆ る V I T C (V e r t i c a l I n t e r v a l T i m e C o d e ) と呼 ばれるタィ ムコー ドであり、 もう 1 つはビデオテープの長手方向に形成されるタ ィ 厶コー ド ト ラック に記録される L T C ( L o n g T i m e C o d e ) と呼 ばれるタイ ムコー ドである。 但し、 これらのタイ ムコー ドは記録フォーマッ ト が 異なるだけであり、 映像データの同じフ レームに対しては同じ値のタ イ ムコ 一 ド が記録されるよう になされている。 因みに、 この V I T Cタイ ムコー ド及び L T Cタ イ ムコー ドは収録時の実時間を示しており、 以下の説明ではこれを リ アルタ ィ ムコー ドと呼ぶものとする。
またカ ムコーダ 5 0は、 映像データを記録する際、 素材情報と して、 撮影年月 日、 カ ムコ一ダ機種名、 カ ムコーダシ リ アル番号 (例えばカ ムコーダ 5 0に割り 当てられた製造番号) 等のィ ンデック スデータ もビデオテープに自動的に記録す るよう になされている。 またカ ムコーダ 5 0は、 カメ ラマンが所定操作を行えば 、 カメ ラマン名、 ビデオテープに割り当てられたカセッ ト番号、 撮影場所等のィ ンデックスデータ も素材情報と してビデオテープに記録するよう になされている 。 因みに、 これらのイ ンデックスデータ は、 映像データの垂直同期期間に設定さ れたユーザ領域に記録されるよう になっている。 なお、 以降の説明では、 カ ムコ —ダ 5 0から出力される映像音声データ D 5 0には、 これらのイ ンデックスデー タが素材情報と して付加されているものとする。
さ らにカ ムコ ーダ 5 0は、 放送用のプ グラムに使用できそう な良好素材であ ることを示すマーク、 いわゆるグッ ト ショッ トマークのデータ も素材情報と して 記録し得るよう になされており、 カメ ラマンが所定操作を行う と、 そのときのフ レームにグッ ト ショッ トマークのデータを記録するよう になっている。 因みに、 このグッ ト ショッ トマークのデータ も、 映像データの垂直同期期間に設定された ユーザ領域に記録されるよう になっており、 カメ ラマンが所定操作を行ったとき のフ レームのユーザ領域に当該グッ ト ショッ トマークのデータが記録される。 な お、 以降の説明では、 カ ムコーダ 5 0から出力される映像音声データ D 5 0 には 、 このグッ ト ショッ トマ一クのデータ も素材情報と して付加されているものとす る。
このよう にしてカ ムコーダ 5 0 によって生成された映像音声データ D 5 0 は、 ビデオテープから再生され、 フ ィ ール ド編集機 5 1 に入力される。 フ ィ ール ド編 集機 5 1 は、 取材現場において集めた幾つかの映像音声データ D 5 0 を繋げて 1 つのフ ァイ ルにまとめる等、 簡単な編集作業を行うための編集機であり、 ォペレ 一夕の操作に応じてカムコーダ 5 0から供給される幾つかの映像音声データ D 5 0 を 1 つのデータス ト リ ームにまとめ、 その結果得られる映像音声データ D 5 1 を電送装置 5 2 に出力する。 なお、 以降の説明では、 1 つのデータス ト リ ームに まとめられる前の 1 つ 1 つの連続した映像音声データ D 5 0をブロ ック と呼ぶも のとする。
電送装置 5 2 は、 このよう にして取材現場において生成された映像音声データ D 5 1 を放送局 5 3 に電送する装置であり、 衛星波による通信回線 5 4、 地上波 による通信回線 5 5又は電話回線 5 6 を介して当該映像音声データ D 5 1 を放送 局 5 3 に電送する。 因みに、 映像音声データ D 5 1 を電送装置 5 2 を介して電送 するのではなく 、 場合によっては映像音声データ D 5 1 をフィール ド編集機 5 1 においてビデオテープ 5 7 に記録し、 このビデオテープ 5 7 を放送局 5 3 に持ち 帰ることによって映像音声データ D 5 1 を搬送することも有り得る。 このよう に して放送局 5 3 に届けられた映像音声データ D 5 1 が上述したよう にディ リ 一サ —バ 3 0 に記録される。 続いて図 1 との対応部分に同一符号を付して示す図 3 を用いて、 ディ リ ーサ一 バ 3 0 の構成を説明する。 図 3 において、 3 0 は全体と してディ リ ーサーバを示 し、 大き く 分けてルータ 6 0 と、 第 1 及び第 2の情報検出器 6 1 、 6 2 と、 サ一 バマネージメ ン ト システム ( S M S ) 6 3 と、 サーバス ト レージ 6 4 と によって 構成される。 このデイ リ ーサーバ 3 0 は、 実際上、 2 つの入力ポー ト I N 1 、 I N 2及び 2つの出力ポー ト O U T 1 、 O U T 2 を有しており、 上述したような方 法によ り放送局に届けられた映像音声データ D 6 0 、 D 6 1 を当該入力ポー ト I N l 、 I N 2 を介して受け、 これを内部のルータ 6 0 に入力するよう になされて いる。
ルータ 6 0 は内部に複数の信号路を有した信号路切換手段であり、 当該複数の 信号路の中から所望の信号路を選択するこ と によ り、 例えば入力された映像音声 データ D 6 0 を第 1 の情報検出器 6 1 に供給し、 映像音声データ D 6 1 を第 2の 情報検出器 6 2 に供給する。
第 1 の情報検出器 6 1 は入力された映像音声データ D 6 0から画像ィ ンデック ス情報を検出すると共に、 映像音声データ D 6 0 に付加されている リ アルタ イ ム コ一ドと記録に際して管理上当該映像音声データ D 6 0 に新たに割り当てたタイ ムコ ー ド (以下、 これをサーバ収録タ イ ムコ ー ドと呼ぶ) との対応表を作成し、 その検出した画像イ ンデック ス情報と作成したタ イ ムコ ー ドの対応表をファイ ル 情報 D 6 2 と してサーバマネージメ ン ト システム 6 3 に出力する。 また第 1 の情 報検出器 6 1 は、 記録動作のために、 入力された映像音声データ D 6 0 を映像音 声データ D 6 4 と してサ一バス ト レージ 6 4 に送出すると共に、 新たに割り当て たサーバ収録タィ ムコー ド D 6 6 をサ一バス ト レ一ジ 6 4 に送出する。
同様に、 第 2の情報検出器 6 2 は入力された映像音声データ D 6 1 から画像ィ ンデックス情報を検出すると共に、 映像音声データ D 6 1 に付加されている リ ア ルタ イ ムコ ー ドと記録に際して管理上当該映像音声データ D 6 1 に新たに割り当 てたサーバ収録タ イ ムコー ドとの対応表を作成し、 その検出した画像ィ ンデック ス情報と作成したタ ィ 厶コ一ドの対応表をフアイル情報 D 6 3 と してサーバマネ —一ジメ ン ト システム 6 3 に出力する。 また第 2の情報-検出器 6 1 は、 記録動作の ために、 入力された映像音声データ D 6 1 を映像音声デ一タ D 6 5 と してサーバ ス ト レージ 6 4 に送出すると共に、 新たに割り当てたサーバ収録タ ィ ムコー ド D 6 7 をサ一バス ト レージ 6 4 に送出する。
因みに、 こ こで言う新たにタ イ ムコー ドを割り当てるというのは、 カ ムコーダ で収録したときに付加した リ アルタ イ ムコ ー ドで映像音声データの各フ レームを 管理するのではなく 、 新たに割り当てたサ一バ収録タィ ムコ 一 ドで映像音声デー タの各フ レームを管理するという こ とであり、 カ ムコ 一ダで収録したときに付加 した リ アルタ イ ムコー ドをサーバ収録タ イ ムコー ドに書き換えるという ことでは ない。
また上述したように映像音声データ D 6 0、 D 6 1 はそれぞれ関連のある幾つ かの映像音声データブロ ックを 1 つに繋げたデータス ト リ ームからなっており、 このディ リ ーサ一バ 3 0 においては、 このよう に幾つかの映像音声データブロ ッ クが連なつた映像音声データ D 6 0、 D 6 1 をそれぞれフアイ ルと して記録する ので、 新たに割り当てられるサーバ収録タイ ムコー ドと しては、 ファイ ル先頭で あることを示すスター ト タイ ムコー ド ( S T C ) と、 ファイ ル先頭からの相対的 位置を示すファイ ルタ イ ムコー ド ( F T C ) からなつている。 このよう なサーバ 収録タイ ムコー ドを新たに割り当てることにより、 このディ リ ーサーバ 3 0 にお いては、 同時刻に収録された映像音声データを 1 つのファイ ルにまとめて記録す るよう な場合でも、 当該フアイ ル内でタィ ムコ一 ドが重複することを回避し得、 タ イ ムコー ドによる映像音声データの管理ができる。
サーバス ト レ一ジ 6 4 は例えばアレイ状に連結された複数のハー ドディスクか らなる記録媒体を内部に有した記録再生部であり、 新たに割り当てられたサーバ 収録タィ ムコー ド D 6 6、 D 6 7 を用いて映像音声データ D 6 4、 D 6 5 を管理 しながら当該映像音声データ D 6 4、 D 6 5 を記憶媒体の所望領域に記録して行 く 。 すなわちサ一バス ト レ一ジ 6 4 は、 映像音声データ D 6 4 を記録する領域の ァ ドレス と、 その記録ァ ドレスの領域に書き込まれる映像音声データ D 6 4 のタ 'ィ ム コ ー ド (こ こ では新たに割り当てたサーバ収録タ-ィ ム コ ー ド D 6 6 ) とを対 応付けて把握しており、 その対応関係に従って映像音声データ D 6 4 を記憶媒体 に記録する。 これにより再生時には、 新たに割り当てたサーバ収録タ イ ムコー ド を指示すれば、 その対応関係を参照して記録ア ド レスを調べ、 指示された映像音 声データ D 6 4 を再生することができる。
同様に、 サ一バス ト レージ 6 4 は、 映像音声データ D 6 5 を記録する領域のァ ド レスと、 その記録ァ ド レス の領域に書き込まれる映像音声データ D 6 5 のタイ ムコー ド (ここでは新たに割り当てたサーバ収録タィ ムコー ド D 6 7 ) とを対応 付けて把握しており、 その対応関係に従って映像音声データ D 6 5 を記憶媒体に 記録する。 これにより再生時には、 新たに割り当てたサーバ収録タ イ ムコー ドを 指示すれば、 その対応関係を参照して記録ア ド レスを調べ、 指示された映像音声 データ D 6 5 を再生することができる。 なお、 サ一バス ト レージ 6 から再生さ れた映像音声データ D 6 4 、 D 6 5 は、 それぞれ映像音声データ D 6 8 、 D 6 9 と してルータ 6 0、 出力ポー ト O U T 1 、 O U T 2 を介して例えばマニュアル操 作の編集装置 4 2 に送出される。 またサーバス ト レージ 6 はデータ圧縮伸長部 を含んでおり、 必要であれば映像音声データ D 6 4 、 D 6 5 を記録する際に所定 の圧縮処理を施し、 再生時にはそれを伸長するよう にもなされている。
サーバマネージメ ン ト システム 6 3 は、 このディ リ 一サーバ 3 0 の全体動作を 制御する制御手段であり、 制御信号 S 7 0 を出力してルータ 6 0、 第 1 及び第 2 の情報検出器 6 1 、 6 2、 並びにサ一バス ト レ一ジ 6 4 の動作を制御する。 例え ばルータ 6 0 に対しては選択する信号路を指示し、 第 1 及び第 2の情報検出器 6
1 、 6 2 に対しては画像ィ ンデックス情報の検出及びタィ ムコ一ドの対応表作成 を指示し、 またサーバス ト レージ 6 4 に対しては映像音声データ D 6 4 、 D 6 5 の記録や再生を指示する。 またサーバマネ一ジメ ン ト シス テム 6 3 は、 第 1 及び 第 2の情報検出器 6 1 、 6 2から受けた画像イ ンデックス情報及びタイ ムコー ド の対応表からなるフアイ ル情報 D 6 2 、 D 6 3 を L A N 2 7 を介してシステム制 御部 2 6 に転送し、 これによつて当該フ ァイ ル情報 D 6 2 、 D 6 3 を シス テム制 御部 2 6 に接続された外部記憶装置 3 5 にデータ ベースと して記憶し得るよう に なされている。
こ こで上述した第 1 及び第 2 の情報検出器 6 1 、 6 2 について具体的に説明す る。 但し、 第 1 及び第 2の情報検出器 6 1 、 6 2 はいずれも同一の構成を有して いるので、 こ こでは第 1 の情報検出器 6 1 についてのみ説明する。 まず第 1 の情 報検出器 6 1 は、 入力バッファ 6 1 A、 読出ク n ック発生器 6 1 B、 タ イ ムコ 一 ドレジスタ 6 1 C、 C P U (中央処理ユニッ ト) 6 1 D、 タ イ ムコー ド管理テ一 ブル格納部 6 1 E及び画像ィ ンデックス格納部 6 1 Fによって構成されており、 供給された映像音声データ D 6 0 を入力バッファ 6 1 Aと読出ク π ック発生器 6 1 Bに入力するよう になされている。
入力バッファ 6 1 Aは例えばメ モ リ からなり、 供給される映像音声データ D 6 0 を順次内部のメ モ リ領域に格納して行く 。 そして入力バッファ 6 1 Aは、 後述 するよう に C P U 6 1 Dで新たに割り当てたサーバ収録タイ ムコー ド D 6 6 に同 期して、 その映像音声データ D 6 0 を読出し、 これを映像音声データ D 6 4 と し てサ一バス ト レ一ジ 6 4 に出力する。 一方、 読出ク Ώ ック発生器 6 1 Βは、 供袷 される映像音声データ D 6 0 を基に当該映像音声データ D 6 0のフ レームタイ ミ ングを示すク ロ ック信号 S 7 1 を発生し、 これをタ イ ムコー ドレジスタ 6 I C と C P U 6 1 Dに出力する。
C P U 6 1 Dは、 この情報検出器 6 1 の全体動作を制御する制御回路である。 この C P U 6 1 Dは、 入力バッファ 6 1 Αをアク セスすることによ り当該入カバ ッファ 6 1 Aに格納されている映像音声データ D 6 0から順次素材情報 D 7 2 を 読み出す。 この場合、 読み出す素材情報 D 7 2 と しては、 映像データの垂直同期 期間に挿入されている V I T Cタ イ ムコー ドと、 同じ く映像データの垂直同期期 間にあるユーザ領域に格納されている撮影年月 曰や機種名、 或いはカセッ ト番号 や撮影場所等のィ ンデックスデータ、 さ らにはグッ ト ショッ トマークのデータで ある。
C P U 6 1 Dは、 入力バッファ 6 1 Aから読み出したデータのうちユーザ領域 に格納されていたデータ (すなわち上述した撮影年月-日や機種名等のィ ンデック スデータ とグッ ト ショッ トマ一クのデータ) を画像ィ ンデック ス情報 D 7 3 と し て画像ィ ンデック ス格納部 6 1 Fに格納する。 その際、 C P U 6 1 Dは、 映像音 声データ D 6 0 のブロ ック毎にそれぞれのデータを整理して画像ィ ンデック スの テーブルを作成し、 これを画像イ ンデック ス情報 D 7 3 と して画像イ ンデックス 格納部 6 1 Fに格納する。
また C P U 6 1 Dは、 入力バッファ 6 1 Aからのデータ読出によ り得た映像音 声データ D 6 0 の先頭フ レームに付加されている V I T Cタイ ムコー ドを、 プロ ック先頭を示す V I T Cタ イ ムコー ドと してタイ ムコー ドレジスタ 6 1 Cに格納 すると共に、 内部のタイ ムコー ドカ ウ ンタ に設定する。 そして C P U 6 1 Dは、 読出ク ロ ック発生器 6 1 Bからのク ロ ック信号 S 7 1 に基づいてタィ 厶コー ド力 ゥ ンタの値を順にィ ンク リ メ ン ト (すなわちクロック信号 S 7 1 に同期して 1 つ ずつタ イ ムコ ー ドの値を増加する) し、 そのイ ンク リ メ ン ト したタ イ ムコ ー ドの 値と入力バッファ 6 1 Aから読出した映像音声データ D 6 0 の V I T Cタ イ ムコ 一ドの値とを順次比較することにより映像音声データ D 6 0 を構成する最初の映 像音声データブロ ックの末尾を検出し、 当該ブ nック末尾を示す V I T Cタイ ム コ― ドを検出する。 これによ り C P U 6 1 Dは映像音声データ D 6 0 を構成する 最初の映像音声データプロ ックの先頭を示す V I T C タ イ ムコー ドとブロ ック末 尾を示す V I T C タ イ ムコ ー ドを検出する。
続いて C P U 6 I Dは、 映像音声データ D 6 0の次のブロ ック の先頭フ レーム に付加されている V I T C タ イ ムコー ドを入力バッファ 6 1 Aから得、 これをタ ィ ムコ ー ドレジスタ 6 1 C に格納すると共に、 内部のタ ィ ムコ ー ドカ ウ ンタ に設 定する。 そして同様の比較処理により次の映像音声データブロ ックの末尾を示す V I T Cタ イ ムコー ドを得る。 以下、 これを順に繰り返して行く こ と によ り、 映 像音声データ D 6 0 を構成する各映像音声データブ π ックの先頭と末尾の V I T C タ イ ムコー ドを検出する。
また C P U 6 1 Dは、 このブロック先頭とブロック末尾の V I T Cタイ ムコ 一 ドの検出処理に並行して、 映像音声データ D 6 0 に対するサーバ収録タィ ム コ一 ドの割り当て処理を行う。 具体的には、 まず始めに C P U 6 1 Dは、 内部に有す る S T C用のタイ 厶コ一 ドカ ウ ンタの値を所定値に設定し、 F T C用のタイ ムコ — ドカ ウ ンタの値を リ セッ ト して 「 0 0 : 0 0 : 0 0 : 0 0」 に設定する。 因み に、 S T C用のタ イ ムコー ドカ ウ ンタ に設定する所定値と しては記録開始時刻が 分かるよう な値であれば任意の値で良く 、 例えば放送局内に用意された基準タィ ムコー ドの値が使用される。 そして C P U 6 I Dは、 読出ク ロ ック発生器 6 1 B から供給されるク ロ ック信号 S 7 1 に基づいて F T C用のタ イ ムコー ドカ ウ ンタ の値を順にィ ンク リ メ ン ト して行き、 当該 F T C用のタイ ムコ一 ドカウ ンタが示 す F T C値と、 S T C用のタイ ムコー ドカ ウ ンタが示す S T C値を映像音声デー タ D 6 0の各フ レーム に順に割り当てて行く 。 すなわち入力バッ フ ァ 6 1 Aに入 力された映像音声データ D 6 0のうち最初のフ レームに対しては S T C値と して 初期設定された所定値を、 F T C値と しては 「 0 0 : 0 0 : 0 0 : 0 0」 を割り 当て、 次のフ レームに対しては同じ S T C値と 「 0 0 : 0 0 : 0 0 : 0 1 」 から なる F T C値を割り当てて行く 。 これによ り C P U 6 1 Dは、 同一フ ァイ ルと し て記録する映像音声データ D 6 0 に対してフ アイ ル内で連続する新たなサーバ収 録タ イ ムコ ー ドを割り当てて行く 。 因みに、 C P U 6 1 Dは、 この新たに割り当 てたサーバ収録タ イ ムコ ー ドをタ イ ムコ ー ド D 6 6 と してサ一バス ト レージ 6 4 に送出する。
C P U 6 1 Dは、 このようにして検出した各ブ ックの先頭及び末尾の V I T Cタイ ムコー ドを使用して、 新たに割り当てたサーバ収録タィ ムコー ド ( S T C 及び F T C ) と映像音声データ D 6 0 に既に付加されている V I T Cタ イ ムコ 一 ドとの対応関係をブロ ック毎に整理し、 これによつて新たに割り当てたサーバ収 録タ イ ムコー ドと既に付加されている V I T Cタ イ ムコー ドとの対応表を作成し 、 これをタイ ムコー ド対応表情報 D 7 4 と してタイ ムコ 一 ド管理テーブル格納部 6 1 Eに格納する。
タ イ ムコ 一 ド管理テーブル格納部 6 1 Eは例えばメ モ リ からな り、 C P U 6 1 Dの処理によって格納されたタイ 厶コー ド対応表情報!) 7 4 を上述したよう にフ アイ ル情報 D 6 2 と してサーバマネージメ ン ト システム 6 3 に出力する。 同様に 、 画像イ ンデック ス格納部 6 1 Fは例えばメ モ リ からなり、 C P U 6 1 Dの処理 によって格納された画像イ ンデック ス情報 D 7 3 をフ ァイ ル情報 D 6 2 と してサ ーバマネージメ ン ト システム 6 3 に出力する。 これによ り画像ィ ンデック ス情報 やタ イ ムコー ド対応表からなるフアイ ル情報 D 6 2 をサーバマネージメ ン ト シス テム 6 3 を介してシステム制御部 2 6 に転送し得、 このニュース番組制作放送シ ステム 2 0の各装置において当該フアイ ル情報 D 6 2 を共通に参照し得る。
こ こで画像ィ ンデックス情報の検出処理とタィ ムコ一ド対応表の作成処理につ いて、 以下に具体例を示して説明する。 まず図 4 に示すよう に、 映像音声データ D 6 0 は例えば 6つの映像音声データ ブロ ックからなっており、 第 1 のブロ ック にはリ アルタ イ ムコー ドと して 「 0 0 : 0 5 : 0 0 : 0 0」 カヽら 「 0 0 : 1 0 : 0 0 : 0 0」 までの V I T Cタイ ムコ ー ドが付加され、 第 2のブロ ック にはリ ア ルタ イ ムコー ドと して 「 0 0 : 0 7 : 0 0 : 0 0」 から 「 0 0 : 1 4 : 0 0 : 0 0」 までの V I T Cタイ ムコー ドが付加されているものとする。 同様に、 第 3か ら第 6 のブロ ック には、 リ アルタ イ ムコー ドと して 「 0 0 : 0 5 : 3 0 : 0 0」 から 「 0 0 : 1 1 : 0 0 : 0 0」 までの V I T Cタイ ムコー ド、 「 0 0 : 0 6 : 0 0 : 0 0」 力、ら 「 0 0 : 1 2 : 0 0 : 0 0」 までの V I T Cタイ ムコー ド、 「 0 0 : 0 5 : 0 0 : 0 0」 から 「 0 0 : 1 2 : 0 0 : 0 0」 までの V I T Cタイ ムコー ド、 「 0 0 : 1 0 : 0 0 : 0 0」 から 「 0 0 : 1 8 : 0 0 : 0 0」 までの V I T Cタ イ ムコー ドがそれぞれ付加されているものとする。
また各ブロ ックの映像音声データ には、 素材情報と して撮影年月 日、 カ ムコー ダ機種名、 カムコ 一ダシリ アル番号、 カセッ ト番号、 撮影場所等のィ ンデックス データが付加されていると共に、 グッ ト ショッ トマ一クのデータが付加されてい るものとする。 なお、 図 4 においては矢印 7 0 A〜 7 0 Hがダッ ト ショ ッ ト マ ー クが付加されているフ レーム位置を示す。 また映像音声データ D 6 0の先頭に付 加されているスター トォブメディア ( S 0 M ) は複数のブロックからなるデータ ス ト リ ームの先頭を示す情報であり、 映像音声データ D 6 0の末尾に付加されて いるエン ドォブメディ ア ( E〇 M) は複数のブロ ックからなるデータス ト リ ーム の末尾を示す情報である。
このよう な映像音声データ D 6 0が入力バッファ 6 1 Aに入力されると、 C P U 6 1 Dは当該映像音声データ D 6 0から順に素材情報を抽出し、 ィ ンデックス データ及びグッ ト ショッ トマ一クのデータを画像ィ ンデック ス情報 D 7 3 と して 画像ィ ンデックス格納部 6 1 Fに格納する。 その際、 C P U 6 1 Dは、 各プロ ッ ク毎にそれぞれのデータを整理して例えば図 5 ( A) 又は図 5 ( B ) に示すよう なテーブルを作成し、 これを画像ィ ンデックス格納部 6 1 Fに格納する。 因みに 、 図 5 ( A) に示すテーブルは、 撮影年月 曰、 機種名、 シ リ アル番号、 カセッ ト 番号及び撮影場所をブロ ック毎に整理したイ ンデック ステーブルであり、 図 5 ( B ) に示すテーブルは、 グッ ト シヨ ン トマークが付加されたフ レームを V I T C タ イ ムコ一 ドで示し、 これをブロ ック順に整理したグッ ト ショッ トマ一クテ一ブ ルである。
また C P U 6 1 Dは、 このような映像音声データ D 6 0が入力バッファ 6 1 A に入力されると、 当該映像音声データ D 6 0から V I T Cタイ ムコー ドを順に抽 出して、 各ブロ ックの先頭及び末尾の V I T Cタ イ ムコー ドを検出する。 また C P U 6 1 Dは、 映像音声デ一タ D 6 0 に対して新たなサーバ収録タイ ムコー ドと してフアイ ルの先頭位置を示す S T C とファイ ル先頭からの相対的位置を示す F T Cを各フ レームに順に割り当てる。 例えば図 4 に示すよう に、 S T Cと しては 「 0 1 : 0 0 : 0 0 : 0 0」 なるタ イ ムコー ドを割り当て、 F T Cとして 「 0 0 : 0 0 : 0 0 : 0 0」 から始まる連続したタ イ ムコー ドをそれぞれのフ レームに 順に割り当てる。 そして C P U 6 1 Dは、 検出した各ブロ ックの先頭及び末尾 の V I T Cタ イ ムコー ドを使用して、 図 6 に示すよう に、 新たに割り当てたサ一 バ収録タィ ムコー ド ( S T (:、 F T C ) と既に映像音声データ D 6 0 に付加され ている V I T Cタ イ ムコー ドとの対応関係を示すタ イ ムコー ド管理テーブルを作 成し、 これをタイムコ 一 ド対応表情報 D 7 4 と してタ イ ムコ 一 ド管理テーブル格 納部 6 1 Eに格納する。 この図 6 に示すよう に、 タィ -厶コ一ド管理テーブルはブ 口 ック毎に整理されており、 ブロ ックの先頭に割り当てた S T C と F T C:、 ブ η ックの先頭から末尾までの長さを示すデュレ一シヨ ン (D u r ) 、 並びにブロ ッ クの先頭に付加されている V I T Cタ イ ムコー ド ( S— V I T C ) とブロ ックの 末尾に付加されている V I T Cタイ ムコー ド (E— V I T C ) によって表されて いる。 このようなタイ 厶コー ド管理テーブルを作成することによ り、 編集時、 映 像音声データ D 6 0 に実際に付加されている V I T Cタ イ ムコー ドでフ レーム位 置を指定しても、 このタ イ ムコー ド管理テーブルを参照すれば、 ディ リ ーサーバ 3 0 において記録管理のために新たに割り当てたサーバ収録タィ ムコ一 ドを特定 し得、 V I T Cタ イ ムコ 一 ドで指定したフ レーム位置の映像音声データ D 6 0 を ディ リ ーサーバ 3 0から再生することが可能となる。
ここで画像ィ ンデックス情報の検出手順とタ イ ムコ 一 ド管理テ一ブルの作成手 順を図 7及び図 8 に示すフ ローチャー トを用いて説明する。 まずステップ S P 1 から入ったステツプ S P 2 において、 シス テム制御部 2 6から映像音声データ D 6 0の収録指示を受け、 サーバマネージメ ン ト システム 6 3がディ リ 一サーバ 3 0 内の各部に対して収録開始を指示する。 次のステップ S P 3 においては、 ルー タ 6 0 によって信号路が設定され、 記録対象の映像音声データ D 6 0が情報検出 器 6 1 の入力バッファ 6 1 Aに順に入力される。
次のステップ S P 4 においては、 情報検出器 6 1 の C P U 6 1 Dが映像音声デ —タ D 6 0 に対して新たなタィ ムコ 一 ド割り当て処理を行う。 すなわち C P U 6 1 Dは、 入力バッファ 6 1 Aから映像音声データ D 6 0の先頭フ レームに付加さ れている V I T Cタ イ ムコ ー ドを読み取り、 その値をタ イ ムコ ー ド レジスタ 6 1 Cに初期設定すると共に、 C P U 6 1 D内部のタ イ ムコ一 ドカ ウ ンタ にもその値 を初期設定する。 また C P U 6 1 Dは、 当該 C P U 6 1 D内部の S T C用のタイ ムコー ドカ ウ ンタに収録開始時刻を示すような所定値を設定し、 F T C用のタイ ムコー ドカ ウ ンタ を リ セッ 卜する。
次のステップ S P 5 においては、 C P U 6 1 Dはタ イ ムコー ド管理テーブル格 納部 6 1 Eに対してタ イ ムコー ド レジスタ 6 1 Cに初期設定した V I T Cタ イ ム コ ― ドの値及び S T C、 F T Cの値を格納し、 タイ 厶コ 一 ド管理テ一ブルの作成 を開始する。 次のステップ S P 6 では、 C P U 6 1 Dは入力バッファ 6 1 Aから 例えば撮影年月 日や機種名等のィ ンデック スデータ と、 グッ ト ショッ トマ一ク の データを読み取り、 これを画像ィ ンデック ス情報 D 7 3 と して画像ィ ンデックス 格納部 6 1 Fに書き込む。 因みに、 その際には、 上述したよう にそれぞれのデー タをブロ ック毎に整理してィ ンデック ステーブルゃグッ ト ショッ トマ一クテ一ブ ルを作成し、 これを画像イ ンデック ス格納部 6 1 Fに格納する。
次のステップ S P 7 においては、 C P U 6 1 Dは、 読出ク ロ ック発生器 6 1 B で生成したフ レームタイ ミ ングを示すク ロ ック信号 S 7 1 に基づいて当該 C P U 6 1 D内部のタ イ ムコ ー ドカ ウ ンタ と F T C用のタ イ ムコ ー ドカ ウ ンタ の値をィ ンク リ メ ン ト して行く 。 次のステップ S P 8 においては、 C P U 6 1 Dは、 ク ック信号 S 7 1 に基づいて入力バッファ 6 1 Aから読み出した V I T Cタ イ ムコ — ドの値とタイ ムコー ドカ ウ ンタの値とを比較し、 その値が異なる場合には、 タ ィ ムコ一ドの不連続点であると して (すなわち映像音声データのブロ ックが切り 換わったと して) 、 タ イ ムコー ドカ ウ ンタ の値よりも 1 つ前の値をブロ ック末尾 の V I T Cタイ ムコー ドと してタイ ムコ ー ド管理テ一ブル格納部 6 1 Fに格納し 、 そのブロ ック に関するタ イ ムコ 一 ド管理テーブルを作成する。 また C P U 6 1 Dは、 入力バッファ 6 1 Aから読み出した V I T Cタ イ ムコー ドを次の映像音声 データブロ ックの先頭タイ ムコー ドと して新たにタイムコー ドレジスタ 6 1 Cに 格納する。
次のステップ S P 9 においては、 C P U 6 1 Dは、 タ イ ムコ ー ド管理テーブル 格納部 6 1 F内に新たなブ ック番号を発生し、 タ イ ムコー ドレジスタ 6 1 Cに 書き込んだ V I T Cタ イ ムコー ドの値及び S T C、 F T Cの値を当該タ イ ムコ 一 ド管理テーブル格納部 6 1 Fに格納し、 次のブ π ックに関するタィ ムコ一 ド管理 テーブルの作成を開始する。 次のステップ S P 1 0では、 C P U 6 1 Dは収録終 了か否か判定し、 収録終了でなければステップ S P 6 に戻って処理を繰り返し、 収録終了であれば次のステップ S P 1 1 に移る。 これによ り C P U 6 1 Dは、 映 像音声データ D 6 0のブロ ック毎に画像ィ ンデックス情報とタイ ムコ 一 ドの対応 関係を整理しながら画像ィ ンデックスのテーブルとタィ ムコ 一 ド管理テーブルを 作成する。
次のステップ S P 1 1 においては、 画像イ ンデック ス格納部 6 1 F及びタ イ ム コー ド管理テーブル格納部 6 1 Eは、 画像イ ンデック スのテーブルとタ イ ムコ 一 ド管理テーブルをファイ ル情報 D 6 2 と してサーバマネージメ ン ト システム 6 3 に転送し、 これによりサーバマネージメ ン ト システム 6 3から システム制御部 2 6 にフアイル情報 D 6 2 を転送する。 この処理が終わると次のステップ S P 1 2 に移って処理を終了する。 かく してこのよう な処理によ り、 図 5 に示した画像ィ ンデック スのテーブルや図 6 に示したタイ 厶 コ 一 ド管理テーブルがシス テム制御 部 2 6 に転送され、 当該シス テム制御部 2 6 に接続された外部記憶装置 3 5 に記 憶される。 これによ り このニュース番組制作放送システム 2 0では、 編集時等、 これらのテーブル情報を制御情報と して参照することができ る。
( 3 ) 編集装置
次にこの項では、 マニュアル操作によって編集処理を行う編集装置 4 2 につい て説明する。 編集装置 4 2では、 ディ リ ーサーバ 3 0 をアクセス して所望の映像 素材や音声素材を読み出し、 これを編集処理するこ とによ り放送用のプロ グラム を作成するこ とができ る。 この編集装置 4 2 は表示手段と してのモニタ (図示せ ず) を有しており、 当該モニタ に表示されるグラフィ カ ル ' ユーザ · イ ンタ一フ ェイ ス (以下、 これを G U I と呼ぶ) を操作して編集処理を行う よう になされて いる。 またこの編集装置 4 2 では、 プログラムに使用する映像素材をディ リ ーサ —バ 3 0から読み出して表示し得るよう になされており、 当該映像素材を確認し ながら編集作業を行う こ とができ るようになつている。
こ こでこの編集装置 4 2のモニタ に表示される表示画面を図 9 に示す。 この図 9 に示すよう に、 編集装置 4 2 の表示画面は大き く分けてビユウァウイ ン ドゥ 8 0 とロ グウィ ン ドウ 8 1 とプロ グラムウィ ン ドウ 8 2 とコマ ン ドエ リ ア 8 3 とに よって構成される。 ビユウァウイ ン ドウ 8 0 は素材の映像を表示すると共に、 ィ ン点ゃァゥ ト点を指定して素材から所望部分を切り取ってィ ベン ト を生成するた めのエ リ アであり、 素材表示エ リ ア 8 0 A、 ファイ ル名表示エ リ ア 8 0 B、 タ イ ムコ一 ド表示エ リ ア 8 0 C、 イ ン点画像表示エ リ ア 8 0 D、 イ ン点ボタ ン 8 0 E 、 アウ ト点画像表示エ リ ア 8 0 F、 アウ ト点ボタ ン 8 0 G、 エン ト リ ボタ ン 8 0 H及びコマン ドボタ ンエ リ ア 8 0 I によって構成される。
このよう なビユウァウィ ン ドウ 8 0 においては、 コ マン ドボタ ンエ リ ア 8 0 I の再生ボタ ンをマウスでク リ ックすると、 ファイ ル名表示エ リ ア 8 0 Bに表示さ れているファイ ルの素材映像が素材表示エ リ ア 8 O Aに表示される。 そのときタ ィ ムコ一ド表示ェ リ ア 8 0 Cをク リ ック して所望の リ アルタ イ ムコー ド (この場 合、 素材に実際に付加されている V I T C タ イ ムコー ド) を入力すると、 その指 定された リ アルタ イ ムコ ー ドのフ レーム映像信号を読み出してその映像を素材表 示エ リ ア 8 0 Aに表示することができる。 この場合、 編集装置 4 2 と しては、 上 述したよう にシステム制御部 2 6の外部記憶装置 3 5 に記憶されたタィ ムコー ド 管理テーブルを参照し、 これによつて リ アルタ イ ムコ 一 ドで指定されたフ レーム のサーバ収録タ イ ムコ ー ド ( S T C、 F T C ) を調べ、 当該サーバ収録タ イ ムコ ― ドを使用してディ リ ーサ一バ 3 0 をアクセス して指定されたフ レーム映像信号 を呼び出すよう になされている。
またその際、 指定した リ アルタ イ 厶コ 一 ドのフ レームが同一ファイ ル内に複数 存在した場合には、 同様にタ イ ムコー ド管理テーブルを参照して該当するフ レー 厶のサーバ収録タ イ ムコー ドを調べ、 それぞれのフ レーム映像信号をディ リ ーサ —バ 3 0から読み出す。 そして図 9 に示すよう に、 表示画面上に同一タ イ ムコ 一 ド表示エ リ ア 9 0 をオープンし、 当該表示エ リ ア 9 0 内に読み出したそれぞれの フ レーム映像信号 9 O A〜 9 0 Dを縮小表示する (以下、 このフ レーム映像信号 の縮小表示をそれぞれスタ ンプビクチャと呼ぶ) 。 これによりオペレータ は指定 した リ アルタ イ ムコ ー ドのフ レームがフアイ ル内に複数存在する こ とを知り得る 。 この状態で所望のスタ ンプビクチャ 9 0 A〜 9 0 Dをク リ ック して指定すると \ 指定されたスタ ンプピクチャのフ レーム映像信号が素材表示ェ リ ア 8 0 Aに表 示される。 このよう にして同一ファイ ル内に同じ リ アルタ イ ムコ ー ドのフ レーム が存在する場合でも、 オペレ タ は簡易な操作で見たい素材を素材表示エ リ ア 8 0 Aに表示させることができる。
次にログウィ ン ドウ 8 1 はビユウァウィ ン ドウ 8 0のイ ン点ボタ ン 8 0 Eとァ ゥ ト点ボタ ン 8 0 Gをク リ ックすることによりイ ン点とァゥ ト点を指定し、 ェン ト リ ボタ ン 8 0 Hをク リ ック して切り取ったイ ベン ト を格納しておく ためのエ リ ァである。 この Ώグウィ ン ドウ 8 1 においては、 切り取ったイ ベン ト を示すため 、 当該イ ベン ト のイ ン点又はアウ ト点のク リ ップ画像 8 1 A〜 8 1 Gが表示され る。 またこのログウィ ン ドウ 8 1 内に設けられたコマン ドボタ ンエ リ ア 8 1 Hの うち所定のコマン ドボタ ンをク リ ック操作すると、 現在アク セス しているフアイ ル内においてグッ ト ショッ トマークが付加されたフ レームのスタ ンプピクチャを ク リ ップ画像 8 1 A〜 8 1 G等と同様に並べて表示するよう になされている。 こ の場合、 編集装置 4 2 と しては、 上述したよう にシステム制御部 2 6 の外部記憶 装置 3 5 に記憶されたグッ ト ショッ トマークテーブルを参照し、 これによつてグ ッ ト ショッ トマークが付加されたフ レームのサーバ収録タ イ ムコ 一 ド ( S T C、 F T C ) を調べ、 当該サーバ収録タィ ムコ一 ドを使用してディ リ一サーバ 3 0 を アクセス してグッ ト シヨッ トマークが付加されたフ レーム映像信号を読み出して スタ ンプビクチヤを表示するよう になされている。
因みに、 グッ ト ショッ トマークが付加されたフ レームのスタ ンプビクチャを表 示するときには、 当該スタ ンプピクチャと共にそのフ レームのリ アルタ イ 厶コ 一 ドを表示するようになっている。 これによりグッ ト ショッ トマ一クが付加されて いるフ レームの内容を確認することができると共に、 そのフ レームの リ アルタイ ムコ一 ドを知ってその映像を素材表示ェ リ ア 8 0 Aに表示することができ、 グッ ト ショッ トマークを目安と した編集を行う ことができ る。
次にプログラムウィ ン ドウ 8 2 は、 グウィ ン ドウ 8 1 に収められているィ べ ン 卜から所望のイ ベン ト を取り出してこれを所望の順番に並び換えた り、 或いは -所望のィ ベン ト に対して特殊効果処理の指示を与えたりするこ と によ り、 放送用 のプロ グラムを指定するためのエ リ アである。 なお、 このプロ グラムウィ ン ドウ 8 2 は仮想的な空間であり、 こ のエ リ ア内にイ ベ ン トを並べただけでは実際の編 集処理は行われず、 コマン ドエ リ ア 8 3の所定コマン ドボタ ンをク リ ック して編 集処理実行の命令を入力したときに始めて編集処理が実行される。
コ マ ン ドエ リ ア 8 3 は編集処理に係わる各種コ マ ン ドが配置されたェ リ ァであ る。 この編集装置 4 2 では、 このコマン ドエ リ ア 8 3 に用意された各種コマ ン ド ボタ ンをマウスでク リ ックする こ とによ り各種編集処理のコ マン ドを入力する こ とができ る。 なお、 各ウィ ン ドウ 8 0、 8 1 及び 8 2 内で行われる専用処理に関 するコ マ ン ドについては、 それぞれのウィ ン ドウ 8 0、 8 1 及び 8 2内に設けら れたコマン ドボタ ンエ リ ア 8 0 I、 8 0 H、 8 2 Aに用意されている。
こ こで上述したよう に同一タ イ ムコー ド表示エ リ ア 9 0 をオープン して同じ リ アルタ イ ムコー ドのス タ ンプビクチャを表示するときの処理手順を、 図 1 0 に示 すフ ロ ーチャー ト を用いて説明する。 まずこの場合には、 ステップ S P 2 0から 入ったステップ S P 2 1 において、 オペレータ によ りアク セス したい リ アルタ イ ムコ一 ドが設定されると、 編集装置 4 2 は次のステップ S P 2 2 に移る。 ステツ プ S P 2 2では、 編集装置 4 2 は指定された リ アルタ イ ムコ ー ドがアクセス対象 のフアイ ル内に複数存在するか否か判断する。 そして編集装置 4 2 は、 指定され た リ アルタ イ ムコードが同一ファィ ル内に複数存在する場合には、 ディ リ ーサ一 バ 3 0 をアクセス して指定された リ アルタ イ ムコ ー ドのスタ ンプビクチャを全て 得ると共に、 同一タイ ムコー ド表示エ リ ア 9 0 をオープンしてそれらのスタ ンプ ビクチヤを表示する。
次のステップ S P 2 3 において、 オペレータ によ りアク セス したいシーンのス タ ンプピクチャがク リ ック されると、 編集装置 4 2 は次のステツプ S P 2 4 に移 る。 ステップ S P 2 4では、 ク リ ック によって指定されたスタ ンプピクチャの映 像をディ リ ーサーバ 3 0から読み出し、 これをビユウァウィ ン ドウ 8 0 内の素材 表示ヱ リ ア 8 0 Aに表示する。 そ して編集装置 4 2 は、 次のステップ S P 2 5 に '移って同一タイ ムコー ド表示エ リ ア 9 0 をク ローズしく 続く ステップ S P 2 6 に 移って処理を終了する。 このよう な処理手順によって同じ リ アルタ イ ムコー ドの スタ ンプピクチヤを表示することにより、 オペレータ は見たい素材を容易に指定 し得、 編集作業を効率的に行う ことができる。
( 4 ) 動作及び効果
以上の構成において、 このニュース番組制作放送システム 2 0では、 取材現場 での撮影によって得た映像音声データをディ リ ーサーバ 3 0 に記録しておき、 当 該ディ リ一サーバ 3 0 に格納されている各種映像素材及び音声素材を使用して編 集処理を行う ことにより放送用のプログラ厶を作成する。 ところでディ リ ーサ一 バ 3 0 においては、 映像音声データを記録する際、 例えば同一取材現場で収録し た複数の映像音声データを 1 つのファイ ルにまとめて記録する。 その際、 ディ リ —サーバ 3 0 は、 それら複数の映像音声データをタ イ ムコー ドによって管理し得 るよう にするため当該映像音声データ に対して新たなサーバ収録タ イ ムコー ド ( S T C、 F T C ) を割り当てて記録する。 ところがこのように新たなサーバ収録 タ イ ムコー ドを割り当てて記録するよう にすると、 カ ムコーダで収録されたとき に付加された収録時の実時間を示すリ アルタ ィ ムコ一ドで素材を読み出すことが できなく なる。
そこでこのディ リ 一サーバ 3 0では、 カムコーダで収録したときに付加された リ アルタ イ ムコー ド (こ こでは V I T Cタ イ ムコー ド) を映像音声データ D 6 0 (又は D 6 1 ) から検出し、 当該リ アルタ イ ムコー ドと新たに割り当てたサーバ 収録タイ ムコー ド ( S T C、 F T C ) との対応関係を示すタイ ムコー ド管理テ一 ブルを作成し、 これを転送してシステム制御 2 6 の外部記憶装置 3 5 に記憶する 。 このよゔなタイ ムコ ー ド管理テーブルを外部記憶装置 3 5 に格納しておく と、 編集装置 4 2 ではそのタイ ムコ 一 ド管理テーブルを参照してリ アルタイ ムコ 一 ド と新たに割り当てたサーバ収録タィ ムコー ドとの対応関係を知ることができる。 従って編集装置 4 2では、 オペレータから リ アルタ イ ムコー ドで素材指定がなさ れた場合でも、 タ イ ムコ ー ド管理テーブルによってサーバ収録タ イ ムコ 一 ドを調 'ベ、 リ アルタ イ ムコ ー ドで指定された素材をディ リ一-サーバ 3 0から容易に読み 出すこ とができ る。 このよう にしてこのニュース番組制作放送シス テム 2 0 では 、 ディ リ一サーバ 3 0 に記録するときに割り当てたサーバ収録タ ィ 厶コー ドと力 ム コーダによって収録したときに付加された リ アルタ イ ム コー ドとの対応関係を 示すテーブルを作成し、 これを共通にアク セス可能な外部記憶装置 3 5 に記憶す るよう にしたことにより、 リ アルタ イ ムコー ドによる指定でディ リ 一サーバ 3 0 から素材を読み出すこ とができ、 編集時の使い勝手を向上し得る。
また リ アルタ イ ムコ一 ドで素材を指定したとき、 ア ク セス対象のフ ァイ ル内に 同一タ イ ムコ 一 ドが存在する場合、 その同一タ イ 厶コ ー ドのスタ ンプピクチャを それぞれ編集装置 4 2の画面に表示するよう にしたこ とによ り、 同一タイ 厶コ 一 ドが複数存在する場合でも、 オペレータ はアクセス したい素材を容易に指定し得 、 編集作業を効率的に行う ことができ る。
さ らにカ ムコーダで収録したときに付加されたグッ ト ショッ トマークのデータ を映像音声データ D 6 0 (又は D 6 1 ) から検出し、 当該グッ ト シヨッ トマーク が付加されたフ レームの リ アルタ イ ムコ ー ドを示すグッ ト ショッ ト マ一ク テ一ブ ルを作成し、 これをシステム制御部 2 6 の外部記憶装置 3 5 に記憶するよう に し たことにより、 編集時、 当該グッ ト シ ョ ッマークテープルを参照してグッ ト ショ ッ トマークが付加されたフ レームのスタ ンプピクチヤを編集装置 4 2の画面に表 示することができ、 これによつて撮影時に付加したグッ ト ショッ トマ一クを目安 と した編集作業を行う こ とができ、 編集時の使い勝手を向上し得る。
さ らに撮影時に付加した撮影年月日、 カ ムコーダ機種名、 カ ムコーダシ リ アル 番号、 カセッ ト番号、 撮影場所等のィ ンデックスデータを映像音声データ D 6 0 (又は D 6 1 ) から検出し、 これをイ ンデックステーブルと してシス テム制御部 2 6の外部記憶装置 3 5 に記憶するよう にしたことによ り、 従来のよう にィ ンデ ックスデータをオペレータが入力しな く ても良く なり、 オペレータ の手間を削減 し得る。
このよう に してこのニュース番組制作放送システム 2 0 では、 映像音声データ D 6 0 (又は D 6 1 ) を記録するとき、 リ アルタ イ ム-コー ド、 ダッ ト ショ ッ トマ 一クのデータ及びィ ンデックスデータ等、 素材に付加された素材情報を当該映像 音声データ D 6 0 (又は D 6 1 ) から検出し、 その検出結果に基づいて、 タ イ ム コ 一 ド管理テーブル、 グッ ト ショッ ト マーク テーブル及びィ ンデック ステーブル 等の所定の制御情報を生成し、 これを各装置からアクセス可能な外部記憶装置 3 5 に記憶するよう にしたことによ り、 オペレータが入力しな く ても素材に関する 制御情報を容易に設定し得ると共に、 編集時、 当該制御情報に基づいた編集処理 を行う ことができ、 かく して編集時の使い勝手を向上し得る。
以上の構成によれば、 素材に付加された素材情報を映像音声データ D 6 0 (又 は D 6 1 ) から検出し、 その検出結果に基づいて所定の制御情報を生成してこれ を外部記憶装置 3 5 に記憶するよう にしたこ とによ り、 素材に関する制御情報を 容易に設定し得ると共に、 当該制御情報に基づいた編集処理を行う ことができ、 かく して編集時の使い勝手を向上し得る。
( 5 ) 他の実施の形態
なお上述の実施の形態においては、 ディ リ 一サーバ 3 0 において映像音声デー タ D 6 0 (又は D 6 1 ) から リ アルタ イ ムコー ドやダッ ト ショッ トマークのデ一 タ、 或いはイ ンデックスデータ等、 素材情報を検出し、 これらのデータからテー ブルを作成してこれを外部記憶装置 3 5 に記憶するよう にした場合について述べ たが、 本発明はこれに限らず、 ク リ ップサーバ 3 3 において高圧縮符号化データ D 1 2から素材情報を検出し、 当該素材情報を基に同じような各種テーブルを作 成してこれを外部記憶装置 3 5 に制御情報と して記憶するよう にしても良い。 こ のよう にすれば E D L作成装置 3 4 A〜 3 4 Nにおいて、 制御情報を参照するこ とによ り リ アルタ イ ムコー ドによる素材指定ができると共に、 同一リ アルタ イ ム コ一ドが付加されたフ レームのスタ ンプピクチャを表示し得、 E D L作成時の使 い勝手を向上し得る。
また上述の実施の形態においては、 タ イ ムコー ド対応表情報 D 7 4や画像ィ ン デック ス情報 D 7 3からなるフアイ ル情報 D 6 2 (又は D 6 3 ) をサーバマネ一 ジ ン ト システム 6 3 を介してシス テム制御部 2 6 に-転送し、 当該シス テム制御 部 2 6 に接続された外部記憶装置 3 5 に記憶した場合について述べたが、 本発明 はこれに限らず、 図 1 1 に示すよう に、 情報検出器 6 1 (又は 6 2 ) 内に画像ィ ンデック ス情報 D 7 3 とタ イ ムコー ド対応表情報 D 7 4 を受けるバッファ 6 1 G を設け、 当該バッ フ ァ 6 1 Gを介して画像イ ンデッ ク ス情報 D 7 3やタ イ ム コ 一 ド対応表情報 D 7 4からなるフ アイ ル情報 D 6 2 (又は D 6 3 ) をシス テム制御 部 2 6 に転送するよう にしても良い。 このよう にすれば、 サ一バマネ一ジメ ン ト システム 6 3 の処理負荷を軽減し得る。
また上述の実施の形態においては、 映像音声データ と して映像と音声を同時に 扱った場合について述べたが、 本発明はこれに限らず、 映像と音声、 いずれか一 方だけでも良い。
さ らに上述の実施の形態においては、 ディ リ ーサーバ 3 0 に記憶されている各 種映像素材や音声素材を編集処理するこ とによ り放送用のプ αグラムを生成する ニュース番組制作放送シス テム 2 0 に本発明を適用した場合について述べたが、 本発明はこれに限らず、 素材と しての映像信号を所定の記録再生手段によって記 録し、 当該記録再生手段に記録されている映像信号を読み出して所望の編集処理 を施すよう な映像信号処理装置であれば本発明を広く適用することができる。 要 は、 このよう な映像信号処理装置において、 記録再生手段によって映像信号を記 録する際、 当該映像信号から素材情報を検出し、 その検出結果に基づいて所定の 制御情報を生成する検出手段と、 その制御情報を記憶する記憶手段とを設けるよ う にすれば、 上述の場合と同様の効果を得ることができ る。 産業上の利用可能性
本発明による映像信号処理装置は、 ニュース番組制作システム に利用でき るも ので、 取材現場で収録した素材情報と しての映像信号を、 放送局のサーバ装置に ダウ ンロー ドするこ とによ り、 当該サーバ装置の記録再生手段に記録する際に、 当該映像信号に付加されている素材情報を検出して所定の制御情報を生成し、 こ :の生成した制御情報を映像信号について記録する。

Claims

請 求 の 範 囲 -
1. 素材と しての映像信号を所定の記録再生手段によって記録し、 当該記録再生 手段に記録されている映像信号を読み出して所望の編集処理を施す映像信号処理 装置において、
上記映像信号を上記記録再生手段によって記録する際、 上記映像信号に付加さ れている素材情報を検出し、 当該素材情報に基づいて所定の制御情報を生成する 検出手段と、
上記検出手段によって生成した上記制御情報を記憶する記憶手段と
を具えることを特徴とする映像信号処理装置。
2. 上記検出手段は、
上記素材情報と して撮影時に上記映像信号に付加されたタィ ムコ一ドを検出し 、 当該検出したタィ ムコー ドと、 上記映像信号を上記記録再生手段によって記録 する際に管理上新たに割り当てた収録タィ ムコ 一 ドとの対応表を上記制御情報と して生成する
ことを特徴とする請求の範囲第 1 項に記載の映像信号処理装置。
3. 撮影時に付加された上記タ イ ムコー ドが指定されると、 上記制御情報を参照 し、 指定されたタ イ ムコー ドのフ レームの映像信号を上記記録再生手段から読み 出して表示する表示手段
を具えることを特徴とする請求の範囲第 2項に記載の映像信号処理装置。
4. 上記表示手段は、
指定された上記タィ ムコ ー ドのフ レームが上記記録再生手段内に複数存在する 場合、 それぞれのフ レームの映像信号を上記記録再生手段から読み出して縮小表 示し、 当該複数の縮小表示の中から指定されたフ レームの映像信号を表示する ことを特徴とする請求の範囲第 3項に記載の映像信号処理装置。
5. 上記検出手段は、
上記素材情報と して、 撮影時に上記映像信号に付加された良好素材を示すマー クを検出し、 当該マークが付加されているフ レームのタ イ ム コ 一 ドを示す上記制 御情報を生成する
ことを特徴とする請求の範囲第 1 項に記載の映像信号処理装置。
6. 上記制御情報を参照し、 上記マークが付加されているフ レームの映像信号を 上記記録再生手段から読み出して表示する表示手段
を具えることを特徴とする請求の範囲第 5項に記載の映像信号処理装置。
7. 上記検出手段は、
上記素材情報と して上記映像信号に付加されているィ ンデックスデータを検出 し、 当該ィ ンデックスデータを示す上記制御情報を生成する
ことを特徴とする請求の範囲第 1 項に記載の映像信号処理装置。
PCT/JP1998/001561 1997-04-06 1998-04-03 Processeur de signaux video WO1998046019A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
GB9824044A GB2328552B (en) 1997-04-06 1998-04-03 Video signal processing device
US09/204,462 US6134378A (en) 1997-04-06 1998-12-03 Video signal processing device that facilitates editing by producing control information from detected video signal information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/103843 1997-04-06
JP9103843A JPH10285534A (ja) 1997-04-06 1997-04-06 映像信号処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/204,462 Continuation US6134378A (en) 1997-04-06 1998-12-03 Video signal processing device that facilitates editing by producing control information from detected video signal information

Publications (1)

Publication Number Publication Date
WO1998046019A1 true WO1998046019A1 (fr) 1998-10-15

Family

ID=14364723

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/001561 WO1998046019A1 (fr) 1997-04-06 1998-04-03 Processeur de signaux video

Country Status (3)

Country Link
JP (1) JPH10285534A (ja)
GB (1) GB2328552B (ja)
WO (1) WO1998046019A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7881587B2 (en) 2003-08-22 2011-02-01 Sony Corporation Playback apparatus, playback method, and program for the same

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118328A (ja) * 1999-10-15 2001-04-27 Sony Corp 記録及び/又は再生装置、並びに、記録及び/又は再生方法
US20020038299A1 (en) * 2000-03-20 2002-03-28 Uri Zernik Interface for presenting information
KR100788628B1 (ko) 2000-04-05 2007-12-28 소니 유나이티드 킹덤 리미티드 오디오 및/또는 비디오 자료의 식별 및 처리
EP1962511A3 (en) * 2000-04-05 2010-10-27 Sony United Kingdom Limited Audio and/or video generation apparatus and method using a list of content items
JP2002281433A (ja) * 2001-03-15 2002-09-27 Kddi Corp 動画像検索閲覧編集装置および記録媒体
US7949229B2 (en) * 2005-08-29 2011-05-24 Sony Corporation Discontinuous timeline in disc authoring
JP2009060664A (ja) * 2008-10-27 2009-03-19 Sony Corp 撮像装置および番組制作方法
JP2012175468A (ja) * 2011-02-22 2012-09-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP6862323B2 (ja) * 2017-09-20 2021-04-21 株式会社東芝 映像収録装置及び映像収録方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887867A (ja) * 1994-09-14 1996-04-02 Hitachi Ltd 画像記録再生装置のインターフェース装置
JPH0965279A (ja) * 1995-08-25 1997-03-07 Sony Corp 画像/音声記録装置および画像/音声蓄積装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887867A (ja) * 1994-09-14 1996-04-02 Hitachi Ltd 画像記録再生装置のインターフェース装置
JPH0965279A (ja) * 1995-08-25 1997-03-07 Sony Corp 画像/音声記録装置および画像/音声蓄積装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7881587B2 (en) 2003-08-22 2011-02-01 Sony Corporation Playback apparatus, playback method, and program for the same

Also Published As

Publication number Publication date
GB2328552B (en) 2001-11-07
JPH10285534A (ja) 1998-10-23
GB2328552A (en) 1999-02-24
GB9824044D0 (en) 1998-12-30

Similar Documents

Publication Publication Date Title
US6134378A (en) Video signal processing device that facilitates editing by producing control information from detected video signal information
US6211869B1 (en) Simultaneous storage and network transmission of multimedia data with video host that requests stored data according to response time from a server
EP0895623B1 (en) A multimedia system with improved data management mechanisms
JP3525298B2 (ja) 同時圧縮方式デジタルビデオ制作システム
JP3671421B2 (ja) 携帯用av編集装置
US7796856B2 (en) Information processing apparatus and method, and program therefor
US20050286863A1 (en) Reliable capture of digital video images for automated indexing, archiving and editing
WO2001060059A1 (en) Image processor and image processing method and recorded medium
JP2007150781A (ja) 情報処理装置および情報処理方法、並びにプログラム
JP3741299B2 (ja) 映像信号処理装置及び映像信号処理方法
JP5156646B2 (ja) 動画編集システムおよび動画編集方法
JP4446194B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
WO1998046019A1 (fr) Processeur de signaux video
JP4218029B2 (ja) 映像記録装置
JP4045651B2 (ja) 情報処理装置、情報処理方法及びプログラム記録媒体
JP3062080B2 (ja) 映像素材登録システム、映像素材オンエアシステム及び番組送出管理システム
JP2007150782A (ja) 情報処理装置および情報処理方法、並びにプログラム
JP2019169851A (ja) 放送システム
US7944976B2 (en) Data edition system, data edition method, data processing device, and server device
JP2002171477A (ja) 素材処理装置、番組制作方法、番組シミュレーション方法および番組配信方法
JPH1051734A (ja) 動画像編集装置および動画像編集方法
JP4513017B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
JP4672131B2 (ja) 撮像装置および番組制作方法
JP2002027396A (ja) 付加情報入力方法および映像編集方法並びに当該方法を用いる装置およびシステム
JP4772742B2 (ja) 画像再生装置、画像再生方法及びプログラム記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): GB US

ENP Entry into the national phase

Ref country code: GB

Ref document number: 9824044

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09204462

Country of ref document: US