WO2004047437A1 - 映像閲覧システムおよび方法 - Google Patents

映像閲覧システムおよび方法 Download PDF

Info

Publication number
WO2004047437A1
WO2004047437A1 PCT/JP2003/014672 JP0314672W WO2004047437A1 WO 2004047437 A1 WO2004047437 A1 WO 2004047437A1 JP 0314672 W JP0314672 W JP 0314672W WO 2004047437 A1 WO2004047437 A1 WO 2004047437A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
specified
correspondence
group
browsing
Prior art date
Application number
PCT/JP2003/014672
Other languages
English (en)
French (fr)
Inventor
Eiji Kasutani
Takami Sato
Akio Yamada
Ryoma Oami
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to EP03772875A priority Critical patent/EP1505830A4/en
Priority to US10/512,987 priority patent/US20050226598A1/en
Publication of WO2004047437A1 publication Critical patent/WO2004047437A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to a technology for searching and browsing an arbitrary video from a plurality of video groups, and more particularly to a video browsing system and method for browsing information related to video production.
  • the base video represented by the video shot on site is called “material video”
  • the video produced by editing the material video is called “edited video”
  • the edited video is called “edited video”.
  • the final broadcasted video will be referred to as “on-air video”.
  • editing work is indispensable for video production, and it is rare to use the entire video taken on site.
  • the broadcasting station may cut off midway due to time restrictions or interrupt the telop. For this reason, the actual aired video and the edited video do not always match.
  • the broadcast program management device disclosed in this publication stores in advance a correspondence between a complete package (on-air video) and a white material (edited video) in a memory. Specifically, the complete packet data stored in the memory is divided into shots for each cut, and the similarity between the video of the complete packet shot and the video section in the white material is calculated using the correlation value of the frame image. Judgment. In this way, it is possible to associate the video section information of each complete shot with the video section information of the white material for which similarity has been determined (paragraph numbers 048 to 58 in the above publication, FIGS. 10 and 11). See).
  • an edited video is produced by partially using the material video according to the problem awareness and intention at the time, but the problem awareness changes over time, and another part of the same material video is important.
  • the production of news to be broadcast on the same day can be done by reusing edited video, but when producing more detailed content such as special feature programs at a later date, edited video alone is not sufficient. Insufficient, often searching for the required video back to the source video.
  • Another object of the present invention is to provide a video browsing system and method capable of improving production efficiency by easily accessing material videos related to on-air video and edited video. Disclosure of the invention
  • the first video group, the second video group produced using the first video group, and the second video group produced using the second video group are produced.
  • the video of any one of the obtained third video groups the video of another video group having a corresponding relationship with the specified video is specified and the corresponding relationship is displayed.
  • a video browsing system stores a plurality of video groups having a series of correspondences such that a video of a next video group is produced using at least one video of a video group.
  • a control unit for displaying.
  • a fourth aspect of the present invention in a video browsing method for browsing a desired video from a plurality of videos, a first video group, a second video produced using the first video group By specifying the video of one of the video groups and the third video group produced using the second video group, another video group having a correspondence with the specified video is designated. And displays the correspondence between the specified video and the specified video.
  • the usage status of a plurality of video groups can be easily grasped. For example, if multiple video groups consist of an on-air video, an edited video, and a source video, if a source video is specified, the edited video and the air video using the source video are specified, and the information is displayed. . When an edited video is specified, the source video used to create the edited video is specified, and the information is displayed. When an online video is specified, the edited video included in the on-air video is specified, and the information and the information of the material video used for the production are displayed. In this way, it is possible to visualize the correspondence between a plurality of video groups such as on-air video, edited video, and material video, and to easily grasp the usage status of the video including the material video.
  • the edited video and the on-air video are associated with the source video, the source video related to the online video and the edited video can be easily accessed, and the production efficiency of the video can be increased.
  • the video specified in the correspondence between the specified video and the specified video is When specified, it is desirable to search for the specified video and display it as the specified video.
  • the correspondence between multiple video groups such as on-air video, edited video, and material video is displayed with marks, etc., and the displayed mark is designated with a pointer to move to the video section of the video corresponding to the mark. Can be accessed. This makes it easier to access related videos and increases production efficiency.
  • FIG. 1 is a block diagram showing the configuration of the video browsing system according to the first embodiment of the present invention.
  • FIG. 2A is a diagram showing an example of a format of on-air video correspondence information in the first embodiment.
  • FIG. 2B is a diagram showing an example of the format of the edited video correspondence information.
  • FIG. 2C is a diagram showing an example of the format of the material video correspondence information.
  • FIG. 2D is a diagram showing an example of a general-purpose correspondence information format.
  • FIG. 3A is a schematic diagram illustrating an example of a storage table of on-air video correspondence information according to the first embodiment.
  • FIG. 3B is a schematic diagram illustrating an example of a storage table of edited video correspondence information.
  • FIG. 3C is a schematic diagram showing an example of a storage table of material video correspondence information.
  • FIG. 4 is a block diagram illustrating an example of a system configuration for generating correspondence information according to the first embodiment.
  • FIG. 5A is a schematic diagram showing a correspondence relationship between an on-air video and an edited video and a correspondence relationship between an edited video and a material video in the first embodiment.
  • FIG. 5B is a schematic diagram showing the correspondence between on-air video, edited video, and material video.
  • FIG. 6 is a diagram showing an example of browsing display of material video correspondence information according to the first embodiment of the present invention.
  • FIG. 7 is a diagram showing an example of browsing display of edited video corresponding information in the first embodiment of the present invention. It is.
  • FIG. 8 is a diagram showing a browsing display example of the on-air video corresponding information in the first embodiment of the present invention.
  • FIG. 9 is a schematic diagram illustrating an example of an operation screen of the video browsing system according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart showing the overall operation of the first embodiment of the present invention.
  • FIG. 11 is a block diagram showing the configuration of the video browsing system according to the second embodiment of the present invention.
  • FIG. 12 is a block diagram of a video browsing system according to the third embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of browsing display of material video correspondence information according to the third embodiment of the present invention.
  • FIG. 14 is a diagram showing an example of browsing display of on-air video correspondence information according to the third embodiment of the present invention.
  • FIG. 15 is a block diagram of the video browsing system according to the fourth embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of the video browsing system according to the first embodiment of the present invention.
  • an input unit 101 is composed of input devices such as a keyboard and a pointing device, and is capable of specifying a viewing video, inputting data, and inputting various commands.
  • the display unit 102 is a monitor, displays a video browsing screen described later, and provides a graphical user interface in cooperation with the input unit 101.
  • the video browsing system according to the present embodiment includes a program control processor 103 that controls processing related to video browsing and an operation of the entire system by executing a control program 104, a video search unit 105, and a video storage unit. 106, Corresponding information search section 107 and And a correspondence information storage unit 108.
  • the video search unit 105 and the correspondence information search unit 107 execute a video search and a correspondence information search described below, respectively, under the control of the program control processor 103.
  • the image storage unit 106 stores an on-air image group (OA), an edited image group (ED), and a material image group (RAW).
  • the source video group (RAW) is a source video captured on site, for example, stored as digital image data, and each source video is managed together with a unique identifier. It is also possible to store video-related information such as titles and production dates.
  • the Edited Video Group is a set of broadcast videos that have been carefully selected and edited, and stored as digital image data, for example, and each edited video is managed together with a unique identifier. . It is also possible to store video-related information such as titles and production dates.
  • the finally broadcasted video is stored as digital image data, for example, and each on-air video is managed together with a unique identifier. It is also possible to store video-related information such as titles and production dates.
  • the video search unit 105 Upon receiving the video search command from the program control processor 103, the video search unit 105 searches the video storage unit 106 for video data corresponding to the specified video identifier.
  • the read video data is displayed on the display unit 102 together with the video data related information described later. If the start position of the video is included in the video search command, the read video can be reproduced from the start position, or the selected video can be located at the start position.
  • the correspondence information storage unit 108 stores on-air video correspondence information (OA-REL), edited video correspondence information (ED-REL), and material video correspondence information (RAW-REL). The corresponding information will be described later in detail.
  • OA-REL on-air video correspondence information
  • ED-REL edited video correspondence information
  • RAW-REL material video correspondence information
  • the correspondence information search unit 107 When the correspondence information search unit 107 receives the correspondence information search command, the correspondence information search unit 107 The corresponding information to be retrieved is retrieved from the corresponding information storage unit 108. The read correspondence information is displayed on the display unit 102 in a predetermined form, as described later. At that time, a pointer that enables access to other corresponding video is also displayed.
  • FIG. 2A is a diagram showing an example of the format of the on-air video correspondence information.
  • FIG. 2B is a diagram showing an example of the format of the edited video correspondence information.
  • FIG. 2C is a diagram showing an example of the format of the material video correspondence information.
  • FIG. 2D is a diagram showing an example of a general-purpose correspondence information format.
  • the on-air video correspondence information is information describing a correspondence relationship between the on-air video, the edited video, and the source video. In other words, it describes which part of a certain on-air video is quoted from which part of which edited video / material video.
  • the on-air video correspondence information is composed of six columns, column number 1 is the identifier of the air video, column number 2 is the start frame number of the on-air video section, column number 3 is the identifier of the corresponding video, and column
  • the number 4 describes the type of the corresponding video (edited video or material video), the column number 5 describes the start frame number of the video section of the corresponding video, and the column number 6 describes the number of frames in the video section. I do. With such a description, it is possible to specify which video section of the edited video or material video corresponds to a video section of a certain on-air video.
  • the correspondence relationship for each on-air video can be stored in a separate correspondence information file, or the correspondence relationship for each on-air video can be stored collectively in one correspondence information file.
  • the correspondence relationship for the on-air image A may be stored in the correspondence information file a
  • the correspondence relationship for the on-air image B may be stored in the correspondence information file b.
  • the correspondence may be stored in one correspondence information file.
  • the edited video correspondence information is composed of six columns, column number 1 is the identifier of the edited video, column number 2 is the start frame number of the edited video section, column number 3 is the identifier of the corresponding video, and column
  • the number 4 describes the type of the corresponding video (on-air video or material video)
  • the column number 5 describes the start frame number of the video section of the corresponding video
  • the column number 6 describes the number of frames in the video section.
  • the material video correspondence information is information that describes which part of a certain material video was used for which part of which edited video non-air video.
  • the source video support information is composed of six columns, column number 1 is the source video identifier, column number 2 is the start frame number of the source video section, and column number 3 is the corresponding video identifier and column.
  • Number 4 describes the type of video (edited video or on-air video)
  • column number 5 describes the start frame number of the video section of the corresponding video
  • column number 6 describes the number of frames in the video section.
  • FIG. 2D is a schematic diagram illustrating an example of a storage table of on-air video correspondence information.
  • FIG. 3B is a schematic diagram illustrating an example of a storage table of edited video correspondence information.
  • FIG. 3C is a schematic diagram showing an example of a storage table of material video correspondence information.
  • the on-air video correspondence information is stored in the format shown in FIG. 2A for each on-air video section of each on-air video.
  • the stored record 1 indicates that four frames from the third frame of the on-air video OA 1 correspond to four frames from the third frame of the edited video ED 1.
  • record 2 indicates that the 10 frames from the seventh frame of the same on-air video OA1 correspond to the 10 frames from the fifth frame of the edited video ED2.
  • FIGS. 3B and 3C The same applies to the tables in FIGS. 3B and 3C.
  • edited video-material video correspondence information information indicating the correspondence between which part of an edited video is quoted from which part of which material video is referred to as edited video-material video correspondence information (ED-RAW correspondence information).
  • ED-RAW correspondence information information indicating the correspondence between which part of an edited video is quoted from which part of which material video is referred to as edited video-material video correspondence information (ED-RAW correspondence information).
  • OA-ED correspondence information Information indicating the correspondence between which part of a certain on-air video is broadcast using which part of which edited video is called on-air video-edited video correspondence information. This information can be recorded in the system as the edited video actually selected during the on-air stage.
  • a moving image search technique disclosed in Japanese Patent Application Laid-Open No. 2002-58049 is used. Alternatively, it can be automatically generated by associating moving image sections having similar characteristics with each other.
  • FIG. 4 is a block diagram illustrating an example of a system configuration for generating correspondence information according to the present embodiment.
  • FIG. 5A is a schematic diagram showing the correspondence between on-air video and edited video and the correspondence between edited video and material video.
  • Figure 5B shows on-air video, edited video, and material video. T / JP2003 / 014672
  • the correspondence information generation system includes an on-air video-material video correspondence information generation unit 201, an on-air video correspondence information generation unit 202, an edited video correspondence information generation unit 203, and a material video correspondence information generation unit. Includes part 204.
  • This correspondence information generation system can be built into the system shown in Fig. 1.
  • the on-air video-material video correspondence information generation unit 201 generates on-air one-material video correspondence information (OA-RAW corresponding information) using the OA-ED correspondence information and the ED-RAW correspondence information.
  • OA-RAW corresponding information on-air one-material video correspondence information
  • each video section in the edited video data used in the on-air video (hereinafter referred to as the edited video section) is extracted by referring to the OA-ED correspondence information. .
  • the corresponding information of the edited video including the edited video section is checked from the ED-RAW corresponding information, and each video section in the material video data corresponding to the edited video section is examined. (Hereinafter referred to as the material video section).
  • the material video section By associating the specified material video section with the on-air video section, OA-RAW correspondence information can be obtained.
  • Fig. 5B when the source video section corresponding to a specific on-air video extends over multiple source videos, describe the correspondence between the source video and the on-air video for each corresponding section. 3).
  • the on-air video-material video correspondence information generation unit 201 is unnecessary.
  • the on-air video correspondence information generation unit 202 uses the OA-ED correspondence information and the OA-RAW correspondence information to determine which part of the on-air image is quoted from which part of which edited video or material video for each on-air video. Generates on-air video correspondence information (OA-REL) that describes whether or not the image is displayed (see Figure 3A).
  • OA-REL on-air video correspondence information
  • the edited video corresponding information generation unit 203 determines, for each edited video, which part of the edited video was used for which part of the on-air video, Which part is quoted from which part of which material video JP2003 / 014672
  • the source video correspondence information generation unit 204 uses the ⁇ A-RAW correspondence information and ED-RAW correspondence information to determine which part of the source video is used for which part of the edited video or on-air video for each source video. It generates material video correspondence information (RAW-REL) that describes the data (see Fig. 3C).
  • FIG. 6 is a diagram showing an example of browsing display of material video correspondence information.
  • the time of the source video is displayed in the display column 301, and the source video corresponding information of the specified source video is referred to and the column numbers 3 and 4 are respectively displayed.
  • the "corresponding video identifier" and "type” indicated are listed in the display window 302a.
  • the display window 302b a material video section specified by the start position indicated by column number 2 and the number of frames indicated by column number 6 is displayed using a mark (hatched portion in the figure).
  • the display window 302b indicates, on the horizontal axis, the time of the material video and which part is used by which corresponding video (on-air video or edited video). Marked.
  • this material video is used for three on-air videos and three edited videos, and the section where each material video is used is marked. This makes it possible to see at a glance that, for example, a scene from 20 minutes to 25 minutes of the material video is used for the on-air video with the identifier 111.
  • each mark in the section where the material image is used is displayed in the form of a button, and the desired image is clicked by clicking the desired mark with the input unit 101 such as a mouse. Can be displayed in the video browsing window.
  • FIG. 7 is a diagram showing an example of browsing display of edited video correspondence information.
  • the time of the edited video is displayed in the display column 401, and the edited video section for the number of frames indicated by the column number 6 from the start position indicated by the column number 2 is visualized.
  • the contents of the mark include the identifier of the material video in the display column 403 and the representative frame of the material video section and the frame corresponding to the time in the display column 404.
  • each mark of the corresponding material image is displayed in the form of a button, and the corresponding image is displayed in the image browsing window by clicking the desired mark with the input unit 101 such as a mouse. be able to.
  • FIG. 8 is a diagram showing an example of browsing display of on-air video corresponding information.
  • the specified video is an on-air video
  • the edited video included in the specified on-air video and the material video used for its production can be displayed.
  • the designated on-air video time is displayed in the display column 501, and a window 50 0 is displayed to visualize the on-air video section from the start position shown in column number 2 to the number of frames shown in column number 6. Put a mark in the corresponding video column of 2.
  • the identifier of the edited video can be presented in the display column 503, the identifier of the source video in the display column 504, and the representative frame of the source video section in the display column 505, respectively.
  • each mark of the corresponding edited video and material video is displayed in the form of a button, and the corresponding video is displayed in the video browsing window by clicking the desired mark with the input unit 101 such as a mouse. can do.
  • a list of videos of the same type as the specified video or a list of videos of another type having a correspondence relationship with the specified video can be presented together.
  • FIG. 9 is a schematic diagram illustrating an example of an operation screen of the video browsing system according to the present embodiment.
  • an image corresponding to the identifier specified by the viewer is displayed in the image viewing window 602, and the image is given to the thumbnail display window 603.
  • the image at the start position and the images before and after it are displayed in a list.
  • the video to be viewed may be specified by directly providing the video identifier using the keyboard of the input unit 101. It is also possible to prepare a video list so that the user can select a video using a mouse or the like, and use the identifier of the selected video. It is also possible to input the start position of the video to be viewed.
  • the related information list display window 604 a list of videos of the same type as the specified video or a list of videos of another type having a correspondence relationship with the specified video is displayed.
  • correspondence information display window 605 correspondence information as illustrated in FIGS. 6 to 8 is displayed. For example, if a material video is to be displayed, the video section of the edited video data corresponding to the video section of the specified material video data and the video section of the corresponding online video data are displayed.
  • the correspondence information between different video types is visualized, and the related video list is also displayed, so that the video browsing efficiency can be further improved. Also, as described above, by providing a button on the correspondence information visualized in the correspondence information display window 605 and specifying it with the mouse or the like of the input unit 101, the corresponding video section can be easily accessed. Can be accessed.
  • FIG. 10 is a flowchart showing the overall operation of the present embodiment.
  • the on-air video correspondence information (OA-REL), edited video correspondence information (ED-REL), and material video correspondence information (RAW-REL) previously associated with the correspondence information storage unit 108 are stored. It is stored (step A1).
  • the IJ user designates a video to be viewed from the input unit 101 (step A2). browse The video may be specified by directly inputting an identifier or by a user selecting from a video displayed in a list in advance. Also, as described above, the corresponding information display window
  • the program control processor 103 instructs the video search unit 105 to search for the desired video.
  • the video search unit 105 searches the video storage unit 106 using the specified identifier as a key (step A3).
  • the video search unit 105 When a video having the specified identifier is found (YES in step A3), the video search unit 105 returns the specified video data to the program control processor 103. After processing the designated video data, the program control processor 103 displays the data on the video browsing window 602 on the display unit 102 (step A5).
  • the program control processor 103 instructs the correspondence information search unit 107 to search using the specified identifier.
  • the correspondence information search unit 107 searches the correspondence information storage unit 108 using the specified identifier as a key (step A6).
  • step A7 When the corresponding information having the specified identifier (see FIGS. 2 and 3) is found (YES in step A7), the specified video type is determined (step A8), and each video type is determined in a predetermined format. Visualize correspondence information.
  • Step A8.1 when a material video is specified, information such as the video section and identifier of the corresponding edited video and on-air video is shown in FIG. 6 by referring to the retrieved material video corresponding information.
  • information such as the video section and identifier of the corresponding source video is displayed as shown in Fig. 7 by referring to the searched edited video corresponding information (step A8). . 2).
  • step A7 When an on-air video is specified, information such as the video section and identifier of the corresponding material video and edited video is displayed as shown in FIG. A 8. 3). If no corresponding information is detected in step A7 (NO in step A7), no corresponding information is displayed. If no video having the given identifier is detected in step A4, it is determined that browsing is impossible, and a message indicating that browsing is impossible is displayed (step A9).
  • the first embodiment when a source video is specified, information on the edited video and the on-air video using the specified source video is displayed, and when the source video is specified, the specified edited video is displayed.
  • the information of the source video used in the production of the video is displayed, and when the online video is specified, the information of the edited video included in the specified on-air video and the information of the source video used in the production are displayed. You. By visualizing the correspondence between on-air video, edited video, and source video in this way, it is possible to easily grasp the usage status of video, including source video.
  • visualizing the correspondence between on-air video, edited video, and material video, and specifying the visualized mark in the video area enables access to the video section of the video corresponding to the mark, thereby improving production efficiency. Can be raised.
  • the on-air video and the source video are associated with each other and the on-air video corresponding information (OA—REL), the edited video corresponding information (ED—REL), and the source are correlated by the corresponding information generation system shown in FIG.
  • Video correspondence information (RAW-REL) can be generated.
  • the edited video and the on-air video can be associated with the source video, it is possible to easily access the source video related to the on-air video and the edited video, thereby improving the video production efficiency. Can be.
  • on-air video correspondence information (OA-REL), edited video correspondence information (ED-REL) and material video correspondence information (RAW-REL) are obtained in advance and stored in the correspondence information storage unit 108.
  • OA-REL on-air video correspondence information
  • ED-REL edited video correspondence information
  • RAW-REL material video correspondence information
  • FIG. 11 is a block diagram showing the configuration of the video browsing system according to the second embodiment of the present invention.
  • a correspondence information storage unit 701 is provided instead of the correspondence information storage unit 108 of the first embodiment shown in FIG. 1, and a correspondence information generation unit 702 is newly provided. Has been.
  • the correspondence information storage unit 701 stores at least two of the correspondence information between the edited video and the material video, the correspondence information between the on-air video and the edited video, the ED—RAW correspondence information, the OA—ED correspondence information, and the OA—RAW correspondence information. It is sufficient that the correspondence information is stored. If at least two pieces of correspondence information are available, on-air video correspondence information (OA—REL), edited video correspondence information (ED—REL), and material video correspondence information (RAW—REL) can be calculated as described in FIG. Is clear. Here, ED-RAW correspondence information and OA-ED correspondence information are stored.
  • the correspondence information generation unit 702 calculates necessary correspondence information under the control of the program control processor 103. Specifically, the correspondence information generation unit 702 reads out two pieces of correspondence information from the correspondence information storage unit 701, and generates each piece of correspondence information as described with reference to FIG.
  • the correspondence information search unit 107 searches the correspondence information calculated by the correspondence information generation unit 702 using the designated identifier as a key, and returns the correspondence information having the designated identifier to the program control processor 103 as described above.
  • the other operations are the same as those of the first embodiment, and the description is omitted.
  • the correspondence information storage unit 701 stores two pieces of correspondence information of ED-RAW correspondence information, ⁇ A-ED correspondence information, and OA-RAW correspondence information. The required storage capacity can be reduced.
  • the video browsing system according to the third embodiment of the present invention handles only material video and on-air video.
  • FIG. 12 is a block diagram of a video browsing system according to the third embodiment of the present invention. Blocks having the same functions as the blocks shown in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.
  • an image storage unit 801 stores an on-air image group (OA) and a material image group (RAW).
  • the source video group (RAW) and the on-air video group (OA) are the same as in the first embodiment.
  • the correspondence information storage unit 802 stores on-air video correspondence information (OA-REL) and material video correspondence information (RAW-REL). The corresponding information is the same as in the first embodiment.
  • FIG. 13 is a diagram showing an example of browsing display of material video corresponding information in the third embodiment.
  • the specified video and the time of the specified video are displayed in the display column 901, and the column number 3 and the column number of the specified video are referred to by referring to the source video correspondence information of the specified video.
  • the “corresponding video identifier” and “type” respectively shown in steps 4 and 4 are listed in the display window ⁇ 902a.
  • a material video section specified by the start position indicated by the column number 2 and the number of frames indicated by the column number 6 is displayed using a mark (a shaded portion in the figure). That is, while referring to the material video correspondence information, the display window 902b is marked with which time is used by the corresponding video (on-air video) on the horizontal axis of the time of the material video.
  • this material video is used for three on-air videos.
  • the section where the material video is used is marked. This makes it clear at a glance that, for example, scenes from 2 minutes to 6 minutes of the material video are used in the on-air video of the identifier 1 1 1 1.
  • each mark in the section where the material video is used is displayed in the form of a button, and the corresponding video is displayed by clicking the desired mark with the input unit 101 such as a mouse. Can be displayed.
  • FIG. 14 is a diagram illustrating an example of browsing display of on-air video corresponding information in the third embodiment.
  • the specified video is an on-air video
  • the source video used to create the specified on-air video can be displayed.
  • the time of the specified on-air video is displayed in the display column 1001, and the corresponding video to visualize the on-air video section for the number of frames shown in column number 6 from the start position shown in column number 2 Put a mark in the column.
  • the identifier of the material video is displayed in the display column 1002, and the representative frame of the material video section is displayed in the display column 1003.
  • each mark of the corresponding material image is displayed in the form of a button, and the corresponding image is displayed in the image browsing window by clicking the desired mark with the input unit 101 such as a mouse. be able to.
  • a list of videos of the same type as the specified video or a list of videos of another type having a correspondence relationship with the specified video can be presented together.
  • the operation screen of the video browsing system according to the present embodiment is the same as that shown in FIG.
  • the third embodiment when a source video is specified, information of the on-air video using the specified source video is displayed, and when the on-air video is specified, the information is included in the specified on-air video.
  • the information of the material video to be displayed is displayed.
  • the on-air video and the source video are associated and the on-air video corresponding information (OA-REL) and the source video corresponding information (RAW-REL) are correlated by the corresponding information generation system shown in FIG. Can be generated.
  • the on-air video is associated with the material video, so that the material video related to the on-air video can be easily accessed, and the production efficiency of the video can be increased.
  • FIG. 15 is a block diagram of the video browsing system according to the fourth embodiment of the present invention.
  • the video search unit 105 and the corresponding information search unit 100 shown in FIG. 1 are implemented by software in the data processing unit 111. That is, by executing the video browsing program 1102, the data processing unit 1101 can realize a video browsing function equivalent to that described in the first to third embodiments.
  • the input unit 101, the display unit 102, the video storage unit 106, and the correspondence information storage unit 108 are stored in the data processing unit 1101, which is executing the video browsing program 1102.
  • the video browsing system according to the present invention can be realized by being controlled in the same manner as in the first, second or third embodiment.
  • the usage status of a plurality of video groups can be easily grasped. For example, when a source video is specified, information on the edited video and on-air video using the source video is displayed. The information of the source video used to produce the edited video is displayed. If an on-air video is specified, the information of the edited video included in the on-air video and the information of the source video used in the production are displayed. Is done. In this way, it is possible to visualize the correspondence relationship between a plurality of video groups such as on-air video, edited video, and material video, and to easily grasp the usage status of the video including the material video.
  • the edited video and the on-air video are associated with the source video, the source video related to the online video and the edited video can be easily accessed, and the production efficiency of the video can be increased.
  • the video browsing system and method according to the present invention can be applied to any video browsing system and method for browsing a desired video from a plurality of videos in an editing work for producing a video. It is possible and does not limit the possibility of its use.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

複数種類の映像群の利用状況を容易に把握できる映像閲覧システムおよび方法を提供する。オンエア映像、編集映像および素材映像を映像記憶部106に記憶し、これら映像群の一連の対応関係から得られる相互の対応関係を対応情報記憶部108に記憶する。オンエア映像、編集映像および素材映像のうちいずれか1つの映像が指定されると、対応情報検索部107は相互対応関係を参照して指定された映像に対応する他の映像を特定し、指定された映像と特定された映像との対応関係が表示部102に可視化表示される。

Description

明細書 映像閲覧システムおよび方法
技術分野
本発明は複数の映像群から任意の映像を検索して閲覧する技術に係り、 特に映像 制作に関する情報を閲覧するための映像閲覧システムおよび方法に関する。 背景技術
本発明に関する現時点での技術水準をより十分に説明する目的で、 本願で引用さ れ或いは特定される特許、 特許出願、 特許公報、 科学論文等の全てを、 ここに、 参 照することでそれらの全ての説明を組入れる。
まず、 以下の説明において、 現場で撮影された映像等に代表される基礎となる映 像を 「素材映像」 、 素材映像を編集して制作された映像を 「編集映像」 、 編集映像 をもとに最終的に放送された映像を 「オンエア映像」 とそれぞれ呼ぶことにする。 一般に、 映像の制作には編集作業が不可欠であり、 現場で撮影された映像を全て そのまま使用することはまれである。 また、 放送局では、 編集された映像を放送す る際にも、 時間の制限で途中カットしたり、 テロップなどが割り込むこともある。 このために、 実際にオンエアされた映像と編集された映像とは必ずしも全て一致し ていない。 このようなオンエア映像や編集映像を保存しておき、 その中から必要な 部分を選択して新たな映像を制作するには、 これら材料となる映像群を管理し、 目 標の映像を検索して閲覧できることが必要である。
このような映像閲覧システムの一例は、 特開平 1 1一 2 6 6 4 2 2号公報に開 示されている。 同公報に開示された放送番組管理装置は、 完パケ (オンエア映像) と白素材 (編集映像) との間の対応付けを予めメモリに格納しておく。 具体的には、 メモリに記憶されている完パケデ一タを 1カツト毎のショットに分割し、 この完パ ケショットの映像と白素材中の映像区間との類似性をフレーム画像の相関値を用い て判定する。 こうして、 完パケショット毎の映像区間情報と、 類似判定された白素 材の映像区間情報とを対応付けることができる (上記公報中段落番号 0 0 4 8〜 5 8、 図 1 0、 図 1 1参照) 。 この完パケ /白素材関連データに基づいて、 任意の完 パケ映像区間に対応する白素材映像区間を相互に検索再生することが可能となる ( 上記公報中段落番号 0 0 6 0 , 0 0 6 1、 図 1 2参照) 。 発明が解決しょうとする課題
しかしながら、 上記従来のシステムは、 オンエア映像および編集映像に関連する 素材映像へのァクセスが考慮されていない。 素材映像は種々の目的に沿つて利用さ れるものであるが、 その後の映像制作の母体であり一次資料を提供する貴重な映像 群でもある。
たとえば、 編集映像はその時々の問題意識や意図に沿って素材映像を部分的に利 用して制作されるが、 時が経てば問題意識も変化し、 同じ素材映像の別の部分が重 要なシーンとして認識されるかもしれない。 ニュースを例に取ると、 同日に放送す るニュースの制作は、 編集映像の使いまわしで済ますことができても、 後日、 特集 番組などのより詳しいコンテンッを制作する際には、 編集映像だけでは不十分であ り、 素材映像まで遡って必要な映像を探すことが多い。
このように、 使用済部分のみを集めてコンテンツを制作したり、 逆に未放送部分 を利用して新たなコンテンッを制作する場合など、 素材映像の利用状況の把握が重 要となる。 上記従来のシステムでは、 オンエア映像に対応した編集映像を再生する だけで、 素材映像のどの箇所がどの映像に使われていたか把握できない。
従って、 本発明の目的は、 複数の映像群の利用状況を容易に把握できる映像閲覧 システムおよび方法を提供することにある。
本発明の他の目的は、 オンエア映像および編集映像に関連する素材映像へ容易に アクセスすることにより制作効率を上げることのできる映像閲覧システムおよび方 法を提供することにある。 発明の開示
本発明の第 1の側面による映像閲覧システムによれば、 第 1の映像群、 前記第 1 の映像群を用いて制作された第 2の映像群および前記第 2の映像群を用いて制作さ れた第 3の映像群のうちいずれか 1つの映像群の映像を指定することにより、 前記 指定された映像と対応関係を持つ他の映像群の映像を特定し当該対応関係を表示す る。
本発明の第 2の側面による映像閲覧システムは、 ある映像群の少なくとも 1つの 映像を用いて次の映像群の映像が制作されるという一連の対応関係を有する複数の 映像群を検索可能に格納する第 1格納部と、 前記一連の対応関係から得られる相互 の対応関係を検索可能に格納する第 2格納部と、 前記複数の映像群のいずれか 1つ の映像群の映像が指定されると、 前記第 2格納部を参照して前記指定された映像と 対応関係を有する他の映像群の映像を特定し、 前記指定された映像と前記特定され た映像との対応関係を表示部に表示する制御部とを含む。
本発明の第 3の側面による映像閲覧方法によれば、 a ) ある映像群の少なくとも 1つの映像を用いて次の映像群の映像が制作されるという一連の対応関係を有する 複数の映像群を検索可能に格納し、 b ) 前記一連の対応関係から生成された相互の 対応関係を格納し、 c ) 前記複数の映像群のいずれか 1つの映像群の映像が指定さ れると、 前記相互の対応関係を参照して前記指定された映像と対応関係を有する他 の映像群の映像を特定し、 d ) 前記指定された映像を表示画面の第 1の領域に表示 し、 e ) 前記指定された映像と前記特定された映像との対応関係と前記特定された 映像との対応関係を前記表示画面の第 2の領域に表示する。
本発明の第 4の側面によれば複数の映像から所望の映像を閲覧するための映像閲 覧方法において、 第 1の映像群、 前記第 1の映像群を用いて制作された第 2の映像 群および前記第 2の映像群を用いて制作された第 3の映像群のうちいずれか 1つの 映像群の映像を指定することにより、 指定された映像と対応関係を持つ他の映像群 の映像を特定し、 前記指定された映像と前記特定された映像との対応関係を表示す る。
前記対応関係は、 ある映像群の少なくとも 1つの映像を用いて次の映像群の映像 が制作されるという一連の対応関係から生成されることが可能である。 更に、 前記 複数の映像群にそれぞれ対応して所定の表示フォームを用意し、 前記指定された映 像が属する映像群に対応する表示フォームで、 前記指定された映像と前記特定され た映像との対応関係を表示することが可能である。 更に、 前記表示フォームは、 前 記指定された映像の映像区間を基準にして前記特定された映像の映像区間を対比表 示することが可能である。
上述したように、 本発明によれば、 複数の映像群の利用状況を容易に把握するこ とができる。 たとえば、 複数の映像群がオンエア映像、 編集映像および素材映像か らなる場合、 素材映像が指定されると、 その素材映像を利用した編集映像およびォ ンエア映像が特定され、 その情報が表示される。 編集映像が指定されると、 その編 集映像の制作に用いた素材映像が特定され、 その情報が表示される。 また、 オンェ ァ映像が指定されると、 そのオンエア映像に含まれる編集映像が特定され、 その情 報とその制作に用いた素材映像の情報とが表示される。 このようにオンエア映像、 編集映像、 素材映像という複数の映像群同士の対応関係を可視化することができ、 素材映像を含めて映像の利用状況を容易に把握することが可能となる。
また、 編集映像およびオンエア映像が素材映像まで対応付けられるため、 オンェ ァ映像および編集映像に関連する素材映像へ容易にアクセスすることができ、 映像 の制作効率を上げることができる。
複数の映像群の 1つの映像群の映像が指定されたとき、 指定された映像の映像区 間を基準にして特定された映像の映像区間を対比表示することが望ましい。 これに よって、 指定された映像の映像区間内で他の映像群のどの映像が対応しているかを 容易に理解することができる。
また、 指定された映像と特定された映像との対応関係において特定された映像が 指定されると、 その特定された映像を検索し、 指定された映像として表示すること が望ましい。 たとえば、 オンエア映像、 編集映像、 素材映像などの複数の映像群同 士の対応関係をマークなどで表示し、 表示されたマ一クをポインタで指定すること によりマークに対応する映像の映像区間へアクセスすることができる。 これによつ て関連する映像へのアクセスが容易になり制作効率を上げることができる。 図面の簡単な説明
図 1は、 本発明の第 1実施形態による映像閲覧システムの構成を示すブロック図 である。
図 2 Aは、 第 1実施形態におけるオンエア映像対応情報のフォーマツトの一例を 示す図である。
図 2 Bは、 編集映像対応情報のフォーマツトの一例を示す図である。
図 2 Cは、 素材映像対応情報のフォーマツトの一例を示す図である。
図 2 Dは、 汎用の対応情報フォ一マツトの一例を示す図である。
図 3 Aは、 第 1実施形態におけるオンエア映像対応情報の格納テ一ブルの一例を 示す模式図である。
図 3 Bは、 編集映像対応情報の格納テーブルの一例を示す模式図である。
図 3 Cは、 素材映像対応情報の格納テ一ブルの一例を示す模式図である。
図 4は、 第 1実施形態における対応情報を生成するシステム構成の一例を示すプ ロック図である。
図 5 Aは、 第 1実施形態におけるオンエア映像一編集映像の対応関係と編集映像 一素材映像の対応関係とを示す模式図である。
図 5 Bは、 オンエア映像一編集映像一素材映像の対応関係を示す模式図である。 図 6は、 本発明の第 1実施形態における素材映像対応情報の閲覧表示例を示す図 である。
図 7は、 本発明の第 1実施形態における編集映像対応情報の閲覧表示例を示す図 である。
図 8は、 本発明の第 1実施形態におけるオンエア映像対応情報の閲覧表示例を示 す図である。
図 9は、 本発明の第 1実施形態による映像閲覧システムの操作画面の一例を示す 模式図である。
図 1 0は、 本発明の第 1実施形態の全体的動作を示すフローチャートである。 図 1 1は、 本発明の第 2実施形態による映像閲覧システムの構成を示すブロック 図である。
図 1 2は、 本発明の第 3実施形態による映像閲覧システムのブロック図である。 図 1 3は、 本発明の第 3実施形態における素材映像対応情報の閲覧表示例を示す 図である。
図 1 4は、 本発明の第 3実施形態におけるオンエア映像対応情報の閲覧表示例を 示す図である。
図 1 5は、 本発明の第 4実施形態による映像閲覧システムのブロック図である。 発明を実施するための最良の形態
(第 1実施形態)
A:システム構成
図 1は、 本発明の第 1実施形態による映像閲覧システムの構成を示すプロック図 である。 図 1において、 入力部 1 0 1はキーボードやポインティングデバイスなど の入力デバイスからなり、 閲覧映像の指定、 データ入力あるいは種々の命令の入力 を行うことができる。 表示部 1 0 2はモニタであり、 後述する映像閲覧画面を表示 し、 入力部 1 0 1と協働してグラフィカルなユーザインタフェースを提供する。 本実施形態による映像閲覧システムには、 制御プログラム 1 0 4を実行すること により映像閲覧に関する処理やシステム全体の動作を制御するプログラム制御プロ セッサ 1 0 3、 映像検索部 1 0 5、 映像記憶部 1 0 6、 対応情報検索部 1 0 7およ び対応情報記憶部 1 0 8を含む。 映像検索部 1 0 5および対応情報検索部 1 0 7は、 プログラム制御プロセッサ 1 0 3の制御のもとで、 後述する映像検索および対応情 報検索をそれぞれ実行する。
映像記憶部 1 0 6には、 オンエア映像群 (OA) 、 編集映像群 (E D) および素 材映像群 (RAW) が格納されている。 素材映像群 (R AW) は、 現場で撮影され た素材映像が、 例えばディジタル画像データとして記憶されたものであり、 それぞ れの素材映像はユニークな識別子とともに管理される。 タイトルや制作日時など映 像関連情報を併せて保持することも可能である。
編集映像群 (E D) は、 素材映像を厳選して編集された放送用の映像が、 例えば ディジタル画像デ一夕として記憶されたものであり、 それぞれの編集映像はュニー クな識別子とともに管理される。 タイトルや制作日時など映像関連情報を併せて保 持することも可能である。
オンエア映像群 (O A) は、 最終的に放送された映像が、 例えばディジタル画像 データとして記憶されたものであり、 それぞれのオンエア映像はュ二一クな識別子 とともに管理される。 タイトルや制作日時など映像関連情報を併せて保持すること も可能である。
映像検索部 1 0 5は、 プログラム制御プロセッサ 1 0 3から映像検索指令を受け 取ると、 指定された映像識別子に対応する映像データを映像記憶部 1 0 6から検索 する。 読み出された映像データは、 後述する映像デ一夕関連情報と併せて表示部 1 0 2に表示される。 映像検索指令に映像の開始位置が含まれる場合には、 読み出さ れた映像を開始位置より再生することも、 選択された映像を開始位置で頭だしして おくこともできる。
対応情報記憶部 1 0 8には、 オンエア映像対応情報 (OA— R E L ) 、 編集映像 対応情報 (E D— R E L) および素材映像対応情報 (R AW— R E L) が格納され ている。 これら対応情報については、 後で詳細に説明する。
対応情報検索部 1 0 7は、 対応情報検索指令を受け取ると、 指定された映像に関 する対応情報を対応情報記憶部 1 0 8から検索する。 読み出された対応情報は、 後 述するように、 所定のフォームで表示部 1 0 2に表示される。 その際、 対応する他 の映像へのアクセスを可能にするポインタを併せて表示する。
B:対応情報
図 2 Aは、 オンエア映像対応情報のフォーマットの一例を示す図である。 図 2 Bは、 編集映像対応情報のフォーマットの一例を示す図である。 図 2 Cは、 素材映 像対応情報のフォーマットの一例を示す図である。 図 2 Dは、 汎用の対応情報フォ —マツトの一例を示す図である。
図 2 Aに示すように、 オンエア映像対応情報は、 オンエア映像と編集映像と素 材映像との間の対応関係を記述した情報である。 すなわち、 あるオンエア映像のど の箇所がどの編集映像/素材映像のどの箇所から引用されたものなのかが記述され ている。 オンエア映像対応情報は 6個のカラムから構成され、 カラム番号 1にはォ ンエア映像の識別子、 カラム番号 2にはオンエア映像区間の開始フレーム番号、 力 ラム番号 3には対応する映像の識別子、 カラム番号 4には対応する映像の種別 (編 集映像あるいは素材映像) 、 カラム番号 5には対応する映像の映像区間の開始フレ —ム番号、 カラム番号 6には映像区間のフレーム数、 をそれぞれ記述する。 このよ うな記述によつて、 あるオンエア映像のある映像区間が編集映像あるいは素材映像 のどの映像区間に対応しているかを特定することができる。
なお、 各オンエア映像についての対応関係をそれぞれ別々の対応情報ファイルに 格納しておくことも、 また各オンエア映像についての対応関係を 1つの対応情報フ アイルにまとめて格納しておくこともできる。 たとえば、 オンエア映像 Aについて の対応関係を対応情報ファイル aに格納しておき、 オンエア映像 Bについての対応 関係を対応情報ファイル bに格納してもよいし、 オンエア映像 Aおよび Bの双方に ついての対応関係を 1つの対応情報ファイルに格納してもよい。
図 2 (B) に示すように、 編集映像対応情報は、 ある編集映像のどの箇所がどの 2003/014672
9
オンエア映像のどの箇所に使われていたか、 あるいは、 ある編集映像のどの箇所が どの素材映像のどの箇所から引用されたものなのか、 を記述した情報である。 編集 映像対応情報は 6個のカラムから構成され、 カラム番号 1には編集映像の識別子、 カラム番号 2には編集映像区間の開始フレーム番号、 力ラム番号 3には対応する映 像の識別子、 カラム番号 4には対応する映像の種別 (オンエア映像あるいは素材映 像) 、 カラム番号 5には対応する映像の映像区間の開始フレーム番号、 カラム番号 6には映像区間のフレーム数、 がそれぞれ記述する。 このような記述によって、 あ る編集映像のある映像区間がォンエア映像あるいは素材映像のどの映像区間に対応 しているかを特定することができる。
図 2 Cに示すように、 素材映像対応情報は、 ある素材映像のどの箇所がどの編集 映像ノオンエア映像のどの箇所に使われたかを記述した情報である。 素材映像対応 情報は 6個のカラムから構成され、 カラム番号 1には素材映像の識別子、 カラム番 号 2には素材映像区間の開始フレーム番号、 カラム番号 3には対応する映像の識別 子、 カラム番号 4には対応する映像の種別 (編集映像あるいはオンエア映像) 、 力 ラム番号 5には対応する映像の映像区間の開始フレーム番号、 カラム番号 6には映 像区間のフレーム数、 がそれぞれ記述する。 このような記述によって、 ある素材映 像のある映像区間が編集映像あるいはォンエア映像のどの映像区間に対応している かを特定することができる。
図 2 A乃至図 2 Cに示すそれぞれの対応情報フォーマットの代わりに、 図 2 Dに 示す 1つのフォーマットを用いることもできる。 すなわち、 汎用フォーマットとし て、 カラム番号 1には参照元映像の識別子、 カラム番号 2には参照元映像の種別 ( オンエア映像、 編集映像あるいは素材映像) 、 カラム番号 3には参照元映像区間の 開始フレーム番号、 カラム番号 4には参照先映像の識別子、 カラム番号 5には参照 先映像の種別 (オンエア映像、 編集映像あるいは素材映像) 、 カラム番号 6には参 照先映像区間の開始フレーム番号、 カラム番号 7には映像区間のフレーム数、 をそ れぞれ記述する。 図 3 Aは、 オンエア映像対応情報の格納テーブルの一例を示す模式図である。 図 3 Bは、 編集映像対応情報の格納テーブルの一例を示す模式図である。 図 3 Cは、 素材映像対応情報の格納テーブルの一例を示す模式図である。
図 3 Aに示すように、 オンエア映像対応情報は、 各オンエア映像のオンエア映像 区間ごとに、 図 2 Aに示す形式で格納される。 たとえば、 格納レコード 1は、 オン エア映像 OA 1の第 3フレームからの 4フレーム分が編集映像 E D 1の第 3フレー ムからの 4フレーム分に対応していることを示す。 同様に、 レコード 2は、 同じォ ンエア映像 OA 1の第 7フレームからの 1 0フレ一ム分が編集映像 E D 2の第 5フ レームからの 1 0フレーム分に対応していることを示す。 図 3 Bおよび図 3 Cのテ 一ブルについても同様である。
C:対応情報の生成
まず、 ある編集映像のどの箇所がどの素材映像のどの箇所から引用されたもので あるかの対応関係を示す情報を編集映像―素材映像間対応情報 ( E D— R A W対応 情報) と呼ぶ。 この情報は、 編集段階で選択された素材映像をシステムに記録して おけばよい。 また、 あるオンエア映像のどの箇所がどの編集映像のどの箇所を使つ て放映したものであるのかの対応関係を示す情報をオンエア映像一編集映像間対応 情報 (OA— E D対応情報) と呼ぶ。 この情報は、 オンエア段階で実際に選択され た編集映像をシステムに記録しておけばよい。
なお、 E D— R AW対応情報や OA— E D対応情報の記録がない場合には、 たと えば、 特開 2 0 0 2— 5 8 0 4 9公報に開示されている動画像検索技術を用いて、 特徴の類似する動画像区間同士を対応付けることにより自動的に生成することもで さる。
図 4は、 本実施形態における対応情報を生成するシステム構成の一例を示すプロ ック図である。 図 5 Aは、 オンエア映像一編集映像の対応関係と編集映像一素材映 像の対応関係とを示す模式図である。 図 5 Bは、 オンエア映像一編集映像一素材映 T/JP2003/014672
1 1
像の対応関係を示す模式図である。
図 4において、 対応情報生成システムは、 オンエア映像-素材映像間対応情報生 成部 2 0 1、 オンエア映像対応情報生成部 2 0 2、 編集映像対応情報生成部 2 0 3 および素材映像対応情報生成部 2 0 4を含んでいる。 この対応情報生成システムは、 図 1に示す本システムに内蔵させることもできる。
オンエア映像-素材映像間対応情報生成部 2 0 1は、 OA— E D対応情報および E D一 RAW対応情報を用いてオンエア一素材映像間対応情報 (O A— R AW対応 情報) を生成する。
具体的には、 図 5 Aに示すように、 はじめに OA— E D対応情報を参照してオン エア映像内で使われた編集映像データ内の各映像区間 (以降、 編集映像区間と呼ぶ ) を取り出す。 次に、 取り出された各編集映像区間について、 E D— RAW対応情 報より、 編集映像区間を含む編集映像の対応情報を調べることにより、 編集映像区 間に対応する素材映像データ内の各映像区間 (以降、 素材映像区間と呼ぶ) を特定 できる。 この特定された素材映像区間を上記オンエア映像区間に対応付けることに より OA— RAW対応情報が得られる。 図 5 Bに示すように、 ある特定のオンエア 映像に対応する素材映像区間が複数の素材映像にまたがる場合には、 各素材映像の 対応する区間毎にオンエア映像との対応関係を記述する (図 3参照) 。
なお、 . OA— R AW対応情報が事前に生成されて記憶されている場合には、 オン エア映像-素材映像間対応情報生成部 2 0 1は不要である。
オンエア映像対応情報生成部 2 0 2は、 OA— E D対応情報および OA— RAW 対応情報より、 オンエア映像毎に、 オンエア映像のどの箇所がどの編集映像または 素材映像のどの箇所から引用されたものなのかを記述するオンエア映像対応情報 ( OA - R E L) を生成する (図 3 A参照) 。
編集映像対応情報生成部 2 0 3は、 O A— E D対応情報および E D— RAW対応 情報より、 編集映像毎に、 編集映像のどの箇所がどのオンエア映像のどの箇所に使 われたか、 また編集映像のどの箇所がどの素材映像のどの箇所から引用されたもの JP2003/014672
12
なのかを記述する編集映像対応情報 (E D— R E L ) を生成する (図 3 B参照) 。 素材映像対応情報生成部 2 0 4は、 〇 A - R A W対応情報および E D— R A W対 応情報より、 素材映像毎に、 素材映像のどの箇所がどの編集映像またはオンエア映 像のどの箇所に使われたかを記述する素材映像対応情報 (R AW— R E L) を生成 する (図 3 C参照) 。
D:素材映像対応情報の表示例
図 6は素材映像対応情報の閲覧表示例を示す図である。 ある素材映像が指定され た場合、 その素材映像の時間を表示欄 3 0 1に表示し、 さらに、 指定された素材映 像の素材映像対応情報を参照して、 そのカラム番号 3および 4にそれぞれ示された 「対応する映像の識別子」 および 「種別」 を表示ウィンドウ 3 0 2 aに一覧表示す る。
また、 表示ウィンドウ 3 0 2 bには、 カラム番号 2に示す開始位置とカラム番号 6に示すフレーム数とから特定される素材映像区間をマーク (図中の斜線部) を用 いて表示する。 すなわち、 素材映像対応情報を参照しながら、 表示ウィンドウ 3 0 2 bには、 素材映像の時間を横軸として、 どの部分がどの対応映像 (オンエア映像 あるいは編集映像) によつて使用されているかがマ一クされる。
図 6に示す例では、 この素材映像が 3つのオンエア映像と 3つの編集映像に用い られており、 各素材映像の使用されている区間がマークされている。 これによつて、 たとえば識別子 1 1 1 1のオンエア映像に、 素材映像の 2 0分から 2 5分までのシ ーンが使用されていることが一目でわかる。
本実施形態では、 素材映像が使用されている区間の各マ一クをポタンの形で表示 し、 所望のマ一クをマウス等の入力部 1 0 1によりクリックすることで当該対応す る映像を映像閲覧ウインドウに表示することができる。
E:編集映像対応情報の表示例 図 7は、 編集映像対応情報の閲覧表示例を示す図である。 ある編集映像が指定さ れた場合、 その編集映像の時間を表示欄 4 0 1に表示し、 さらに、 カラム番号 2に 示す開始位置からカラム番号 6に示すフレーム数分の編集映像区間を可視化するた めに、 ウィンドウ 4 0 2の対応する映像の欄にマークをつける。 マークの内容とし ては、 表示欄 4 0 3に素材映像の識別子および表示欄 4 0 4に素材映像区間の代表 フレームや時刻に対応したフレームなどである。
本実施形態では、 対応する素材映像の各マークをポタンの形で表示し、 所望のマ ークをマウス等の入力部 1 0 1によりクリックすることで当該対応する映像を映像 閲覧ウィンドウに表示することができる。
F :オンエア映像対応情報の表示例
図 8は、 オンエア映像対応情報の閲覧表示例を示す図である。 指定された映像が オンエア映像の場合は、 指定されたオンエア映像に含まれる編集映像と、 その制作 に用いた素材映像とを表示可能である。 指定されたオンエア映像の時間を表示欄 5 0 1に表示し、 さらに、 カラム番号 2に示す開始位置からカラム番号 6に示すフレ ーム数分のオンエア映像区間を可視化するために、 ウィンドウ 5 0 2の対応する映 像の欄にマークをつける。 マークの内容として、 表示欄 5 0 3に編集映像の識別子、 表示欄 5 0 4に素材映像の識別子、 表示欄 5 0 5に素材映像区間の代表フレームを それぞれ提示できる。
本実施形態では、 対応する編集映像および素材映像の各マークをボタンの形で表 示し、 所望のマークをマウス等の入力部 1 0 1によりクリックすることで当該対応 する映像を映像閲覧ウィンドウに表示することができる。
また、 指定された映像と同一種別の映像のリストあるいは指定された映像と対応 関係を持つ他種別の映像のリストを併せて提示することもできる。
G:操作画面の表示例 JP2003/014672
14
図 9は本実施形態による映像閲覧システムの操作画面の一例を示す模式図である。 表示部 1 0 2に表示された操作画面 6 0 1において、 映像閱覧ウインドウ 6 0 2に は閲覧者が指定した識別子に対応した映像が表示され、 サムネイル表示ウインドウ 6 0 3には与えられた開始位置の画像とその前後の画像が併せて一覧表示される。 閲覧する映像の指定は、 入力部 1 0 1のキーボードにより映像の識別子を直接与え てもよい。 また、 映像の一覧を用意してマウス等を用いて利用者が映像を選択でき るようにしておき、 選択された映像の識別子を用いることも可能である。 また、 閲 覧する映像の開始位置を併せて入力することも可能である。
さらに、 関連情報リスト表示ウィンドウ 6 0 4には、 指定された映像と同一種別 の映像のリストあるいは指定された映像と対応関係を持つ他種別の映像のリストが 表示される。 対応情報表示ウィンドウ 6 0 5には、 図 6〜図 8に例示したような対 応情報が表示される。 例えば、 素材映像を表示させるのであれば、 指定された素材 映像データの映像区間に対応する編集映像データの映像区間および対応するオンェ ァ映像デー夕の映像区間を表示する。
このように、 異なる映像種別間の対応情報が可視化され、 さらに関連映像リス卜 も表示されるために、 映像閲覧効率をより高めることができる。 また、 上述したよ うに、 対応情報表示ウィンドウ 6 0 5で可視化された対応情報にポタンを設け、 入 力部 1 0 1のマウス等で指定することにより、 その対応する映像区間に容易にァク セスすることができる。
I :映像閲覧システムの動作
図 1 0は、 本実施形態の全体的動作を示すフローチャートである。 まず、 対応情 報記憶部 1 0 8に、 予め対応付けがされているオンエア映像対応情報 (OA—R E L) 、 編集映像対応情報 (E D— R E L) および素材映像対応情報 (R AW— R E L) を記憶させておく (ステップ A 1 ) 。
禾 IJ用者は閲覧する映像を入力部 1 0 1から指定する (ステップ A 2 ) 。 閲覧する 映像の指定は、 識別子を直接入力してもよいし、 予め一覧表示された映像からユー ザが選択するようにしてもよい。 また、 上述したように、 対応情報表示ウィンドウ
605に表示された対応情報から対応関係を持つ映像区間あるいはその開始位置を 選択することで、 映像の指定を行うこともできる。
指定された映像の識別子が特定されると、 プログラム制御プロセッサ 103は映 像検索部 105に当該希望映像の検索を指示する。 映像検索部 105は、 指定され た識別子をキーにして映像記憶部 106を検索する (ステップ A3) 。
指定された識別子を有する映像が見つかると (ステップ A3の YES) 、 映像検 索部 105はその指定映像デー夕をプログラム制御プロセッサ 103へ返す。 プ口 グラム制御プロセッサ 103は、 指定映像データをデータ処理した後、 表示部 10 2上の映像閲覧ウィンドウ 602に表示する (ステップ A 5) 。
続いて、 プログラム制御プロセッサ 103は対応情報検索部 107に指定された 識別子を用いた検索を指示する。 対応情報検索部 107は、 指定された識別子をキ —にして対応情報記憶部 108を検索する (ステップ A6) 。
指定された識別子を有する対応情報 (図 2および図 3参照) が見つかると (ステ ップ A7の YES) 、 指定された映像種別を判定し (ステップ A8) 、 映像種別ご とに所定の形式で対応情報を可視化する。
具体的には、 素材映像が指定された場合には、 検索された素材映像対応情報を参 照して、 その対応する編集映像およびオンエア映像の映像区間や識別子等の情報を 図 6に示すように表示する (ステップ A 8. 1) 。
編集映像が指定された場合には、 検索された編集映像対応情報を参照して、 その 対応する素材映像の映像区間や識別子等の情報を図 7に示すように表示する (ステ ップ A 8. 2) 。
オンエア映像が指定された場合には、 検索されたオンエア映像対応情報を参照し て、 その対応する素材映像および編集映像の映像区間や識別子等の情報を図 8に示 すように表示する (ステップ A 8. 3) 。 なお、 ステップ A 7において対応情報が検出されなかった場合には (ステップ A 7の N O) 、 対応情報は表示しない。 また、 ステップ A 4において与えられた識別 子を持つ映像が検出されなかった場合、 閲覧不能と判断し、 閲覧不能を示すメッセ 一ジ等を表示する (ステップ A 9 ) 。
上述したように、 第 1実施形態では、 素材映像が指定されると指定された素材映 像を利用した編集映像およびオンエア映像の情報が表示され、 編集映像が指定され ると指定された編集映像の制作に用いた素材映像の情報が表示され、 また、 オンェ ァ映像が指定されると指定されたオンエア映像に含まれる編集映像の情報とその制 作に用いた素材映像の情報とが表示される。 このようにオンエア映像、 編集映像、 素材映像同士の対応関係を可視化したことで、 素材映像を含めて映像の利用状況を 容易に把握することができる。
さらに、 オンエア映像、 編集映像、 素材映像同士の対応関係を可視化したうえで、 可視化されたマークをボイン夕で指定することによりマークに対応する映像の映像 区間へのアクセスを可能にし、 制作効率を上げることができる。
また、 本実施形態では、 図 4に示す対応情報生成システムにより、 オンエア映像 と素材映像とを対応付けて、 オンエア映像対応情報 (OA— R E L) 、 編集映像対 応情報 (E D— R E L) および素材映像対応情報 (R AW— R E L) を生成するこ とができる。 本実施形態によれば、 編集映像およびオンエア映像が素材映像まで対 応付けられるため、 オンエア映像および編集映像に関連する素材映像へ容易にァク セスすることができ、 映像の制作効率を上げることができる。
なお、 第 1実施形態では、 素材映像、 編集映像、 オンエア映像の 3種類の映像群 の場合を説明したが、 例えばオンエア映像を引用して制作したコンテンツ等をも閲 覧対象とする場合など、 利用関係にある N (N> 3 ) 種類の映像群の場合に拡張で きることは言うまでもない。
(第 2実施形態) 上記第 1実施形態では、 あらかじめオンエア映像対応情報 (OA— REL) 、 編 集映像対応情報 (ED— REL) および素材映像対応情報 (RAW— REL) を求 めて対応情報記憶部 108に記憶している。 しかし、 図 4で説明したように、 各対 応情報は E D— R AW対応情報および OA— E D対応情報から演算により求めるこ とができる。 第 2実施形態による映像閲覧システムは、 この対応情報演算機能を組 込んだものである。
図 11は、 本発明の第 2実施形態による映像閲覧システムの構成を示すブロック 図である。 図 11に示すように、 本実施形態のシステムでは、 図 1に示す第 1実施 形態の対応情報記憶部 108の代わりに対応情報記憶部 701が設けられ、 さらに 対応情報生成部 702が新たに設けられている。
対応情報記憶部 701には、 編集映像一素材映像間対応情報、 オンエア映像一編 集映像間対応情報、 ED— RAW対応情報、 OA— ED対応情報および OA— RA W対応情報のうち少なくとも 2つの対応情報が記憶されていればよい。 少なくとも 2つの対応情報があれば、 図 4で説明したようにオンエア映像対応情報 (OA— R EL) 、 編集映像対応情報 (ED— REL) および素材映像対応情報 (RAW - R EL) を算出できることは明らかである。 ここでは、 ED— RAW対応情報および OA-ED対応情報が格納されている。
対応情報生成部 702は、 プログラム制御プロセッサ 103の制御のもとで、 必 要な対応情報を算出する。 具体的には、 対応情報生成部 702は、 対応情報記憶部 701から 2つの対応情報を読み出し、 図 4で説明したように各対応情報を生成す る。 対応情報検索部 107は、 指定された識別子をキーにして対応情報生成部 70 2の算出した対応情報を検索し、 上述したように指定識別子を有する対応情報をプ ログラム制御プロセッサ 103へ返す。 その他の動作は第 1実施形態と同じである から説明は省略する。
第 2実施形態によれば、 対応情報記憶部 701には、 ED— RAW対応情報、 〇 A-ED対応情報および O A— R A W対応情報のうち 2つの対応情報が格納されて いればよいので、 必要な記憶容量を削減することができる。
(第 3実施形態)
本発明の第 3実施形態による映像閲覧システムは、 素材映像およびオンエア映像 のみを扱う。
図 1 2は、 本発明の第 3実施形態による映像閲覧システムのブロック図である。 図 1に示すプロックと同じ機能を持つプロックには同一参照番号を付して説明は省 略する。
図 1 2において、 映像記憶部 8 0 1には、 オンエア映像群 (OA) および素材映 像群 (R AW) が格納されている。 素材映像群 (R AW) およびオンエア映像群 ( OA) については、 第 1実施形態と同じである。 また、 対応情報記憶部 8 0 2には、 オンエア映像対応情報 (OA— R E L) および素材映像対応情報 (R AW—R E L ) が格納されている。 これら対応情報についても第 1実施形態と同じである。
J :素材映像対応情報の表示例
図 1 3は、 第 3実施形態における素材映像対応情報の閲覧表示例を示す図である。 ある素材映像が指定された塲合、 その素材映像の時間を表示欄 9 0 1に表示し、 さ らに、 指定された素材映像の素材映像対応情報を参照して、 そのカラム番号 3およ び 4にそれぞれ示された 「対応する映像の識別子」 および 「種別」 を表示ウィンド ゥ 9 0 2 aに一覧表示する。
また、 表示ウィンドウ 9 0 2 bには、 カラム番号 2に示す開始位置とカラム番号 6に示すフレーム数とから特定される素材映像区間をマーク (図中の斜線部) を用 いて表示する。 すなわち、 素材映像対応情報を参照しながら、 表示ウィンドウ 9 0 2 bには、 素材映像の時間を横軸として、 どの部分がどの対応映像 (オンエア映像 ) によって使用されているかがマークされる。
図 1 2に示す例では、 この素材映像が 3つのオンエア映像に用いられており、 各 素材映像の使用されている区間がマークされている。 これによつて、 たとえば識別 子 1 1 1 1のオンエア映像に素材映像の 2分から 6分までのシーンが使用されてい ることが一目でわかる。
本実施形態では、 素材映像が使用されている区間の各マークをポタンの形で表示 し、 所望のマークをマウス等の入力部 1 0 1によりクリックすることで当該対応す る映像を映像閲覧ウインドウに表示することができる。
K:オンエア映像対応情報の表示例
図 1 4は、 第 3実施形態におけるオンエア映像対応情報の閲覧表示例を示す図で ある。 指定された映像がオンエア映像の場合は、 指定されたオンエア映像の制作に 用いた素材映像を表示可能である。 指定されたオンエア映像の時間を表示欄 1 0 0 1に表示し、 さらに、 カラム番号 2に示す開始位置からカラム番号 6に示すフレー ム数分のオンエア映像区間を可視化するために、 対応する映像の欄にマークをつけ る。 マークの内容として、 表示欄 1 0 0 2に素材映像の識別子、 表示欄 1 0 0 3に 素材映像区間の代表フレームをそれぞれ表示する。
本実施形態では、 対応する素材映像の各マークをポタンの形で表示し、 所望のマ ークをマウス等の入力部 1 0 1によりクリックすることで当該対応する映像を映像 閲覧ウィンドウに表示することができる。
また、 指定された映像と同一種別の映像のリストあるいは指定された映像と対応 関係を持つ他種別の映像のリストを併せて提示することもできる。 なお、 本実施形 態による映像閲覧システムの操作画面は、 図 9に示すものと同じであるから、 説明 は省略する。
上述したように、 第 3実施形態では、 素材映像が指定されると指定された素材映 像を利用したオンエア映像の情報が表示され、 オンエア映像が指定されると指定さ れたオンエア映像に含まれる素材映像の情報とが表示される。 このようにオンエア 映像および素材映像の対応関係を可視化したことで、 素材映像を含めて映像の利用 状況を容易に把握することができる。
さらに、 オンエア映像と素材映像の対応関係を可視化したうえで、 可視化された マークをボイン夕で指定することによりマークに対応する映像の映像区間へのァク セスを可能にし、 制作効率を上げることができる。
また、 本実施形態では、 図 4に示す対応情報生成システムにより、 オンエア映像 と素材映像とを対応付けて、 オンエア映像対応情報 (O A— R E L ) および素材映 像対応情報 (R AW—R E L ) を生成することができる。 本実施形態によれば、 ォ ンエア映像が素材映像まで対応付けられるため、 オンエア映像に関連する素材映像 へ容.易にアクセスすることができ、 映像の制作効率を上げることができる。
(第 4実施形態)
図 1 5は本発明の第 4実施形態による映像閲覧システムのブロック図である。 本 実施形態では、 図 1に示す映像検索部 1 0 5および対応情報検索部 1 0 Ίをデ一夕 処理部 1 1 0 1内にソフトウェアにより実装している。 すなわち、 データ処理部 1 1 0 1は映像閲覧プログラム 1 1 0 2を実行することで、 第 1〜第 3実施形態で説 明したものと等価な映像閲覧機能を実現することができる。 入力部 1 0 1、 表示部 1 0 2、 映像記憶部 1 0 6および対応情報記憶部 1 0 8は、 映像閲覧プログラム 1 1 0 2を実行しているデータ処理部 1 1 0 1によって、 第 1、 第 2または第 3実施 形態と同様に制御され、 本発明による映像閲覧システムを実現できる。
なお、 上記実施形態では、 素材映像、 編集映像、 オンエア映像の 3種類の映像群 の場合を説明したが、 例えばオンエア映像を引用して制作したコンテンツ等をも閲 覧対象とする場合など、 利用関係を有する 3種類以上の映像群の場合に拡張できる ことは言うまでもない。
以上詳細に説明したように、 本発明によれば、 複数の映像群の利用状況を容易に 把握することができる。 たとえば、 素材映像が指定されると、 その素材映像を利用 した編集映像およびオンエア映像の情報が表示され、 編集映像が指定されると、 そ の編集映像の制作に用いた素材映像の情報が表示され、 また、 オンエア映像が指定 されると、 そのオンエア映像に含まれる編集映像の情報とその制作に用いた素材映 像の情報とが表示される。 このようにオンエア映像、 編集映像、 素材映像という複 数の映像群同士の対応関係を可視化することができ、 素材映像を含めて映像の利用 状況を容易に把握することが可能となる。
また、 編集映像およびオンエア映像が素材映像まで対応付けられるため、 オンェ ァ映像および編集映像に関連する素材映像へ容易にアクセスすることができ、 映像 の制作効率を上げることができる。
さらに、 オンエア映像、 編集映像、 素材映像などの複数の映像群同士の対応関係 を可視化したうえで、 可視化されたマークをボイン夕で指定することによりマーク に対応する映像の映像区間へのアクセスを容易にしたことで、 制作効率を上げるこ とができる。 産業上の利用の可能性
本発明に係る映像閲覧システムおよび方法は、 映像の制作のための編集作業にお いて複数の映像から所望の映像を閲覧するための映像閲覧システム及び方法であれ ば、 あらゆるものに適用することが可能であり、 その利用の可能性において何ら限 定するものではない。
幾つかの好適な実施の形態及び実施例に関連付けして本発明を説明したが、 これ ら実施の形態及び実施例は単に実例を挙げて発明を説明するためのものであって、 限定することを意味するものではないことが理解できる。 本明細書を読んだ後であ れば、 当業者にとって等価な構成要素や技術による数多くの変更および置換が容易 であることが明白であるが、 このような変更および置換は、 添付の請求項の真の範 囲及び精神に該当するものであることは明白である。

Claims

請求の範囲
1 . 第 1の映像群、 前記第 1の映像群を用いて制作された第 2の映像群お よび前記第 2の映像群を用いて制作された第 3の映像群のうちいずれか 1つの映像 群の映像を指定することにより、 指定された映像と対応関係を持つ他の映像群の映 像を特定し、 前記指定された映像と前記特定された映像との対応関係を表示する映 像閲覧システム。
2 . 複数の映像から所望の映像を閲覧するための映像閲覧システムにおい て、
ある映像群の少なくとも 1つの映像を用いて次の映像群の映像が制作 されるという一連の対応関係を有する複数の映像群を検索可能に格納する第 1格納 部と、
前記一連の対応関係から得られる相互の対応関係を検索可能に格納す る第 2格納部と、
前記複数の映像群のいずれか 1つの映像群の映像が指定されると、 前 記第 2格納部を参照して前記指定された映像と対応関係を有する他の映像群の映像 を特定し、 前記指定された映像と前記特定された映像との対応関係を表示部に表示 する制御部とを含む映像閲覧システム。
3 . 前記第 2格納部は、 前記複数の映像群ごとに各映像区間が他の映像群 の 1つの映像区間に対応していることを示す対応情報を検索可能に格納する請求項 2記載の映像閲覧システム。
4. 前記一連の対応関係から前記相互の対応関係を生成する対応関係生成 部を更に含む請求項 2記載の映像閲覧システム。
5 . 前記制御部は、 前記指定された映像の映像区間を基準にして前記特定 された映像の映像区間を対比表示する請求項 2記載の映像閲覧システム。
6 . 前記制御部は、 前記指定された映像と前記特定された映像との対応関 係において前記特定された映像が指定されると、 前記第 1格納部から前記特定され た映像を検索し、 指定された映像として前記表示部に表示する請求項 2記載の映像 閲覧システム。
7 . 複数の映像から所望の映像を閲覧するための映像閲覧方法において、 a ) ある映像群の少なくとも 1つの映像を用いて次の映像群の映像が 制作されるという一連の対応関係を有する複数の映像群を検索可能に格納し、
b ) 前記一連の対応関係から生成された相互の対応関係を格納し、 c ) 前記複数の映像群のいずれか 1つの映像群の映像が指定されると、 前記相互の対応関係を参照して前記指定された映像と対応関係を有する他の映像群 の映像を特定し、
d ) 前記指定された映像を表示画面の第 1の領域に表示し、
e ) 前記指定された映像と前記特定された映像との対応関係と前記特 定された映像との対応関係を前記表示画面の第 2の領域に表示する映像閲覧方法。
8 . 前記複数の映像群にそれぞれ対応して所定の表示フォームを用意し、 前記指定された映像が属する映像群に対応する表示フォームで、 前記指定された映 像と前記特定された映像との対応関係を前記第 2の領域に表示する請求項 7記載の 映像閲覧方法。
9 . 前記表示フォームは、 前記指定された映像の映像区間を基準にして前 記特定された映像の映像区間を対比表示する請求項 8記載の映像閲覧方法。
1 0 . 前記指定された映像と前記特定された映像との対応関係が表示されて いる前記表示フォームにおいて前記特定された映像が指定されると、 前記特定され た映像を指定された映像として、 前記ステップ c ) 〜e ) を繰り返す請求項 7記載 の映像閲覧方法。
1 1 . コンピュータに、 ある映像群の少なくとも 1つの映像を用いて次の映 像群の映像が制作されるという一連の対応関係を有する複数の映像群から所望の映 像を閲覧するための映像閲覧処理を実行させるためのプログラムにおいて、
前記一連の対応関係から生成された相互の対応関係を格納するステツ プと、
前記複数の映像群のいずれか 1つの映像群の映像が指定されると、 前 記相互の対応関係を参照して前記指定された映像と対応関係を有する他の映像群の 映像を特定するステップと、
前記指定された映像を表示画面の第 1の領域に表示するステップと、 前記指定された映像と前記特定された映像との対応関係を前記表示画 面の第 2の領域に表示するステップとを含むコンピュータプログラム。
1 2 . 複数の映像から所望の映像を閲覧するための映像閲覧方法において、 第 1の映像群、 前記第 1の映像群を用いて制作された第 2の映像群お よび前記第 2の映像群を用いて制作された第 3の映像群のうちいずれか 1つの映像 群の映像を指定することにより、 指定された映像と対応関係を持つ他の映像群の映 像を特定し、 前記指定された映像と前記特定された映像との対応関係を表示する映 像閲覧方法。
1 3 . 前記対応関係は、 ある映像群の少なくとも 1つの映像を用いて次の映 像群の映像が制作されるという一連の対応関係から生成される請求項 1 2記載の映 像閲覧方法。
1 4. 前記複数の映像群にそれぞれ対応して所定の表示フォームを用意し、 前記指定された映像が属する映像群に対応する表示フォームで、 前記指定された映 像と前記特定された映像との対応関係を表示する請求項 1 3記載の映像閲覧方法。
1 5 . 前記表示フォームは、 前記指定された映像の映像区間を基準にして 前記特定された映像の映像区間を対比表示する請求項 1 4記載の映像閲覧方法。
PCT/JP2003/014672 2002-11-19 2003-11-18 映像閲覧システムおよび方法 WO2004047437A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP03772875A EP1505830A4 (en) 2002-11-19 2003-11-18 SYSTEM AND METHOD FOR VIDEO VERIFICATION
US10/512,987 US20050226598A1 (en) 2002-11-19 2003-11-18 Video check system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-334550 2002-11-19
JP2002334550A JP4228662B2 (ja) 2002-11-19 2002-11-19 映像閲覧システムおよび方法

Publications (1)

Publication Number Publication Date
WO2004047437A1 true WO2004047437A1 (ja) 2004-06-03

Family

ID=32321733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/014672 WO2004047437A1 (ja) 2002-11-19 2003-11-18 映像閲覧システムおよび方法

Country Status (6)

Country Link
US (1) US20050226598A1 (ja)
EP (1) EP1505830A4 (ja)
JP (1) JP4228662B2 (ja)
KR (1) KR100705094B1 (ja)
CN (1) CN100438600C (ja)
WO (1) WO2004047437A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100973516B1 (ko) * 2004-12-03 2010-08-03 닛본 덴끼 가부시끼가이샤 영상 콘텐츠 재생 지원방법, 영상 콘텐츠 재생 지원시스템,및 정보전달프로그램
KR100921571B1 (ko) * 2008-04-23 2009-10-13 (주)올라웍스 오디오 신호를 분석하여 정보를 제공하기 위한 방법,시스템 및 컴퓨터 판독 가능한 기록 매체
EP2287749A4 (en) * 2009-01-23 2011-08-03 Nec Corp DATA DEVICE RECALL
JP2012004905A (ja) * 2010-06-17 2012-01-05 Sony Corp 情報処理装置及び方法、プログラム、並びに情報処理システム
JP6037443B2 (ja) 2011-02-10 2016-12-07 日本電気株式会社 映像間対応関係表示システム及び映像間対応関係表示方法
US9473734B2 (en) 2011-02-10 2016-10-18 Nec Corporation Inter-video corresponding relationship display system and inter-video corresponding relationship display method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266422A (ja) * 1998-03-18 1999-09-28 Toshiba Corp 放送番組管理装置、放送番組管理方法、及び放送番組管理処理プログラムを記録した記録媒体
JP2002204418A (ja) * 2000-12-28 2002-07-19 Video Pedeikku:Kk ビデオ編集方法、装置およびプログラムを記録した記録媒体
JP2002232823A (ja) * 2000-11-17 2002-08-16 Sony Corp 通信装置及び通信方法、並びに記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2629802B2 (ja) * 1988-04-16 1997-07-16 ソニー株式会社 ニユース番組放送システム
JPH04207878A (ja) * 1990-11-30 1992-07-29 Toshiba Corp 動画像管理装置
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library
US5760767A (en) * 1995-10-26 1998-06-02 Sony Corporation Method and apparatus for displaying in and out points during video editing
US5801685A (en) * 1996-04-08 1998-09-01 Tektronix, Inc. Automatic editing of recorded video elements sychronized with a script text read or displayed
US5852435A (en) * 1996-04-12 1998-12-22 Avid Technology, Inc. Digital multimedia editing and data management system
US6577807B1 (en) * 1996-11-15 2003-06-10 Hitachi Denshi Kabushiki Kaisha Editing method and apparatus for moving pictures
JP3409834B2 (ja) * 1997-07-10 2003-05-26 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
JP3276596B2 (ja) * 1997-11-04 2002-04-22 松下電器産業株式会社 動画像編集装置
JP3613543B2 (ja) * 1997-11-11 2005-01-26 株式会社日立国際電気 動画像編集装置
KR100350787B1 (ko) * 1999-09-22 2002-08-28 엘지전자 주식회사 멀티미디어 객체의 사용자 프로파일 생성방법과 사용자 프로파일을 이용한 멀티미디어 검색 및 브라우징 방법
KR100371813B1 (ko) * 1999-10-11 2003-02-11 한국전자통신연구원 효율적인 비디오 개관 및 브라우징을 위한 요약 비디오 기술구조 및 이의 기록매체, 이를 이용한 요약 비디오 기술 데이터 생성 방법 및 생성시스템, 요약 비디오 기술 데이터의 브라우징 장치 및 브라우징 방법.
EP1273008A2 (en) * 2000-03-31 2003-01-08 Parkervision, Inc. Method, system and computer program product for full news integration and automation in a real time video production environment
US7127736B2 (en) * 2000-11-17 2006-10-24 Sony Corporation Content processing apparatus and content processing method for digest information based on input of a content user
US20020120931A1 (en) * 2001-02-20 2002-08-29 Thomas Huber Content based video selection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266422A (ja) * 1998-03-18 1999-09-28 Toshiba Corp 放送番組管理装置、放送番組管理方法、及び放送番組管理処理プログラムを記録した記録媒体
JP2002232823A (ja) * 2000-11-17 2002-08-16 Sony Corp 通信装置及び通信方法、並びに記憶媒体
JP2002204418A (ja) * 2000-12-28 2002-07-19 Video Pedeikku:Kk ビデオ編集方法、装置およびプログラムを記録した記録媒体

Also Published As

Publication number Publication date
KR100705094B1 (ko) 2007-04-06
JP4228662B2 (ja) 2009-02-25
EP1505830A4 (en) 2010-03-31
US20050226598A1 (en) 2005-10-13
EP1505830A1 (en) 2005-02-09
CN100438600C (zh) 2008-11-26
JP2004172788A (ja) 2004-06-17
CN1692639A (zh) 2005-11-02
KR20050044759A (ko) 2005-05-12

Similar Documents

Publication Publication Date Title
JP4065142B2 (ja) オーサリング装置およびオーサリング方法
JP4514928B2 (ja) 編集装置及び方法
US5956453A (en) Method of editing moving image and apparatus of editing the same
JP4380494B2 (ja) コンテンツ・マネジメント・システム及びコンテンツ・マネジメント方法、並びにコンピュータ・プログラム
US8543940B2 (en) Method and apparatus for browsing media content and executing functions related to media content
KR100704631B1 (ko) 음성 주석 생성 장치 및 방법
US20070107015A1 (en) Video contents display system, video contents display method, and program for the same
US20050210410A1 (en) Display controlling apparatus, display controlling method, and recording medium
US20100058213A1 (en) Display controlling apparatus and display controlling method
JPH10320400A (ja) 映像の検索方法および装置
JP4745437B2 (ja) 表示処理装置及び表示処理方法
JPH1175150A (ja) 動画像編集方法及び動画像編集装置並びに動画像編集動作を実行するためのプログラムを記録した記録媒体
JP4197014B2 (ja) 映像の検索方法および装置
JP2007013911A (ja) コンテンツ管理システム,管理情報生成装置,管理情報加工装置,およびコンピュータプログラム
JP2009004999A (ja) 映像データ管理装置
JPH1051733A (ja) 動画像編集方法および動画像編集装置および動画像編集手順を有するプログラムコードを記録する記録媒体
JP4218319B2 (ja) 映像閲覧システムおよび方法
WO2004047437A1 (ja) 映像閲覧システムおよび方法
JP2009022018A (ja) 映像の検索方法および装置
JP2001008136A (ja) マルチメディアデータのオーサリング装置
JP4418183B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
KR102078479B1 (ko) 영상 편집 방법 및 영상 편집 장치
JP3931890B2 (ja) 映像の検索方法および装置
JP2010074617A (ja) 映像記録再生装置
JP4507515B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB NL

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10512987

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003772875

Country of ref document: EP

Ref document number: 1020047017421

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038A04495

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2003772875

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020047017421

Country of ref document: KR