WO2008041629A1 - Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme - Google Patents

Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme Download PDF

Info

Publication number
WO2008041629A1
WO2008041629A1 PCT/JP2007/068950 JP2007068950W WO2008041629A1 WO 2008041629 A1 WO2008041629 A1 WO 2008041629A1 JP 2007068950 W JP2007068950 W JP 2007068950W WO 2008041629 A1 WO2008041629 A1 WO 2008041629A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
meta information
video stream
time
stream
Prior art date
Application number
PCT/JP2007/068950
Other languages
English (en)
French (fr)
Inventor
Koji Miyagi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US12/377,335 priority Critical patent/US20100215334A1/en
Priority to JP2008537507A priority patent/JPWO2008041629A1/ja
Publication of WO2008041629A1 publication Critical patent/WO2008041629A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs

Definitions

  • the present invention relates to a playback apparatus and method, an information generation apparatus and method, a data storage medium, a data structure, and a program, and in particular, a playback apparatus and method capable of easily editing or adding meta information,
  • the present invention relates to an information generation apparatus and method, a data storage medium, a data structure, and a program.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2005-335521
  • the conventional package media has hardly provided additional image information synchronized with the main image and sound.
  • the present invention has been made in view of such a situation, and in particular, makes it possible to easily edit or record an image or sound as additional image information.
  • a playback device is a stream playback unit that plays back an input video stream, and a video stream that is a file different from the video stream played back by the stream playback unit.
  • the meta information reading means for reading the meta information and the reading of the meta information in synchronism with the video stream being played back by the stream playback means based on the playback information of the video stream output by the stream playback means.
  • Additional image information providing means for providing image information, and provided by the additional image information providing means.
  • the additional image information, and a synthesizing means for synthesizing the I Ri reproduced video stream to the reproduction unit.
  • the output unit may further include an output unit that outputs a video stream in which the additional image information is combined by the combining unit, and the meta information is output by the output unit. It can be the position information on the display screen when the video stream with the combined information is displayed.
  • the meta information includes first meta information including first time information and second meta information including second time information
  • the stream synchronization reading means includes: The first meta information or the second meta information can be selected by comparing the playback time with the first time information or the second time information.
  • the meta information reading means may be one or more according to the format.
  • An acquisition unit that acquires the meta information may be further provided through a network, and the stream synchronization reading unit may read the meta information acquired by the acquisition unit.
  • Power S can be.
  • the meta information can be position information on a reproduction screen corresponding to reproduction information for each player who is competing, and the additional image information providing means includes The zoom screen of the predetermined player is provided as additional image information based on the position information of the predetermined player in synchronization with the playback timing of the video stream played back by the playback means. it can.
  • the content of the video stream can be made to include a plurality of objects in accordance with a time series, and the meta information is a plurality of contents in the content of the video stream that changes in accordance with the time series.
  • the correlation information between the objects can be obtained.
  • the meta information may be correlation information corresponding to reproduction information for each character, and the additional image information providing unit is reproduced by the reproduction unit.
  • the meta information can be introduction information of the character along with correlation information corresponding to reproduction information for each character.
  • the means may provide the introduction information of the character as additional image information based on the introduction information for each character in synchronization with the reproduction information of the video stream reproduced by the reproduction means. it can.
  • a playback method includes a stream playback step for playing back an input video stream and a video stream that is a separate file from the video stream played back by the processing of the stream playback step.
  • the meta information reading step of reading the meta information of the video stream, and the playback information of the video stream played back by the processing of the stream playback step, in synchronization with the video stream played back by the processing of the stream playback step, A stream that reads the meta information by controlling the meta information reading means.
  • Based on the meta information read by the processing of the meta information reading step provided by the processing of the additional image information providing step of providing additional image information to the video stream and the processing of the additional image information providing step.
  • a synthesizing step of synthesizing the added additional image information with the video stream reproduced by the process of the reproducing step.
  • a program according to the first aspect of the present invention is a video that is a separate file from the stream playback step of playing back an input video stream and the video stream played back by the processing of the stream playback step.
  • the meta information reading step for reading the meta information of the stream and the playback information of the video stream played back by the processing of the stream playback step, it is synchronized with the video stream played back by the processing of the stream playback step.
  • the meta information reading means is controlled by the stream synchronous reading step for reading the meta information and the processing of the stream synchronous reading step, and the meta information read by the processing of the meta information reading step is controlled.
  • a process comprising: a step of providing additional image information, and a step of synthesizing the additional image information provided by the processing of the additional image information providing step with the video stream reproduced by the processing of the reproduction step.
  • the program storage medium according to the first aspect of the present invention stores the program according to claim 9.
  • a data storage medium is a recording medium on which a video stream having time information to be played back by a playback device is recorded, and the file is a separate file from the video stream.
  • second meta information corresponding to the video stream displayed at the second time position, including time information corresponding to the second time position is stored.
  • a data structure according to the third aspect of the present invention is a video stream having time information to be played back by a playback device, recorded on a recording medium or distributed over a network.
  • a data structure of a meta information file to be played together with a video stream which is included in the video stream displayed at the first time position including the time information corresponding to the first time position included in the time axis of the time information.
  • the second meta-data corresponding to the video stream displayed at the second time position including the corresponding first meta information and the time information corresponding to the second time position included in the time axis of the time information. Meta information.
  • the first meta information and the second meta data may be configured as separate independent files.
  • An information generation device acquires time information corresponding to a time position included in a time axis of the time information of a video stream having time information to be reproduced by a reproduction device.
  • Time information acquisition means, meta information acquisition means for acquiring meta information corresponding to the video stream to be displayed, and at least one time information and the meta information are stored in association with each other as a meta information file. Storage means.
  • the information generation method acquires time information corresponding to a time position included in a time axis of the time information of a video stream having time information to be played back by a playback device.
  • the program according to the fourth aspect of the present invention acquires time information corresponding to a time position included in a time axis of the time information of a video stream having time information to be reproduced by a reproduction device.
  • a time information acquisition step, a meta information acquisition step for acquiring meta information corresponding to a video stream to be displayed, and a storage for storing at least one or more of the time information and the meta information in association with each other as a meta information file Causing a computer to execute a process including steps.
  • a program storage medium stores the program according to claim 17.
  • the input video stream is played back, the meta information of the stream to be played back is read, and the output video stream is played back. Based on the information, the meta information is read in synchronization with the stream being played, and the additional image information is provided and provided to the video stream based on the read meta information. The additional image information is combined with the reproduced stream.
  • the time information corresponding to the first time position included in the time axis of the time information is included as a file separate from the video stream,
  • the first meta information corresponding to the video stream displayed at the first time position and the time information corresponding to the second time position included in the time axis of the time information are included, and the second time position 2nd meta information corresponding to the video stream displayed on the screen is stored.
  • the video stream having time information to be played back by the playback device corresponds to the first time position included in the time axis of the time information.
  • Time information is included, including first meta information corresponding to the video stream displayed at the first time position, and time information corresponding to the second time position included in the time axis of the time information. And second meta information corresponding to the video stream displayed at the second time position.
  • the time stream included in the time axis of the time information of the video stream having the time information to be reproduced by the reproducing apparatus Corresponding time information is acquired, meta information corresponding to the video stream to be displayed is acquired, and a meta information file is generated in which at least one time information and the meta information are stored in association with each other.
  • the playback device and information generation device of the present invention may be independent devices, or may be blocks that perform playback processing and information generation processing, respectively.
  • meta information can be easily edited or added.
  • FIG. 1 is a diagram illustrating a block diagram illustrating a configuration example of a playback device to which the present invention has been applied.
  • FIG. 2 is a flowchart for explaining additional image information provision processing by the playback device of FIG.
  • FIG. 3 is a flowchart for explaining additional image information generation processing by the playback device of FIG. 1.
  • FIG. 4 is a diagram for explaining a meta information file by the playback device of FIG. 1.
  • FIG. 5 is a diagram for explaining additional image information provision processing by the playback device of FIG. 1.
  • Fig. 6 is a block diagram illustrating another configuration example of the playback device.
  • FIG. 7 is a flowchart for explaining additional image information generation processing by the playback device in FIG. 6.
  • FIG. 8 is a diagram for explaining a meta information file by the playback device of FIG. 6.
  • FIG. 9 is a diagram for explaining additional image information generation processing by the playback device of FIG. 6.
  • FIG. 10 is a diagram for explaining additional image information generation processing by the playback device of FIG. 6.
  • FIG. 11 is a diagram illustrating additional image information generation processing by the playback device of FIG. 6.
  • Fig. 12 is a diagram illustrating a block diagram illustrating still another configuration example of the playback device.
  • FIG. 13 is a diagram illustrating a block diagram illustrating a configuration example of a meta information file generation device.
  • FIG. 14 is a flowchart for describing meta information file generation processing by the meta information file generation device of FIG. 13.
  • FIG. 15 is a diagram illustrating a configuration example of a personal computer.
  • the playback device has a stream playback means (for example, the stream playback unit 16 in FIG. 1) for playing back an input video stream, and a video played back by the stream playback means.
  • Meta information reading means for reading meta information of the video stream which is a separate file from the stream (for example, meta information file reading unit 14 in FIG. 1), and based on reproduction information of the video stream reproduced by the stream reproducing means. Then, in synchronization with the video stream being reproduced by the stream reproduction means, the stream information reading means for controlling the meta information reading means to read the meta information (for example, the stream synchronization reading section in FIG. 1). 15) and a message read by the meta information reading means under the control of the stream synchronous reading means.
  • the additional image information providing means for providing the additional image information to the video stream (for example, the additional image information providing unit 12 in FIG. 1) and the additional image information providing means.
  • the additional image information is combined with the stream reproduced by the reproducing means (for example, the combining unit 13 in FIG. 1).
  • Output means for example, the display unit 2 in FIG. 1 for outputting the video stream in which the additional image information is synthesized by the synthesis unit (for example, the synthesis unit 13 in FIG. 1) is further included.
  • the meta information can be used as position information on a display screen when a video stream output from the output unit and combined with the additional image information is displayed.
  • the reproduction method and program according to the first aspect of the present invention are reproduced by a stream reproduction step (for example, steps S61 and S63 in Fig. 2) for reproducing an input stream, and the processing of the stream reproduction step.
  • a meta information reading step for example, step S83 in FIG.
  • the stream synchronous reading step controls the meta information reading means to read the meta information in synchronization with the video stream being played back by the processing of the stream playing step.
  • the additional image information providing step for example, step S10 in FIG. 2 for providing additional image information to the video stream based on the meta information read by the processing of the additional step, and the processing of the additional image information providing step
  • a compositing step for example, step S101 in FIG. 2 for compositing the additional image information provided by the video stream reproduced by the processing of the reproducing step.
  • An information generation device acquires time information corresponding to a time position included in a time axis of the time information of a video stream having time information to be reproduced by a reproduction device.
  • Time information acquisition means for example, the time information acquisition unit 112 in FIG. 13
  • meta information acquisition means for example, the meta information acquisition unit 113 in FIG. 13
  • Storage means for storing at least one or more of the time information and the meta information as a meta information file in association with each other (for example, the storage unit 114 in FIG. 13).
  • An information generation method and program include a time corresponding to a time position included in a time axis of the time information of a video stream having time information to be reproduced by a reproduction device.
  • Time information acquisition step for acquiring information for example, step S192 in FIG. 14
  • meta information acquisition step for acquiring meta information corresponding to the video stream to be displayed for example, step S194 in FIG. 14
  • a storage step for example, FIG. 1 that associates at least one time information and the meta information with each other and stores the meta information file 4 steps SI 95).
  • FIG. 1 shows the configuration of an embodiment of a playback apparatus to which the present invention is applied.
  • the playback device 1 in FIG. 1 can also be configured by hardware having functions similar to those described in the example configured by software.
  • the playback device 1 generates additional image information based on the meta information file 3, combines it with a video stream played back based on the stream file 4, and causes the display unit 2 to display it.
  • the operation unit 11 includes a keyboard, a mouse, or a button.
  • the operation unit 11 is operated when the user inputs ON or OFF of the additional image information providing unit 12, and the operation unit 11 depends on the operation content.
  • the operation signal is generated and output to the additional image information providing unit 12.
  • the additional image information providing unit 12 generates additional image information based on the meta information supplied from the stream synchronization reading unit 15 and outputs the additional image information to the synthesizing unit 13.
  • the additional image information is information added as an image or the like when the content recorded in the stream file 4 is reproduced. More specifically, for example, when the video stream played back by the stream file 4 is a soccer game, the additional image information is based on meta information consisting of position information in units of time for each player! /, For example, a trace mark attached on the screen to a predetermined competitor.
  • the additional image information is a tracking mark attached to a predetermined player, but the video stream and additional image information are not limited to this, but other contents. It can be a stream file that plays back! /, And other additional image information.
  • the meta information file reading unit 14 obtains the reproduction information of the video stream reproduced by the stream reproduction unit 16 supplied from the stream synchronization reading unit 15, the meta information file reading unit 14 responds based on the reproduction information.
  • the timing meta information is read from the meta information file 3 and supplied to the stream synchronization reading unit 15.
  • the stream synchronization reading unit 15 requests the playback information from the stream playback unit 16 to acquire playback information indicating the playback time, playback frame, etc. of the video stream currently being played back, the meta information file Supply to the reading unit 14. Further, the stream synchronization reading unit 15 acquires the meta information supplied from the meta information file reading unit 14 according to the supplied reproduction information, and supplies it to the additional image information providing unit 12. [0052] The stream reproduction unit 16 reads the information of the stream file 4, sequentially reproduces the video stream and outputs it as an image to the synthesizing unit 13, and when the reproduction information is requested from the stream synchronous reading unit 15. The current playback information is supplied to the stream synchronization reading unit 15
  • the synthesizing unit 13 generates an image by synthesizing the video stream image reproduced by the stream reproducing unit 16 and the additional image information supplied from the additional image information providing unit 12, and performs LC D (Liquid Crystal Display on Display 2 consisting of Display) or CRT (Cathode Ray Tube).
  • LC D Liquid Crystal Display on Display 2 consisting of Display
  • CRT Cathode Ray Tube
  • the additional image information providing unit 12 includes a meta information file reading management unit 31, a meta information acquisition unit 32, a meta information recognition unit 33, an additional image information output unit 34, and an additional image information generation unit 35. Yes.
  • the meta information file read management unit 31 selects that the additional image information is to be combined with the stream reproduced image according to the operation signal of the operation unit 11, that is, the provision of the additional image information is ON.
  • the meta information file reading unit 14 is registered in the stream synchronous reading unit 15 and the display of combining the additional image information with the video stream is selected, that is, the additional information is set.
  • the provision of image information is set to OFF, the stream synchronization reading unit 15 is made to cancel the registration of the meta information file reading unit 14. That is, when the meta information file reading unit 14 exists as software, when the provision of additional image information is set to OFF, it does not exist and the provision of additional image information is set to ON. At this time, it is generated by the meta information file reading management unit 31 and registered in the stream synchronous reading unit 15.
  • the meta information file reading management unit 31 since the meta information file reading management unit 31 may be hardware, the block diagram is configured as always present.
  • the meta information acquisition unit 32 acquires the meta information supplied from the stream synchronization reading unit 15 and supplies it to the meta information recognition unit 33.
  • the meta information recognition unit 33 recognizes the supplied meta information and supplies the recognition result to the additional image information generation unit 35.
  • the additional image information generation unit 35 generates additional image information based on the recognition result of the meta information, and supplies the generated additional image information to the additional image information output unit 34. More specifically The additional image information generating unit 35 controls the list generating unit 41, the tracking mark generating unit 42, and the time scale bar generating unit 43, and based on the recognition result of the meta information, a list of players, a predetermined player The tracking mark and time scale bar image are generated as additional image information and supplied to the additional image information output unit 34.
  • the additional image information output unit 34 outputs the additional image information generated by the additional image information generation unit 35 to the synthesis unit 13. At this time, the additional image information output unit 34 outputs the additional information to the synthesizing unit 13 in consideration of the processing time from when the reproduction information is acquired until the additional image information is output. That is, the meta information file reading unit 14 reads, for example, meta information several frames ahead of the video stream currently being played back by the stream playback unit 16 in consideration of the processing time in the additional image information providing unit 12. Yes. Therefore, the additional image information output unit 34 supplies the additional image information to the synthesizing unit 13 at the timing when the stream reproduction unit 16 reproduces the video stream corresponding to the reproduction position of the acquired meta information.
  • the reproduction information acquisition unit 51 of the meta information file reading unit 14 acquires the reproduction information supplied from the stream synchronization reading unit 15 and supplies the acquired reproduction information to the reading unit 52.
  • the reading unit 52 accesses the meta information file 3 and considers the processing time in the additional image information providing unit 12 on the basis of the supplied reproduction information, and the meta data at a timing several frames ahead of the current reproduction time.
  • the information is read and supplied to the stream synchronous reading unit 15.
  • the stream synchronization reading unit 15 controls the reproduction information acquisition request unit 61 at a predetermined time interval, and the stream reproduction unit 16 Request playback information.
  • the reproduction information acquisition unit 62 acquires the reproduction information supplied from the stream reproduction unit 16 in response to a request from the reproduction information acquisition request unit 61, and supplies the reproduction information to the reproduction information output unit 63.
  • the reproduction information output unit 63 supplies the reproduction information supplied from the reproduction information acquisition unit 62 to the meta information file reading unit 14.
  • the meta information acquisition unit 64 acquires the meta information supplied from the meta information file reading unit 14 and supplies it to the meta information output unit 65.
  • the meta information output unit 65 supplies the supplied meta information to the additional image information providing unit 12.
  • the playback processing unit 71 of the stream playback unit 16 accesses the stream file 4 and the video stream.
  • the reproduction information is supplied to the reproduction information output unit 73.
  • the playback information request receiving unit 72 receives a playback information acquisition request from the playback information acquisition requesting unit 61 of the stream synchronization reading unit 15, and operates the playback information output unit 73 based on this request.
  • the reproduction information output unit 73 outputs the reproduction information supplied from the reproduction processing unit 71 to the stream synchronization reading unit 15 when the reproduction information request receiving unit 72 is notified that the reproduction information acquisition request has been received. To do.
  • step S1 the meta information file read management unit 31 determines whether or not the operation unit 11 has been operated to request provision of additional image information, and repeats the same processing until requested. .
  • step S1 for example, when the operation unit 11 is operated to request provision of additional image information, that is, when it is requested to turn on the operation of the additional image information providing unit 12, in step S2, The meta information file reading management unit 31 generates a meta information file reading unit 14.
  • step S 3 the meta information file reading management unit 31 requests the stream synchronization reading unit 15 to register the generated meta information file reading unit 14.
  • step S31 the stream synchronization reading unit 15 determines whether registration of the meta information file reading unit 14 has been requested, and repeats the processing until registration is requested.
  • step S31 for example, When registration of the meta information file reading unit 14 is requested by the process of step S3, the stream synchronization reading unit 15 registers the meta information file reading unit 14 requested to be registered in step S32.
  • steps S2, S3, S31, S32 are processing when the meta information file reading unit 14 is configured by software. When configured by hardware, this is an unnecessary process. Therefore, when the meta information file reading unit 14 configured by the duer is used, the processes of steps S2, S3, S31, and S32 (including corresponding steps S10, S11, S41, and S42) are skipped.
  • step S33 the reproduction information acquisition request unit 61 determines whether or not a predetermined time has elapsed. And the process is repeated until a predetermined time elapses. If it is determined in step S33 that the predetermined time has elapsed, in step S34, the reproduction information acquisition request unit 61 requests the stream reproduction unit 16 to acquire reproduction information.
  • step S61 the playback processing unit 71 of the stream playback unit 16 reads the stream file 4, sequentially plays back images including audio in accordance with a predetermined procedure, and outputs them to the synthesis unit 13.
  • the reproduction information is supplied to the reproduction information output unit 73.
  • step S62 the reproduction information request receiving unit 72 determines whether or not there is a request for acquisition of reproduction information. If it is determined that there is no request for acquisition of reproduction information, the process proceeds to step S61. Return. In other words, unless there is a request for playback information, an image including sound is simply continuously played back as a video stream from the stream file.
  • step S62 for example, when acquisition of reproduction information is requested by the process of step S34, in step S63, the reproduction information request reception unit 72 controls the reproduction information output unit 73 to perform reproduction processing.
  • the reproduction information supplied from the unit 71 is output to the stream synchronous reading unit 15.
  • step S35 the reproduction information acquisition unit 62 determines whether reproduction information has been output, and repeats the same processing until the reproduction information is output.
  • step S35 for example, when reproduction information is output by the process of step S63, in step S36, the reproduction information acquisition unit 62 acquires the output reproduction information and acquires the acquired reproduction information. Is supplied to the reproduction information output unit 63.
  • step S37 the reproduction information output unit 63 outputs the supplied reproduction information to the meta information file reading unit 14.
  • step S81 the reproduction information acquisition unit 51 determines whether reproduction information has been supplied from the stream synchronization reading unit 15 and repeats the same processing until it is output. In step S81, for example, when reproduction information has been output by the process of step S37, it is determined that the reproduction information has been supplied. In step S82, the reproduction information acquisition unit 51 acquires the supplied reproduction information. Then, the acquired reproduction information is supplied to the reading unit 52.
  • step S83 the reading unit 52 accesses and is supplied with the meta information file 3.
  • the meta information corresponding to the playback position of the video stream is read based on the playback information received.
  • step S84 the reading unit 52 outputs the read meta information to the stream synchronization reading unit 15.
  • step S38 the meta information acquisition unit 64 determines whether or not the meta information has been output, and repeats the process until the meta information is output.
  • step S38 for example, when meta information is output by the process of step S84, in step S39, the meta information acquisition unit 64 acquires the acquired meta information together with acquiring the transmitted meta information. This is supplied to the meta information output unit 65.
  • step S40 the meta information output unit 65 outputs the supplied meta information to the additional image information providing unit 12.
  • step S4 the meta information acquisition unit 32 determines whether or not the meta information has been supplied from the stream synchronization reading unit 15, and repeats the process until it is supplied.
  • step S4 for example, when meta information is output by the process of step S40, in step S5, the meta information acquisition unit 32 acquires the supplied meta information, and the acquired meta information is meta-data. The information is supplied to the information recognition unit 33.
  • step S6 the meta information recognition unit 33 recognizes the supplied meta information and supplies the recognition content to the additional image information generation unit 35.
  • step S 7 the additional image information generation unit 35 generates additional image information by the additional image information generation process and supplies it to the additional image information output unit 34.
  • the details of the additional image information generation process will be described later with reference to the flowchart of FIG.
  • step S 8 the additional image information output unit 34 outputs the additional image information generated by the additional image information generation unit 35 to the synthesis unit 13.
  • the synthesizing unit 13 includes a video stream including images including audio supplied from the stream reproducing unit 16 and images constituting the additional image information supplied from the additional image information providing unit 12. And are displayed on the display unit 2 in step S102. For this reason, if the operation of the additional image information providing unit 12 is turned on, the image constituting the additional image information supplied from the additional image information providing unit 12 is an image including sound. However, if the operation of the additional image information providing unit 12 is not turned on and remains off, the video stream is simply supplied from the stream reproducing unit 16. Only the video stream consisting of images including the incoming sound is displayed on the display unit 2.
  • step S 9 the meta information file reading management unit 31 determines whether or not the operation unit 11 has been operated to stop providing additional image information, that is, the additional image information providing unit 12. It is determined whether or not the operation is turned off. For example, when the stop is not requested, the process returns to step S4. That is, unless the provision of additional image information is requested to be stopped, the processes in steps S4 to S9 are repeated. As a result, when it is determined that deregistration is not requested, the synthesizing unit 13 receives the images constituting the additional image information supplied from the additional image information providing unit 12 and the stream reproduction unit 16. The video stream, which includes the image power including the incoming sound, is combined and displayed on the display unit 2! Get good.
  • step S9 for example, when the stop of provision of the additional image information is requested, in step S10, the meta information file reading management unit 31 registers the meta information file reading unit 14. Is requested to the stream synchronization reading unit 15 to cancel.
  • step S41 the stream synchronization reading unit 15 determines whether or not the deregistration of the meta information file reading unit 14 is requested, and determines that the deregistration is requested! /, Na! / If so, the process returns to step S33. That is, steps S33 to S41 are repeated.
  • step S41 for example, when cancellation of registration of the meta information file reading unit 14 is requested by the process of step S10, in step S42, the stream synchronization reading unit 15 determines that the meta information requested to be released. Cancel the registration of the file reader 14. As a result, the stream synchronization reading unit 15 enters a state in which no reproduction information is supplied to the meta information file reading unit 14.
  • step S11 the meta information file reading management unit 31 sets the meta information file reading unit.
  • step S151 the list generation unit 41 reads out the position information for each player, which is the meta information acquired by the process in step S5, and in step S152, the read out position information. Based on this, a list of competitors who participate in a soccer game played as a video stream is generated.
  • the meta information file 3 is, for example, as shown in FIG. In Fig. 4, the position information on the screen for each elapsed time of the game for each competitor is shown in order from the left. That is, in FIG. 4, the number of athletes is 11 persons, “aaa”, “bbb”, “ccc”, “ddd”,... “Jjj”, and “kkk”.
  • an image during a soccer game played by the stream playback unit 16 is displayed on the image display unit 101, and an image during a soccer game is displayed.
  • the list 102 in FIG. 5 displays “aaa”, “bbb”, “ccc”, “ddd”,... 3 ⁇ 4, and “kkk” from the top. Is displayed! /, And a selection frame 103 for selecting a competitor is displayed! /.
  • the selection frame 103 can be moved up and down by the operation unit 11, so that the players “aa a”, “bbb”, “ccc”, “ddd”, “jjj”, and “kkk” You can choose either.
  • “kkk” is selected as the competitor for whom the tracking mark 111 is to be displayed.
  • step S153 the tracking mark generator 42 generates a tracking mark 111 at the position of the selected player based on the meta information. That is, in FIG. 5, since “kkk” is selected as the player who wants to display the tracking mark 111 on the selection frame 103 force “kkk”, the tracking mark generation unit 42 sets the time “00:04”. The tracking mark 111 is generated around the coordinates (Xk4, Yk4) of “k kk” at the timing of “00”. Needless to say, the tracking mark 111 may be a force indicated by a circle or another shape in FIG.
  • step S 154 the time scale bar generating unit 43 generates the time scale bar 104 based on the supplied meta information. That is, in FIG. 5, a time scale bar 104 is displayed at the bottom of the image display unit 101, and further, the horizontal length of the time scale bar 104 is “95:00:00” as a whole. The current mark 105 is displayed at the position indicating the ratio at the time “0 0:04:00”. The time scale bar generating unit 43 generates the time scale bar 104 and indicates the ratio at the time “00:00:00” when the horizontal length is “95:00:00” as a whole. The position is obtained by calculation, and a current mark 105 is added to the position to generate an image of the time scale bar 104.
  • the synthesizing unit 13 includes these additional image information on the video stream image of the soccer game read and displayed from the stream file 4 by the processing of step S61.
  • FIG. 5 shows a case where the tracking mark 111 is displayed once and is set so that the color gradually fades and disappears over a predetermined time, and as a result, the cumulative number of selected athletes is shown. Since it is displayed as an afterimage of the tracking mark 111, it becomes easier to recognize the direction of movement, etc., and it becomes possible to watch the movement of the selected athlete with more attention.
  • the tracking mark displayed as an afterimage is indicated by a dotted line! /.
  • the image including the audio reproduced based on the stream file 4 is recorded from the soccer broadcast, and the tracking mark is attached to the player selected as the additional image information.
  • the tracking mark is attached to the player selected as the additional image information.
  • a correlation diagram of characters may be displayed as additional image information.
  • Figure 6 shows a reproduction that displays a correlation diagram of characters as additional image information in the case of an image power S including a sound reproduced based on the stream file 4, a drama or a movie, etc.
  • a configuration example of the device 1 is shown.
  • the same components as those in the playback apparatus 1 in FIG. It will be omitted as appropriate.
  • the playback device 1 in FIG. 6 differs from the playback device 1 in FIG. 1 in that an additional image information generation unit 141 is provided in place of the additional image information generation unit 35 and the contents of the meta information file 3 It is.
  • the additional image information generation unit 141 includes a face image frame generation unit 151, a group frame generation unit 152, a correlation generation unit 153, a time scale bar generation unit 154, and a cast frame generation unit 155.
  • the face image frame generation unit 151 generates a face image frame of the character based on the meta information.
  • the group frame generation unit 152 generates a group frame image for grouping and displaying the face image frames based on grouping information included in the meta information for grouping the characters!
  • the correlation generation unit 153 generates an arrow-like correlation image indicating the relationship between the characters.
  • the time scale bar generation unit 154 Based on the meta information, the time scale bar generation unit 154 generates an image of the time scale bar that indicates the playback position relative to the total playback time of dramas and movies read from the stream file 4 and the events in the story. To do.
  • the cast frame generation unit 155 generates an introduction image of the characters based on the meta information.
  • step S 171 additional image information generation section 141 generates an image for displaying window 202 (FIG. 9) for displaying a correlation diagram as additional image information.
  • step S172 the face image frame generation unit 151 reads the position information of the face image for each character based on the meta information, and generates a face image frame. That is, the meta information file 3 in the playback device 1 in FIG. 6 is, for example, as shown in FIG. Fig. 8 shows the ID set for each character from the left, the name of the character, and the display center position of the face image frame, grouping information, correlation information, and face image storage position for each playback time. Has been.
  • the information of the face image of the character“ aaa ” is stored in“ c: ⁇ face3 ⁇ 4aa.jpg ”! /, Respectively.
  • the center position coordinates on the screen of the face image are the coordinates (Xa3010, Ya3010) at the time “00:50:10”, and the grouping information Gr
  • “con profession” is registered as an important event in the story.
  • the face image frame generation unit 151 displays characters “aaa”, “bbb”, and “ Each face image frame 221-1 to 221-1 of "ccc" is generated.
  • FIG. 9 an image of a drama or movie being played by the stream playback unit 16 from the stream file 4 is displayed on the image display unit 201, and a window 202 showing additional image information is displayed. Note that the drama and movie images displayed on the image display unit 201 are omitted in FIG.
  • the face image frame generation unit 151 moves on the window 202
  • Face images of the characters “aaa”, “bbb”, and “ccc” centered around the positions (Xa2, Ya2), (Xb2, Yb2), and (Xc2, Yc2) (c: ⁇ face3 ⁇ 4aa. jpg), (c: ⁇ face ⁇ bbb.jp g), and (c: ⁇ face ⁇ cc jpg), and generate them as face image frames 221-1 to 221-3 in FIG.
  • step S173 the group frame generator 152 creates a group based on the meta information. Generate a frame 211. That is, for example, at time “00:02:00”, the grouping information of the characters “aaa”, “bbb”, and “ccc” is all Gr (best friends), so the same gnolep A group frame 211 is generated so as to enclose the face image frames 221-1 to 221-3 having information, and “best friends” is attached as a group configuration.
  • the shape of the end point of the arrow starting from itself is “from” or “to”. In the case of “from”, the shape of the end point of the arrow starting from itself indicates no arrow symbol. In the case of “to”, the shape of the end point of the arrow starting from itself is an arrow symbol. Indicates.
  • correlation 222-1 with no arrow sign is constructed.
  • the correlation 222-1 is formed in an arrow shape from the face image frame 221-2 to the face image frame 221-1.
  • the correlation 222-1 has a heart mark displayed at the bottom.
  • step S175 the time scale bar generating unit 154 generates the time scale bar 203 based on the supplied meta information. That is, in FIG. 9, a time scale bar 203 is displayed at the bottom of the image display unit 201, and further, the horizontal length as a whole is displayed on the time scale bar 203 as “01:53:20”. The current mark 204 is displayed at the position indicating the ratio at the time “00:02:00”. The time scale bar generation unit 154 generates the time scale bar 203 and calculates the ratio at the time “00:02:00” when the horizontal length is “01:53:20” as a whole.
  • the position shown is calculated, the current mark 204 is added to that position, and the position on the time scale bar 203 indicating “con profession” at the time “00:50:10” is calculated as the event. Then, event marks 205 and 206 are attached to the positions, and an image on the time scale lever 203 is generated.
  • characters “aaa” and “bbb” belonging to the same group of lovers are surrounded by “lovers” indicating a group.
  • the arrow symbol that ends at Correlation 262-1 is constructed.
  • Correlation 222-1 with the arrow symbol as the end point is constructed.
  • the correlation 261-1 is configured in the shape of arrows in both directions of the face image frames 221-2 and 221-1. Furthermore, a heart mark is displayed at the bottom of correlation 261-1 to indicate “favor”.
  • step S176 the additional image information generation unit 141 determines whether or not the operation unit 11 has been operated and the face image frame 221 of a specific character has been designated. For example, as shown in FIG. 11, when the face image frame 221-1 is selected, in step S177, a window 271 titled “Cast Introduction” for displaying the cast frame is generated. At the same time, the selected face image frame 221-1 is changed to be easily recognized by making the selected face image frame 221-1 thick. [0129] In step S178, cast frame generation section 155 displays the person introduction for each character on window 271 based on the meta information.
  • the cast frame generation unit 155 determines the face image from (c: ⁇ face3 ⁇ 4aa.jpg), (c: ⁇ face ⁇ bbb.jpg), and (c: ⁇ face ⁇ ccc • jpg), which are the storage positions of the face image.
  • a test reading the a storage location of the introduction information (c: ⁇ c as t ⁇ aaa .txt), (c: ⁇ cast ⁇ bbb.txt), and: a (c ⁇ cast ⁇ cc txt) each Access and read out to generate the respective cast frames 281 to 283.
  • a test reading the a storage location of the introduction information (c: ⁇ c as t ⁇ aaa .txt), (c: ⁇ cast ⁇ bbb.txt), and: a (c ⁇ cast ⁇ cc txt) each Access and read out to generate the respective cast frames 281 to 283.
  • the cast frame 281 belongs to the selected character “aaa”, and therefore, with a face image larger than the other cast frames, “Popularity of the class.
  • the cast frame 2 82 is labeled “Slightly difficult man” as the character introduction along with the face image of the unselected character “bbb”, and the cast frame 283 is selected. Along with the face image of the character “ccc” that has not been added, the character introduction is described as "Somewhat strange".
  • step S176 If it is determined in step S176 that the face image frame 221 of the specific character is not selected, the processing in steps S177 and S178 is skipped, and the window 271 is not displayed. .
  • Fig. 12 uses meta information files 3-1, 2-2 with different formats to provide images including audio reproduced from stream file 4 with additional image information.
  • 2 shows an example of the configuration of the reproduction apparatus 1. Since they are recorded in different formats, they are set as independent files.
  • the same components as those of the playback apparatus 1 of FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the playback apparatus 1 in FIG. 12 differs from the playback apparatus 1 in FIG. 1 in that meta information file reading sections 14-1 and 14-2 are provided in place of the meta information file reading section 14. is there.
  • Meta information The information file reading units 14-1 and 14-2 have the same reproduction information acquisition units 51-1 and 51-2, respectively, but the reading unit 52-1 has a meta information file recorded in the format A.
  • the meta information is read from the data 3-1 and the reading unit 52-2 reads the meta information from the meta information file 3-2 recorded in the format B.
  • meta information files with different formats can be handled, so that format A can be easily edited as a file with a plain text format, and format B is a compressed meta file.
  • editing can be facilitated, and the capacity of the recording medium can be efficiently used to use the meta information file.
  • the additional image information providing unit 12 includes the reading units 52-1 and 52. A combination of the meta information read in 2 is supplied.
  • steps S81 to S84 which are the processing of the meta information file reading unit 14 described with reference to the flowchart of Fig. 2, are performed as the meta information file reading unit 14-1. , 14 2 are performed independently of each other, and the description thereof is omitted.
  • information acquisition means represented by downloading using a network may be used.
  • meta information may be added or replaced, so that it is possible to provide viewers with a new way of enjoying the packaged media without having to replace the packaged media. Therefore, even after purchasing the package media, the viewer can enjoy the functions that cannot be enjoyed at the time of purchase by adding them as additional image information.
  • the meta information file generating apparatus 101 in FIG. 13 performs the meta information file shown in FIG. 4 or FIG.
  • the operation unit 111 includes a keyboard and operation buttons.
  • the operation unit 111 is operated when inputting the reproduction time of the stream and the meta information at the corresponding reproduction time, and obtains the time information of the reproduction time according to the operation content.
  • the meta information at the corresponding playback time is supplied to the meta information acquisition unit 113.
  • the operation unit 111 is operated when specifying the format of the meta information file 3 or when specifying the priority mode when determining the format of the meta information file 3, and depending on the operation content.
  • the information is supplied to the format converter 115.
  • the time information acquisition unit 112 acquires information specifying the reproduction time input by operating the operation unit 111 and stores the information in the storage unit 114.
  • the meta information acquisition unit 113 acquires the meta information input by operating the operation unit 111 and stores it in the storage unit 114.
  • the storage unit 114 associates the information specifying the playback time supplied from the time information acquisition unit 112 with the meta information supplied from the meta information acquisition unit 113, so that the meta information file 3 Store as.
  • the format conversion unit 115 converts the format of the meta information file 3 stored in the storage unit 114 according to the format or mode specified by the operation unit 111 and supplies the converted format to the recording unit 116.
  • the mode here indicates the priority for selecting one of a plurality of formats. For example, when a mode that is easy for humans to recognize is specified, the format The conversion unit 115 converts the meta information file 3 in a format format that is most easily recognized by humans among a plurality of format formats, and when the mode that minimizes the capacity is designated, the conversion unit 115 converts the capacity. When a mode suitable for processing by the information processing device is specified, it is converted to a format of the optimum format for processing by the information processing device.
  • the recording unit 116 records the meta information file 3 supplied from the format conversion unit 115 and formatted in a predetermined format on the recording medium 121. At this time, the recording unit 116 performs format conversion corresponding to the recording format of the recording medium 121, and then records the meta information file 3 on the recording medium 121.
  • step S191 the time information acquisition unit 112 determines whether or not the operation unit 111 is operated and information on the playback time of the video stream corresponding to the meta information registered in the meta information file 3 is input. The same processing is repeated until it is determined that it has been input.
  • step S191 it is determined that the playback time information of the video stream has been input as the playback time information, for example, "00: 01: 0" or "00:50:10".
  • the reproduction time information input by the operation unit 111 is acquired and supplied to the storage unit 114 in step S192.
  • step S193 the meta information acquisition unit 113 determines whether or not the meta information has been input by operating the operation unit 111, and repeats the same processing until it is determined that the meta information has been input.
  • step S193 when displaying the position information for each athlete in the video stream of a soccer game as the meta information, the information for each athlete as shown in Fig. 4 is displayed.
  • the meta information input by the operation unit 111 is acquired and supplied to the storage unit 114 in step S194.
  • event information such as “confession” is input as meta information, as shown in FIG. It ’s good to be done.
  • step S195 the storage unit 114 associates the reproduction time information supplied from the time information acquisition unit 112 with the meta information supplied from the meta information acquisition unit 113, for example, Store as meta information file 4 as shown in FIG. 4 or FIG.
  • step S196 the time information acquisition unit 112 determines whether or not there is meta information at another playback time newly registered in the meta information file 3 according to the operation content of the operation unit 111, and If it is determined that there is new meta information at another playback time, the process returns to step S191. That is, the processes in steps S 191 to S 196 are repeated until there is no meta information to be newly registered.
  • step S196 If there is no new meta information to be registered in step S196, the format conversion unit 115 in step S197 operates the operation unit 111 to convert the meta information file.
  • the power to select the format, or the power to select the format format to convert the meta information file by determining whether the mode for selecting the format format has been entered, or The same process is repeated until a mode for selecting a format is entered.
  • step S197 for example, when the format format is selected, or when the mode for selecting the format format is determined, in step S198, the format conversion unit 115 is selected.
  • the meta information file 3 stored in the storage unit 114 is converted into the format of the format or the format of the format to be selected according to the mode, and supplied to the recording unit 116.
  • step S199 the recording unit 116 stores the format-converted meta information file 3 supplied from the format conversion unit 115 on the recording medium 121 of a predetermined format as an independent file separate from the stream file. Record.
  • meta information file 3 converted to the specified file format is generated.
  • the meta information file 3 is generated as a file independent of the stream file 4, when editing only the meta information, only the meta information file 3 generated as described above is edited. Therefore, it is possible to edit independently of stream file 4.
  • the meta information file 3 and the stream file 4 can be provided independently, for example, even when the meta information file 3 corresponding to multiple languages is required, the stream file 4 is duplicated. Therefore, it is not necessary to record on the recording medium, so that the recording capacity can be minimized.
  • you want to edit only the meta information you can edit only the meta information file 3.
  • Meta information file is set independently of the stream file, it is possible to replace only the metadata file by file replacement (Name mapping) and display the latest information.
  • file replacement Name mapping
  • new metadata is acquired through a network or the like by a playback device, If the actor appears in the place where it appears!
  • the series of image processing described above can be executed by software S, which can be executed by software.
  • various functions can be executed by installing a computer built into dedicated hardware or various programs that make up the software. For example, it is installed from a recording medium in a general-purpose personal computer.
  • FIG. 15 shows a configuration example of a general-purpose personal computer.
  • This personal computer incorporates a CPU (Central Processing Unit) 1001.
  • An input / output interface 1005 is connected to the CPU 1001 via the bus 1004.
  • Bus 1004 has It is.
  • the input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, a program and various types Storage unit 1008, such as a hard disk drive that stores data
  • ROM Compact Disc-Read Only Memory
  • DVD Digital Versatile Disc
  • magneto-optical disc including MD (Mini Disc)
  • semiconductor memory Drive 1010 is connected.
  • the CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory and installed in the storage unit 1008. Therefore, various processes are executed according to the program loaded in the RAM 1003.
  • the RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.
  • the step of describing the program recorded on the recording medium is not limited to the process performed in time series in the described order, but of course not necessarily performed in time series. Including processing executed in parallel or individually.

Description

明 細 書
再生装置および方法、情報生成装置および方法、データ格納媒体、デー タ構造、プログラム格納媒体、並びにプログラム
技術分野
[0001] 本発明は、再生装置および方法、情報生成装置および方法、データ格納媒体、デ ータ構造、並びにプログラムに関し、特に、メタ情報を容易に編集または付加できるよ うにした再生装置および方法、情報生成装置および方法、データ格納媒体、データ 構造、並びにプログラムに関する。
背景技術
[0002] 従来、 DVD (Digital Versatile Disc)に代表されるパッケージメディアにおいては、ビ デォテープですでに実現されていた画像や音声の再生に加えて、メニュ画面による 設定やコンテンツの選択、チヤプタ選択などによるジャンプ再生、マルチアングルな どの複数のストリームからの選択再生が可能となっていた。特に特典画像やメイキン グビデオ、解説ビデオ、デザインスケッチなどの付加画像情報を付した画像をメニュ 画面から選択可能なコンテンツが増えてきて!/、る。
[0003] 従来、これらのパッケージメディアは、画像や音声の内容に同期して付加画像情報 を付して表示されるため、画像や音声の内容に同期して付加画像情報が加えられた ストリームと、付加画像情報が加えられていないストリームとを個別に作成した上で、 これらを!/、ずれも記録し、切り替えて再生するものである(特許文献 1参照)。
[0004] 特許文献 1:特開 2005— 335521号公報
発明の開示
発明が解決しょうとする課題
[0005] しかしながら、従来のパッケージメディアにおいては画像や音声の内容に同期して 付加画像情報を付して表示するには、個別に画像や音声などのストリームとして作り こむ必要があるため、付加画像情報を視聴者が ON/OFF選択できるようにするた めには、同じ内容のストリームで、付加画像情報有りのものと無しのものを 2つ用意す る必要があり、編集作業に時間力 Sかかっていた。 [0006] また、同様の理由力 メディアの限られた容量を必要以上に占有してしまうことがあ つた。
[0007] さらに、新しい付加サービスを提供するには、画像や音声などの本編ストリームを併 せて作り直さなければならなかった。
[0008] 結果として、上記の問題点から従来のパッケージメディアにおいては本編の画像や 音声に同期した付加画像情報はほとんど提供されてこなかった。
[0009] 本発明はこのような状況に鑑みてなされたものであり、特に、付加画像情報となる画 像や音声を容易に編集または記録できるようにするものである。
課題を解決するための手段
[0010] 本発明の第 1の側面の再生装置は、入力されたビデオストリームを再生するストリー ム再生手段と、前記ストリーム再生手段により再生されるビデオストリームとは別フアイ ルである前記ビデオストリームのメタ情報を読み込むメタ情報読込手段と、前記ストリ ーム再生手段により出力されるビデオストリームの再生情報に基づいて、前記ストリー ム再生手段により再生されているビデオストリームに同期して、前記メタ情報読込手 段を制御して、前記メタ情報を読み込ませるストリーム同期読込手段と、前記ストリー ム同期読込手段により制御されて、前記メタ情報読込手段により読み込まれたメタ情 報に基づいて、前記ストリームに付加画像情報を提供する付加画像情報提供手段と 、前記付加画像情報提供手段により提供された付加画像情報を、前記再生手段によ り再生されたビデオストリームに合成する合成手段とを含む。
[0011] 前記合成手段により前記付加画像情報が合成されたビデオストリームを出力する出 力手段をさらに含ませるようにすることができ、前記メタ情報は、前記出力手段により 出力される、前記付加画像情報が合成されたビデオストリームが表示される際の、表 示画面上の位置情報とすることができる。
[0012] 前記メタ情報は、第 1の時刻情報を含む第 1のメタ情報と、第 2の時刻情報を含む 第 2のメタ情報を有し、前記ストリーム同期読込手段には、前記ビデオストリームの再 生時刻と、前記第 1の時刻情報、または、前記第 2の時刻情報を比較することにより、 前記第 1のメタ情報、または、前記第 2のメタ情報を選択させるようにすることができる [0013] 前記メタ情報読込手段は、フォーマットに応じ、 1以上とすることができる。
[0014] ネットワークを通じ、前記メタ情報を取得する取得手段をさらに設けるようにさせるこ とができ、前記ストリーム同期読込手段には、前記取得手段により取得されたメタ情 幸を読込ませるようにすること力 Sできる。
[0015] 前記メタ情報は、前記ビデオストリームがスポーツ番組の場合、競技している競技 者毎の再生情報に対応した再生画面上の位置情報とすることができ、前記付加画像 情報提供手段には、前記再生手段により再生されるビデオストリームの再生タイミン グに同期して、所定の競技者の位置情報に基づいて、前記所定の競技者のズーム 画面を付加画像情報として提供させるようにすることができる。
[0016] 前記ビデオストリームのコンテンツには、時系列に従ったオブジェクトを複数に含ま せるようにすること力 Sでき、前記メタ情報は、前記時系列に従って変化する前記ビデ ォストリームのコンテンツ中の複数のオブジェクト間の相関情報とすることができる。
[0017] 前記メタ情報は、前記ビデオストリームがドラマまたは映画の場合、登場人物毎の 再生情報に対応した相関情報とすることができ、前記付加画像情報提供手段には、 前記再生手段により再生されるビデオストリームの再生情報に同期して、前記登場人 物毎の再生情報に対応した相関情報に基づいた、前記登場人物の相関図を付加画 像†青幸として提供させるようにすること力でさる。
[0018] 前記メタ情報は、前記ビデオストリームがドラマまたは映画の場合、登場人物毎の 再生情報に対応した相関情報と供に、前記登場人物の紹介情報とすることができ、 前記付加画像情報提供手段には、前記再生手段により再生されるビデオストリーム の再生情報に同期して、前記登場人物毎の紹介情報に基づいた、前記登場人物の 紹介情報を付加画像情報として提供させるようにすることができる。
[0019] 本発明の第 1の側面の再生方法は、入力されたビデオストリームを再生するストリー ム再生ステップと、前記ストリーム再生ステップの処理により再生されるビデオストリー ムとは別ファイルであるビデオストリームのメタ情報を読み込むメタ情報読込ステップ と、前記ストリーム再生ステップの処理により再生されるビデオストリームの再生情報 に基づいて、前記ストリーム再生ステップの処理により再生されているビデオストリー ムに同期して、前記メタ情報読込手段を制御して、前記メタ情報を読み込ませるストリ 前記メタ情報読込ステップの処理により読み込まれたメタ情報に基づ!/、て、前記ビデ ォストリームに付加画像情報を提供する付加画像情報提供ステップと、前記付加画 像情報提供ステップの処理により提供された付加画像情報を、前記再生ステップの 処理により再生されたビデオストリームに合成する合成ステップとを含む。
[0020] 本発明の第 1の側面のプログラムは、入力されたビデオストリームを再生するストリ ーム再生ステップと、前記ストリーム再生ステップの処理により再生されるビデオストリ 一ムとは別ファイルであるビデオストリームのメタ情報を読み込むメタ情報読込ステツ プと、前記ストリーム再生ステップの処理により再生されるビデオストリームの再生情 報に基づいて、前記ストリーム再生ステップの処理により再生されているビデオストリ ームに同期して、前記メタ情報読込手段を制御して、前記メタ情報を読み込ませるス トリーム同期読込ステップと、前記ストリーム同期読込ステップの処理により制御され て、前記メタ情報読込ステップの処理により読み込まれたメタ情報に基づいて、前記 ビデオストリームに付加画像情報を提供する付加画像情報提供ステップと、前記付 加画像情報提供ステップの処理により提供された付加画像情報を、前記再生ステツ プの処理により再生されたビデオストリームに合成する合成ステップとを含む処理をコ ンピュータに実行させる。
[0021] 本発明の第 1の側面のプログラム格納媒体には、請求項 9に記載のプログラムが格 納されている。
[0022] 本発明の第 2の側面のデータ格納媒体は、再生装置により再生されるべき時刻情 報を有するビデオストリームが記録された記録媒体であって、前記ビデオストリームと は別ファイルとして、前記時刻情報の時刻軸に含まれる、第 1の時刻位置に対応する 時刻情報を含む、第 1の時刻位置に表示されるビデオストリームに対応する第 1のメ タ情報と、前記時刻情報の時刻軸に含まれる、第 2の時刻位置に対応する時刻情報 を含む、第 2の時刻位置に表示されるビデオストリームに対応する第 2のメタ情報とが 格納されている。
[0023] 本発明の第 3の側面のデータ構造は、記録媒体に記録される、又は、ネットワーク を通じて配信される、再生装置により再生されるべき時刻情報を有するビデオストリー ムと共に再生されるメタ情報ファイルのデータ構造であって、前記時刻情報の時刻軸 に含まれる、第 1の時刻位置に対応する時刻情報を含む、第 1の時刻位置に表示さ れるビデオストリームに対応する第 1のメタ情報と、前記時刻情報の時刻軸に含まれ る、第 2の時刻位置に対応する時刻情報を含む、第 2の時刻位置に表示されるビデ ォストリームに対応する第 2のメタ情報とを含む。
[0024] 前記第 1のメタ情報と第 2のメタデータとは、それぞれ独立した別ファイルとされるよ うにすることカでさる。
[0025] 本発明の第 4の側面の情報生成装置は、再生装置により再生されるべき時刻情報 を有するビデオストリームの、前記時刻情報の時刻軸に含まれる、時刻位置に対応 する時刻情報を取得する時刻情報取得手段と、表示されるビデオストリームに対応す るメタ情報を取得するメタ情報取得手段と、少なくとも 1以上の前記時刻情報と前記メ タ情報とを対応付けてメタ情報ファイルとして格納する格納手段とを含む。
[0026] 前記メタ情報ファイルのフォーマット形式を変換する変換手段をさらに含ませるよう にすることカでさる。
[0027] 本発明の第 4の側面の情報生成方法は、再生装置により再生されるべき時刻情報 を有するビデオストリームの、前記時刻情報の時刻軸に含まれる、時刻位置に対応 する時刻情報を取得する時刻情報取得ステップと、表示されるビデオストリームに対 応するメタ情報を取得するメタ情報取得ステップと、少なくとも 1以上の前記時刻情報 と前記メタ情報とを対応付けてメタ情報ファイルとして格納する格納ステップとを含む
[0028] 本発明の第 4の側面のプログラムは、再生装置により再生されるべき時刻情報を有 するビデオストリームの、前記時刻情報の時刻軸に含まれる、時刻位置に対応する 時刻情報を取得する時刻情報取得ステップと、表示されるビデオストリームに対応す るメタ情報を取得するメタ情報取得ステップと、少なくとも 1以上の前記時刻情報と前 記メタ情報とを対応付けてメタ情報ファイルとして格納する格納ステップとを含む処理 をコンピュータに実行させる。
[0029] 本発明の第 4の側面のプログラム格納媒体には、請求項 17に記載のプログラムが 格納されている。 [0030] 本発明の第 1の側面の再生装置および方法、並びにプログラムにおいては、入力さ れたビデオストリームが再生され、再生されるストリームのメタ情報が読み込まれ、出 力されるビデオストリームの再生情報に基づいて、再生されているストリームに同期し て、制御されて、前記メタ情報が読み込まれ、読み込まれたメタ情報に基づいて、前 記ビデオストリームに付加画像情報が提供され、提供された付加画像情報が、再生 されたストリームに合成される。
[0031] 本発明の第 2の側面のデータ格納媒体においては、ビデオストリームとは別フアイ ルとして、前記時刻情報の時刻軸に含まれる、第 1の時刻位置に対応する時刻情報 が含まれ、第 1の時刻位置に表示されるビデオストリームに対応する第 1のメタ情報と 、前記時刻情報の時刻軸に含まれる、第 2の時刻位置に対応する時刻情報が含まれ 、第 2の時刻位置に表示されるビデオストリームに対応する第 2のメタ情報とが格納さ れる。
[0032] 本発明の第 3の側面のデータ構造においては、再生装置により再生されるべき時 刻情報を有するビデオストリームの、前記時刻情報の時刻軸に含まれる、第 1の時刻 位置に対応する時刻情報が含まれ、第 1の時刻位置に表示されるビデオストリームに 対応する第 1のメタ情報と、前記時刻情報の時刻軸に含まれる、第 2の時刻位置に対 応する時刻情報が含まれ、第 2の時刻位置に表示されるビデオストリームに対応する 第 2のメタ情報とが含まれる。
[0033] 本発明の第 4の側面の情報生成装置および方法、並びにプログラムにおいては、 再生装置により再生されるべき時刻情報を有するビデオストリームの、前記時刻情報 の時刻軸に含まれる、時刻位置に対応する時刻情報が取得され、表示されるビデオ ストリームに対応するメタ情報が取得され、少なくとも 1以上の前記時刻情報と前記メ タ情報とが対応付けて格納されるメタ情報ファイルが生成される。
[0034] 本発明の再生装置、および情報生成装置は、独立した装置であっても良いし、そ れぞれ再生処理、および情報生成処理を行うブロックであっても良レ、。
発明の効果
[0035] 本発明によれば、メタ情報を容易に編集または付加することが可能となる。
図面の簡単な説明 [0036] [図 1]本発明を適用した再生装置の構成例を示すブロック図を説明する図である。
[図 2]図 1の再生装置による付加画像情報提供処理を説明するフローチャートである
[図 3]図 1の再生装置による付加画像情報生成処理を説明するフローチャートである
[図 4]図 1の再生装置によるメタ情報ファイルを説明する図である。
[図 5]図 1の再生装置による付加画像情報提供処理を説明する図である。
[図 6]再生装置のその他の構成例を示すブロック図を説明する図である。
[図 7]図 6の再生装置による付加画像情報生成処理を説明するフローチャートである
[図 8]図 6の再生装置によるメタ情報ファイルを説明する図である。
[図 9]図 6の再生装置による付加画像情報生成処理を説明する図である。
[図 10]図 6の再生装置による付加画像情報生成処理を説明する図である。
[図 11]図 6の再生装置による付加画像情報生成処理を説明する図である。
[図 12]再生装置のさらにその他の構成例を示すブロック図を説明する図である。
[図 13]メタ情報ファイル生成装置の構成例を示すブロック図を説明する図である。
[図 14]図 13のメタ情報ファイル生成装置によるメタ情報ファイル生成処理を説明する フローチャートである。
[図 15]パーソナルコンピュータの構成例を説明する図である。
符号の説明
[0037] 1 再生装置, 2 表示部, 3 メタ情報ファイル, 4 ストリームファイル, 11 操作部, 12 付加画像情報提供部, 13 合成部, 14 メタ情報ファイル読込部 , 15 ストリーム同期読込部, 16 ストリーム再生部
発明を実施するための最良の形態
[0038] 以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実 施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載 されている発明をサポートする実施の形態が本明細書に記載されていることを確認 するためのものである。従って、発明の実施の形態中には記載されているが、発明に 対応するものとして、ここには記載されていない実施の形態があつたとしても、そのこ とは、その実施の形態が、その発明に対応するものではないことを意味するものでは ない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、 そのことは、その実施の形態が、その発明以外の発明には対応しないものであること を意味するものでもない。
[0039] さらに、この記載は、本明細書に記載されている発明の全てを意味するものではな い。
換言すれば、この記載は、本明細書に記載されている発明であって、この出願では 請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現 、追加される発明の存在を否定するものではない。
[0040] 即ち、本発明の第 1の側面の再生装置は、入力されたビデオストリームを再生する ストリーム再生手段(例えば、図 1のストリーム再生部 16)と、前記ストリーム再生手段 により再生されるビデオストリームとは別ファイルである前記ビデオストリームのメタ情 報を読み込むメタ情報読込手段(例えば、図 1のメタ情報ファイル読込部 14)と、前記 ストリーム再生手段により再生されるビデオストリームの再生情報に基づいて、前記ス トリーム再生手段により再生されているビデオストリームに同期して、前記メタ情報読 込手段を制御して、前記メタ情報を読み込ませるストリーム同期読込手段(例えば、 図 1のストリーム同期読込部 15)と、前記ストリーム同期読込手段により制御されて、 前記メタ情報読込手段により読み込まれたメタ情報に基づ!/、て、前記ビデオストリー ムに付加画像情報を提供する付加画像情報提供手段 (例えば、図 1の付加画像情 報提供部 12)と、前記付加画像情報提供手段により提供された付加画像情報を、前 記再生手段により再生されたストリームに合成する合成手段(例えば、図 1の合成部 1 3)とを含む。
[0041] 前記合成手段(例えば、図 1の合成部 13)により前記付加画像情報が合成されたビ デォストリームを出力する出力手段(例えば、図 1の表示部 2)をさらに含ませるように することができ、前記メタ情報は、前記出力手段により出力される、前記付加画像情 報が合成されたビデオストリームが表示される際の、表示画面上の位置情報とするこ と力 Sできる。 [0042] 本発明の第 1の側面の再生方法およびプログラムは、入力されたストリームを再生 するストリーム再生ステップ(例えば、図 2のステップ S61 , S63)と、前記ストリーム再 生ステップの処理により再生されるビデオストリームとは別ファイルである前記ビデオ ストリームのメタ情報を読み込むメタ情報読込ステップ(例えば、図 2のステップ S83) と、前記ストリーム再生ステップの処理により再生されるビデオストリームの再生情報 に基づいて、前記ストリーム再生ステップの処理により再生されているビデオストリー ムに同期して、前記メタ情報読込手段を制御して、前記メタ情報を読み込ませるストリ ーム同期読込ステップ(例えば、図 2のステップ S39)と、前記ストリーム同期読込ステ ップの処理により制御されて、前記メタ情報読込ステップの処理により読み込まれたメ タ情報に基づいて、前記ビデオストリームに付加画像情報を提供する付加画像情報 提供ステップ (例えば、図 2のステップ S10)と、前記付加画像情報提供ステップの処 理により提供された付加画像情報を、前記再生ステップの処理により再生されたビデ ォストリームに合成する合成ステップ(例えば、図 2のステップ S 101)とを含む。
[0043] 本発明の第 4の側面の情報生成装置は、再生装置により再生されるべき時刻情報 を有するビデオストリームの、前記時刻情報の時刻軸に含まれる、時刻位置に対応 する時刻情報を取得する時刻情報取得手段 (例えば、図 13の時刻情報取得部 112 )と、表示されるビデオストリームに対応するメタ情報を取得するメタ情報取得手段(例 えば、図 13のメタ情報取得部 113)と、少なくとも 1以上の前記時刻情報と前記メタ情 報とを対応付けてメタ情報ファイルとして格納する格納手段(例えば、図 13の格納部 114)とを含む。
[0044] 前記メタ情報ファイルのフォーマット形式を変換する変換手段をさらに含ませるよう にすることカでさる。
[0045] 本発明の第 4の側面の情報生成方法およびプログラムは、再生装置により再生され るべき時刻情報を有するビデオストリームの、前記時刻情報の時刻軸に含まれる、時 刻位置に対応する時刻情報を取得する時刻情報取得ステップ (例えば、図 14のステ ップ S 192)と、表示されるビデオストリームに対応するメタ情報を取得するメタ情報取 得ステップ (例えば、図 14のステップ S 194)と、少なくとも 1以上の前記時刻情報と前 記メタ情報とを対応付けてメタ情報ファイルとして格納する格納ステップ (例えば、図 1 4のステップ SI 95)とを含む。
[0046] 図 1は、本発明を適用した再生装置の一実施の形態の構成を示している。尚、図 1 の再生装置 1は、ソフトウェアにより構成される例について説明する力 同様の機能を 備えたハードウェアにより構成することも可能である。
[0047] 再生装置 1は、メタ情報ファイル 3に基づいて、付加画像情報を生成し、ストリームフ アイル 4に基づいて再生されるビデオストリームに合成して表示部 2に表示させる。
[0048] 操作部 11は、キーボード、マウス、または、ボタンなどから構成されており、付加画 像情報提供部 12の ONまたは OFFなどが使用者により入力されるとき操作され、操 作内容に応じた操作信号を発生して、付加画像情報提供部 12に出力する。
[0049] 付加画像情報提供部 12は、ストリーム同期読込部 15より供給されてくるメタ情報に 基づいて、付加画像情報を生成し、合成部 13に出力する。ここで、付加画像情報と は、ストリームファイル 4に記録されているコンテンツを再生する際に画像などで付加 される情報である。より具体的には、例えば、ストリームファイル 4により再生されるビ デォストリームがサッカーの試合の場合、付加画像情報は、競技者毎の時刻単位の 位置情報からなるメタ情報に基づ!/、て、所定の競技者に対して画面上で付される追 跡マークなどである。尚、以降においては、付加画像情報が、所定の競技者に付さ れる追跡マークである場合について、説明を進めるものとするが、ビデオストリームや 付加画像情報はこれに限るものではなぐその他のコンテンツを再生するストリームフ アイルであってもよ!/、し、その他の付加画像情報であってもよレ、。
[0050] メタ情報ファイル読込部 14は、ストリーム同期読込部 15から供給されてくる、ストリー ム再生部 16により再生されているビデオストリームの再生情報を取得すると、再生情 報に基づいて、対応するタイミングのメタ情報をメタ情報ファイル 3より読み込み、スト リーム同期読込部 15に供給する。
[0051] ストリーム同期読込部 15は、ストリーム再生部 16に対して再生情報を依頼すること により、現在再生中のビデオストリームの再生時刻や再生フレームなどを示す再生情 報を取得すると、メタ情報ファイル読込部 14に供給する。さらに、ストリーム同期読込 部 15は、供給した再生情報に応じて、メタ情報ファイル読込部 14より供給されてくる メタ情報を取得して、付加画像情報提供部 12に供給する。 [0052] ストリーム再生部 16は、ストリームファイル 4の情報を読み込み、順次ビデオストリー ムを再生して画像として、合成部 13に出力すると供に、ストリーム同期読込部 15より 再生情報が依頼されると、今現在の再生情報をストリーム同期読込部 15に供給する
[0053] 合成部 13は、ストリーム再生部 16により再生されるビデオストリームの画像と、付加 画像情報提供部 12より供給されてくる付加画像情報とを合成した画像を生成し、 LC D (Liquid Crystal Display)または CRT (Cathode Ray Tube)などからなる表示部 2に表 示させる。
[0054] 付加画像情報提供部 12は、メタ情報ファイル読込管理部 31、メタ情報取得部 32、 メタ情報認識部 33、付加画像情報出力部 34、および付加画像情報生成部 35より構 成されている。
[0055] メタ情報ファイル読込管理部 31は、操作部 11の操作信号に応じて、付加画像情報 をストリーム再生される画像に合成させることが選択された場合、すなわち、付加画像 情報の提供が ONに設定された場合、メタ情報ファイル読込部 14をストリーム同期読 込部 15に登録させると供に、付加画像情報をビデオストリームに合成した表示を終 了させることが選択された場合、すなわち、付加画像情報の提供が OFFに設定され た場合、メタ情報ファイル読込部 14の登録をストリーム同期読込部 15に解除させる。 すなわち、メタ情報ファイル読込部 14は、ソフトウェアとして存在する場合、付加画像 情報の提供が OFFに設定されているときは、存在しないものであって、付加画像情 報の提供が ONに設定されたときに、メタ情報ファイル読込管理部 31により生成され 、ストリーム同期読込部 15に登録されるものである。ただし、以降においては、メタ情 報ファイル読込管理部 31は、ハードウェアであってもよいものであるので、常時存在 するものとしてブロック図を構成する。
[0056] メタ情報取得部 32は、ストリーム同期読込部 15より供給されてくるメタ情報を取得し 、メタ情報認識部 33に供給する。メタ情報認識部 33は、供給されたメタ情報を認識し 、認識結果を付加画像情報生成部 35に供給する。
[0057] 付加画像情報生成部 35は、メタ情報の認識結果に基づ!/、て、付加画像情報を生 成し、生成した付加画像情報を付加画像情報出力部 34に供給する。より具体的に は、付加画像情報生成部 35は、リスト生成部 41、追跡マーク生成部 42およびタイム スケールバー生成部 43を制御して、メタ情報の認識結果に基づいて、競技者のリスト 、所定の競技者の追跡マーク、およびタイムスケールバーの画像を付加画像情報と して生成させて、付加画像情報出力部 34に供給する。
[0058] 付加画像情報出力部 34は、付加画像情報生成部 35により生成された付加画像情 報を合成部 13に出力する。このとき、付加画像情報出力部 34は、再生情報を取得し た時点から付加画像情報を出力するまでの処理時間を考慮して合成部 13に出力す る。すなわち、メタ情報ファイル読込部 14は、付加画像情報提供部 12における処理 時間を考慮して、今現在ストリーム再生部 16で再生されているビデオストリームより、 例えば、数フレーム先のメタ情報を読み込んでいる。したがって、付加画像情報出力 部 34は、取得したメタ情報の再生位置に対応するビデオストリームがストリーム再生 部 16により再生されるタイミングで、付加画像情報を合成部 13に供給する。
[0059] メタ情報ファイル読込部 14の再生情報取得部 51は、ストリーム同期読込部 15より 供給されてくる再生情報を取得し、取得した再生情報を読込部 52に供給する。読込 部 52は、メタ情報ファイル 3にアクセスし、供給されてきた再生情報に基づいて、付加 画像情報提供部 12における処理時間を考慮し、今現在の再生時刻より数フレーム 分先のタイミングのメタ情報を読み込みストリーム同期読込部 15に供給する。
[0060] ストリーム同期読込部 15は、メタ情報ファイル読込管理部 31によりメタ情報ファイル 読込部 14が登録されると、所定の時間間隔で再生情報取得依頼部 61を制御して、 ストリーム再生部 16に対して再生情報を依頼させる。
[0061] 再生情報取得部 62は、再生情報取得依頼部 61の依頼に応じて、ストリーム再生部 16より供給されてくる再生情報を取得し、再生情報出力部 63に供給する。再生情報 出力部 63は、再生情報取得部 62より供給されてきた再生情報をメタ情報ファイル読 込部 14に供給する。
[0062] メタ情報取得部 64は、メタ情報ファイル読込部 14より供給されてくるメタ情報を取得 し、メタ情報出力部 65に供給する。メタ情報出力部 65は、供給されてきたメタ情報を 付加画像情報提供部 12に供給する。
[0063] ストリーム再生部 16の再生処理部 71は、ストリームファイル 4にアクセスし、ビデオス トリームを再生して、合成部 13に供給すると供に、再生情報を再生情報出力部 73に 供給する。再生情報依頼受付部 72は、ストリーム同期読込部 15の再生情報取得依 頼部 61からの再生情報の取得依頼を受け付け、この依頼に基づいて、再生情報出 力部 73を動作させる。再生情報出力部 73は、再生情報依頼受付部 72により再生情 報の取得依頼があったことが通知された場合、再生処理部 71より供給されてくる再 生情報をストリーム同期読込部 15に出力する。
[0064] 次に、図 2のフローチャートを参照して、付加画像情報提供処理について説明する
[0065] ステップ S1において、メタ情報ファイル読込管理部 31は、操作部 11が操作されて 、付加画像情報の提供が要求されたか否力、を判定し、要求されるまで、同様の処理 を繰り返す。ステップ S 1において、例えば、操作部 11が操作されて、付加画像情報 の提供が要求された場合、すなわち、付加画像情報提供部 12の動作を ONにするよ うに要求された場合、ステップ S2において、メタ情報ファイル読込管理部 31は、メタ 情報ファイル読込部 14を生成する。
[0066] ステップ S3において、メタ情報ファイル読込管理部 31は、生成したメタ情報フアイ ル読込部 14をストリーム同期読込部 15に登録を要求する。
[0067] ステップ S31において、ストリーム同期読込部 15は、メタ情報ファイル読込部 14の 登録が要求されてきたか否かを判定し、登録が要求されるまで、その処理を繰り返す ステップ S31において、例えば、ステップ S3の処理により、メタ情報ファイル読込部 1 4の登録が要求されると、ステップ S32において、ストリーム同期読込部 15は、登録が 要求されたメタ情報ファイル読込部 14を登録する。
[0068] 尚、ステップ S2, S3, S31 , S32 (対応するステップ S10, S l l S41 , S42を含む) の処理は、メタ情報ファイル読込部 14がソフトウェアにより構成される場合の処理であ つて、ハードウェアにより構成される場合、不要な処理である。したがって、 ドゥエ ァにより構成されるメタ情報ファイル読込部 14を用いる場合、ステップ S2, S3, S31 , S32 (対応するステップ S10, S 11 S41 , S42を含む)の処理は、スキップされる。
[0069] ステップ S33において、再生情報取得依頼部 61は、所定の時間が経過したか否か を判定し、所定の時間が経過するまで、その処理を繰り返す。ステップ S33において 、所定の時間が経過したと判定された場合、ステップ S34において、再生情報取得 依頼部 61は、ストリーム再生部 16に対して再生情報を取得するように依頼する。
[0070] ステップ S61において、ストリーム再生部 16の再生処理部 71は、ストリームファイル 4を読み出して、所定の手順に従って、音声を含む画像を順次再生し、合成部 13に 出力すると供に、今現在の再生情報を再生情報出力部 73に供給する。
[0071] ステップ S62において、再生情報依頼受付部 72は、再生情報の取得の依頼があつ たか否かを判定し再生情報の取得の依頼がないと判定された場合、処理は、ステツ プ S61に戻る。すなわち、再生情報の依頼がない限り、単純にストリームファイルから 音声を含む画像などがビデオストリームとして再生され続けるのみとなる。
[0072] ステップ S62において、例えば、ステップ S34の処理により、再生情報の取得が要 求された場合、ステップ S63において、再生情報依頼受付部 72は、再生情報出力 部 73を制御して、再生処理部 71より供給されてくる再生情報をストリーム同期読込部 15に出力させる。
[0073] ステップ S35において、再生情報取得部 62は、再生情報が出力されてきたか否か を判定し、再生情報が出力されてくるまで、同様の処理を繰り返す。ステップ S35に おいて、例えば、ステップ S63の処理により、再生情報が出力されてきた場合、ステツ プ S36において、再生情報取得部 62は、出力されてきた再生情報を取得し、取得し た再生情報を再生情報出力部 63に供給する。
[0074] ステップ S37において、再生情報出力部 63は、供給されてきた再生情報をメタ情 報ファイル読込部 14に出力する。
[0075] ステップ S81において、再生情報取得部 51は、再生情報がストリーム同期読込部 1 5より供給されてきたか否かを判定し、出力されてくるまで、同様の処理を繰り返す。 ステップ S81において、例えば、ステップ S37の処理により、再生情報が出力されて きた場合、再生情報が供給されたと判定され、ステップ S82において、再生情報取得 部 51は、供給されてきた再生情報を取得し、取得した再生情報を読込部 52に供給 する。
[0076] ステップ S83において、読込部 52は、メタ情報ファイル 3にアクセスし、供給されて きた再生情報に基づいて、ビデオストリームの再生位置に対応するメタ情報を読み込 む。
[0077] ステップ S84において、読込部 52は、読み込んだメタ情報をストリーム同期読込部 15に出力する。
[0078] ステップ S38において、メタ情報取得部 64は、メタ情報が出力されてきたか否かを 判定し、メタ情報が出力されてくるまで、その処理を繰り返す。ステップ S38において 、例えば、ステップ S84の処理によりメタ情報が出力されてきた場合、ステップ S39に おいて、メタ情報取得部 64は、送信されてきたメタ情報を取得すると供に、取得した メタ情報をメタ情報出力部 65に供給する。
[0079] ステップ S40において、メタ情報出力部 65は、供給されてきたメタ情報を付加画像 情報提供部 12に出力する。
[0080] ステップ S4において、メタ情報取得部 32は、メタ情報がストリーム同期読込部 15よ り供給されてきたか否かを判定し、供給されてくるまで、その処理を繰り返す。ステツ プ S4において、例えば、ステップ S40の処理により、メタ情報が出力されてきた場合 、ステップ S5において、メタ情報取得部 32は、供給されてきたメタ情報を取得し、取 得したメタ情報をメタ情報認識部 33に供給する。
[0081] ステップ S6にお!/、て、メタ情報認識部 33は、供給されてきたメタ情報を認識し、認 識内容を付加画像情報生成部 35に供給する。
[0082] ステップ S7において、付加画像情報生成部 35は、付加画像情報生成処理により 付加画像情報を生成して付加画像情報出力部 34に供給する。尚、付加画像情報生 成処理については、図 3のフローチャートを参照して詳細を後述する。
[0083] ステップ S8において、付加画像情報出力部 34は、付加画像情報生成部 35により 生成された付加画像情報を合成部 13に出力する。
[0084] ステップ S101において、合成部 13は、ストリーム再生部 16より供給されてくる音声 を含む画像などからなるビデオストリームと、付加画像情報提供部 12より供給されて くる付加画像情報を構成する画像とを合成し、ステップ S 102において、表示部 2に 表示させる。このため、付加画像情報提供部 12の動作が ONにされると付加画像情 報提供部 12より供給されてくる付加画像情報を構成する画像が、音声を含む画像か らなるビデオストリームに合成されて表示部 2で表示されることになるが、付加画像情 報提供部 12の動作が ONにされず、 OFFのままの場合、単にストリーム再生部 16よ り供給されてくる音声を含む画像からなるビデオストリームが表示部 2に表示されるの みとなる。
[0085] また、ステップ S 9において、メタ情報ファイル読込管理部 31は、操作部 11が操作さ れて、付加画像情報の提供の停止が要求されたか否か、すなわち、付加画像情報 提供部 12の動作を OFFにするように要求されたか否かを判定し、例えば、停止が要 求されていない場合、処理は、ステップ S4に戻る。すなわち、付加画像情報の提供 の停止が要求されない限り、ステップ S4乃至 S9の処理が繰り返される。結果として、 登録の解除が要求されていないと判定された場合、合成部 13は、付加画像情報提 供部 12より供給されてくる付加画像情報を構成する画像と、ストリーム再生部 16より 供給されてくる音声を含む画像力 なるビデオストリームとを合成して表示部 2に表示 し! ¾ける。
[0086] ステップ S9にお!/、て、例えば、付加画像情報の提供の停止が要求された場合、ス テツプ S 10において、メタ情報ファイル読込管理部 31は、メタ情報ファイル読込部 14 の登録を解除するようにストリーム同期読込部 15に対して要求する。
[0087] ステップ S41において、ストリーム同期読込部 15は、メタ情報ファイル読込部 14の 登録の解除が要求されたか否かを判定し、登録の解除が要求されて!/、な!/、と判定さ れた場合、処理は、ステップ S33に戻る。すなわち、ステップ S33乃至 S41の処理が 繰り返される。
[0088] 一方、ステップ S41において、例えば、ステップ S10の処理によりメタ情報ファイル 読込部 14の登録の解除が要求された場合、ステップ S42において、ストリーム同期 読込部 15は、解除が要求されたメタ情報ファイル読取部 14の登録を解除する。この 結果、ストリーム同期読込部 15は、メタ情報ファイル読込部 14に対して再生情報を供 給しない状態となる。
[0089] ステップ S 11において、メタ情報ファイル読込管理部 31は、メタ情報ファイル読込部
14を破棄し、処理は、ステップ S1に戻る。
[0090] 以上の処理により、ストリームファイル 4から読み出されるビデオストリームと、メタ情 報ファイル 3に記録されているメタ情報に基づいて、生成される付加画像情報とが合 成されることになるので、メタ情報ファイル 3のみを交換するだけで、付加画像情報を 変更することが可能になると供に、付加画像情報の種類に応じてストリームファイル 4 を構成する必要がなぐ 1つのストリームファイルを記録するだけでよいので、記録容 量を節約することが可能となる。
[0091] 次に、図 3のフローチャートを参照して、付加画像情報生成処理について説明する
[0092] ステップ S 151において、リスト生成部 41は、ステップ S 5の処理により取得されたメ タ情報である競技者毎の位置情報を読み出し、さらに、ステップ S 152において、読 み出した位置情報に基づいて、ビデオストリームとして再生されるサッカーの試合に 出場してレ、る競技者のリストを生成する。
[0093] ここで、メタ情報ファイル 3の構成について説明する。メタ情報ファイル 3は、例えば 、図 4で示されるようなものである。図 4においては、左側から順に競技者毎の試合の 経過時刻毎の画面上の位置情報が示されている。すなわち、図 4においては、競技 者は、「aaa」、「bbb」、「ccc」、「ddd」、 · . ·「jjj」、および「kkk」の 11人分であり、例えば 、競技者「aaa」は、時亥 ij「00: 01: 00」(=「分:秒:秒/ 100」)において、画面上の座 標(Xal , Yal)に存在し、時刻「00: 02: 00」において、画面上の座標(Xa2, Ya2) に存在し、時刻「00 : 03 : 00」において、画面上の座標(Xa3, Ya3)に存在し、時刻「 00 : 04 : 00」にお!/、て、画面上の座標 (Xa4, Ya4)に存在し、時刻「94: 59: 00」に ぉレヽて、画面上の座標 (Xa5699, Ya5699) ίこ存在し、日寺亥 U「95: 00: 00」 ίこお!/ヽて 、画面上の座標(Xa5700, Ya5700)に存在することを示している。尚、競技者「bbb 」、「ccc」、「ddd」、 · · ·「jjj」、および「kkk」についても同様であるので、その説明は、省 略するものとする。
[0094] ここ力、ら、例えば、時刻「00: 04: 00」のタイミングの場合、図 4で示される競技者の 氏名「aaa」、「bbb」、「ccc」、「ddd」、 . · ·「jjj」、および「kkk」と、それぞれの存在位置と して、 (Xa4, Ya4)、 (Xb4, Yb4)、 (Xc4, Yc4)、 (Xc4, Yc4)、 (Xd4, Yd4) · · · ( Xj4, Yj4)、 (Xk4, Yk4)、および、最終時刻「95 : 00 : 00」がメタ情報ファイル 3より メタ情報として読み出される。 [0095] そこで、このメタ情報に基づいて、リスト生成部 41は、図 5の右下部に表示されてい るリスト 102を生成する。図 5においては、ストリーム再生部 16により再生されているサ ッカーの試合中の画像が画像表示部 101に表示されており、サッカーの試合中の画 像が表示されている。また、図 5におけるリスト 102は、上から「aaa」、「bbb」、「ccc」、「 ddd」、 · · · ¾」、および「kkk」が表示されており、さらに、いずれか追跡マーク 111を 表示させた!/、競技者を選択するための選択枠 103が表示されて!/、る。
選択枠 103は、操作部 11により上下に移動させることができ、これにより、競技者「aa a」、「bbb」、「ccc」、「ddd」、 · · ·「jjj」、および「kkk」のいずれかを選択することができる 。図 5においては、追跡マーク 111を表示させたい競技者として「kkk」が選択されて いる。
[0096] ステップ S 153において、追跡マーク生成部 42は、メタ情報に基づいて、選択され ている競技者の位置に追跡マーク 11 1を生成する。すなわち、図 5においては、選択 枠 103力 「kkk」上にあり、追跡マーク 111を表示させたい競技者として「kkk」が選択 されているので、追跡マーク生成部 42は、時刻「00 : 04 : 00」のタイミングにおける「k kk」の座標(Xk4, Yk4)を中心として追跡マーク 111を生成する。尚、追跡マーク 11 1は、図 5においては、丸印である力 その他の形状であっても良いことは言うまでも ない。
[0097] ステップ S 154において、タイムスケールバー生成部 43は、供給されてきたメタ情報 に基づいて、タイムスケールバー 104を生成する。すなわち、図 5においては、画像 表示部 101の下部にタイムスケールバー 104が表示されており、さらに、タイムスケー ルノ一 104上には、水平方向の長さを全体として「95 : 00 : 00」としたときの、時刻「0 0 : 04 : 00」における割合を示す位置にカレントマーク 105が表示されて!/、る。タイム スケールバー生成部 43は、タイムスケールバー 104を生成すると供に、水平方向の 長さを全体として「95: 00: 00」としたときの、時刻「00: 04: 00」における割合を示す 位置を計算により求め、その位置にカレントマーク 105を付してタイムスケールバー 1 04の画像を生成する。
[0098] 付加画像情報生成処理により、図 5におけるリスト 102、選択枠 103、追跡マーク 1 11、タイムスケールバー 104、およびカレントマーク 105の画像がそれぞれの位置に 生成されて、上述したステップ S8の処理により、合成部 13に出力される。そして、ス テツプ S 101の処理により、合成部 13が、ステップ S61の処理でストリームファイル 4よ り読み出されて表示されるサッカーの試合のビデオストリーム画像上に、これらの付 加画像情報からなる画像をオーバーラップ表示するように合成して、表示部 2に表示 させることにより、図 5で示されるような画像が表示される。
[0099] 結果として、リスト 102上の競技者を選択枠 103により選択すると、選択された競技 者に連続的に追跡マーク 111が付されていくので、使用者は、様々な場面で選択し た競技者を見つけ出すことが可能となる。尚、図 5においては、追跡マーク 111がー 度表示されてから所定時間かけて徐々に色を薄くして消えるように設定した場合を示 しており、結果として、選択された競技者の累積的な動き力 追跡マーク 111の残像 として表示されることになるので、動いている方向などが認識しやすくなり、選択した 競技者の動きをより注目して視聴することが可能となる。尚、図 5においては、残像と して表示されてレ、る追跡マークにつ!/、ては、点線で示されて!/、る。
[0100] また、以上においては、追跡マーク 111を選択した競技者に付されるようにする付 加画像情報を提供する例について説明してきたが、同様のメタ情報により別の付加 画像情報を提供するようにしてもよぐ例えば、追跡マーク 111を付する代わりに、選 択された競技者の位置を中心として、所定倍率にズームアップした画像を表示するよ うにしても良い。このような付加画像情報を提供することにより、選択された競技者の プレイを連続的に表示部 2に拡大して視聴することが可能となる。
[0101] さらに、以上においては、ストリームファイル 4に基づいて再生される音声を含む画 像がサッカー中継を録画したものであって、付加画像情報として選択された競技者 に追跡マークを付する例について説明してきた力 例えば、ストリームファイル 4に基 づいて再生される音声を含む画像が、ドラマや映画などである場合、付加画像情報 として、登場人物の相関図などを表示するようにしても良い。
[0102] 図 6は、ストリームファイル 4に基づいて再生される音声を含む画像力 S、ドラマや映 画などである場合、付加画像情報として、登場人物の相関図などを表示するようにし た再生装置 1の構成例を示している。尚、図 6の再生装置 1において、図 1の再生装 置 1における構成と同一の構成については、同一の符号を付しており、その説明は 適宜省略するものとする。
[0103] 図 6の再生装置 1において、図 1の再生装置 1と異なる構成は、付加画像情報生成 部 35に代えて、付加画像情報生成部 141を設けた点と、メタ情報ファイル 3の内容で ある。
[0104] 付加画像情報生成部 141は、顔画像枠生成部 151、グループ枠生成部 152、相 関生成部 153、タイムスケールバー生成部 154、およびキャスト枠生成部 155を備え ている。顔画像枠生成部 151は、メタ情報に基づいて、登場人物の顔画像枠を生成 する。グループ枠生成部 152は、メタ情報に含まれている、登場人物をグループ化す るグループ化情報に基づ!/、て、顔画像枠をグループ化して表示するグループ枠の画 像を生成する。相関生成部 153は、各登場人物間の関係を示す矢印状の相関の画 像を生成する。タイムスケールバー生成部 154は、メタ情報に基づいて、ストリームフ アイル 4より読み出されて再生されるドラマや映画の再生総時間に対する再生位置や 、ストーリーにおけるイベントを示すタイムスケールバーの画像を生成する。キャスト枠 生成部 155は、メタ情報に基づいて、登場人物の紹介画像を生成する。
[0105] 次に、図 7のフローチャートを参照して、図 6の再生装置 1による付加画像情報生成 処理について説明する。尚、図 6の再生装置 1による付加画像情報提供処理につい ては、ステップ S 7の付加画像情報生成処理を除き、図 2を参照して説明した処理と 同様であるので、その説明は省略する。
[0106] ステップ S 171において、付加画像情報生成部 141は、付加画像情報として相関図 を表示するためのウィンドウ 202 (図 9)を表示する画像を生成する。
[0107] ステップ S 172において、顔画像枠生成部 151は、メタ情報に基づいて、登場人物 毎に、顔画像の位置情報を読み出し、顔画像枠を生成する。すなわち、図 6の再生 装置 1におけるメタ情報ファイル 3は、例えば、図 8で示されるようなものである。図 8に おいては、左から登場人物毎に設定される ID、登場人物名、並びに再生時刻毎の顔 画像枠の表示中心位置、グループ化情報、相関情報、および顔画像の格納位置が 示されている。
[0108] すなわち、図 8においては、登場人物「aaa」は、 ID = 1であり、登場人物の紹介文書 データが C:¥cast¥aaa.txtJに格納されており、時刻「00: 01: 00」(=「時:分:秒」 )に おいて、顔画像の画面上の中心位置座標は、座標(Xal , Yal)であり、グループ化 情報 Gr (親友同士)は「親友同士」であり、相関情報 (from ID=2 :好意)は、「ID = 2」と なる登場人物「bbb」から「好意」を持たれており、相関情報 (from ID=3 :好意)は、「ID = 3」となる登場人物「ccc」から「好意」を持たれており、登場人物「aaa」の顔画像の情 報が「c:¥face¾aa. jpg」に格納されて!/、ることがそれぞれ示されて!/、る。
[0109] また、 ID = 1の登場人物「aaa」は、時刻「00: 02: 00」において、顔画像の画面上の 中心位置座標は、座標 (Xa2, Ya2)であり、グループ化情報 Gr (親友同士)が「親友 同士」であり、相関情報 (from ID=2 :好意)は「ID = 2」となる登場人物「bbb」から「好意 」を持たれており、相関情報 (from ID=3:好意)は「ID = 3」となる登場人物「ccc」から「 好意」を持たれており、登場人物「aaa」の顔画像の情報が「c:¥face¾aa.jpg」に格納さ れて!/、ることがそれぞれ示されて!/、る。
[0110] さらに、 10 = 1の登場人物「&&&」は、時刻「00 : 50 : 09」において、顔画像の画面上 の中心位置座標は、座標(Xa3009, Ya3009)であり、グループ化情報 Gr (親友同 士)が「親友同士」であり、相関情報 (from ID=2 :好意)は「ID = 2」となる登場人物「bb b」から「好意」を持たれており、相関情報 (from ID=3 :好意)は「ID = 3」となる登場人 物「ccc」力も「好意」を持たれており、登場人物「aaa」の顔画像の情報が「c:¥face¾aa. j gjに格納されて!/、ること力 S示されて!/、る。
[0111] また、 10 = 1の登場人物「&&&」は、時刻「00 : 50 : 10」において、顔画像の画面上の 中心位置座標は、座標(Xa3010, Ya3010)であり、グループ化情報 Gr (恋人同士) 力 恋人同士」であることを示し、相関情報 (to ID=2 :好意)は「ID = 2」となる登場人物 「bbb」に「好意」を持っており、相関情報 (from ID=3 :失恋)は「ID = 3」となる登場人物 「ccc」との間で「失恋」関係にあることが示されており、登場人物「aaa」の顔画像の情 報が「c:¥face¾aa.jpg」に格納されていることがそれぞれ示されている。さらに、このタ イミングにおいては、最上段で示されるように、ストーリー上の重要なイベントとして「 告白」が登録されている。
[0112] さらに、 10 = 1の登場人物「&&&」は、時刻「00 : 50 : 11」において、顔画像の画面上 の中心位置座標は、座標(Xa3011 , Ya3011 )であり、グループ化情報 Gr (恋人同 士)が「恋人同士」であることを示し、相関情報 (to ID=2 :好意)は「ID = 2」となる登場 人物「bbb」に「好意」を持っており、相関情報 (to ID=3 :失恋)は「ID = 3」となる登場 人物「ccc」に「失恋」した関係にあることが示されており、登場人物「aaa」の顔画像の 情報が「c:¥face¾aa. jpg」に格納されて!/、ることがそれぞれ示されて!/、る。
[0113] 尚、 ID=2および 3の登場人物「bbb」および「ccc」については、 ID = 1の登場人物「aa a」と同様であるので、その説明は省略するものとする。
[0114] 図 8のメタ情報ファイル 3より、例えば、時刻「00 : 02 : 00」のタイミングの場合、図 8 で示される ID = 1乃至 3の登場人物「aaa」、「bbb」、および「ccc」のそれぞれについて 、顔画像表示位置として(Xa2, Ya2)、 (Xb2, Yb2)、および(Xc2, Yc2)、グノレー プ化情報として Gr (親友同士)、 Gr (親友同士)、および Gr (親友同士)、相関情報とし て、「aaa」につ!/、ては、相関情報 (from ID=2:好意)、および相関情報 (from ID=3:好 意)、「bbb」、「ccc」のそれぞれについては、相関情報 (to ID=1 :好意)、それぞれの 顔画像の格納位置として(c:¥face¾aa.jpg)、 (c:¥face¥bbb.jpg)、および(c:¥face¥ccc. jpg)、それぞれの紹介情報の格納位置として(c:¥cast¥aaa.txt)、 (c:¥cast¥bbb.txt)、 および(c:¥cast¥ccc.txt)、再生総時間、並びにイベントとして時刻「00: 50: 10」にお ける「告白」が、それぞれメタ情報として読み出される。
[0115] そこで、このメタ情報に基づいて、顔画像枠生成部 151は、図 9で示されるように、 付加画像情報を表示するウィンドウ 202上に登場人物「aaa」、「bbb」、および「ccc」の それぞれの顔画像枠 221— 1乃至 221— 3を生成する。図 9においては、ストリームフ アイル 4よりストリーム再生部 16により再生されているドラマまたは映画の画像が画像 表示部 201に表示されており、付加画像情報を示すウィンドウ 202が表示されている 。尚、画像表示部 201上に表示されるドラマや映画の画像は、図 9においては省略さ れている。
[0116] 例えば、時刻「00 : 02 : 00」において、顔画像枠生成部 151は、ウィンドウ 202上の
(Xa2, Ya2)、 (Xb2, Yb2)、および(Xc2, Yc2)のそれぞれの位置を中心として、 登場人物「aaa」、「bbb」、および「ccc」の顔画像を(c:¥face¾aa.jpg)、 (c:¥face¥bbb.jp g)、および(c:¥face¥cc jpg)より読み出して、図 9の顔画像枠 221— 1乃至 221— 3と して生成する。
[0117] ステップ S 173において、グループ枠生成部 152は、メタ情報に基づいて、グルー プ枠 211を生成する。すなわち、例えば、時刻「00 : 02 : 00」においては、登場人物「 aaa」、「bbb」、および「ccc」のグループ化情報は、いずれも Gr (親友同士)であるので 、同一のグノレープ化情報を備えた顔画像枠 221— 1乃至 221— 3を囲み込むように グループ枠 211を生成し、グループ構成として「親友同士」を付する。
[0118] ステップ S 174において、相関生成部 153は、メタ情報に基づいて、相関 222— 1 , 222— 2を生成する。すなわち、例えば、時刻「00 : 02 : 00」においては、登場人物「a aa」、「bbb」、および「ccc」の相関情報は、「aaa」については、相関情報(from ID=2 :好 意)、および相関情報(from ID=3 :好意)、「bbb」、「ccc」のそれぞれについては、相 関情報 (to ID=1 :好意)とされており、この表示において相関情報は、(自らを起点と した矢印の終点の形状 ID =終点位置となる顔画像の ID :関係)で構成されており、 例えば、 自らを起点とした矢印の終点の形状は「from」または「to」のいずれかであつ て、「from」の場合、 自らを起点とした矢印の終点の形状が矢印記号なしを示し、「to」 の場合、自らを起点とした矢印の終点の形状が矢印記号ありを示す。
[0119] すなわち、例えば、「aaa」についての相関情報(from ID=2 :好意)の場合、顔画像 枠 221— 1を起点とし、 ID = 2である「bbb」の顔画像枠 221— 2を終点とする矢印記 号のない相関 222— 1が構成される。反対に、例えば、「bbb」については、相関情報 (from ID=1:好意)の場合、顔画像枠 221— 2を起点とし、 ID = 1の顔画像枠 221— 1 を終点とする矢印記号のある相関 222— 1が構成される。結果として、これらの二つ の相関情報に基づいて、相関 222— 1は、顔画像枠 221— 2から顔画像枠 221— 1 方向の矢印状に構成される。さらに、「好意」を示すため相関 222— 1には、下部にハ ートマークが表示されてレ、る。
[0120] また、例えば、「aaa」についての相関情報(from ID=3 :好意)の場合、顔画像枠 221 —1を起点とし、 ID = 3である「ccc」の顔画像枠 221—3を終点とする矢印記号のない 相関 222— 2が構成される。反対に、例えば、「ccc」については、相関情報 (from ID= 1 :好意)の場合、顔画像枠 221— 3を起点とし、 ID = 1の顔画像枠 221— 1を終点と する矢印記号のある相関 222— 2を構成する。結果として、これらの二つの相関情報 に基づいて、相関 222— 2は、顔画像枠 221— 3から顔画像枠 221— 1方向の矢印 状に構成される。さらに、「好意」を示すため相関 222— 2には、下部にハートマーク が表示されている。
[0121] ステップ S 175において、タイムスケールバー生成部 154は、供給されてきたメタ情 報に基づいて、タイムスケールバー 203を生成する。すなわち、図 9においては、画 像表示部 201の下部にタイムスケールバー 203が表示されており、さらに、タイムスケ 一ルバ一 203上には、水平方向の長さを全体として「01 : 53 : 20」としたときの、時刻 「00: 02: 00」における割合を示す位置にカレントマーク 204が表示されて!/、る。タイ ムスケールバー生成部 154は、タイムスケールバー 203を生成すると供に、水平方向 の長さを全体として「01: 53: 20」としたときの、時刻「00: 02: 00」における割合を示 す位置を計算により求め、その位置にカレントマーク 204を付し、さらに、イベントとし て時刻「00: 50: 10」における「告白」を示すタイムスケールバー 203上の割合を示す 位置を計算により求め、その位置にイベントマーク 205, 206を付して、タイムスケー ノレバー 203上の画像を生成する。
[0122] このような付加画像情報からなるウィンドウ 202として表示されることにより、図 9で示 されるように、時刻「00 : 02 : 00」においては、登場人物の「aaa」、「bbb」、および「ccc 」は、いずれも相互に親友同士であるが、登場人物「aaa」に、登場人物「bbb」、および 「ccc」がそれぞれ好意を抱いている相関図として示される。
[0123] この結果、例えば、ドラマ、または映画のビデオストリームが進行し、時刻「00: 50: 09」までは、同様の相関関係が維持されたままであつたが、時刻「00: 50: 10」にお いて、人物「bbb」が人物「&&&」に対して告白することにより、人物「aaa」<^「bbb」のダル ープ化情報が変化して、 Gr (恋人同士)で示されるように恋人同士となり、人物「ccc」 のグループ化情報が Gr ()で示されるように!/、ずれのグループにも属して!/、な!/、状態 となり、相関情報が、「aaa」については、相関情報 (to ID=2 :好意)、および相関情報 ( to ID=3 :失恋)、「bbb」、については、相関情報(to ID=1 :好意)、「ccc」については、 相関情報 (to ID=1 :失恋)となる場合、図 10で示されるように、恋人同士という同一の グループに属する登場人物「aaa」、および「bbb」の顔画像枠 221— 1 , 221— 2力グ ループ枠 251により囲み込まれて、グループを示す「恋人同士」が付される。
[0124] さらに、相関として「aaa」についての相関情報 (to ID=2 :好意)の場合、顔画像枠 22 1 1を起点とし、 ID = 2である「bbb」の顔画像枠 221— 2を終点とする矢印記号のあ る相関 262— 1が構成される。反対に、例えば、「bbb」については、相関情報は相関 情報 (to ID=1 :好意)となるので、顔画像枠 221— 2を起点とし、 ID = 1の顔画像枠 22 1—1を終点とする矢印記号のある相関 222— 1が構成される。結果として、これらの 二つの相関情報に基づ!/、て、相関 261— 1は、顔画像枠 221— 2, 221— 1の双方 向の矢印状に構成される。さらに、「好意」を示すため相関 261— 1には、下部にハー トマークが表示されている。
[0125] また、例えば、「aaa」についての相関情報 (to ID=3 :失恋)の場合、顔画像枠 221— 1を起点とし、 ID = 3である「ccc」の顔画像枠 221—3を終点とする矢印記号のある相 関 261—2が構成される。反対に、「ccc」については、相関情報 (to ID=1 :失恋)の場 合、顔画像枠 221—3を起点とし、 ID = 1の顔画像枠 221— 1を終点とする矢印記号 のある相関 261—2を構成する。結果として、これらの二つの相関情報に基づいて、 相関 261— 2は、顔画像枠 221— 3, 221— 1の双方向の矢印状に構成される。さら に、「失恋」を示すため相関 261— 2には、下部にハートマークが破れたマークが表 示されている。
[0126] さらに、タイムスケールバー 203において、時刻「00 : 50 : 10」において、人物「bbb」 が人物「aaa」に対して「告白」のイベントが発生したので、新たにイベントマーク 205 ' として「????」から「告白」と表示が切り替えられ、さらに、カレントマーク 204 'に っレ、ても、今現在の時刻「01 : 05 : 10」が表示される。
[0127] 結果として、時刻「00 : 50 : 10」において、人物「bbb」が人物「aaa」 対して告白す ることにより、図 10で示されるように、時刻「00: 50: 10」以降にお!/、ては、登場人物 の「aaa」, 「bbb」が恋人同士の関係になり、登場人物「ccc」, 「aaa」は失恋関係に変化 し、親友関係が崩れたことが相関図として示される。
[0128] ステップ S 176において、付加画像情報生成部 141は、操作部 11が操作されて、 特定の登場人物の顔画像枠 221が指定されたか否かを判定する。例えば、図 11で 示されるように、顔画像枠 221— 1が選択された場合、ステップ S 177において、キヤ スト枠を表示するための「キャスト紹介」とタイトルが付されたウィンドウ 271を生成する と供に、選択された顔画像枠 221— 1を太枠にするなどして、選択された顔画像枠 2 21を認識しやすいように変更させる。 [0129] ステップ S 178において、キャスト枠生成部 155は、メタ情報に基づいて、ウィンドウ 271上に登場人物毎の人物紹介を表示する。すなわち、キャスト枠生成部 155は、 顔画像の格納位置である(c:¥face¾aa.jpg)、 (c:¥face¥bbb.jpg)、および(c:¥face¥ccc •jpg)より顔画像を読み出すと供に、紹介情報の格納位置である(c:¥casaaa.txt)、 ( c:¥cast¥bbb.txt)、および(c:¥cast¥cc txt)のそれぞれにアクセスして読み出し、それ ぞれのキャスト枠 281乃至 283を生成する。図 11においては、キャスト枠 281は、選 択された登場人物「aaa」のものであるので、他のキャスト枠よりも大きぐ顔画像と供に 、人物紹介として「クラスの人気者。モテモテの女の子」と表記されており、キャスト枠 2 82は、選択されていない登場人物「bbb」の顔画像と供に、人物紹介として「ちょっと 気難しい男」と表記されており、キャスト枠 283は、選択されていない登場人物「ccc」 の顔画像と供に、人物紹介として「ちょっと変わり者」と表記されている。
[0130] 尚、ステップ S 176において、特定の登場人物の顔画像枠 221が選択されていない と判定された場合、ステップ S 177, S 178の処理はスキップされるので、ウィンドウ 27 1が表示されない。
[0131] 以上の処理により、ストリームファイル 4に格納されているドラマや映画の進行に伴 つて変化する登場人物の相関図や紹介文書が図示して表示される。
[0132] 結果として、登場人物が多い、または、人間関係が複雑なドラマや映画などを相関 図を把握しながら視聴することが可能となる。
[0133] 以上においては、メタ情報ファイル 3が 1種類の場合について説明してきた力 複数 のメタ情報ファイル 3を用いるようにしても良!/、。
[0134] 図 12は、フォーマットの異なるメタ情報ファイル 3— 1 , 3— 2を用いて、ストリームファ ィル 4より再生される音声を含む画像に付加画像情報を付して提供するようにした再 生装置 1の構成例を示したものである。別フォーマットとして記録されているため、そ れぞれ独立したファイルとして設定されている。尚、図 12の再生装置 1において、図 1 の再生装置 1と同一の構成については、同一の符号を付しており、その説明は省略 する。
[0135] 図 12の再生装置 1において、図 1の再生装置 1と異なる点は、メタ情報ファイル読 込部 14に代えて、メタ情報ファイル読込部 14— 1 , 14— 2を設けた点である。メタ情 報ファイル読込部 14— 1 , 14— 2は、それぞれ同一の再生情報取得部 51— 1 , 51 - 2を備えているが、読込部 52— 1は、フォーマット Aで記録されているメタ情報フアイ ル 3—1よりメタ情報を読み出し、読込部 52— 2は、フォーマット Bで記録されているメ タ情報ファイル 3— 2よりメタ情報を読み出す。このように本実施例においては、フォー マットが異なるメタ情報ファイルを扱うことが出来るため、フォーマット Aは人間が認識 しゃすいテキスト形式のフォーマットのファイルとして編集しやすくし、フォーマット Bは 圧縮されたメタ情報ファイルとすることにより、より編集を容易にすると共に、記録媒体 の容量も効率的に使用してメタ情報ファイルを用いることが可能となる。
[0136] しかしながら、読込部 52— 1 , 52— 2により読み出されたメタ情報は、いずれも同一 のフォーマットの情報となるため、付加画像情報提供部 12には、読込部 52— 1 , 52 2により読み出されたメタ情報が組み合わされたものが供給される。
[0137] また、付加画像情報提供処理については、図 2のフローチャートを参照して説明し た、メタ情報ファイル読込部 14の処理である、ステップ S81乃至 S84がメタ情報フアイ ル読込部 14— 1 , 14 2のそれぞれで独立してなされるのみであるので、その説明 は省略する。
[0138] 以上においては、人物相関や登場人物紹介を付加画像情報として表示させる例に ついて説明してきたが、例えば、登場人物を演じる役者に対するインタビュなどを関 連するシーンを再生している時に表示させることも可能である。
[0139] 以上によれば、多様な音声を含む画像からなるビデオストリームのコンテンツに対し て、画像や音声などの再生内容に同期した付加画像情報を提供することが可能とな
[0140] また、ストリームファイルとメタ情報ファイルとがそれぞれ別ファイルであることから、 それぞれ別に編集することが可能となるので、本編の画像や音声のストリームを作り 直すことなく、新しレ、メタ情報を付加するだけで再生を行うことができる。
[0141] さらに、画像や音声からなるビデオストリームを作成する作業とメタ情報を作成する 作業を分離することができ、同時並行して作業を行うことができるので、全体の編集 時間を短縮することが可能となる。
[0142] また、ネットワークを用いたダウンロードに代表される情報の取得手段を使用するこ とで、メタ情報の追加、もしくは、置き換えるようにしてもよいので、発売されたパッケ ージメディアであっても、パッケージメディアを買い換えることなく新しい楽しみ方を視 聴者に提供することが可能となる。従って、視聴者は、パッケージメディアを購入した 後でも、購入時に楽しむことのできなかった機能を、付加画像情報として追加するこ とで楽しむことが可能となる。
[0143] さらに、以上の再生装置 1においては、メタ情報ファイルのフォーマットと、メタ情報 ファイルを読込む機構のみを取り替えることができるので、例えば、メタ情報フアイノレ の情報量が非常に多いコンテンツでは、メタ情報ファイルのサイズをなるベく小さくす るための高効率の圧縮型フォーマットを使用したり、人間が編集する機会の多いもの につ!/、ては、人間が認識しやす!/、フォーマットにすると!/、つたようにフォーマットを切り 替えて使用することが可能となる。
[0144] 次に、図 13を参照して、メタ情報ファイルを生成するメタ情報ファイル生成装置の実 施の形態について説明する。
[0145] 図 13のメタ情報ファイル生成装置 101は、図 4または図 8で示したメタ情報フアイノレ
3を生成する。
[0146] 操作部 111は、キーボードや操作ボタンから構成され、ストリームの再生時刻と、対 応する再生時刻におけるメタ情報を入力するとき操作され、操作内容に応じた再生 時刻の情報を時刻情報取得部 112に、対応する再生時刻におけるメタ情報をメタ情 報取得部 113にそれぞれ供給する。また、操作部 111は、メタ情報ファイル 3のフォ 一マットを指定するとき、または、メタ情報ファイル 3のフォーマットを決定するに際し て、優先されるモードを指定するとき、操作され、操作内容に応じた情報をフォーマツ ト変換部 115に供給する。
[0147] 時刻情報取得部 112は、操作部 111が操作されることにより入力された再生時刻を 特定する情報を取得し、格納部 114に格納させる。
[0148] メタ情報取得部 113は、操作部 111が操作されることにより入力されたメタ情報を取 得し、格納部 114に格納させる。
[0149] 格納部 114は、時刻情報取得部 112より供給されてくる再生時刻を特定する情報と 、メタ情報取得部 113より供給されてくるメタ情報とを対応付けて、メタ情報ファイル 3 として格納する。
[0150] フォーマット変換部 115は、格納部 114に格納されているメタ情報ファイル 3を操作 部 111より指定される形式、または、モードに応じてフォーマット変換し、記録部 116 に供給する。尚、ここでいう、モードとは、複数に存在するフォーマットの形式のうち、 いずれかのフォーマットを選択する優先度を示すものであり、例えば、人間に認識し やすいモードが指定された場合、フォーマット変換部 115は、複数に存在するフォー マットの形式のうち、最も人間が認識し易い形式のフォーマット形式でメタ情報フアイ ル 3を変換し、容量を最小にするモードが指定された場合、容量を最小にする高効 率の圧縮形式のフォーマットに変換し、情報処理装置での処理に適するモードが指 定された場合、情報処理装置での処理に最適な形式のフォーマットに変換する。
[0151] 記録部 116は、フォーマット変換部 115より供給されてきた、所定の形式でフォーマ ットされたメタ情報ファイル 3を記録媒体 121に記録する。この際、記録部 116は、記 録媒体 121の記録形式に対応したフォーマット変換を実行した後、記録媒体 121に メタ情報ファイル 3を記録する。
[0152] 次に、図 14のフローチャートを参照して、図 13のメタ情報ファイル生成装置 101に よるメタ情報生成処理につ!/、て説明する。
[0153] ステップ S191において、時刻情報取得部 112は、操作部 111が操作されてメタ情 報ファイル 3に登録するメタ情報に対応するビデオストリームの再生時刻の情報が入 力されたか否力、を判定し、入力されたと判定されるまで、同様の処理を繰り返す。
[0154] ステップ S191において、再生時刻の情報として、例えば、「00 : 01 : 00」、または、「 00 : 50 : 10」のように、ビデオストリームの再生時刻の情報が入力されたと判定された 場合、ステップ S192において、操作部 111により入力された再生時刻の情報を取得 し、格納部 114に供給する。
[0155] ステップ S193において、メタ情報取得部 113は、操作部 111が操作されてメタ情報 が入力されたか否かを判定し、入力されたと判定されるまで、同様の処理を繰り返す
[0156] ステップ S193において、メタ情報として、例えば、サッカーの試合のビデオストリー ムで競技者ごとの位置情報を表示する場合、図 4で示されているような、競技者毎の 試合の画面上の座標(Xal , Yal)などの位置情報、または、ドラマや映画などの付 加画像情報として、登場人物の相関図などを表示する場合、図 8で示されているよう な、座標 (Xal , Yal)、グループ化情報 Gr (親友同士)、相関情報 (from ID=2 :好意) , (from ID=3:好意)、および登場人物「aaa」の顔画像の情報「c:¥face¾aa.jpg」が入 力されたと判定されたとき、ステップ S194において、操作部 111により入力されたメタ 情報を取得し、格納部 114に供給する。尚、ドラマや映画などの付加画像情報として 登場人物の相関図などの表示を切替えるイベントが入力される場合、メタ情報として 、例えば、図 8で示されるように「告白」といったイベントの情報が入力されるようにして あよい。
[0157] ステップ S195において、格納部 114は、時刻情報取得部 112より供給されてくる再 生時刻の情報と、メタ情報取得部 113より供給されてくるメタ情報とを対応付けて、例 えば、図 4、または図 8で示されるように、メタ情報ファイル 4として格納する。
[0158] ステップ S196において、時刻情報取得部 112は、操作部 111の操作内容に応じ て、新たにメタ情報ファイル 3に登録する別の再生時刻のメタ情報が存在するか否か を判定し、新たに別の再生時刻のメタ情報が存在すると判定された場合、処理は、ス テツプ S 191に戻る。すなわち、新たに登録すべきメタ情報が存在しない状態になる まで、ステップ S 191乃至 S 196の処理が繰り返される。
[0159] そして、ステップ S 196において、新たに登録すべきメタ情報が存在しない場合、ス テツプ S 197において、フォーマット変換部 115は、操作部 111が操作されて、メタ情 報ファイルを変換するフォーマットの形式が選択された力、、または、フォーマットの形 式を選択するためのモードが入力されたか否かを判定し、メタ情報ファイルを変換す るフォーマットの形式が選択される力、、または、形式を選択するためのモードが入力さ れるまで、同様の処理を繰り返す。
[0160] ステップ S197において、例えば、フォーマットの形式が選択された、または、フォー マットの形式を選択するためのモードが決定された場合、ステップ S 198において、フ ォーマット変換部 115は、選択された形式のフォーマット、または、モードにより選択 すべき形式のフォーマットに、格納部 114に格納されているメタ情報ファイル 3をフォ 一マット変換し、記録部 116に供給する。 [0161] ステップ S 199において、記録部 116は、フォーマット変換部 115より供給されてき た、フォーマット変換されたメタ情報ファイル 3をストリームファイルとは別個の独立した ファイルとして所定の形式の記録媒体 121に記録する。
[0162] 以上の処理により、指定された形式のファイルフォーマットに変換されたメタ情報フ アイル 3が生成される。このようにメタ情報ファイル 3は、ストリームファイル 4とは独立し たファイルとして生成されるので、メタ情報のみを編集する際には、上述のように生成 されたメタ情報ファイル 3のみを編集するのみで、ストリームファイル 4とは独立して編 集すること力 S可能となる。また、メタ情報ファイル 3とストリームファイル 4とをそれぞれ 独立して設けること力 S可能となることにより、例えば、複数言語に対応するメタ情報フ アイル 3が必要な場合でも、ストリームファイル 4を重複して記録媒体に記録する必要 がないので、記録容量を必要最小限にすることが可能となる。さらに、メタ情報のみを 編集したいような場合、メタ情報ファイル 3のみを編集することが可能となるので、メタ 情報
の編集を容易にすることが可能となる。また、メタ情報ファイルをストリームファイルと 独立に設定したため、ファイル置き換え(Name mapping)によりメタデータファイルの みを置換し、最新の情報を表示させることも可能になる。これにより、例えば、記録媒 体に記録された映画の中の俳優がある賞を受賞した場合にその受賞履歴の表示等 をさせるために、新たなメタデータを再生装置によりネットワーク等を通じて取得させ、 当該俳優が出演してレ、る箇所にお!/、て表示させると!/、う処理も可能になる。
[0163] ところで、上述した一連の画像処理は、ノ、一ドウエアにより実行させることもできる力 S 、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させ る場合には、そのソフトウェアを構成するプログラム力 専用のハードウェアに組み込 まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の 機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒 体からインストールされる。
[0164] 図 15は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコ ンピュータは、 CPU(Central Processing Unit)1001を内蔵している。 CPU1001には バス 1004を介して、入出力インタフェース 1005が接続されている。バス 1004には、 れている。
入出力インタフェース 1005には、ユーザが操作コマンドを入力するキーボード、マ ウスなどの入力デバイスよりなる入力部 1006、処理操作画面や処理結果の画像を表 示デバイスに出力する出力部 1007、プログラムや各種データを格納するハードディ スクドライブなどよりなる記憶部 1008、
Figure imgf000034_0001
り、インターネットに代表されるネットワークを介した通信処理を実行する通信部 1009 が接続されている。また、
Figure imgf000034_0002
(CD
-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)を含む)、光 磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディ ァ 1011に対してデータを読み書きするドライブ 1010が接続されている。
[0166] CPU1001は、 ROM1002に記憶されているプログラム、または磁気ディスク、光ディ スク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア 1011から読み 出されて記憶部 1008にインストールされ、記憶部 1008力、ら RAM1003にロードされ たプログラムに従って各種の処理を実行する。 RAM1003にはまた、 CPU1001が各 種の処理を実行する上において必要なデータなども適宜記憶される。
[0167] 尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、 記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的 に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。

Claims

請求の範囲
[1] 入力されたビデオストリームを再生するストリーム再生手段と、
前記ストリーム再生手段により再生されるビデオストリームとは別ファイルである前記 ビデオストリームのメタ情報を読み込むメタ情報読込手段と、
前記ストリーム再生手段により再生されるビデオストリームの再生情報に基づいて、 前記ストリーム再生手段により再生されているビデオストリームに同期して、前記メタ 情報読込手段を制御して、前記メタ情報を読み込ませるストリーム同期読込手段と、 前記ストリーム同期読込手段により制御されて、前記メタ情報読込手段により読み 込まれたメタ情報に基づ!/、て、前記ビデオストリームに付加画像情報を提供する付加 画像情報提供手段と、
前記付加画像情報提供手段により提供された付加画像情報を、前記再生手段によ り再生されたビデオストリームに合成する合成手段と
を含む再生装置。
[2] 前記合成手段により前記付加画像情報が合成されたビデオストリームを出力する出 力手段をさらに含み、
前記メタ情報は、前記出力手段により出力される、前記付加画像情報が合成された ビデオストリームが表示される際の、表示画面上の位置情報である
請求項 1に記載の再生装置。
[3] 前記メタ情報は、
第 1の時刻情報を含む第 1のメタ情報と、第 2の時刻情報を含む第 2のメタ情報を有 し、
前記ストリーム同期読込手段は、
前記ビデオストリームの再生時刻と、前記第 1の時刻情報、または、前記第 2の時刻 情報を比較することにより、前記第 1のメタ情報、または、前記第 2のメタ情報を選択 する
請求項 1に記載の再生装置。
[4] 前記メタ情報読込手段は、フォーマットに応じ、 1以上である
請求項 1に記載の再生装置。
[5] ネットワークを通じ、前記メタ情報を取得する取得手段をさらに備え、 前記ストリーム同期読込手段は、前記取得部により取得されたメタ情報を読込む 請求項 1に記載の再生装置。
[6] 前記メタ情報は、前記ビデオストリームがドラマまたは映画の場合、登場人物毎の 再生情報に対応した相関情報であり、
前記付加画像情報提供手段は、前記再生手段により再生されるビデオストリームの 再生情報に同期して、前記登場人物毎の再生情報に対応した相関情報に基づいた 、前記登場人物の相関図を付加画像情報として提供する
請求項 1に記載の再生装置。
[7] 前記メタ情報は、前記ビデオストリームがドラマまたは映画の場合、登場人物毎の 再生情報に対応した相関情報と供に、前記登場人物の紹介情報であり、
前記付加画像情報提供手段は、前記再生手段により再生されるストリームの再生 情報に同期して、前記登場人物毎の紹介情報に基づいた、前記登場人物の紹介情 報を付加画像情報として提供する
請求項 1に記載の再生装置。
[8] 入力されたビデオストリームを再生するストリーム再生ステップと、
前記ストリーム再生ステップの処理により再生されるビデオストリームとは別ファイル である前記ビデオストリームのメタ情報を読み込むメタ情報読込ステップと、
前記ストリーム再生ステップの処理により再生されるビデオストリームの再生情報に 基づいて、前記ストリーム再生ステップの処理により再生されているビデオストリーム に同期して、前記メタ情報読込手段を制御して、前記メタ情報を読み込ませるストリー ム同期読込ステップと、
前記ストリーム同期読込ステップの処理により制御されて、前記メタ情報読込ステツ プの処理により読み込まれたメタ情報に基づいて、前記ビデオストリームに付加画像 情報を提供する付加画像情報提供ステップと、
前記付加画像情報提供ステップの処理により提供された付加画像情報を、前記再 生ステップの処理により再生されたビデオストリームに合成する合成ステップと を含む再生方法。
[9] 入力されたビデオストリームを再生するストリーム再生ステップと、
前記ストリーム再生ステップの処理により再生されるビデオストリームとは別ファイル である前記ビデオストリームのメタ情報を読み込むメタ情報読込ステップと、
前記ストリーム再生ステップの処理により再生されるビデオストリームの再生情報に 基づいて、前記ストリーム再生ステップの処理により再生されているビデオストリーム に同期して、前記メタ情報読込手段を制御して、前記メタ情報を読み込ませるストリー ム同期読込ステップと、
前記ストリーム同期読込ステップの処理により制御されて、前記メタ情報読込ステツ プの処理により読み込まれたメタ情報に基づいて、前記ビデオストリームに付加画像 情報を提供する付加画像情報提供ステップと、
前記付加画像情報提供ステップの処理により提供された付加画像情報を、前記再 生ステップの処理により再生されたビデオストリームに合成する合成ステップと を含む処理をコンピュータに実行させるプログラム。
[10] 請求項 9に記載のプログラムが格納されて!/、るプログラム格納媒体。
[11] 再生装置により再生されるべき時刻情報を有するビデオストリームが格納されたデ ータ格納媒体であって、
前記ビデオストリームとは別ファイルとして、
前記時刻情報の時刻軸に含まれる、第 1の時刻位置に対応する時刻情報を含む、 第 1の時刻位置に表示されるビデオストリームに対応する第 1のメタ情報と、
前記時刻情報の時刻軸に含まれる、第 2の時刻位置に対応する時刻情報を含む、 第 2の時刻位置に表示されるビデオストリームに対応する第 2のメタ情報と
が格納されてレ、るデータ格納媒体。
[12] 記録媒体に記録される、又は、ネットワークを通じて配信される、再生装置により再 生されるべき時刻情報を有するビデオストリームと共に再生されるメタ情報ファイルの データ構造であって、
前記時刻情報の時刻軸に含まれる、第 1の時刻位置に対応する時刻情報を含む、 第 1の時刻位置に表示されるビデオストリームに対応する第 1のメタ情報と、
前記時刻情報の時刻軸に含まれる、第 2の時刻位置に対応する時刻情報を含む、 第 2の時刻位置に表示されるビデオストリームに対応する第 2のメタ情報と
を含むデータ構造。
[13] 前記第 1のメタ情報と第 2のメタデータとは、それぞれ独立した別ファイルとされてい る
請求項 12に記載のデータ構造。
[14] 再生装置により再生されるべき時刻情報を有するビデオストリームの、前記時刻情 報の時刻軸に含まれる、時刻位置に対応する時刻情報を取得する時刻情報取得手 段と、
表示されるビデオストリームに対応するメタ情報を取得するメタ情報取得手段と、 少なくとも 1以上の前記時刻情報と前記メタ情報とを対応付けてメタ情報ファイルと して格納する格納手段と
を含む情報生成装置。
[15] 前記メタ情報ファイルのフォーマット形式を変換する変換手段をさらに含む
請求項 14の情報生成装置。
[16] 再生装置により再生されるべき時刻情報を有するビデオストリームの、前記時刻情 報の時刻軸に含まれる、時刻位置に対応する時刻情報を取得する時刻情報取得ス 表示されるビデオストリームに対応するメタ情報を取得するメタ情報取得ステップと、 少なくとも 1以上の前記時刻情報と前記メタ情報とを対応付けてメタ情報ファイルと して格納する格納ステップと
を含む情報生成方法。
[17] 再生装置により再生されるべき時刻情報を有するビデオストリームの、前記時刻情 報の時刻軸に含まれる、時刻位置に対応する時刻情報を取得する時刻情報取得ス 表示されるビデオストリームに対応するメタ情報を取得するメタ情報取得ステップと、 少なくとも 1以上の前記時刻情報と前記メタ情報とを対応付けてメタ情報ファイルと して格納する格納ステップと
を含む処理をコンピュータに実行させるプログラム。 [18] 請求項 17に記載のプログラムが格納されているプログラム格納媒体。
PCT/JP2007/068950 2006-09-29 2007-09-28 Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme WO2008041629A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/377,335 US20100215334A1 (en) 2006-09-29 2007-09-28 Reproducing device and method, information generation device and method, data storage medium, data structure, program storage medium, and program
JP2008537507A JPWO2008041629A1 (ja) 2006-09-29 2007-09-28 再生装置および方法、情報生成装置および方法、データ格納媒体、データ構造、プログラム格納媒体、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006268161 2006-09-29
JP2006-268161 2006-09-29

Publications (1)

Publication Number Publication Date
WO2008041629A1 true WO2008041629A1 (fr) 2008-04-10

Family

ID=39268488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/068950 WO2008041629A1 (fr) 2006-09-29 2007-09-28 Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme

Country Status (4)

Country Link
US (1) US20100215334A1 (ja)
JP (1) JPWO2008041629A1 (ja)
TW (1) TW200832370A (ja)
WO (1) WO2008041629A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249156A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US8682031B2 (en) 2008-04-23 2014-03-25 Nec Corporation Image processing device, camera, image processing method, and program
JP2019161318A (ja) * 2018-03-08 2019-09-19 株式会社Hysエンジニアリングサービス 移動体情報伝送システム
JP2020107196A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 画像処理装置または画像処理サーバー

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120159327A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Real-time interaction with entertainment content
JP5898501B2 (ja) 2012-01-13 2016-04-06 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び記録媒体
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US10034038B2 (en) * 2014-09-10 2018-07-24 Cisco Technology, Inc. Video channel selection
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
US9877031B2 (en) * 2015-04-29 2018-01-23 Pitney Bowes Inc. System and method for multi-resolution raster data processing
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285253A (ja) * 1999-01-28 2000-10-13 Toshiba Corp 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2001251565A (ja) * 2000-03-03 2001-09-14 Sony Corp 受信装置及び受信装置の情報再生方法、並びに、電子機器及び電子機器の情報再生方法
JP2004134909A (ja) * 2002-10-09 2004-04-30 Nippon Hoso Kyokai <Nhk> コンテンツ解説データ生成装置、その方法及びそのプログラム、並びに、コンテンツ解説データ提示装置、その方法及びそのプログラム
JP2005151147A (ja) * 2003-11-14 2005-06-09 Toshiba Corp 再生装置及び再生方法
JP2005210573A (ja) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp 映像表示システム
JP2005223744A (ja) * 2004-02-06 2005-08-18 Epson Avasys Corp 動画マニュアル
JP2006197485A (ja) * 2005-01-17 2006-07-27 Fujitsu Ltd 動画データ管理方法および動画データ管理装置並びに動画表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100350792B1 (ko) * 1999-09-22 2002-09-09 엘지전자 주식회사 사용자 선호도를 반영한 사용자 프로파일 생성방법과 멀티미디어 데이타 브라우징 방법
CA2664732C (en) * 2002-04-12 2013-07-02 Mitsubishi Denki Kabushiki Kaisha An apparatus to edit, reproduce, deliver, search and re-generate condition settings for metadata
JP2004135256A (ja) * 2002-08-09 2004-04-30 Ricoh Co Ltd 情報ファイルのデータ構造、情報ファイル生成方法、情報ファイル生成装置、情報ファイル生成プログラム、これを記憶する記憶媒体、情報ファイル再生方法、情報ファイル再生装置、情報ファイル再生プログラム、及びこれを記憶する記憶媒体
JP4193629B2 (ja) * 2003-07-25 2008-12-10 ソニー株式会社 画面表示装置,プログラム,および画面表示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285253A (ja) * 1999-01-28 2000-10-13 Toshiba Corp 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2001251565A (ja) * 2000-03-03 2001-09-14 Sony Corp 受信装置及び受信装置の情報再生方法、並びに、電子機器及び電子機器の情報再生方法
JP2004134909A (ja) * 2002-10-09 2004-04-30 Nippon Hoso Kyokai <Nhk> コンテンツ解説データ生成装置、その方法及びそのプログラム、並びに、コンテンツ解説データ提示装置、その方法及びそのプログラム
JP2005151147A (ja) * 2003-11-14 2005-06-09 Toshiba Corp 再生装置及び再生方法
JP2005210573A (ja) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp 映像表示システム
JP2005223744A (ja) * 2004-02-06 2005-08-18 Epson Avasys Corp 動画マニュアル
JP2006197485A (ja) * 2005-01-17 2006-07-27 Fujitsu Ltd 動画データ管理方法および動画データ管理装置並びに動画表示装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682031B2 (en) 2008-04-23 2014-03-25 Nec Corporation Image processing device, camera, image processing method, and program
JP5674465B2 (ja) * 2008-04-23 2015-02-25 レノボ・イノベーションズ・リミテッド(香港) 画像処理装置、カメラ、画像処理方法およびプログラム
JP2012249156A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2019161318A (ja) * 2018-03-08 2019-09-19 株式会社Hysエンジニアリングサービス 移動体情報伝送システム
JP2020107196A (ja) * 2018-12-28 2020-07-09 キヤノン株式会社 画像処理装置または画像処理サーバー
JP7282519B2 (ja) 2018-12-28 2023-05-29 キヤノン株式会社 画像処理装置または画像処理サーバー

Also Published As

Publication number Publication date
US20100215334A1 (en) 2010-08-26
JPWO2008041629A1 (ja) 2010-02-04
TW200832370A (en) 2008-08-01
TWI368906B (ja) 2012-07-21

Similar Documents

Publication Publication Date Title
WO2008041629A1 (fr) Dispositif et procédé de reproduction, dispositif et procédé de génération d&#39;informations, support de stockage de données, structure de données, support de stockage de programme, et programme
US6283764B2 (en) Storage medium playback system and method
TWI286294B (en) Meta data for moving picture
JP3195284B2 (ja) 動画再生制御方法およびその方法が適用される画像表示装置
US9147433B2 (en) Identifying a locale depicted within a video
US7739584B2 (en) Electronic messaging synchronized to media presentation
US9332241B2 (en) Video map responsive to a video release
JP4360390B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
WO1997007504A1 (fr) Disque optique multimedia capable de creer des situations tout a fait inattendues sur la base de l&#39;interactivite, appareil et procede de reproduction de ce disque
JP2005151147A (ja) 再生装置及び再生方法
JP2007501486A (ja) テキスト字幕をダウンロードするための情報を保存する情報記録媒体、字幕再生方法及びその装置
JP2008522280A (ja) 仮想ファイルシステムを生成してマルチメディアデータを再生する装置及び再生方法
JP4755672B2 (ja) コンテンツ編集装置、方法及びプログラム
TWI286295B (en) Meta data for moving picture
JP4318182B2 (ja) 端末装置および同端末装置に適用されるコンピュータプログラム
KR100389863B1 (ko) 서브 타이틀을 타이틀에 관련지어 재생가능한 데이터구조를 갖는 기록매체, 그 재생장치 및 재생방법
WO2006064677A1 (ja) 再生装置、および、再生方法、記録装置、記録媒体、プログラム格納媒体、並びに、プログラム
JP2010010736A (ja) 映像コンテンツ再生装置
JP2015119286A (ja) コンテンツサーバ、コンテンツ再生装置、コンテンツ再生制御方法、コンテンツ再生制御プログラム
WO2013088760A1 (ja) コンテンツ再生装置、その制御方法および制御プログラム、並びにコンテンツ表示制御装置
US20040179813A1 (en) Disk reproduction apparatus allowing setting of book mark for reproducing disk, and disk reproduction method
JP3534951B2 (ja) ディスク再生方法
JP2007206274A (ja) カラオケシステム
JP2009159313A (ja) データ送信装置、データ受信装置、データ送信装置の制御方法、データ送信装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4855372B2 (ja) 再生装置、データ再生方法、制御プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07828691

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12377335

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2008537507

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07828691

Country of ref document: EP

Kind code of ref document: A1