WO2003088665A1 - Dispositif d'edition de metadonnees, dispositif de reproduction de metadonnees, dispositif de distribution de metadonnees, dispositif de recherche de metadonnees, dispositif d'etablissement de conditions de reproduction de metadonnees, et procede de distribution de metadonnees - Google Patents

Dispositif d'edition de metadonnees, dispositif de reproduction de metadonnees, dispositif de distribution de metadonnees, dispositif de recherche de metadonnees, dispositif d'etablissement de conditions de reproduction de metadonnees, et procede de distribution de metadonnees Download PDF

Info

Publication number
WO2003088665A1
WO2003088665A1 PCT/JP2003/003450 JP0303450W WO03088665A1 WO 2003088665 A1 WO2003088665 A1 WO 2003088665A1 JP 0303450 W JP0303450 W JP 0303450W WO 03088665 A1 WO03088665 A1 WO 03088665A1
Authority
WO
WIPO (PCT)
Prior art keywords
metadata
scene
information
unit
content
Prior art date
Application number
PCT/JP2003/003450
Other languages
English (en)
French (fr)
Inventor
Yoshimi Moriya
Hirofumi Nishikawa
Shunichi Sekiguchi
Kohtaro Asai
Yoshihisa Yamada
Kenji Otoi
Shinichi Kuroda
Fuminobu Ogawa
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to EP03712804A priority Critical patent/EP1496701A4/en
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to JP2003585438A priority patent/JPWO2003088665A1/ja
Priority to US10/510,548 priority patent/US7826709B2/en
Priority to AU2003221185A priority patent/AU2003221185A1/en
Priority to KR1020047016204A priority patent/KR100912984B1/ko
Priority to CA2482431A priority patent/CA2482431C/en
Publication of WO2003088665A1 publication Critical patent/WO2003088665A1/ja
Priority to US11/980,544 priority patent/US20080065697A1/en
Priority to US11/980,523 priority patent/US20080071836A1/en
Priority to US11/980,514 priority patent/US20080075431A1/en
Priority to US11/980,624 priority patent/US20080071837A1/en
Priority to US11/980,648 priority patent/US8811800B2/en
Priority to US12/555,510 priority patent/US20100005070A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1435Saving, restoring, recovering or retrying at system level using file system or storage system metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/80Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234336Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • Metadata editing device Metadata editing device, metadata playback device, metadata distribution device, metadata search device, metadata regeneration condition setting device, and metadata distribution method
  • the present invention provides a metadata editing device, a metadata playback device, a metadata distribution device, and a metadata search device that divide multimedia content including moving images and audio into a plurality of scenes and generate metadata for each of the divided scenes.
  • the present invention relates to a device, a metadata regenerating condition setting device, a content distribution device, and a metadata distribution method.
  • a video is divided into a plurality of scenes, and then segment information necessary for reproduction of each scene, a scene number, and an index, which is a collection of images representing the scenes, are edited.
  • a means for creating an index of each index a means for giving a title indicating the purpose of the search to each index, and at the time of the search, the index is searched by the title, and the scenes of the index are successively arranged according to the order of the scene number.
  • the present invention has been made to solve the above-described problems, and it is intended to generate metadata which is index information such as a structure of a content such as video data in addition to scene section information and a title.
  • An object of the present invention is to obtain a metadata editing device capable of performing such operations.
  • the user can collect and play back only the scenes that the user wants to see, or search for the scenes that the user wants to see using the features described in the metadata. It is an object of the present invention to obtain a metadata reproduction device, a metadata distribution device, a metadata search device, a metadata regeneration condition setting device, a content distribution device, and a metadata distribution method capable of performing the above. Disclosure of the invention
  • a metadata editing apparatus divides a multimedia content including at least one of a moving image and a sound into a plurality of scenes, and scene segment information indicating a start position and an end position of a scene for each of the divided scenes.
  • a hierarchical division of each scene of the multimedia content is performed based on a scene division unit for generating metadata and a scene section information metadata from the scene division unit, and the hierarchical division of the multimedia content is performed.
  • a scene description editing unit that generates scene structure information metadata describing a detailed structure, the section information metadata of the scene, and the scene structure information metadata are integrated, and the contents of the multimedia content are formatted according to a predetermined format.
  • a metadata description section that generates metadata describing the structure. That.
  • a metadata distribution device includes: a hint information analysis unit that analyzes metadata optimization hint information describing the type and content of a descriptor included in metadata; and the analyzed metadata optimization hint.
  • Information and metadata regeneration A metadata analysis / regeneration unit that analyzes metadata describing the content and structure of multimedia content including at least one of a moving image and a sound based on the conditions and regenerates the second metadata.
  • a metadata distribution unit that distributes the second metadata regenerated by the metadata analysis / regeneration unit to the client terminal.
  • the metadata distribution method includes a step of analyzing metadata optimization hint information describing a type of a descriptor included in the metadata; the analyzed metadata optimization hint information; Analyzing the metadata describing the content and structure of the multimedia content including at least one of a moving image and a sound based on a condition relating to the regeneration, and regenerating the second metadata; and And distributing the generated second metadata to the client terminal.
  • FIG. 1 is a block diagram showing a configuration of a metadata editing device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing a news video which is an example of an editing target of the metadata editing device according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram showing an example of scene section information metadata of a scene of a scene division unit of the metadata editing apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing an example of scene structure information metadata of a scene description editing unit of the metadata editing device according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram showing an example of a screen image of a content reproduction / display unit and a user input unit of the metadata editing apparatus according to the first embodiment of the present invention.
  • FIG. 6 is a block diagram illustrating a configuration of a metadata editing device according to Embodiment 2 of the present invention.
  • FIG. 7 is a diagram illustrating an operation of the metadata editing device according to Embodiment 2 of the present invention.
  • FIG. 8 is a block diagram illustrating a configuration of a metadata reproduction device according to Embodiment 3 of the present invention.
  • FIG. 9 is a diagram illustrating an operation of the metadata reproduction device according to Embodiment 3 of the present invention.
  • FIG. 10 is a block diagram showing a configuration of a content distribution system according to Embodiment 4 of the present invention.
  • FIG. 11 is a diagram showing structure information of a content (an example of a news video) output from the metadata analysis unit of the metadata distribution server according to the fourth embodiment of the present invention.
  • FIG. 12 is a diagram showing an example of the structure of the content after reconfiguration by the metadata reproduction generator of the content distribution system according to the fourth embodiment of the present invention.
  • FIG. 13 is a block diagram showing a configuration of a metadata distribution server according to Embodiment 5 of the present invention.
  • FIG. 14 is a diagram illustrating an example of video content for explaining metadata optimization hint information by the metadata distribution server according to the fifth embodiment of the present invention.
  • FIG. 15 is a diagram illustrating a meta-data according to the fifth embodiment of the present invention.
  • FIG. 6 is a diagram showing an example of description of metadata when MPEG-7 is used by a data distribution server,
  • FIG. 16 is a diagram showing a format example of metadata optimization hint information used by a metadata distribution server according to Embodiment 5 of the present invention.
  • FIG. 17 is a diagram showing metadata optimization hint information used by the metadata distribution server according to Embodiment 5 of the present invention.
  • FIG. 18 is a flowchart showing the operation of the metadata analysis-regeneration unit of the metadata distribution server according to the fifth embodiment of the present invention.
  • FIG. 19 is a flowchart showing the operation of the metadata analysis / regeneration unit of the metadata distribution server according to the fifth embodiment of the present invention.
  • FIG. 20 is a block diagram showing a configuration of a metadata search server according to Embodiment 6 of the present invention.
  • FIG. 21 is a flowchart showing the operation of the metadata analysis unit of the metadata search server according to Embodiment 6 of the present invention.
  • FIG. 22 is a block diagram showing a configuration of a client terminal according to Embodiment 7 of the present invention.
  • FIG. 23 is a block diagram showing a configuration of a content distribution server according to Embodiment 8 of the present invention.
  • a metadata distribution server according to the fifth embodiment
  • a metadata search server according to the sixth embodiment
  • a client terminal according to Example 7 A client terminal according to Example 7, and
  • Embodiment 1 multimedia content including moving images and audio is divided into a plurality of scenes, and a hierarchical structure description of scenes and metadata (index information) including feature amounts of each scene are obtained.
  • the metadata editing device to be created will be described.
  • FIG. 1 is a block diagram illustrating a configuration of a metadata editing device according to Embodiment 1 of the present invention. In each drawing, the same reference numerals indicate the same or corresponding parts. In FIG.
  • the metadata editing device 100 includes a content playback / display unit 2, a scene division unit 3, a thumbnail image generation unit 4, a scene description editing unit 5, a text information addition unit 6, and a feature.
  • An extraction unit 7, a user input unit 8, and a metadata description unit 9 are provided.
  • the content playback and display unit 2 is a editing target composed of video data, audio data, etc. Play / display multimedia content 10
  • the scene division unit 3 divides the content into a plurality of scenes.
  • the thumbnail image generation unit 4 extracts a representative frame of the scene as a thumbnail image.
  • the scene description editing unit 5 hierarchically edits the scenes by grouping the scenes divided by the scene dividing unit 3, combining the scenes, deleting the scenes, and generating the related information of the scenes.
  • the text information adding unit 6 adds various types of text information to each scene.
  • the feature extraction unit 7 extracts features of a scene.
  • the user input unit 8 inputs instruction information from the user to the content reproduction / display unit 2, the scene division unit 3, the thumbnail image generation unit 4, the scene description editing unit 5, and the text information addition unit 6.
  • the metadata description unit 9 includes a scene segmentation unit 3, a thumbnail image generation unit 4, a scene description editing unit 5, a text information addition unit 6, and scene segment information metadata 12 output from the feature extraction unit 7.
  • the thumbnail image information metadata 13, scene structure information metadata 14, text information metadata 15, and feature description metadata 16 were integrated, and the contents and structure of the multimedia content were described according to the prescribed format.
  • FIG. 2 is a diagram illustrating a configuration of a news video as an example of an editing target of the metadata editing apparatus according to the first embodiment. An example in which a news video having the configuration shown in FIG. 2 is edited will be described.
  • the content playback 'display unit 2 of the metadata editing device 100 displays the multimedia content 10 such as video content stored in a content storage unit (not shown) via a network or the like. Play and display for editing.
  • FIG. 3 is a diagram showing an example of scene section information metadata of a scene division unit of the metadata editing device according to the first embodiment.
  • the section information metadata 12 shown in FIG. 3 shows an example generated from the news video shown in FIG.
  • the scene division unit 3 determines the start position of each scene such as "News Digest", "Domestic News", and "International News” cut out from the news video content.
  • the section information metadata 12 of the scene indicating the section information of the end position is generated.
  • the scene dividing unit 3 continuously outputs the scene segment information 3 based on the scene section information metadata 12 from the scene dividing unit 3.
  • the extracted scene is hierarchically edited, and the scene structure information metadata 14 is output.
  • Hierarchical editing of scenes includes, for example, grouping scenes, subdividing scenes, joining scenes, and deleting scenes.
  • a group of scenes is, for example, a news scene shown in Fig. 2 and a scene related to a specific feature such as "domestic news", "international news", or "economic news” as shown in Fig. 4, for example.
  • News J group means to divide a scene into multiple scenes.
  • FIG. 4 is a diagram showing an example of the scene structure information metadata of the scene description editing unit of the metadata editing device according to Embodiment 1.
  • the scene structure information meta shown in Fig. 4 is shown.
  • Data 14 is edited by the scene description editor 5 Describes the hierarchical structure of the video content generated as a result of the collection.
  • the scene description editor 5 changes scenes such as “news digest” and “news” by editing scenes such as grouping scenes, subdividing scenes, and merging scenes. , "Features", “Sports”, etc., and its "News" power S "National News", “International News”, and "Economic News” are hierarchically edited.
  • the thumbnail image generation unit 4 generates and generates a representative frame as a thumbnail image from the scenes cut out by the scene division unit 3 based on the scene section information metadata 12 from the scene division unit 3.
  • the thumbnail information is output to the metadata description unit 9 as thumbnail image information metadata 13 and registered in the metadata description unit 9.
  • the user can select a thumbnail from the user input unit 8, but automatically sets the first frame or a plurality of frames at fixed time intervals as a representative frame, automatically detects a scene change point, and automatically detects a scene change point.
  • a frame can also be used as a representative frame.
  • the thumbnail image information metadata 13 is position information (frame number or time) of the thumbnail in the video content or location information such as a URL of the thumbnail image.
  • the feature extraction unit 7 uses the scene segment information metadata 12 from the scene division unit 3 to select a scene, such as a motion, a color, or the shape of an object included in the scene, from each scene. Extract the visual features of.
  • the extracted feature amount is output to the metadata description unit 9 as feature description metadata 16 and registered.
  • the text information providing unit 6 allows the user to set the title and abstract for each scene based on the scene section information metadata 12 from the scene dividing unit 3. Add various text information such as keywords, comments, scene importance, etc.
  • FIG. 5 shows an example of a screen image of the content reproduction / display unit and the user input unit 8 of the metadata editing apparatus according to the first embodiment.
  • the video playback screen G1 corresponds to an example of a screen image on the content playback 'display unit 2, and the video playback screen G1 plays back and displays the content for editing.
  • buttons as “play”, “stop”, “rewind”, “fast forward”, and “frame forward” are provided in a normal video playback device.
  • a scene division instruction screen G2 is displayed below the video reproduction screen G1.
  • the scene division instruction screen G2 is, for example, in a slider format. While watching the video displayed on the video playback screen G1, the user starts and ends the video scene displayed on the video playback screen G1. The position and can be indicated. In addition, the scene division instruction screen G2 can simultaneously indicate the position of the thumbnail between the start position and the end position of the scene.
  • the thumbnail image generation unit 4 generates a thumbnail image from the frame at the specified position of the video content.
  • the thumbnail image whose position is specified by the scene division instruction screen G2 is displayed on the scene division information display screen G3 as scene division information.
  • the scene division information display screen G3 in addition to the thumbnail images, information indicating the start position and the end position of each scene can be displayed as shown in FIG.
  • the tree structure generation instruction display screen G4 the user is instructed to edit the scene.
  • the user can select the thumbnail displayed on the scene division information display screen G3. While viewing the scene division information such as images, it generates an image that represents the hierarchical structure of the video content.
  • As an operation method for example, when grouping scenes, add a new node on the tree and add scenes to be grouped to the node.
  • a method of adding a scene a method of selecting a scene to be added on the scene division information display screen G3 and adding a scene to a node by dragging and dropping can be considered.
  • a scene division information display screen G3 and a clear structure generation instructionA display interface G4 is a user interface for providing text information to the scene through the text information provision unit 6 by selecting the scene.
  • the user input unit 8 is provided as a text input device for inputting text information for a scene.
  • the metadata description unit 9 integrates various metadata output from the scene division unit 3, the thumbnail image generation unit 4, the scene description editing unit 5, the text information addition unit 6, and the feature extraction unit 7, and defines a prescribed description format. Generate a metadata file described according to.
  • the metadata description format can be described in an original format, but in the first embodiment, MPEG-7 standardized by ISO will be used. This MPEG-7 defines formats that describe the structure and characteristics of content, and includes XML format and binary format.
  • the scene description editing unit 5 that hierarchically edits a scene and the feature extracting unit 7 that extracts a feature from a scene are provided. It is possible to generate metadata that describes the hierarchical structure of content such as video data and the features of each scene.
  • the multimedia content 10 input to the content reproduction / display unit 2 may be obtained from a content server (not shown) on the network or a content storage unit in the metadata editing device 100. (Not shown) In such cases, various cases are assumed, such as when the data is obtained from a storage medium (not shown) such as a CD or DVD.
  • the metadata output from the metadata description unit 9 is stored in a metadata server (not shown) on the network, or stored in a metadata storage unit (not shown) in the metadata editing apparatus. It is assumed that the content is stored together with the content on a storage medium (not shown) such as CDDVD.
  • a storage medium not shown
  • both the scene description editing unit 5 and the feature extraction unit 7 are described. However, the present invention is not limited to this. Only the scene description editing unit 5 is provided, or only the feature extraction unit • 7 Of course, it is good to provide.
  • Second Embodiment In the first embodiment, all the scenes are divided manually. However, in the second embodiment, the data is provided with a scene change detecting unit for automatically detecting a scene change point. The editing device will be described.
  • FIG. 6 is a block diagram showing a configuration of a metadata editing device according to Embodiment 2 of the present invention.
  • the metadata editing device 10 OA includes a content playback / display unit 2, a scene division unit 3, a thumbnail image generation unit 4, a scene description editing unit 5, and a text information provision unit. 6, a feature extraction unit 7, a user input unit 8, a metadata description unit 9, and a scene change detection unit 39.
  • Reference numeral 40 is scene start position information automatically detected.
  • FIG. 7 is a diagram for explaining the operation of the metadata editing device according to the second embodiment of the present invention.
  • the scene change detecting section 39 automatically detects a scene change and a cut point.
  • the scene change detection is performed based on, for example, a pixel difference between frames, a color difference between frames, and a histogram difference of brightness.
  • the scene division unit 3 determines the start position and the end position of the scene based on the scene change point detected by the scene change detection unit 39.
  • the processing of the scene change detection unit 39 and the scene division unit 3 will be described in detail by taking a case where the content to be edited is a news video as an example.
  • the scene change detection unit 39 calculates a color histogram for each frame.
  • the color system includes HSV, RGB, YCbCr, etc.
  • HSV color space is used. This HSV color space is composed of three elements: hue (H), saturation (S), and lightness (V).
  • H hue
  • S saturation
  • V lightness
  • the average (mean) and standard deviation (sd) of the histogram differences between the first N frames are calculated based on (Equation 2) below as the initial features of the scene.
  • bin H hue
  • S saturation
  • V lightness
  • V ⁇ h Lightness histogram
  • bin-1 Number of histogram elements
  • Ni r mean average of histogram difference between frames (Equation 2)
  • the feature amount of the template image is, for example, a histogram of the color of the template image, or a movement pattern (the part where the announcer appears in the change of the news due to the change of the news, etc.). If a single image is registered in advance, for example, as shown in FIG. The image corresponding to the scene change point is matched with the template image, and if the similarity is high, the scene change point is registered as the scene start position. The similarity matching includes a difference between frames and a histogram difference of colors between frames. If the feature amount of the template image has been registered in advance, the feature amount is extracted from the image corresponding to the scene change point, and matching with the feature amount of the template image is performed. The scene change point is registered as the start position of the scene.
  • the scene division unit 3 determines the start position and the end position of the scene based on the scene start position information automatically detected by the scene change detection unit 39.
  • the scene division unit 3 of the second embodiment can determine the start position and the end position of the scene based on an instruction from the user, as in the first embodiment.
  • the scene division unit 3 outputs the scene interval information metadata 12 describing the start position and the end position of the scene to the scene change detection unit 39, and the scene change detection unit 39 includes the scene change information in the scene change detection unit 39.
  • Scene change points can be detected.
  • the scene description editing unit 5 can re-divide and integrate the scene automatically detected by the scene change detection unit 39 based on the scene section information metadata 12 from the scene division unit 3.
  • the details of the scene description editing unit 5 are the same as in the first embodiment. Therefore, according to the metadata editing apparatus 100 A according to the second embodiment,
  • FIG. 8 is a pictorial diagram showing a configuration of a metadata reproducing apparatus according to Embodiment 3 of the present invention.
  • the metadata reproducing device 200 includes a metadata analysis unit 19, a structure display unit 20, a thumbnail image display unit 21, a user input unit 22, a search unit 23, and a search unit.
  • the metadata analysis unit 19 analyzes the metadata 28 that describes the hierarchical scene structure of the content, information on thumbnails of each scene, and the feature amount of each scene.
  • the structure display section 20 displays the scene structure obtained from the metadata analysis result.
  • the thumbnail image display unit 21 displays thumbnail image information 30 obtained from the metadata analysis result.
  • the user input unit 22 gives instructions such as search and reproduction.
  • the search unit 23 performs a search based on a search instruction (search condition 31) from the user and the feature amount / text information 32 of the scene obtained from the metadata.
  • the search result display section 24 displays the search results 33.
  • the summary creation unit 25 creates a summary based on a summary creation instruction (summary creation condition 34) from the user.
  • the summary structure display section 26 displays the structure of the summarized content.
  • the content playback section 27 is used for summarizing information 35 and content playback instructions. 36. Play and display the content based on the content to be played.
  • the metadata analysis unit 19 receives metadata 28 that describes the hierarchical scene structure of the content, information about thumbnails of each scene, and the features of each scene, and performs metadata analysis. Do.
  • the metadata 28 is described in the MPEG-7 standard format generated by the metadata description unit 9 in the first and second embodiments, the metadata is described in XML. Text files or binary files encoded in binary format.
  • the metadata analysis unit 19 has the function of an XML parser that analyzes the XML file. Also, if the metadata 28 is encoded in a binary format, it has a decoder function of decoding the metadata 28.
  • the structure display unit 20 receives the analysis result of the metadata analysis unit 19 and displays a hierarchical scene structure 29 of the image. For example, as shown in FIG. 4, the scene structure of the content is displayed in a tree along with the title of each scene.
  • the thumbnail image display section 21 receives the analysis result (thumbnail image information 30) of the metadata analysis section 19 and displays a list of thumbnail images of the content.
  • the search unit 23 searches for a scene included in the content according to a search instruction from the user via the user input unit 22.
  • the user input unit 22 inputs a search condition by presenting a keyword or a sample image.
  • search section 23 Based on textual information such as scene features and scene titles described in the metadata, the search conditions (keywords and sample image features) presented by the user are searched for. .
  • the search result display unit 24 receives the search result 33 from the search unit 23 and displays the search result.
  • a display method of the search result for example, a thumbnail image of a scene matching the search condition is displayed.
  • the summary creation unit 25 creates a summary of the content based on a summary creation instruction from the user via the user input unit 22.
  • the user input unit 22 inputs information such as the reproduction time of the summarized content and user preference. For example, if the content is a news video, enter the user's preference information, such as wanting to watch mainly the sports in the news, or to summarize an hour's news in 20 minutes.
  • the summary creation unit 25 creates summary information 35 that matches summary conditions based on text information 32 such as the playback time of the scene described in the metadata and the title of the scene.
  • the summary information 35 is, for example, a playlist of scenes included in the summarized content, and includes location information such as a URL of the content, and a start position and an end position of the scene to be reproduced in the content. It is a list that is listed.
  • the target content is specified based on the location information of the content included in the summary information 35, and the scene to be played is obtained and played back based on the scene list included in the summary information.
  • the summary information may be a hierarchical description of a summarized scene structure.
  • FIG. 9 is a diagram showing an example of a summarized scene structure described hierarchically.
  • FIG. 3A shows an example of a scene structure of the original content. The importance is added to each scene in the range of 0.0 to 1.0. 1.0 is the most important 0. 0 means least important. Assume that the importance is calculated based on, for example, user preference.
  • FIG. 9 (a) when a summary is generated only for the scene with the highest importance, the summarized scene structure is as shown in FIG. 9 (b).
  • Each scene has location information such as the URL of the content including the scene, and metadata such as position information (start position and end position) within the content of the scene.
  • Information on the summarized scene structure 38 is passed to the summary structure display unit 26, and the summary structure display unit 26 displays the summarized scene structure as shown in FIG. 9 (b), for example. Display in tree format.
  • the scene structure displayed by the user via the user input unit 22 on the structure display unit 20 or the summary structure display unit 26, the thumbnail image display unit 21 and the search result display unit 24 are displayed.
  • the content playback / display section 27 can play / display the scenes contained in the content. Therefore, according to the metadata reproducing apparatus 200 according to the third embodiment, only the scenes desired by the user are collected using the metadata generated by the metadata editing apparatus described in the first and second embodiments. You can search for the scene you want to see using the features described in the metadata.
  • the content playback 'display unit 27 is a metadata playback device.
  • the content playback / display unit may be in another device.
  • operations and displays related to metadata playback such as the display of scene structures and thumbnail images, are performed by mobile phones and personal digital assistants.
  • Processing and display related to playback of multimedia contents are performed by mobile phones.
  • Via a network to a telephone or mobile information terminal It may be performed on a terminal (for example, a PC, etc.) that is connected by connecting.
  • a metadata distribution server metadata distribution device
  • the content is configured to be scalable according to the terminal capability of the client terminal.
  • a content distribution server that distributes the content.
  • FIG. 10 is a block diagram showing a configuration of a content distribution system according to Embodiment 4 of the present invention.
  • the content distribution system 300 includes a metadata distribution server 400, various client terminals 48 1 to 48 n, and a content distribution server 500.
  • the metadata distribution server 400 includes a metadata storage unit 41, a metadata analysis unit 42, a terminal capability determination unit 43, a metadata regeneration unit 44, and a metadata distribution unit 45. It is configured.
  • the metadata storage unit 41 stores, for example, metadata generated by the metadata editing apparatuses of the first and second embodiments.
  • the metadata analysis unit 42 analyzes the metadata 49 describing the structure and characteristics of the content.
  • the terminal capability determination unit 43 determines the terminal capability of the client terminal based on the information 51 on the performance of the client terminal.
  • the metadata regenerating unit 44 reconstructs the content according to the terminal capability of the client terminal based on the metadata analysis result 50, and regenerates the metadata 52 describing the content.
  • the metadata distribution unit 45 is a metadata regeneration unit
  • the metadata storage unit 41 may be provided outside the metadata distribution server 400 of the fourth embodiment. In that case, the metadata distribution server 400 inputs the metadata 49 from the metadata storage unit 41 via a network (not shown) or the like.
  • the content distribution server 500 includes a content storage unit 46 and a content distribution unit 47.
  • the content storage unit 46 stores the content 55.
  • the content distribution unit 47 responds to the content distribution request 54 from the client terminals 48 1 to 4811.
  • the content storage unit 46 may be provided outside the content distribution server 500. In that case, the content distribution server 500 inputs the content data 55 via a network (not shown).
  • the metadata analysis unit 42 analyzes the metadata stored in the metadata storage unit 41.
  • the operation of the metadata analysis unit 42 is the same as that of the metadata analysis unit 19 of the metadata reproduction device 200 of the third embodiment.
  • the metadata analysis unit 42 obtains information on each co-structure and feature by analyzing the metadata.
  • FIG. 11 is a diagram illustrating the structure information of the content (an example of a news video) output from the metadata analysis unit of the metadata distribution server according to the fourth embodiment.
  • Fig. 1 1 the hierarchical scene structure of the content is displayed using a tree. Each node corresponds to each scene, and each node is associated with various scene information.
  • Scene information includes scene titles, abstracts, time information of scene start and end positions, scene thumbnails, representative frames, thumbnail shots, representative shots, and visual features such as colors and movements. It is a feature.
  • FIG. 11 shows only the title of the scene among various types of scene information.
  • the client terminal is assumed to be various information home appliances with different terminal capabilities. Terminal capabilities include communication speed, processing speed, image formats that can be played back and displayed, image resolution, and user input functions.
  • the client terminal 4 8 1, communication speed, processing speed, display performance, the user input function, assume a PC (personal computer) having a sufficient performance.
  • the client terminal 482 is assumed to be a mobile phone, and the other client terminals are assumed to be PDAs.
  • Information on each terminal performance is transmitted from each of the client terminals 481 to 48n.
  • the terminal capability determination unit 43 analyzes the information 51 on the terminal performance transmitted from each client terminal 481-148n to determine the image format that can be distributed, the maximum image resolution, and the content length. Are determined and output to the metadata regeneration unit 44. For example, if the original content is a large-resolution video content encoded by MPEG-2, the client terminal 481 having sufficient performance can reproduce the original content.
  • the client terminal 481 has a function capable of summarizing and retrieving images described in the third embodiment.
  • the client terminal 482 can reproduce only a short video shot encoded by MPEG-4 and has a small maximum displayable resolution.
  • each client terminal from the terminal capability determination unit 43 each client terminal from the terminal capability determination unit 43
  • FIG. 12 is a diagram illustrating an example of a structure of the content after reconfiguration by the metadata regenerating unit of the content distribution system according to the fourth embodiment. As shown in Fig. 12, important scenes are extracted from the scenes of each news, so that the scenes are composed of representative shots or representative frames only.
  • the metadata regeneration unit 44 regenerates metadata describing only the reconstructed scene structure and the position information of the representative shot or the representative frame of the scene, and sends the metadata to the metadata distribution unit 45. Output.
  • the metadata distribution unit 45 distributes the metadata 53 generated by the metadata regeneration unit 44 to the client terminals 48 1 to 48 n.
  • Each of the client terminals 48 1 to 48 n analyzes the metadata 53 distributed from the metadata distribution unit 45 and acquires the scene structure information of the content.
  • each client terminal 48l to 48n When the user of each client terminal 48l to 48n selects a scene to be reproduced, the position information of the selected scene is transmitted from each client terminal 48l to 48 ⁇ to the content distribution server 500 Sent to content distribution section 47.
  • the content distribution unit 47 of the content distribution server 500 acquires the position information of the scene transmitted from each client terminal 48 1 to 48 ⁇ , and
  • the corresponding content 55 is obtained from 46 and distributed to the client terminals 48 1 to 48 ⁇ .
  • the start and end positions of the scene Send and distribute the corresponding scene of the original content.
  • the location information (URI, etc.) of the representative shot of the scene is transmitted. If the representative shot has an image format that cannot be played back on the client terminal 482, an image format that cannot be displayed, an image resolution, an image file size, etc., the content distribution unit 47 converts the format, resolution, and file size. Summarize the content to reduce the size of the content and send it.
  • the metadata distribution server 400 of the fourth embodiment it is possible to regenerate metadata according to the capabilities of the client terminals 481 to 48n and distribute the metadata to each client terminal.
  • the metadata distribution server 400 and the content distribution server 500 are separately configured and shown.
  • the present invention is not limited to this configuration.
  • a content distribution server may be provided, or a metadata distribution server may be provided in the content distribution server.
  • the metadata distribution server and the content distribution server may be provided in the same server.
  • the content distribution unit 47 can easily know the capabilities of the client terminals 48 1 to 48 n from the terminal capability determination unit 43, so that the client terminals 48 1 to 48
  • the content can be reconfigured such as format conversion according to the capability of the client terminal n and distributed to the client terminals 481 to 48n.
  • the metadata stored in the metadata storage unit 41 has been described as being generated by the metadata editing apparatus of the first and second embodiments, for example.
  • the present invention is not limited to this.
  • the metadata generated by devices other than the metadata editing apparatuses of the first and second embodiments may be stored.
  • Fifth Embodiment In a fifth embodiment, another example of the metadata distribution server described in the fourth embodiment will be described. explain.
  • the metadata is regenerated based on the terminal information transmitted from the client terminal.
  • metadata analysis is performed by using metadata optimization hint information, which is a hint information for metadata regeneration, to perform metadata regeneration.
  • metadata optimization hint information which is a hint information for metadata regeneration.
  • FIG. 13 is a block diagram showing a configuration of a metadata distribution server according to Embodiment 5 of the present invention.
  • the metadata distribution server 40 OA includes a hint information analysis unit 61, a metadata analysis / reproduction unit 63, and a metadata distribution unit 45.
  • the hint information analysis unit 61 analyzes the metadata optimization hint information 60 and outputs the result.
  • the metadata analysis / regeneration unit 63 is based on the analyzed metadata optimization hint information 62 and information relating to the performance of the client terminal or conditions 65 relating to metadata regeneration such as user preference. It analyzes the metadata 49 describing the structure and characteristics of the content and outputs the reconstructed metadata 64.
  • the metadata distribution unit 45 distributes the metadata 53 to the client terminal.
  • the metadata storage unit 41 (see Fig. 10) has metadata 49 describing the structure and characteristics of the content, and metadata optimization hint information of hint information for regenerating the metadata 49. 60 has been accumulated. Metadata optimization hint information 60 for regenerating metadata 49 is what kind of information is included in that metadata 49, how much information is included, It describes the complexity.
  • the metadata optimization hint information 60 will be described in detail with reference to video content having the structure shown in FIG. 14 as an example.
  • Biao content Ro ot (S occerg ame rogrm)
  • Scene 2 Senee 1-2 Seenel—n
  • Figure 14 shows the temporal hierarchical structure between scenes in a ll-like structure.
  • Data 49 describes the temporal hierarchical structure of such content, that is, the temporal relationship between scenes and the start time and length of each scene.
  • the color and motion features are described only in the level 4 video segment.
  • Temporal hierarchical relationships between scenes can be expressed by describing video segments recursively.
  • the description “time division” describes that one video segment is composed of a plurality of time-divided video segments.
  • MPEG-7 the spatial hierarchical structure of content can be described in the same way.
  • a description “space division” indicating that one segment is composed of a plurality of spatially divided segments is used.
  • the metadata optimization hint information 60 for regenerating the metadata 49 describes the type and content of information (descriptor) included in the metadata 49.
  • the metadata optimization hint information 60 includes a descriptor (“time division”) that expresses the temporal hierarchical structure of the content, a color histogram, and a color histogram for the metadata in FIG.
  • Descriptors that express the complexity of the motion, titles, abstracts, genres, and descriptors that express the importance are included.
  • the maximum depth of the hierarchical structure of the video segments is 4 (level 1 to level 4).
  • the importance takes five discrete values ( ⁇ 0. 0, 0.25, 0.5, 0.75, 1.0 ⁇ ).
  • viewpoint of the importance the importance when viewed from the viewpoint of "Team B" and the importance when viewed from the viewpoint of "Team B" are described.
  • FIG. 16 shows a format example of the metadata optimization hint information 60.
  • the metadata optimization hint information 60 shown in FIG. 16 includes metadata file information and metadata component information.
  • the metadata file information includes the location of the metadata file, the size of the metadata file, the metadata file format (indicating the file format such as XML format and binary format), and the syntax file information (specifying the metadata syntax).
  • the syntax file is included in the metadata Resources required to process metadata, such as the number of appearing elements indicating the number of (appearing) elements (memory size required to store and analyze metadata; required to analyze metadata) Describe information for predicting the processing system (S / W, etc.).
  • syntax file information describes the location of syntax files such as DTD files and schema files.
  • Metadata component information is information that describes the types of descriptors that constitute metadata and their contents.
  • the metadata component information includes the name of the descriptor included in the metadata, the frequency (number of times) that the descriptor appears in the metadata, and any information that the descriptor may include grammatically. Description of whether all descriptors are included (complete descriptiveness), and if the descriptor is described recursively, the hierarchy in time or space that the descriptor has (maximum depth) Is included.
  • video segment is a descriptor described recursively and has a structure of up to four layers.
  • the maximum depth is 4.
  • the appearance position (hierarchy) where the descriptor appears is also hint information. For example, if “weight” is a descriptor included in a “video segment” but is included in a “video segment” of level 3 or higher, that is, if it is not included in a video segment of level 4, The position where "importance" appears is up to three. In this way, the appearance position can be specified at the hierarchy level.
  • the appearance position is specified.
  • IDs In the case of descriptors with values, the type of descriptor and the range of values that the descriptor can take are also one of the hint information. For example, from the viewpoint of importance of "T ea mA" and "T eam B", 5 Is represented by the discrete values of ( ⁇ 0. 0, 0.25, 0.5, 0.75, 1.0 ⁇ ), the possible values of importance are floating-point values. Is a list with type ⁇ 0. 0, 0.25, 0.5, 0.75, 1.0 ⁇ . The above description is repeated for each descriptor that is a component of metadata. FIG.
  • FIG. 17 shows an example of metadata optimization hint information described in accordance with the format of FIG. It can be seen that an example of the metadata optimization hint information 60 shown in FIG. 17 includes metadata file information and metadata component information of “video segment” and “title”. Next, a method of regenerating metadata using the metadata optimization hint information 60 will be described with reference to FIG.
  • the hint information analysis unit 61 analyzes the metadata optimization hint information 60 described in a prescribed format.
  • the metadata analysis' regeneration unit 63 uses the analyzed metadata optimization hint information 62 output from the hint information analysis unit 61 to analyze the metadata 49 and is involved in metadata regeneration.
  • the metadata 64 regenerated based on the condition 65 is output.
  • FIG. 18 shows an example of a metadata analysis method performed by the metadata analysis / regeneration unit 63 using the analyzed metadata optimization hint information 62.
  • the metadata analysis / regeneration unit 63 specifies metadata required for regeneration from the conditions 65 for metadata regeneration (step S1).
  • “importance” and “video segment” are descriptors necessary for regeneration.
  • the metadata 49 includes the descriptor specified in step S1 (hereinafter, the descriptor "importance" will be described as an example). Is determined (step S2). If the metadata includes the “importance” mark, the metadata is analyzed (step S 3).
  • step S4 the analysis processing of (1) is completed.
  • step S5 the analysis of the video segment up to level 3 has been completed.
  • step S6 the analysis process ends without performing the analysis for the level 4 or lower. Note that the processing from step S1 is repeated to analyze another metadata 49 if necessary. Also, if the number of occurrences of the “importance” descriptor is specified as 20 in the metadata optimization hint information 62, (20) In step S5), the analysis of the metadata ends (step S6).
  • FIG 19 shows another example of how to analyze metadata using the analyzed metadata optimization hint information 62.
  • the metadata analysis / regeneration unit 63 adds one to the ID of the appearance position described in the metadata optimization hint information 62. It is determined whether or not the video segment matches (step S13).
  • step S16 If the ID does not match, the analysis of the description of the video segment is skipped because the video segment does not include the "title" descriptor (step S16).
  • step S 15 the description of the video segment is analyzed to obtain a “Title” descriptor (S 15).
  • the analysis process ends (step S18).
  • the processing from step S11 is repeated to analyze another metadata as needed.
  • the metadata 64 reconstructed with the descriptors extracted through the above analysis processing is output.
  • the metadata distribution unit 45 distributes the reconstructed metadata 64 to various client terminals.
  • the metadata optimization hint information corresponding to the data may be regenerated.
  • all the descriptors included in the metadata had to be analyzed in order to regenerate the metadata.
  • the descriptors included in the metadata 49 are analyzed.
  • List ⁇ Descriptor of metadata 49 is analyzed using metadata optimization hint information 60 that describes the appearance position, number of occurrences, etc. of descriptors, so metadata for metadata regeneration 4 Omit the analysis of itself
  • Embodiment 6 In Embodiment 5 described above, a metadata distribution server that reduces processing costs associated with metadata analysis and regeneration using metadata optimization hint information for metadata regeneration has been described. In the sixth embodiment, a metadata search server that uses metadata optimization hint information to reduce processing associated with metadata search
  • FIG. 20 is a block diagram illustrating a configuration of a metadata search server according to Embodiment 6 of the present invention.
  • the metadata search server 600 includes a hint information analysis unit 61, a metadata analysis unit 71, and a search unit 73.
  • the hint information analysis unit 61 is the same as that in the fifth embodiment, and thus the description is omitted.
  • the metadata analysis unit 71 uses the analyzed metadata optimization hint information 62 and search conditions 70 to reduce the huge amount of metadata 49 describing the structure and characteristics of the content. Efficiently.
  • the search unit 73 searches for content that matches the search condition using the analysis result 72 of the metadata.
  • FIG. 21 shows the operation of the metadata analysis unit of the metadata search server according to the sixth embodiment.
  • the metadata analysis unit 71 analyzes one or more pieces of metadata using the metadata optimization hint information 62 corresponding to each piece of metadata.
  • the analysis of metadata means to extract the feature description required for retrieval from the metadata. For example, when a color segment of a video segment is given as a search condition and a video segment having a feature close to the video segment is searched, it is necessary to extract a video segment having a feature description related to color.
  • the metadata analysis unit 71 analyzes the search condition 70 and specifies a descriptor effective for the search (step S21).
  • search conditions there are cases where a feature amount according to the description specified in MPEG-7 is given, and cases where an image or a keyword is given.
  • the search condition is given as a feature value (for example, color arrangement information) according to the description of MPEG-7
  • the descriptor color arrangement information
  • the descriptor in text format title, abstract, annotation, etc.
  • step S22 it is determined whether or not the selected descriptor is included in the metadata 49 (step S22). If the descriptor used for the search is not included in the metadata 49, the analysis processing of the metadata 49 is terminated (step S24), and another metadata 49 is analyzed as necessary. . If the selected descriptor is included in the metadata 49, the metadata is analyzed (step S23). As for the metadata analysis method, the metadata analysis processing shown in FIGS. 18 and 19 is efficiently performed using the metadata optimization hint information 62 as in the case of the fifth embodiment (step S2). 5 to S26). Through the above processing, the feature description necessary for the search is extracted from the metadata analysis unit 71.
  • the search unit 73 searches for content that matches the search conditions by using the metadata analysis result (feature description required for search) 72 output from the metadata analysis unit 71.
  • the description about the video segment having the color feature description (“color histogram”) is output from the metadata analysis unit 71, so that the color feature amount given as the search condition ( Histogram), and outputs the information of the video segment (for example, “time information J”) as the search result 74.
  • the metadata optimization hint information Since the metadata 49 is analyzed using 60, the analysis of the metadata 49 itself for regenerating the metadata can be omitted. Since the analysis of the child can be omitted, the processing cost (processing amount, memory usage, etc.) associated with the metadata search can be reduced.
  • a client terminal according to Embodiment 7 of the present invention will be described with reference to the drawings, and Fig. 22 is a block diagram showing a configuration of a client terminal according to Embodiment 7 of the present invention.
  • the client terminal 48A is provided with a hint information analysis unit 80 and a metadata regenerating condition setting unit 82. Note that, among the functions provided for the client terminal 48A, FIG. data Only the part relating to means for setting conditions for metadata regeneration using the optimization hint information 60 is shown. Next, the operation of the client terminal according to the seventh embodiment will be described with reference to the drawings.
  • the hint information analysis unit 80 analyzes the metadata optimization hint information 60 described in a prescribed format. This hint information angle analysis unit 80 is the same as that of the fifth embodiment, and thus a detailed description is omitted.
  • the metadata regeneration condition setting unit 82 sets metadata regeneration conditions 83 based on the analysis result 81 output from the hint information analysis unit 80.
  • the condition setting includes, for example, selection of a descriptor unnecessary for the client terminal 48A from the types of descriptors included in the metadata optimization hint information 60. If the client terminal 48A does not have a search function using a feature, a descriptor representing a feature such as a color histogram or motion complexity is not required.
  • the maximum depth of the hierarchical structure described in the metadata optimization hint information 60 is considered. Based on the value, set the depth of the hierarchical structure that can be processed by the client terminal. Further, in another example, based on information of possible values of importance described in the metadata optimization hint information 60, a viewpoint of interest of the user and a threshold of importance of a scene to be selected are determined. Set. As described above, five discrete values ( ⁇ 0.0, 0.25, 0.5, 0.75) from the viewpoints of importance "Tea mA" and "Team B", respectively.
  • the condition for metadata regeneration 83 set in the metadata regeneration condition setting unit 82 is transmitted to the metadata distribution server.
  • the metadata distribution server reconfigures the metadata based on the conditions for metadata regeneration and the terminal performance of the client terminal. For example, if the maximum value of the depth of the hierarchical structure of the original metadata is 4 and the depth of the hierarchical structure that can be processed by the client terminal is set to 2 in the metadata regeneration condition, the hierarchy Restructure the metadata structure so that the maximum structure depth is 2.
  • Metadata regeneration can be efficiently performed using metadata optimization hint information as in the fifth embodiment.
  • conditions for metadata regeneration can be set using the metadata optimization hint information 60, appropriate metadata can be set according to the client terminal or application. Can be generated.
  • Eighth Embodiment In the fifth embodiment or the sixth embodiment described above, a server that regenerates metadata using the metadata optimization hint information and distributes the regenerated metadata has been described.
  • FIG. 23 is a block diagram illustrating a configuration of a content distribution server according to Embodiment 8 of the present invention.
  • the content distribution server 500 A includes a hint information analysis unit 61, a metadata analysis unit 86, and a content reconstruction / delivery unit 88.
  • the operation of the content distribution server according to the eighth embodiment will be described with reference to the drawings.
  • the operation of the hint information analysis unit 61 is the same as that of the fifth embodiment, and a description thereof will be omitted.
  • the metadata analysis unit 86 analyzes the metadata 49 using the analyzed metadata optimization hint information 62 output from the hint information analysis unit 61, and obtains information about the client terminal or Extract descriptions that meet the conditions 85 for content reconstruction such as user preferences.
  • the analysis method using hint information is the same as that in Example 5 above, except that it reconstructs the content instead of using the extracted description to regenerate the metadata. is there.
  • the description extracted by the metadata analysis unit 86 that is, the analyzed metadata 87 is output to the content reconstruction / distribution unit 88.
  • Content reconstructing / distributing unit 88 reconstructs content 89 based on the description extracted by metadata analyzing unit 86.
  • only video segments having a feature of importance of 0.5 or more are extracted from the metadata 49, and the content 90 composed only of scenes corresponding to the extracted video segments is reconstructed.
  • the description of the extracted video segment includes the location of the corresponding content and the content of that video segment. Since the position (time information) within the content is described, it is possible to cut out the corresponding scene from the content, reconstruct it into one piece of content 90 and distribute it, but cut out the corresponding scene from the content Also, the extracted scenes can be distributed sequentially.
  • the metadata optimization hint in which the list of the descriptors included in the metadata 49, the appearance position of the descriptor, the number of appearances, and the like are described Since the metadata is analyzed using the information 60, the analysis of the metadata 49 itself for regenerating the metadata can be omitted. In addition, it is possible to omit the analysis of descriptors that do not match the regeneration conditions based on the appearance position and the number of appearances, and to analyze metadata when regenerating and delivering content suitable for client terminals and user preferences. In addition, the processing cost (processing amount, memory usage, etc.) associated with content reconfiguration can be reduced. Industrial applicability
  • the present invention divides a multimedia content including a moving image and a sound into a plurality of scenes, edits the plurality of divided scenes, and describes a hierarchical structure of the multimedia content. Since the metadata is generated, it is possible to generate the metadata describing the hierarchical structure of the multimedia content including the video data and the like.

Description

明 細 書 メタデータ編集装置、 メタデータ再生装置、 メタデータ配信装置、 メタデータ 検索装置、 メタデータ再生成条件設定装置、 及びメタデータ配信方法
技術分野
この発明は、 動画像や音声を含むマルチメディアコンテンツを複数のシーンに 分割し、 分割したシーン毎にメタデータを生成等するメタデータ編集装置、 メタ データ再生装置、 メタデータ配信装置、 メタデータ検索装置、 メタデータ再生成 条件設定装置、 コンテンツ配信装置、 及びメタデータ配信方法に関するものであ る。 背景技術
従来の動画像管理装置では、 映像を複数のシーンに分割してから、 各シーンの 再生に必要な区間情報とシーン番号とシーンを代表する画像の集まりであるイン デックスを編集し、 1つ以上のインデックスを作成する手段と、 各インデックス には検索目的を示したタイ トルを付与する手段と、 検索時には、 タイ トルでイン デックスを検索し、 シーン番号の順番に従つてインデックスのシーンを次々に再 生する手段とから構成することで、 必要なシーンが並ぶようにインデックスを編 集することで、 必要なシーンだけを再生することができる (例えば、 特開 2 0 0 1 - 0 2 8 7 2 2号公報 (第 1頁、 図 1 ) 参照) 。 し力 しながら、 上述した従来の動画像管理装置では、 シーンの再生に必要な区 間情報と、 シーン番号と、 シーンを代表する画像とによりメタデータを作成する に過ぎないため、 ビデオデータがもっている階層性など、 ビデオデータの構造ま で管理することができないという問題点があった。 また、 登録した画像を検索する際には、 インデックスに付与されているタイ ト ルを用いて行うため、 適切な検索結果を得るためには、 適切なタイトルを入力し なければならないという問題点もあった。 この発明は、 前述した問題点を解決するためになされたもので、 シーンの区間 情報やタイ トルのほかに、 ビデオデータ等のコンテンツのもつ構造等のインデッ タス情報であるメタデータを生成することができるメタデータ編集装置を得るこ とを目的とする。 また、 メタデータ編集装置により生成されたメタデータを用いて、 ユーザが見 たいシーンだけを集めて再生したり、 メタデータに記述されている特徴量等を用 いて、 見たいシーンを検索することができるメタデータ再生装置、 メタデータ配 信装置、 メタデータ検索装置、 メタデータ再生成条件設定装置、 コンテンツ配信 装置、 及びメタデータ配信方法を得ることを目的とする。 発明の開示
この発明に係るメタデータ編集装置は、 動画像、 音声の少なくとも一つを含む マルチメディアコンテンツを複数のシーンに分割し、 分割したシーン毎にシーン の開始位置と終了位置とを示すシーンの区間情報メタデータを生成するシーン分 割部と、 前記シーン分割部からのシーンの区間情報メタデータに基づいて、 前記 マルチメディアコンテンツの各シーンの階層的な編集を行ない、 前記マルチメデ ィァコンテンツの階層的な構造を記述するシーン構造情報メタデータを生成する シーン記述編集部と、 前記シーンの区間情報メタデータ、 及び前記シーン構造情 報メタデータを統合し、 所定のフォーマツトに従って前記マルチメディァコンテ ンッの内容及び構造を記述したメタデータを生成するメタデータ記述部とを設け たものである。 また、 この発明に係るメタデータ配信装置は、 メタデータに含まれる記述子の 種類と内容を記述するメタデータ最適化ヒント情報を解析するヒント情報解析部 と、 前記解析されたメタデータ最適化ヒント情報、 及びメタデータ再生成に関す る条件に基づいて、 動画像、 音声の少なくとも一つを含むマルチメディアコンテ ンッの内容及び構造を記述したメタデータを解析して第 2のメタデータを再生成 するメタデータ解析 ·再生成部と、 前記メタデータ解析 ·再生成部により再生成 された第 2のメタデータをクライアント端末に配信するメタデータ配信部とを設 けたものである。 さらに、 この発明に係るメタデータ配信方法は、 メタデータに含まれる記述子 の種類を記述するメタデータ最適化ヒント情報を解析するステップと、 前記解析 されたメタデータ最適化ヒント情報、 及びメタデータ再生成に関する条件に基づ いて、 動画像、 音声の少なくとも一つを含むマルチメディアコンテンツの内容及 び構造を記述したメタデータを解析して第 2のメタデータを再生成するステツプ と、 前記再生成された第 2のメタデータをクライアント端末に配信するステップ とを含むものである。 図面の簡単な説明
図 1はこの発明の実施例 1に係るメタデータ編集装置の構成を示すプロック図 図 2はこの発明の実施例 1に係るメタデータ編集装置の編集対象の一例である ニュース映像を示す図、
図 3はこの発明の実施の形態 1に係るメタデータ編集装置のシーン分割部のシ ーンの区間情報メタデータの一例を示す図、
図 4はこの発明の実施の形態 1に係るメタデータ編集装置のシーン記述編集部 のシーン構造情報メタデータの一例を示す図、
図 5はこの発明の実施例 1に係るメタデータ編集装置のコンテンツ再生 ·表示 部、 ユーザ入力部の画面ィメ一ジ例を示す図、
図 6はこの発明の実施例 2に係るメタデータ編集装置の構成を示すブロック図 図 7はこの発明の実施例 2に係るメタデータ編集装置の動作を説明するための 図、 図 8はこの発明の実施例 3に係るメタデータ再生装置の構成を示すプロック図 図 9はこの発明の実施例 3に係るメタデータ再生装置の動作を説明するための 図、
図 1 0はこの発明の実施例 4に係るコンテンッ配信システムの構成を示すプロ ック図、
図 1 1はこの発明の実施例 4に係るメタデータ配信サーバのメタデータ解析部 から出力されるコンテンツ (ニュース映像の例) の構造情報を示す図、
図 1 2はこの発明の実施例 4に係るコンテンツ配信システムのメタデータ再生 成部による再構成後のコンテンッの構造例を示す図、
図 1 3はこの発明の実施例 5に係るメタデータ配信サーバの構成を示すプロッ ク図、
図 1 4はこの発明の実施例 5に係るメタデータ配信サーバによる、 メタデータ 最適化ヒント情報について説明するためのビデオコンテンツの一例を示す図、 図 1 5はこの発明の実施例 5に係るメタデータ配信サーバによる、 M P E G— 7を用いた場合のメタデータの記述例を示す図、
図 1 6はこの発明の実施例 5に係るメタデータ配信サーバが用いるメタデータ 最適化ヒント情報のフォーマツト例を示す図、
図 1 7はこの発明の実施例 5に係るメタデータ配信サーバが用いるメタデータ 最適化ヒント情報を示す図、
図 1 8はこの発明の実施例 5に係るメタデータ配信サーバのメタデータ解析 - 再生成部の動作を示すフローチャート、
図 1 9はこの発明の実施例 5に係るメタデータ配信サーバのメタデータ解析■ 再生成部の動作を示すフローチャート、
図 2 0はこの発明の実施例 6に係るメタデータ検索サーバの構成を示すプロッ ク図、
図 2 1はこの発明の実施例 6に係るメタデータ検索サーバのメタデータ解析部 の動作を示すフローチャート、
図 2 2はこの発明の実施例 7に係るクライアント端末の構成を示すブロック図 図 2 3はこの発明の実施例 8に係るコンテンツ配信サーバの構成を示すプロッ ク図である。 発明を実施するための最良の形態
以下、 この発明の実施例 1及び 2に係るメタデータ編集装置、
実施例 3に係るメタデータ再生装置、
実施例 4に係るコンテンッ配信システム、
実施例 5に係るメタデータ配信サーバ、
実施例 6に係るメタデータ検索サーバ、
実施例 7に係るクライアント端末、 並びに
実施例 8に係るコンテンツ配信サーバについて、 図面に基づき説明する。 実施例 この実施例 1では、 動画像や音声を含むマルチメディアコンテンツを複数のシ ーンに分割し、 シーンの階層的な構造記述や、 各シーンの特徴量を含むメタデー タ (インデックス情報) を作成するメタデータ編集装置について説明する。 この発明の実施例 1に係るメタデータ編集装置について図面を参照しながら説 明する。 図 1は、 この発明の実施例 1に係るメタデータ編集装置の構成を示すブ ロック図である。 なお、 各図中、 同一符号は同一又は相当部分を示す。 図 1において、 メタデータ編集装置 1 0 0は、 コンテンツ再生 '表示部 2と、 シーン分割部 3と、 サムネィル画像生成部 4と、 シーン記述編集部 5と、 テキス ト情報付与部 6と、 特徴抽出部 7と、 ユーザ入力部 8と、 メタデータ記述部 9と 備 る。 コンテンツ再生,表示部 2は、 映像データや音声データ等からなる編集対象の マルチメディアコンテンツ 1 0を再生■表示する。 シーン分割部 3は、 コンテン ッを複数のシーンに分割する。 サムネイル画像生成部 4は、 シーンの代表フレー ムをサムネィル画像として抽出する。 シーン記述編集部 5は、 シーン分割部 3に より分割されたシーンのグループ化、 シーンの結合、 シーンの削除、 シーンの関 係情報の生成などによりシーンを階層的に編集する。 テキスト情報付与部 6は、 各シーンに対して各種のテキス ト情報を付加する。 特徴抽出部 7は、 シーンの特 徴を抽出する。 また、 ユーザ入力部 8は、 コンテンツ再生 ·表示部 2、 シーン分割部 3、 サム ネイル画像生成部 4、 シーン記述編集部 5およびテキスト情報付与部 6に対して、 ユーザからの指示情報をユーザ入力情報 1 1として出力する。 さらに、 メタデータ記述部 9は、 シーン分割部 3、 サムネイル画像生成部 4、 シーン記述編集部 5、 テキスト情報付与部 6および特徴抽出部 7より出力される シーンの区間情 メタデータ 1 2、 シーンのサムネイル画像情報メタデータ 1 3、 シーン構造情報メタデータ 1 4、 テキスト情報メタデータ 1 5、 及び特徴記述メ タデータ 1 6を統合し、 規定のフォーマツトに従ってマルチメディァコンテンッ の内容及び構造を記述したメタデータ 1 7を生成する。 つぎに、 この実施例 1に係るメタデータ編集装置の動作について図面を参照し ながら説明する。 図 2は、 この実施例 1に係るメタデータ編集装置の編集対象の 一例であるニュース映像の構成を示す図である。 図 2に示す構成のニュース映像を編集する場合を例に説明する。 まず、 メタデータ編集装置 1 0 0のコンテンツ再生 '表示部 2は、 コンテンツ 記憶部 (図示せず) に記憶されている映像コンテンツ等のマルチメディアコンテ ンッ 1 0がネットワーク等を介し入力されと、 編集用に再生■表示する。 メタデータ編集装置 1 0 0のユーザがその再生映像を見ながら、 シーンとして 切り出す位置、 すなわちシーンの開始位置と、 終了位置とをユーザ入力部 8より 入力すると、 シーン分割部 3は、 ユーザから入力されたシーンの開始位置と終了 位置とを示すシーンの区間情報メタデータ 1 2を生成する。 図 3は、 本実施の形態 1に係るメタデータ編集装置のシーン分割部のシーンの 区間情報メタデータの一例を示す図である。 この図 3に示す区間情報メタデータ 1 2は、 図 2に示すニュース映像から生成 した例を示す。 図 3に示すように、 シーン分割部 3によって、 ニュース映像コン テンッから切り出された "ニュースダイジェスト" 、 "国内ニュース" や、 "国 際ニュース" 等の各シーンに対して、 シーンの開始位置と、 終了位置の区間情報 を示すシーンの区間情報メタデータ 1 2が生成される。 シーン記述編集部 5では、 ユーザからユーザ入力部 8を介しシーン編集の指示 があると、 シーン分割部 3からのシーンの区間情報メタデータ 1 2に基づき、 シ ーン分割部 3で連続的に切り出されたシーンの階層的な編集を行ない、 シーン構 造情報メタデータ 1 4を出力する。 シーンの階層的編集とは、 例えば、 シーンの グループ化、 シーンの再分割、 シーンの結合、 シーンの削除がある。 シーンのグ ループィヒとは、 例えば、 図 2に示すニュース映像から、 例えば図 4に示すように 「国内ニュース」 、 「国際ニュース」 、 「経済ニュース」 等のある特定の特徴で 関連あるシーンをひとつの 「ニュース J グループにまとめることをいう。 また、 シーンの再分割とは、 1つのシーンを複数のシーンに分割することである。 シー ンの結合とは、 複数のシーンをまとめて 1つのシーンとすることである。 図 4は、 本実施の形態 1に係るメタデータ編集装置のシーン記述編集部のシー ン構造情報メタデータの一例を示す図である。 この図 4に示すシーン構造情報メタデータ 1 4は、 シーン記述編集部 5での編 集の結果、 生成された映像コンテンツの階層的な構造を記述する。 図 4では、 シ ーン記述編集部 5で、 シーンのグループ化や、 シーンの再分割、 シーンの結合等 のシーンの編集により、 "ニュース" というシーンが、 "ニュースダイジェス ト " 、 "ニュース" 、 "特集" 、 "スポーツ" 等に編集され、 さらにその "ニュー ス" 力 S "国内ニュース" 、 "国際ニュース" 、 "経済ニュース" の階層的に編集 されたことを示している。 そして、 シーン記述編集部 5で生成された例えば図 4に示すメタデータ 1 4は 、 メタデータ記述部 9へ出力される。 一方、 サムネイル画像生成部 4では、 シーン分割部 3からのシーンの区間情報 メタデータ 1 2に基づき、 シーン分割部 3で切り出された各シーンの中から代表 フレームをサムネィル画像として生成し、 生成したサムネィル情報をサムネイル 画像情報メタデータ 1 3としてメタデータ記述部 9へ出力し、 メタデータ記述部 9に登録する。 ここで、 ユーザはユーザ入力部 8より、 サムネイルの選択を行う こともできるが、 自動的に、 先頭フレームや固定時間間隔の複数フレームを代表 フレームとしたり、 シーンチェンジ点を自動検出し、 それらのフレームを代表フ レームとしたりすることもできる。 サムネイル画像情報メタデータ 1 3は、 映像 コンテンツの中のサムネイルの位置情報 (フレーム番号または時間) 、 または、 サムネイル画像の U R Lなどのロケーション情報になる。 また、 特徴抽出部 7では、 シーン分割部 3からのシーンの区間情報メタデータ 1 2に基づき、 各シーンの中から、 動き、 色、 あるいはシーン内に含まれるォプ ジェタ トの形状など、 シーンがもつ視覚的特徴量を抽出する。 抽出された特徴量 は、 特徴記述メタデータ 1 6として、 メタデータ記述部 9へ出力され、 登録され る。 また、 テキスト情報付与部 6では、 シーン分割部 3からのシーンの区間情報メ タデータ 1 2に基づき、 各シーンに対して、 ユーザがタイ トル、 アブストラク ト 、 キーワード、 コメント、 シーンの重要度などの各種のテキスト情報を付与する
。 テキスト情報の付与は、 ユーザ入力部 8よりユーザが入力する場合と、 コンテ ンッに含まれる音声情報やキヤプションを解析することにより、 自動的に付与す る場合がある。 テキスト情報は、 テキスト情報メタデータ 1 5として、 メタデー タ記述部 9へ出力し、 メタデータ記述部 9に登録する。 図 5は、 この実施例 1に係るメタデータ編集装置のコンテンツ再生 ·表示部や 、 ユーザ入力部 8の画面イメージ例を示す。 図 5において、 ビデオ再生画面 G 1 は、 コンテンツ再生 '表示部 2における画面イメージ例に相当し、 このビデオ再 生画面 G 1では、 編集用のコンテンツを再生 '表示する。 図 5には、 明示してい ないが、 「再生」 、 「停止」 、 「卷き戻し」 、 「早送り」 、 「コマ送り」 再生用 の指示ボタンなど、 通常のビデオ再生装置に備えられているユーザインタフエ一 スを備えているものとする。 そして、 このビデオ再生画面 G 1の下方にはシーン 分割指示画面 G 2が表示されている。 このシーン分割指示画面 G 2は、 例えば、 スライダー形式になっており、 ビデオ再生画面 G 1に表示される映像を見ながら 、 ユーザがビデオ再生画面 G 1に表示される映像シーンの開始位置と終了位置と を指示することができる。 また、 シーン分割指示画面 G 2は、 同時に、 シーンの 開始位置と終了位置との間で、 サムネイルの位置を指示することができる。 ここ で、 シーン分割指示画面 G 2によりサムネイルの位置が指定されると、 映像コン テンッの指定された位置のフレームからサムネィル画像生成部 4がサムネィル画 像を生成することになる。 また、 シーン分割指示画面 G 2により位置が指定されたサムネイル画像は、 シ ーンの分割情報として、 シーン分割情報表示画面 G 3に表示される。 このシーン 分割情報表示画面 G 3では、 サムネイル画像のほか、 図 3に示すようにシーンご とにシーンの開始位置と終了位置とを示す情報を表示することもできる。 次に、 ツリー構造生成指示 '表示画面 G 4では、 シーンの編集をユーザに対し 指示する。 ユーザは、 シーン分割情報表示画面 G 3に表示されているサムネイル 画像等のシーン分割情報を見ながら、 映像コンテンツのもつ階層構造を表すッリ 一を生成する。 操作方法としては、 例えば、 シーンのグループ化を行う場合には、 ツリー上に 新しいノードを追加し、 そのノードにグループ化したいシーンを追加していく。 シーンの追加の操作は、 追加したいシーンをシーン分割情報表示画面 G 3上で選 択し、 ドラッグ 'アンド ' ドロップにより、 ノードにシーンを追加するなどの方 法が考えられる。 シーン分割情報表示画面 G 3、 ッリ一構造生成指示 ·表示画面 G 4では、 シーンを選択することにより、 そのシーンに対してテキスト情報付与 部 6を介してテキスト情報を付与するためのユーザインタフェースとしてユーザ 入力部 8が提供され、 シーンに対するテキスト情報を入力することができる。 メタデータ記述部 9は、 シーン分割部 3、 サムネイル画像生成部 4、 シーン記 述編集部 5、 テキスト情報付与部 6および特徴抽出部 7より出力される各種メタ データを統合し、 規定の記述フォーマツトに従って記述したメタデータファイル を生成する。 メタデータの規定の記述フォーマットは、 独自に定めたフォーマツ トで記述することもできるが、 本実施例 1では、 I S Oで標準化されている M P E G— 7を使うことにする。 この M P E G— 7は、 コンテンツの構造や特徴を記 述するフォーマツトを規定するものであり、 XM Lフアイノレフォーマツトとバイ ナリフォーマツトがある。 従って、 本実施例 1のメタデータ編集装置 1 0 0によれば、 シーンを階層的に 編集するシーン記述編集部 5や、 シーンから特徴を抽出する特徴抽出部 7を設け るようにしたので、 ビデオデータ等のコンテンツのもつ階層的な構造や各シーン の特徴量を記述したメタデータを生成することができる。 なお、 コンテンツ再生 ·表示部 2に入力されるマルチメディアコンテンツ 1 0 は、 ネッ トワーク上にあるコンテンツサーバ (図示せず) から取得する場合や、 メタデータ編集装置 1 0 0内にあるコンテンツ記憶部 (図示せず) より取得する 場合、 C Dや D V D等の蓄積媒体 (図示せず) より取得する場合など様々な場合 が想定される。 同様に、 メタデータ記述部 9より出力されるメタデータは、 ネッ トワーク上にあるメタデータサーバ (図示せず) に蓄積される場合や、 メタデー タ編集装置内にあるメタデータ蓄積部 (図示せず) に蓄積される場合、 C D D V D等の蓄積媒体 (図示せず) にコンテンツとともに蓄積される場合などが想定 さ^^る。 また、 本実施例 1では、 シーン記述編集部 5と、 特徴抽出部 7との両者を設け て説明したが、 これに限らず、 シーン記述編集部 5のみを設けたり、 特徴抽出部 •7のみを設けるようにしても勿論良い。 実施例 2 . 上記の実施例 1では、 シーンの分割をすベて手動で行っていたが、 この実施例 2では、 シーンチヱンジ点を自動検出するシーンチェンジ検出部を備えたことを 特徴とするデータ編集装置について説明する。 この発明の実施例 2に係るメタデータ編集装置について図面を参照しながら説 明する。 図 6は、 この発明の実施例 2に係るメタデータ編集装置の構成を示すブ 口ック図である。 図 6において、 メタデータ編集装置 1 0 O Aは、 コンテンツ再生 '表示部 2と、 シ一ン分割部 3と、 サムネィル画像生成部 4と、 シ一ン記述編集部 5と、 テキス ト情報付与部 6と、 特徴抽出部 7と、 ユーザ入力部 8と、 メタデータ記述部 9と、 シーンチェンジ検出部 3 9とを備える。 なお、 符号 4 0は、 自動検出されたシー ン開始位置情報である。 つぎに、 この実施例 2に係るメタデータ編集装置の動作について図面を参照し ながら説明する。 図 7は、 この発明の実施例 2に係るメタデータ編集装置の動作を説明するため の図である。 シーンチュンジ検出部 39と、 シーン分割部 3以外の動作は、 上記実施例 1と 同じである。 実施例 2特有の動作を説明する。 シーンチェンジ検出部 39は、 自動的にシーンチェンジ、 カット点検出を行う。 シーンチェンジ検出は、 例えば、 フレーム間画素差分や、 フレーム間の色や、 輝 度のヒストグラム差分などに基づいて行う。 シーン分割部 3は、 シーンチェンジ 検出部 39で検出されたシーンチェンジ点に基づき、 シーンの開始位置と終了位 置を決定する。 ここで、 シーンチェンジ検出部 39とシーン分割部 3の処理について、 編集対 象のコンテンツがニュース映像の場合を例に詳述する。 シーンチェンジ検出のための特徴量として、 色のヒストグラムを用いる場合を 例に説明する。 シーンチェンジ検出部 39では、 1フレームごとに色のヒストグラムを算出す る。 表色系としては、 HSV、 RGB, YCb C rなどがあるが、 ここでは、 H SV色空間を用いる。 この HSV色空間は、 色相 (H) 、 彩度 (S) 、 明度 (V) の 3要素から構成される。 各要素のヒストグラムを算出する。 次に、 求め られたヒストグラムから、 例えば下記の (式 1) に基づき、 フレーム間のヒスト グラム差分を算出する。 シーンの開始フレームから、 Nフレーム (例えば N = 3) は、 同一シーン、 すなわち、 シーンチェンジ点がないものと仮定する。 なお、 シーンの初期特徴量として、 下記の (式 2) に基づき、 最初の Nフレーム間のヒ ストグラム差分の平均 (me a n) と標準偏差 (s d) を求める。 bin H
sum, = ∑|H,. ( ) - ∑|S,. ( ) - ( ) | +∑\ν^) -ν^) sum,:フレーム/とフレーム/— 1のヒストグラム間差分和
Hi < ):色相のヒストグラム, bin一 H:ヒストグラムの要素数 (式 1 )
S; (/?):彩度のヒストグラム, ろ /" :ヒストグラムの要素数
V^h :明度のヒストグラム, bin一 V:ヒストグラムの要素数
mean = >
N-i r
Figure imgf000015_0001
mean:フレーム間のヒストグラム差分の平均 (式 2 )
sd:フレーム間のヒストダラム差分の標準偏差 そして、 N + 1フレーム以降は、 ヒス トグラムのフレーム間差分が m e a 11 + λ · s dより大きくなったフレームをシーンチェンジ点とし、 新しいシーンの開 始位置候補とする。 シーンの開始位置候補が複数得られたら、 次に、 ニュース映像のように、 ニュ ースの切り替わりなどで決まったパターンの画像が挿入される場合を考える。 ニュース映像は、 ニュースの切り替わりで、 例えば、 アナウンサーと背景のス タジォセット、 説明の文字 (キャプション) により構成された画像など、 決まつ たパターンの画像が揷入されることが多い。 従って、 これらの決まったパターン の画像 (テンプレート画像と称する) 、 またはテンプレート画像の特徴量を記述 したメタデータを予め登録しておく。 テンプレート画像の特徴量とはテンプレー ト画像の色のヒストグラム、 あるいは、 動きのパターン (ニュースの切り替わり で、 アナウンサーが写る部分は動きが少ないなど) などが挙げられる。 一ト画像が予め登録されている場合には、 例えば図 7に示すように、 シーンチェンジ点に対応する画像と、 テンプレート画像とのマッチングをとり、 類似度が高い場合には、 そのシーンチェンジ点をシーンの開始位置として登録す る。 類似度のマッチングとしては、 フレーム間差分やフレーム間の色のヒストグ ラム差分などがある。 また、 テンプレート画像の特徴量が予め登録されている場合には、 シーンチェ ンジ点に対応する画像から特徴量を抽出し、 テンプレート画像の特徴量とのマツ チングをとり、 類似度が高い場合には、 そのシーンチェンジ点をシーンの開始位 置として登録する。 シーン開始位置の情報はシーン分割部 3へ出力される。 シーン分割部 3では、 シーンチ ンジ検出部 3 9で自動検出されたシーン開始 位置情報に基づき、 シーンの開始位置および終了位置を決定する。 なお、 本実施 例 2のシーン分割部 3では、 上記実施例 1と同様に、 ユーザからの指示に基づき、 シーンの開始位置および終了位置を決定することもできる。 シーン分割部 3では、 シーンの開始位置および終了位置を記述したシーンの区 間情報メタデータ 1 2をシーンチェンジ検出部 3 9へ出力し、 このシーンチェン ジ検出部 3 9で、 そのシーンに含まれるシーンチェンジ点を検出することもでき る。 シーン記述編集部 5では、 シーン分割部 3からのシーンの区間情報メタデータ 1 2に基づき、 シーンチェンジ検出部 3 9で自動検出されたシーンを再分割ゃ統 合することができる。 なお、 シーン記述編集部 5の詳細は、 上記実施例 1と同様 である。 従って、 本実施例 2に係るメタデータ編集装置 1 0 0 Aによれば、 上記実施例
1と同様に、 ビデオデータ等のコンテンツのもつ階層的な構造や各シーンの特徴 量を記述したメタデータを生成することができると共に、 シーンチェンジ検出部
3 9を設けたことにより、 コンテンツのシーンチェンジ点を自動検出することが 可能となる。 実施例 3 . この実施例 3では、 上記実施例 1及び 2のメタデータ編集装置により生成され たメタデータを利用して、 画像の要約再生や、 検索などを行うメタデータ再生装 置について説明する。 この発明の実施例 3に係るメタデータ再生装置につレ、て図面を参照しながら説 明する。 図 8は、 この発明の実施例 3に係るメタデータ再生装置の構成を示すプ 口ック図である。 図 8において、 メタデータ再生装置 2 0 0は、 メタデータ解析部 1 9と、 構造 表示部 2 0と、 サムネイル画像表示部 2 1と、 ユーザ入力部 2 2と、 検索部 2 3 と、 検索結果表示部 2 4と、 要約作成部 2 5と、 要約構造表示部 2 6と、 コンテ ンッ再生部 2 7とを備える。 メタデータ解析部 1 9は、 コンテンツのもつ階層的なシーン構造や各シーンの サムネイルに関する情報、 各シーンの特徴量などが記述されたメタデータ 2 8の 解析を行う。 構造表示部 2 0は、 メタデータ解析結果から取得されるシーン構造
2 9、 つまりコンテンツの階層的な構造を表示する。 サムネイル画像表示部 2 1 は、 メタデータ解析結果から取得されるサムネイル画像情報 3 0を表示する。 ユーザ入力部 2 2は、 検索や再生等の指示を行う。 検索部 2 3は、 ユーザから の検索指示 (検索条件 3 1 ) と、 メタデータから取得されるシーンの特徴量ゃテ キス ト情報 3 2とに基づき検索を行う。 検索結果表示部 2 4は、 検索結果 3 3を 表示する。 要約作成部 2 5は、 ユーザからの要約作成指示 (要約作成条件 3 4 ) に基づき要約作成を行う。 要約構造表示部 2 6は、 要約されたコンテンツの構造
3 8を表示する。 コンテンツ再生部 2 7は、 要約情報 3 5、 コンテンツ再生指示 3 6、 再生するコンテンツ 3 7に基づきコンテンツを再生■表示する。 つぎに、 この実施例 3に係るメタデータ再生装置の動作について図面を参照し ながら説明する。 まず、 メタデータ解析部 1 9は、 コンテンツのもつ階層的なシーン構造や、 各 シーンのサムネイルに関する情報、 各シーンの特徴量などが記述されたメタデー タ 2 8を入力とし、 メタデータの解析を行う。 本実施例 3では、 このメタデータ 2 8は、 上記実施例 1、 2のメタデータ記述 部 9が生成した M P E G - 7規定のフォーマットで記述されているため、 メタデ ータは XM Lで記述されたテキストファイルでもよいし、 バイナリフォーマツト で符号化されたバイナリファイルであってもよレ、。 このため、 メタデータ解析部 1 9は、 メタデータ 2 8が XM Lで記述されてい るならば、 XM Lフアイルの解析を行う XM Lパーザの機能をもつ。 また、 メタ データ 2 8がバイナリフォーマツトで符号化されているならば、 メタデータ 2 8 の復号を行うデコーダの機能を有する。 構造表示部 2 0は、 メタデータ解析部 1 9の解析結果を入力して、 コ の階層的なシーン構造 2 9を表示する。 コンテンツのシーン構造は、 例えば、 図 4に示すように、 各シーンのタイトルとともにツリー表示される。 サムネイル画像表示部 2 1は、 メタデータ解析部 1 9の解析結果 (サムネイル 画像情報 3 0 ) を入力して、 コンテンツのサムネイル画像一覧を表示する。 検索部 2 3は、 ユーザ入力部 2 2を介したユーザからの検索指示により、 コン テンッに含まれるシ一ンの検索を行う。 その際、 ュ一ザ入力部 2 2では、 キーヮ ードゃサンプル画像の提示等により、 検索条件を入力する。 検索部 2 3では、 メ タデータに記述されているシーンの特徴量や、 シーンのタイ トルなどのテキスト 情報 3 2に基づき、 ユーザから提示された検索条件 (キーワードやサンプル画像 の特徴) 3 1に合致するシーンの検索を行う。 検索部 2 3による検索が終了すると、 検索結果表示部 2 4は、 検索部 2 3の検 索結果 3 3を入力とし、 検索結果の表示を行う。 検索結果の表示方法としては、 例えば、 検索条件に合致したシーンのサムネイル画像を表示する。 また、 要約作成部 2 5は、 ユーザ入力部 2 2を介したユーザからの要約作成指 示に基づき、 コンテンツの要約を作成する。 その際、 ユーザ入力部 2 2では、 要 約されたコンテンツの再生時間や、 ユーザ嗜好などの情報を入力する。 例えば、 コンテンツがニュース映像の場合には、 ニュースの中のスポーツを中心に見たい、 あるいは、 1時間のニュースを 2 0分に要約してみたいなどのユーザの嗜好情報 を入力する。 また、 要約作成部 2 5では、 メタデータに記述されているシーンの 再生時間や、 シーンのタイ トルなどのテキスト情報 3 2に基づき、 要約条件に合 致した要約情報 3 5を作成する。 この要約情報 3 5とは、 例えば、 要約されたコ ンテンッに含まれるシーンの再生リストであり、 コンテンツの U R Lなどのロケ ーション情報と、 そのコンテンツの中の再生したいシーンの開始位置と終了位置 を列記したリストである。 また、 コンテンツ再生 '表示部 2 7では、 要約情報 3 5に含まれるコンテンツ のロケーション情報に基づき、 対象コンテンツを特定し、 要約情報に含まれるシ ーンリス トに基づき、 再生するシーンの取得 .再生 .表示を行う。 また、 別の例 として、 要約情報が要約されたシーンの構造を階層的に記述したものである場合 も考えられる。 図 9は、 要約されたシーン構造を階層的に記述したものの一例を示す図である。 同図 (a ) は、 オリジナルコンテンツのシーン構造の例を示す。 各シーンに対し て、 重要度が 0 . 0〜 1 . 0の範囲で付加されている。 1 . 0は重要度が最も高 く、 o . 0は重要度が最も低いことを意味する。 重要度は、 例えば、 ユーザ嗜好 に基づいて計算されたものであるとする。 例えば、 チーム Aのサッカーの試合に 関するシーン、 特に、 試合結果と得点シーンは必ず見たいというユーザ嗜好を予 め登録しておくと、 各シーンにはユーザ嗜好を反映した重要度が付加される。 そして、 図 9 ( a ) において、 重要度が最も高いシーンのみで要約を生成する と、 要約されたシーン構造は同図 (b ) に示すようになる。 なお、 各シーンは、 そのシーンを含むコンテンツの U R Lなどのロケーション情報と、 そのシーンの コンテンツ内での位置情報 (開始位置と終了位置) などのメタデータをもつ。 要 約されたシーン構造 3 8に関する情報は、 要約構造表示部 2 6へ渡され、 この要 約構造表示部 2 6は、 要約されたシ一ン構造を例えば、 図 9 ( b ) に示すような ツリー形式で表示する。 また、 ユーザ入力部 2 2を介しユーザが構造表示部 2 0または要約構造表示部 2 6に表示されているシーン構造や、 サムネイル画像表示部 2 1や検索結果表示 部 2 4に表示されている各シーンのサムネイルの中から再生したい 1つ以上のシ ーンを選択すると、 コンテンツ再生■表示部 2 7ではコンテンツに含まれるシー ンを再生■表示することができる。 従って、 本実施例 3に係るメタデータ再生装置 2 0 0によれば、 上記実施例 1、 2で説明したメタデータ編集装置により生成されたメタデータを用いて、 ユーザ が見たいシーンだけを集めて再生したり、 メタデータに記述されている特徴量を 用いて、 見たいシーンを検索することができる。 また、 本実施例 3では、 コンテンツ再生 '表示部 2 7が、 メタデータ再生装置
2 0 0内にあつたが、 コンテンツ再生 .表示部が別の装置内にあってもよい。 こ れは、 例えば、 シーンの構造やサムネイル画像の表示等、 メタデータ再生に関わ る操作や表示は、 携帯電話や携帯情報端末等で行い、 マルチメディアコンテンツ の再生に関わる処理や表示は、 携帯電話や、 携帯情報端末等にネッ トワークを介 して接続した端末 (例えば、 P C等) で行う場合が考えられる。 実施例 4 . この実施例 4では、 コンテンツのメタデータをクライアント端末に対して配信 するメタデータ配信サーバ (メタデータ配信装置) と、 そのコンテンツをクライ アント端末の端末能力に応じてスケーラブルに構成して配信するコンテンツ配信 サーバと、 について説明する。 この発明の実施例 4に係るコンテンッ配信システムについて図面を参照しなが ら説明する。 図 1 0は、 この発明の実施例 4に係るコンテンツ配信システムの構 成を示すプロック図である。 図 1 0において、 コンテンツ配信システム 3 0 0は、 メタデータ配信サーバ 4 〇 0と、 各種のクライアント端末 4 8 1〜4 8 nと、 コンテンツ配信サーバ 5 0 0とを備える。 メタデータ配信サーバ 4 0 0は、 メタデータ蓄積部 4 1と、 メタデータ解析部 4 2と、 端末能力判定部 4 3と、 メタデータ再生成部 4 4と、 メタデータ配信部 4 5とから構成されている。 メタデータ蓄積部 4 1には、 例えば上記実施例 1、 2のメタデータ編集装置が 生成したメタデータが蓄積されている。 メタデータ解析部 4 2は、 コンテンツの 構造や特徴を記述したメタデータ 4 9の解析を行う。 端末能力判定部 4 3は、 ク ライアント端末の性能に関する情報 5 1に基づいて、 クライアント端末の端末能 力を判定する。 メタデータ再生成部 4 4は、 メタデータ解析結果 5 0に基づき、 クライアント端末の端末能力に応じてコンテンッを再構成し、 その内容を記述し たメタデータ 5 2を再生成する。 メタデータ配信部 4 5は、 メタデータ再生成部
4 4で再生成されたメタデータ 5 3を各種クライアント端末 4 8 1〜4 8 nに配 信する。 なお、 メタデータ蓄積部 4 1は、 本実施例 4のメタデータ配信サーバ 4 0 0外 に設けても良い。 その場合には、 メタデータ配信サーバ 4 0 0は、 ネットワーク (図示せず) 等を介しメタデータ蓄積部 4 1からメタデータ 4 9を入力する。 また、 コンテンツ配信サーバ 5 0 0は、 コンテンツ蓄積部 4 6と、 コンテンツ 配信部 4 7とから構成されている。 コンテンツ蓄積部 4 6は、 コンテンツ 5 5を蓄積する。 コンテンツ配信部 4 7 は、 クライアント端末 4 8 1〜4 8 11からのコンテンツ配信要求 5 4に応じてコ
5 6を配信する。 上述したメタデータ配信サーバ 4 0 0の場合と同様に、 コンテンツ蓄積部 4 6 はコンテンツ配信サーバ 5 0 0外に設けてもよい。 その場合、 コンテンツ配信サ ーバ 5 0 0は、 ネットワーク (図示せず) を介してコンテンツデータ 5 5を入力 する。 つぎに、 この実施例 4に係るコンテンツ配信システムの動作について図面を参 照しながら説明する。 まず、 メタデータ配信サーバ 4 0 0側では、 メタデータ解析部 4 2がメタデー タ蓄積部 4 1に蓄積されているメタデータの解析を行う。 メタデータ解析部 4 2 の動作は、 上記実施例 3のメタデータ再生装置 2 0 0のメタデータ解析部 1 9と 同様である。 メタデータ解析部 4 2は、 メタデータを解析することにより、 各コ 構造や特徴に関する情報を取得する。 図 1 1は、 この実施例 4に係るメタデータ配信サーバのメタデータ解析部から 出力されるコンテンツ (ニュース映像の例) の構造情報を示す図である。 図 1 1 では、 コンテンツの階層的なシーン構造を、 ツリーを用いて表示している。 ッリ 一の各ノードは、 各々のシーンに対応し、 各ノードには各種のシーン情報が対応 付けられている。 シーン情報とは、 シーンのタイトル、 ァブストラク ト、 シーン の開始位置と終了位置の時間情報、 シーンのサムネイル、 代表フレーム、 サムネ ィルショット、 代表ショット、 色や動きなど視覚的な特徴量等であるシーンの特 徴である。 なお、 図 1 1には、 各種のシーン情報のうち、 シーンのタイ トルのみ を図示している。 ここで、 クライアント端末は、 端末能力の異なる各種の情報家電機器を想定す る。 端末能力とは、 通信速度、 処理速度や、 再生 '表示可能な画像フォーマット、 画像解像度、 ユーザ入力機能、 などである。 例えば、 クライアント端末 4 8 1は、 通信速度、 処理速度、 表示性能、 ユーザ入力機能において、 十分な性能を有する P C (パソコン) を想定する。 また、 クライアント端末 4 8 2は携帯電話を想定 し、 その他のクライアント端末は P D A等を想定する。 各クライアント端末 4 8 1 〜 4 8 nからは、 それぞれの端末性能に関する情報が送信される。 端末能力判定部 4 3は、 各クライアント端末 4 8 1 - 4 8 nから送信される端 末性能に関する情報 5 1を解析して、 配信可能な画像フォーマット、 最大画像解 像度、 コンテンツの長さ等を決定し、 メタデータ再生成部 4 4へ出力する。 例え ば、 オリジナルのコンテンツが M P E G— 2で符号化された解像度の大きなビデ ォコンテンツの場合、 十分な性能を有するクライアント端末 4 8 1では、 オリジ ナルのコンテンツを再生できる。 また、 このクライアント端末 4 8 1は、 上記実 施例 3で説明した画像の要約再生や検索が可能な機能を有するものとする。 一方、 クライアント端末 4 8 2では、 M P E G— 4で符号化された短いビデオシヨット のみ再生可能で、 かつ、 表示可能な最大解像度も小さいものとする。 メタデータ再生成部 4 4では、 端末能力判定部 4 3からの各クライアント端末
4 8 1 〜 4 8 nの端末性能に応じてコンテンツを再構成し、 その構造や内容を記 述したメタデータ 5 2を再生成し、 メタデータ配信部 4 5へ出力する。 例えば、 クライアント端末 4 8 1に対しては、 オリジナルのメタデータをそのまま配信す るため、 コンテンツの再構成は行わない。 一方、 クライアント端末 4 8 2に対し ては、 短いビデオショ ッ トの再生機能のみを有するため、 すべてのシーンを再生 することはできない。 従って、 重要なシーンの短いビデオショットでコンテンツ を再構成する。 図 1 2は、 実施例 4に係るコンテンッ配信システムのメタデータ再生成部によ る再構成後のコンテンツの構造例を示す図である。 図 1 2に示すように、 各ニュ ースのシーンの中から、 重要なシーンを抽出し、 そのシーンの代表ショ ッ トまた は、 代表フレームのみで構成されるようにする。 また、 クライアント端末 4 8 2 は、 上記実施例 3で説明した検索機能を有しないため、 シーンの各種情報のうち、 検索に使用するシーンの特徴量をメタデータに記述する必要はない。 そこで、 メ タデータ再生成部 4 4は、 再構成されたシーン構造と、 そのシーンの代表ショッ トまたは代表フレームの位置情報のみを記述したメタデータを再生成し、 メタデ ータ配信部 4 5へ出力する。 このメタデータ配信部 4 5は、 メタデータ再生成部 4 4で生成されたメタデー タ 5 3をクライアント端末 4 8 1 ~ 4 8 nに配信する。 各クライアント端末 4 8 1〜4 8 nは、 メタデータ配信部 4 5より配信された メタデータ 5 3を解析し、 コンテンツのシーン構造情報を取得する。 各クライア ント端末 4 8 l〜4 8 nのユーザは、 再生したいシーンを選択すると、 選択され たシーンの位置情報が各クライアント端末 4 8 1〜 4 8 ηからコンテンッ配信サ ーバ 5 0 0のコンテンツ配信部 4 7へ送信される。 コンテンツ配信サーバ 5 0 0のコンテンツ配信部 4 7では、 各クライアント端 末 4 8 1〜4 8 ηより送信されるシーンの位置情報を取得し、 コンテンツ蓄積部
4 6より対応するコンテンツ 5 5を取得し、 クライアント端末 4 8 1〜4 8 ηへ 配信する。 クライアント端末 4 8 1の場合には、 シーンの開始位置と終了位置を 送信し、 オリジナルのコンテンツの対応するシーンを配信する。 また、 クライア ント端末 4 8 2の場合は、 シーンの代表ショットの所在情報 (U R Iなど) を送 信する。 なお、 代表ショットが、 クライアント端末 4 8 2で再生 '表示不可能な 画像フォーマットや、 画像解像度、 画像ファイルサイズ等の場合には、 コンテン ッ配信部 4 7で、 フォーマット変換や解像度変換、 フアイルサイズを小さくする ためのコンテンツの要約等を行い、 送信する。 従って、 本実施例 4のメタデータ配信サーバ 4 0 0によれば、 各クライアント 端末 4 8 1〜4 8 nの能力に応じてメタデータを再生成して各クライアント端末 に配信することが可能となる。 なお、 図 1 0では、 メタデータ配信サーバ 4 0 0とコンテンツ配信サーバ 5 0 0とを別々に構成して示しているが、 本発明では、 これに限らず、 メタデータ配 信サーバの中にコンテンツ配信サーバを設けたり、 あるいはコンテンツ配信サー バの中にメタデータ配信サーバを設けたりしてもよい。 また、 メタデータ配信サ ーバとコンテンッ配信サーバとを同一サーバ内に設けても勿論良い。 このように すれば、 コンテンツ配信部 4 7は、 端末能力判定部 4 3から各クライアント端末 4 8 1〜4 8 nの能力を簡単に知ることができるので、 各クライアント端末 4 8 1〜4 8 nの能力に応じてフォーマツト変換などコンテンツを再構成して各クラ イアント端末 4 8 1〜4 8 nに配信することが可能となる。 また、 この実施例 4では、 メタデータ蓄積部 4 1に蓄積されているメタデータ は、 例えば上記実施例 1、 2のメタデータ編集装置が生成したものであると説明 したが、 これに限らず、 上記実施例 1、 2のメタデータ編集装置以外が生成した メタデータを蓄積したものでも勿論良い。 実施例 5 . この実施例 5では、 上記実施例 4で説明したメタデータ配信サーバの別の例を 説明する。 上記実施例 4のメタデータ配信サーバでは、 クライアント端末から送 信される端末情報に基づいて、 メタデータの再生成を行っていた。 この実施例 5 では、 より適切なメタデータの再生成を行うために、 メタデータ再生成のための ヒント情報であるメタデータ最適化ヒント情報を用いて、 メタデータの再生成を 行うメタデータ解析■再生成部を備えたことを特徴とするメタデータ配信サーバ (メタデータ配信装置) について説明する。 この発明の実施例 5に係るメタデータ配信サーバについて図面を参照しながら 説明する。 図 1 3は、 この発明の実施例 5に係るメタデータ配信サーバの構成を 示すブロック図である。 図 1 3において、 メタデータ配信サーバ 4 0 O Aは、 ヒント情報解析部 6 1と、 メタデータ解析■再生成部 6 3と、 メタデータ配信部 4 5とを備える。 ヒント情報解析部 6 1は、 メタデータ最適化ヒント情報 6 0を解析しその結果 を出力する。 メタデータ解析 ·再生成部 6 3は、 解析されたメタデータ最適化ヒ ント情報 6 2と、 クライアント端末の性能に関する情報、 あるいは、 ユーザ嗜好 等のメタデータ再生成に関する条件 6 5とに基づいて、 コンテンツの構造や特徴 を記述したメタデータ 4 9を解析して再構成したメタデータ 6 4を出力する。 メ タデータ配信部 4 5は、 メタデータ 5 3をクライアント端末に配信する。 メタデータ蓄積部 4 1 (図 1 0参照) には、 コンテンツの構造や特徴を記述し たメタデータ 4 9と、 そのメタデータ 4 9を再生成するためのヒント情報のメタ データ最適化ヒント情報 6 0が蓄積されている。 メタデータ 4 9を再生成するた めのメタデータ最適化ヒント情報 6 0とは、 そのメタデータ 4 9に、 どのような 種類の情報が、 どのくらい含まれているか、 メタデータ 4 9の概要や複雑度を記 したものである。 つぎに、 この実施例 5に係るメタデータ配信サーバの動作について図面を参照 しながら説明する。 図 14に示す構造をもったビデオコンテンツを例に、 メタデータ最適化ヒント 情報 60について詳述する。 ビアォコンテンッ (Ro o t (S o c c e r g ame r o g r m) は、 大きく 2つのシーン (S c e n e l, S c e n e 2) の前半戦と後半戦から 構成され、 前半戦のシーンは、 さらに複数のシーン (S e e n e l— 1, S e e n e 1 - 2 S e e n e l— n) (ゴーノレシーン、 コーナーキックシー ンなど) から構成されている。 図 14では、 シーン間の時間的な階層構造をッリ 一構造により示している。 対応するメタデータ 49には、 このようなコンテンツの時間的な階層構造、 す なわち、 シーン間の時間的関係や各シーンの開始時間と長さが記述されている。 また、 各シーンに対しては、 階層のレベルに応じてそのシーンがもつ特徴 (例え ば、 色のヒストグラムや動きの複雑性) のほか、 タイ トル、 アブストラク ト、 ジ ヤンル、 注釈等のテキスト情報、 重要度、 などが記述されている。 なお、 本実施 例 5では、 メタデータの記述フォーマッ トとして、 I SOで標準化されている M P EG- 7を用いるものとする。 図 1 5は、 MP EG— 7を用いた場合のメタデータの記述例を示す。 MPEG 一 7では、 各シーンは 「ビデオセグメント」 と呼ばれる単位で記述される。 各ビ デォセグメントには、 時間情報 (シーンの開始点と長さ) 、 タイトル、 概要、 ジ ヤンル、 などが記述される。 なお、 ビデオセグメントの階層に応じてビデオセグ メント内で記述される情報が異なる場合がある。 図 1 5の例では、 レべノレ 2とレ ベル 3のビデオセグメントには、 重要度が記述されているが、 レベル 4では重要 度は記述されない。 また、 色や動きの特徴量はレベル 4のビデオセグメント内で のみ記述されている。 シーン間の時間的な階層関係は、 ビデオセグメントを再帰的に記述することに より表現することができる。 図 15の記述例では、 「時間分割」 という記述によ り、 1つのビデオセグメントが時間的に分割された複数のビデオセグメントから 構成されていることを記述している。 MPEG— 7では、 コンテンツのもつ空間 的な階層構造も同様に記述することができる。 この場合には、 「時間分割」 とい う記述の替わりに、 1つのセグメントが空間的に分割された複数のセグメントか ら構成されていることを示す 「空間分割」 という記述を用いる。 メタデータ 49の再生成のためのメタデータ最適化ヒント情報 60は、 そのメ タデータ 49に含まれる情報 (記述子) の種類や内容を記述したものである。 従 つて、 メタデータ最適化ヒント情報 60には、 図 1 5のメタデータに対しては、 コンテンツのもつ時間的な階層構造を表現する記述子 ( 「時間分割」 ) と、 色の ヒス トグラムや動きの複雑性を表現する記述子、 タイ トル、 アブストラク ト、 ジ ヤンル、 重要度を表現する記述子が含まれている。 また、 記述の内容や複雑性を 表す指標として、 ビデオセグメントの階層構造の深さは最大で 4 (レベル 1〜レ ベル 4) である。 重要度は、 5つの離散的な値 ( {0. 0, 0. 25, 0. 5, 0. 75, 1. 0} ) をとる。 この重要度の視点として、 " T e amA "の視点 で観たときの重要度と、 " T e a m B "の視点で観たときの重要度が記述されて いる。 また、 重要度が記述されている階層位置 (ビデオセグメントのどのレべノレ に記述されているか) も含まれている。 図 16は、 メタデータ最適化ヒント情報 60のフォーマット例を示す。 図 16 に示すメタデータ最適化ヒント情報 60には、 メタデータファイル情報と、 メタ データ構成要素情報とが含まれる。 メタデータファイル情報は、 メタデータファイルの所在、 メタデータファイル サイズ、 メタデータファイルフォーマッ ト (XMLフォーマッ ト、 バイナリフォ 一マットなどファイルフォーマッ トを示す) 、 シンタックスファイル情報 (メタ データの文法を規定するシンタックスファイルの所在) 、 メタデータに含まれる (出現する) 要素の数を示す出現要素数など、 メタデータを処理するために必要 なリソース (メタデータの蓄積■解析を行うために必要とするメモリサイズゃメ タデータを解析するために必要な処理系 (S /W) など) を予測するための情報 を記述する。 なお、 メタデータファイルのフォーマットを規定したシンタックス ファイルとは、 例えば、 メタデータが XM Lで記述されている場合には、 その記 述フォーマット (文法) を規定する D T Dファイルや s c h e m aファイルなど がそれに相当し、 シンタックスファイル情報とは、 D T Dファイルや s c h e m aファイルなどのシンタックスフアイルの所在を記述する。 メタデータ構成要素情報とは、 メタデータを構成する記述子の種類とその内容 を記述する情報である。 このメタデータ構成要素情報には、 メタデータに含まれ ている記述子の名称、 その記述子がメタデータ内に出現する頻度 (回数) 、 その 記述子が文法的に含む可能性のあるすベての記述子を含んでいるかどうかの記述 (完全記述性) 、 またその記述子が再帰的に記述される場合には、 その記述子が もつ時間または空間における階層性 (深さの最大値) が含まれる。 例えば、 図 1 5に示すメタデータ記述例では、 「ビデオセグメント」 が再帰的に記述される記 述子であり、 最大で 4階層の構造をもっているため、 「ビデオセグメント」 記述 子がもつ階層の深さは最大 4になる。 さらに、 再帰的に記述される記述子内に含まれる記述子については、 その記述 子が出現する出現位置 (階層) もヒント情報である。 例えば、 「重要度」 は 「ビ デォセグメント」 内に含まれる記述子であるが、 レベル 3以上の 「ビデオセグメ ント」 に含まれる、 すなわち、 レベル 4のビデオセグメントには含まれないとき に、 「重要度」 が出現する位置は、 最大で 3までになる。 なお、 このように、 出 現位置を階層レベルで指定することもできるが、 「重要度」 を含む 「ビデオセグ メント」 、 あるいは 「ビデオセグメント」 自体に I Dが振られている場合には、 出現位置を I Dのリストとして記述することも可能である。 また、 値をもつ記述 子の場合には記述子の型や記述子がとり得る値の範囲もヒント情報の一つである。 例えば、 重要度が " T e a mA " , " T e a m B "のそれぞれの視点から、 5つ の離散的な値 ( {0. 0, 0. 25, 0. 5, 0. 75, 1. 0} ) で表現され ている場合には、 「重要度」 のとり得る値は、 浮動小数点の型をもつリスト {0. 0, 0. 25, 0. 5, 0. 75, 1. 0} である。 以上の記述をメタデータの 構成要素である記述子毎に操り返す。 図 1 7は、 図 16のフォーマツトに従って記述されたメタデータ最適化ヒント 情報の一例を示す。 図 1 7に示すメタデータ最適化ヒント情報 60の一例には、 メタデータファイル情報と、 "ビデオセグメント" と "タイ トル" というメタデ- ータ構成要素情報とが含まれていることがわかる。 次に、 メタデータ最適化ヒント情報 60を使って、 メタデータの再生成を行う 手法について図 13を用いて説明する。 ヒント情報解析部 6 1では、 規定のフォーマットで記述されたメタデータ最適 化ヒント情報 60の解析を行う。 メタデータ解析 '再生成部 6 3では、 ヒント情 報解析部 61より出力される解析されたメタデータ最適化ヒント情報 62を使つ て、 メタデータ 49の解析を行い、 メタデータ再生成に関わる条件 65に基づい て再生成したメタデータ 64を出力する。 図 18は、 解析されたメタデータ最適化ヒント情報 62を使ったメタデータ解 析 ·再生成部 63によるメタデータの解析方法の一例を示す。 この例では、 もと のメタデータ 49から重要度が 0. 5以上の特徴をもつビデオセグメントのみを 抽出し、 抽出したビデオセグメントに関する記述のみで構成されたメタデータを 再生成するものとする。 まず、 メタデータ解析■再生成部 63は、 メタデータ再生成のための条件 65 より、 再生成に必要なメタデータを特定する (ステップ S 1) 。 ここでは、 重要 度が 0. 5以上の特徴をもつビデオセグメントのみを抽出するため、 「重要度」 や 「ビデオセグメント」 が再生成に必要な記述子である。 次に、 解析されたメタデータ最適化ヒント情報 6 2より、 メタデータ 4 9にス テツプ S 1で特定した記述子 (以下、 記述子 「重要度」 を例に説明する) が含ま れるかどうかを判定する (ステップ S 2 ) 。 メタデータに 「重要度」 の記逑子が含まれている場合には、 メタデータの解析 を行い (ステップ S 3 ) 、 「重要度」 の記述子が含まれていない場合には、 メタ データの解析処理を終了する (ステップ S 4 ) 。 また、 解析されたメタデータ最適化ヒント情報 6 2に、 「重要度」 の出現位置 が階層構造のレベル 3までと指定されている場合.には、 レベル 3までのビデオセ グメントの解析を終了した時点で (ステップ S 5 ) 、 レベル 4以下の階層につい ての解析を行わずに解析処理を終了する (ステップ S 6 ) 。 なお、 必要に応じて別のメタデータ 4 9の解析を行うため、 ステップ S 1以降 の処理を繰り返す。 また、 メタデータ最適化ヒント情報 6 2に 「重要度」 記述子 の出現回数が 2 0と指定されている場合には、 2 0個の 「重要度」 記述子を解析 し終えた時点で (ステップ S 5 ) 、 メタデータの解析を終了する (ステップ S 6 ) 。 さらに、 ステップ S 4またはステップ S 6でメタデータの解析処理を終了後 、 必要に応じて別のメタデータの解析を行うため、 ステップ S 1以降の処理を繰 り返す。 図 1 9は、 解析されたメタデータ最適化ヒント情報 6 2を使ったメタデータの 解析方法の別の例を示す。 この例では、 「タイ トル」 記述子を含むビデオセグメ ントのみを抽出してメタデータを再生成するものとする。 メタデータに 「タイ ト ル」 記述子を含むかどうかの判定は、 図 1 8の例と同じである。 メタデータ解析 ·再生成部 6 3は、 メタデータに 「タイ トル」 記述子を含む場 合には、 メタデータ最適化ヒント情報 6 2に記述されている出現位置の I Dに一 致するビデオセグメントかどうかを判定する (ステップ S 1 3 ) 。
I Dに一致しない場合には、 「タイトル」 記述子を含まないビデオセグメント のため、 そのビデオセグメントの記述の解析をスキップする (ステップ S 1 6 ) 。
I Dに一致する場合には、 「タイ トル」 記述子を取得するため、 そのビデオセ グメントの記述の解析を行う ( S 1 5 ) 。 次に、 出現位置の I Dに一致するすべてのビデオセグメントを解析し終えた場 合 (ステップ S 1 7 ) には、 これ以上、 「タイ トル」 記述子を含むビデオセグメ ントはメタデータ内に存在しないため、 解析処理を終了する (ステップ S 1 8 ) 。 なお、 必要に応じて別のメタデータの解析を行うため、 ステップ S 1 1以降の 処理を繰り返す。 以上の解析処理を通して抽出された記述子で再構成したメタデ ータ 6 4を出力する。 メタデータ配信部 4 5では、 再構成されたメタデータ 6 4を各種クライアント 端末へ配信する。 なお、 図示はしていないが、 メタデータ再生成後にはメタデータフアイルの所 在やメタデータファイルサイズ、 メタデータに出現する要素数、 メタデータ構成 要素に関する情報も変わるため、 再生成後のメタデータに対応するメタデータ最 適化ヒント情報を再生成してもよい。 以上のように、 従来はメタデータ再生成のためにメタデータに含まれるすべて の記述子を解析しなければならなかったが、 本実施例 5においては、 メタデータ 4 9に含まれる記述子のリストゃ記述子の出現位置、 出現回数等が記述されたメ タデータ最適化ヒント情報 6 0を使ってメタデータ 4 9の記述子を解析を行うよ うにしたため、 メタデータ再生成のためのメタデータ 4 9自体の解析を省くこと ができ、 また出現位置や出現回数により、 再生成条件に合致しない記述子の解析 を省くことができるため、 メタデータの解析及び再生成に伴う処理コスト (処理 量やメモリ使用量等) を低減することができる。 実施例 6 . 上記の実施例 5では、 メタデータ再生成のためのメタデータ最適化ヒント情報 を用いて、 メタデータの解析および再生成に伴う処理コストを低減するメタデー タ配信サーバについて説明したが、 この実施例 6では、 メタデータ最適化ヒント 情報を用いて、 メタデータの検索に伴う処理を軽減するメタデータ検索サーバ
(メタデータ検索装置) について説明する。 この発明の実施例 6に係るメタデータ検索サーバについて図面を参照しながら 説明する。 図 2 0は、 この発明の実施例 6に係るメタデータ検索サーバの構成を 示すブロック図である。 図 2 0において、 メタデータ検索サーバ 6 0 0は、 ヒント情報解析部 6 1と、 メタデータ解析部 7 1と、 検索部 7 3とを備えている。 ヒント情報解析部 6 1は、 上記実施例 5と同じであるので、 説明を省略する。 メタデータ解析部 7 1は、 解析されたメタデータ最適化ヒント情報 6 2と検索条 件 7 0を用いて、 コンテンツの構造や特徴を記述した膨大なメタデータ 4 9の解 析を少ない処理コス トで効率的に行う。 検索部 7 3は、 メタデータの解析結果 7 2を利用して、 検索条件に適合するコンテンッを検索する。 つぎに、 この実施例 6に係るメタデータ検索サーバの動作について図面を参照 しながら説明する。 図 2 1は、 この実施例 6に係るメタデータ検索サーバのメタデータ解析部の動 作を示すフローチヤ一トである。 メタデータ解析部 7 1は、 1つ以上のメタデータの解析を各メタデータに対応 するメタデータ最適化ヒント情報 6 2を用いて行う。 メタデータの解析とは、 こ こでは、 メタデータから検索に必要な特徴記述の抽出を行うことである。 例えば、 検索条件としてビデオセグメントの色の特徴量が与えられ、 そのビデオセグメン トに近い特徴をもつビデオセグメントを検索する場合には、 色に関する特徴記述 をもつビデオセグメントを抽出する必要がある。 図 1 5に示すメタデータ例では、 レベル 4のビデオセグメン卜に対し、 色の特徴記述 ( 「色のヒストグラム」 ) が 付加されているため、 レベル 4のビデオセグメントに関する記述を抽出する。 メタデータ解析部 7 1は、 検索条件 7 0を解析し、 検索に有効な記述子の特定 を行う (ステップ S 2 1 ) 。 検索条件として、 M P E G— 7に規定された記述に 従った特徴量が与えられる場合と、 画像やキーヮードが与えられる場合などがあ る。 検索条件が M P E G— 7の記述に従った特徴量 (例えば色配置情報) として 与えられる場合には、 その記述子 (色配置情報) が検索に有効な記述子となる。 また、 キーワードとして検索条件が与えられる場合には、 テキスト形式の記述子 (タイ トル、 アブストラク ト、 注釈など) 力 検索に有効な記述子となる。 次に、 メタデータ最適化ヒント情報 6 2を参照して、 選択された記述子がメタ データ 4 9に含まれるかどうかの判定を行う (ステップ S 2 2 ) 。 検索に用いる 記述子がメタデータ 4 9に含まれない場合には、 そのメタデータ 4 9の解析処理 を終了 (ステップ S 2 4 ) し、 必要に応じて別のメタデータ 4 9の解析を行う。 選択された記述子がメタデータ 4 9に含まれる場合には、 メタデータの解析を 行う (ステップ S 2 3 ) 。 メタデータの解析方法については上記実施例 5の場合 と同様にメタデータ最適化ヒント情報 6 2を用いて図 1 8や図 1 9に示すメタデ ータ解析処理を効率的に行う (ステップ S 2 5〜S 2 6 ) 。 以上の処理を通して、 メタデータ解析部 7 1より検索に必要な特徴記述が抽出される。 検索部 7 3では、 メタデータ解析部 7 1より出力されるメタデータの解析結果 (検索に必要な特徴記述) 7 2を利用して、 検索条件に適合するコンテンツを検 索する。 上述した例では、 色の特徴記述 ( 「色のヒス トグラム」 ) をもったビデ 才セグメントに関する記述がメタデータ解析部 7 1より出力されるので、 検索条 件として与えられた色の特徴量 (ヒス トグラム) との適合性を判定し、 適合した ビデオセグメントの情報 (例えば 「時間情報 J ) を検索結果 7 4として出力する。 以上のように、 本実施例 6では、 メタデータ最適化ヒント情報 6 0を使ってメ タデータ 4 9の解析を行うため、 メタデータ再生成のためのメタデータ 4 9自体 の解析を省くことができる。 また、 出現位置や出現回数により、 検索に必要では ない記述子の解析を省くことができるため、 メタデータの検索に伴う処理コスト (処理量やメモリ使用量等) を低減することができる。 実施例 7 . 上記の実施例 5または実施例 6では、 メタデータ最適化ヒント情報を利用する サーバ側について説明したが、 この実施例 7では、 メタデータ最適化ヒント情報 を利用するクライアント端末 (メタデータ再生成条件設定装置) について説明す る。 . この発明の実施例 7に係るクライアント端末について図面を参照しながら説明 する。 図 2 2は、 この発明の実施例 7に係るクライアント端末の構成を示すプロ ック図である。 図 2 2において、 クライアント端末 4 8 Aは、 ヒント情報解析部 8 0と、 メタ データ再生成条件設定部 8 2とを備えている。 なお、 図 2 2には、 クライアント端末 4 8 Aに備わる機能のうち、 メタデータ 最適化ヒント情報 6 0を利用してメタデータ再生成のための条件を設定する手段 に関わる部分のみを示している。 つぎに、 この実施例 7に係るクライアント端末の動作について図面を参照しな がら説明する。 ヒント情報解析部 8 0は、 規定のフォーマットで記述されたメタデータ最適化 ヒント情報 6 0の解析を行う。 このヒント情報角军析部 8 0は、 上記実施例 5と同 じであるので、 詳細な説明を省略する。 メタデータ再生成条件設定部 8 2は、 ヒント情報解析部 8 0より出力される解 析結果 8 1をもとに、 メタデータ再生成の条件設定 8 3を行う。 条件設定とは、 例えば、 メタデータ最適化ヒント情報 6 0に含まれる記述子の種類の中からクラ イアント端末 4 8 Aに不必要な記述子の選択がある。 クライアント端末 4 8 Aが 特徴量を用いた検索機能を備えない場合には、 色のヒストグラムや動きの複雑性 などの特徴量を表現する記述子は不要である。 条件設定の別の例として、 コンテンツのシーン関係を記述する階層構造が深く なるほどメタデータの複雑度が増すときに、 メタデータ最適化ヒント情報 6 0に 記述されている階層構造の深さの最大値をもとに、 クライアント端末で処理可能 な階層構造の深さを設定する。 また、 別の例では、 メタデータ最適化ヒント情報 6 0に記述されている重要度がとり得る値の情報をもとに、 ユーザが着目する視 点と、 選択するシーンの重要度の閾値を設定する。 上述したように、 重要度が " T e a mA "、 " T e a m B "のそれぞれの視点 から、 5つの離散的な値 ( { 0 . 0, 0 . 2 5, 0 . 5, 0 . 7 5 , 1 . 0 } ) をとる場合には、 " T e a mA "の視点で 0 . 5以上の重要度をもつシーンのみ を選択するなどの設定を行うことができる。 メタデータ再生成条件設定部 8 2で設定されたメタデータ再生成のための条件 8 3は、 メタデータ配信サーバに送信される。 メタデータ配信サーバ側では、 メ タデータ再生成のための条件と、 クライアント端末の端末性能とに基づいてメタ データを再構成する。 例えば、 もとのメタデータの階層構造の深さの最大値が 4 で、 メタデータ再生成条件に、 クライアント端末で処理可能な階層構造の深さが 2と設定されている場合には、 階層構造の深さの最大値が 2となるように、 メタ データの構造を再構成する。 また、 メタデータ再生成条件に、 " T e a mA "の視点で重要度が 0 . 5以上 のシーンのみを選択すると設定されている場合には、 同条件に合致するシーンの みで構成されたメタデータを再生成する。 メタデータ再生成は、 上記実施例 5と 同様にメタデータ最適化ヒント情報を用いて効率的に行うことができる。 以上のように、 本実施例 7では、 メタデータ最適化ヒント情報 6 0を使ってメ タデータ再生成のための条件を設定することができるため、 クライアント端末や アプリケーションに応じて適切なメタデータを生成することができる。 実施例 8 . 上記の実施例 5または実施例 6では、 メタデータ最適化ヒント情報を用いてメ タデータを再生成し、 再生成したメタデータを配信するサーバについて説明した が、 この実施例 8では、 メタデータ最適化ヒント情報を用いてメタデータを解析 し、 解析結果を利用してクライアント端末やユーザ嗜好に適したコンテンツを再 生成して配信するコンテンツ配信サーバ (コンテンツ配信装置) について説明す る。 この発明の実施例 8に係るコンテンツ配信サーバについて図面を参照しながら 説明する。 図 2 3は、 この発明の実施例 8に係るコンテンツ配信サーバの構成を 示すブロック図である。 図 2 3において、 コンテンッ配信サーバ 5 0 0 Aは、 ヒント情報解析部 6 1と、 メタデータ解析部 8 6と、 コンテンツ再構成 ·配信部 8 8とを備える。 つぎに、 この実施例 8に係るコンテンツ配信サーバの動作について図面を参照 しながら説明する。 ヒント情報解析部 6 1の動作は、 上記実施例 5と同様であるので、 説明を省略 する。 メタデータ解析部 8 6は、 ヒント情報解析部 6 1より出力される解析されたメ タデータ最適化ヒント情報 6 2を使って、 メタデータ 4 9の解析を行い、 クライ アント端末に関する情報、 あるいは、 ユーザ嗜好等のコンテンツ再構成に関する 条件 8 5に合致する記述を抽出する。 ヒント情報を使った解析方法は、 上記実施 例 5と同様であるが、 実施例 5と異なる点は、 抽出した記述を使ってメタデータ を再生成するのではなく、 コンテンツを再構成する点である。 このメタデータ解 析部 8 6で抽出された記述、 すなわち解析されたメタデータ 8 7は、 コンテンツ 再構成■配信部 8 8へ出力される。 コンテンッ再構成■配信部 8 8は、 メタデータ解析部 8 6で抽出された記述を 元に、 コンテンツ 8 9の再構成を行う。 ここでは、 上記実施例 5で述べた例を用 いて説明する。 実施例 5の例では、 メタデータ 4 9から重要度が 0 . 5以上の特 徴をもつビデオセグメントのみを抽出し、 抽出したビデオセグメントに関する記 述のみで構成されたメタデータを再生成した。
この実施例 8では、 メタデータ 4 9から重要度が 0 . 5以上の特徴をもつビデ ォセグメントのみを抽出し、 抽出したビデオセグメントに対応するシーンのみで 構成されたコンテンツ 9 0を再構成して配信する。 抽出したビデオセグメントに 関する記述には、 対応するコンテンツの所在とそのビデオセグメントのコンテン ッ内での位置 (時間情報) が記述されているので、 コンテンツから対応するシー ンを切り出し、 一つのコンテンツ 9 0に再構成した上で配信することもできるが、 コンテンツから対応するシーンを切り出し、 切り出したシーンを順次配信するこ ともできる。 以上のように、 本実施例 8に係るコンテンツ配信サーバ 5 0 O Aでは、 メタデ ータ 4 9に含まれる記述子のリストゃ記述子の出現位置、 出現回数等が記述され たメタデータ最適化ヒント情報 6 0を使ってメタデータの解析を行うため、 メタ データ再生成のためのメタデータ 4 9自体の解析を省くことができる。 また、 出 現位置や出現回数により、 再生成条件に合致しない記述子の解析を省くことがで きるため、 クライアント端末やユーザ嗜好に適したコンテンツを再生成して配信 する際のメタデータの解析及びコンテンツの再構成に伴う処理コスト (処理量や メモリ使用量等) を低減することができる。 産業上の利用の可能性
この発明は、 以上説明したとおり、 動画像や音声を含むマルチメディアコンテ ンッを複数のシーンに分割し、 複数に分割したシーンを編集してマルチメディア コンテンッの階層的な構造を記述するシーン構造情報メタデータを生成するよう にしたので、 ビデオデータ等を含むマルチメディアコンテンツのもつ階層的な構 造を記述したメタデータを生成することができる。

Claims

請 求 の 範 囲
1 . 動画像、 音声の少なくとも一つを含むマルチメディアコンテンツを複数の シーンに分割し、 分割したシーン毎にシーンの開始位置と終了位置とを示すシー ンの区間情報メタデータを生成するシーン分割部と、
前記シーン分割部からのシーンの区間情報メタデータに基づいて、 前記マルチ メディアコンテンッの各シーンの階層的な編集を行ない、 前記マルチメディァコ ンテンッの階層的な構造を記述するシーン構造情報メタデータを生成するシーン 記述編集部と、
前記シーンの区間情報メタデータ、 及び前記シーン構造情報メタデータを統合 し、 所定のフォーマツトに従つて前記マルチメディアコンテンツの内容及び構造 を記述したメタデータを生成するメタデータ記述部と ,
を備えるメタデータ編集装置。
2 . 前記シーン分割部からのシーンの区間情報メタデータに基づいて、 前記マ ルチメディアコンテンツの各シーンの視覚的特徴量を抽出して特徴記述メタデー タを生成する特徴抽出部をさらに備え、
前記メタデータ記述部は、 前記シーンの区間情報メタデータ、 前記シーン構造 情報メタデータ、 及び前記特徴記述メタデータを統合し、 所定のフォーマットに 従つて前記マルチメディアコンテンツの内容及び構造を記述したメタデータを生 成する
請求項 1のメタデータ編集装置。
3 . フレーム間差分に基づいて前記マルチメディ了コンテンッのシーンチェン ジ点を検出するシーンチェンジ検出部をさらに備え、
前記シーン分割部は、 前記シーンチェンジ点に基づいて前記マルチメディァコ ンテンッを複数のシーンに分割する
請求項 1又は 2のメタデータ編集装置。
4 . 動画像、 音声の少なくとも一つを含むマルチメディアコンテンツの内容及 び構造を記述したメタデータを解析するメタデータ解析部と、
前記メタデータ解析部の解析結果により取得された前記メタデータに記述され ているシーンの視覚的特徴量に基づいて、 前記メタデータから所定の検索条件に 合致するシーンを検索する検索部と、
前記メタデータ解析部の解析結果により取得された前記メタデータに記述され ている所定の情報に基づいて、 所定の要約作成条件に合致する前記マルチメディ ァコンテンツの要約情報を作成する要約作成部と
を備えるメタデータ再生装置。
5 . 動画像、 音声の少なくとも一つを含むマルチメディアコンテンツの内容及 び構造を記述したメタデータを解析するメタデータ解析部と、
クライアント端末の性能に関する情報に基づいて前記クライアント端末の能力 を判定する端末能力判定部と、
前記メタデータ解析部のメタデータ解析結果に基づいて、 前記判定されたクラ イアント端末の能力に応じて前記マルチメディアコンテンツを再構成し、 その内 容を記述した第 2のメタデータを再生成するメタデータ再生成部と、
前記メタデータ再生成部により再生成された第 2のメタデータを前記クライァ ント端末に配信するメタデータ配信部と
を備えるメタデータ配信装置。
6 . メタデータに含まれる記述子の種類を記述するメタデータ最適化ヒント情 報を解析するヒント情報解析部と、
前記解析されたメタデータ最適化ヒント情報、 及びメタデータ再生成に関する 条件に基づいて、 動画像、 音声の少なくとも一つを含むマルチメディアコンテン ッの内容及ぴ構造を記述したメタデータを解析して第 2のメタデータを再生成す るメタデータ解析 ·再生成部と、
前記メタデ一タ解析 ·再生成部により再生成された第 2のメタデータをクライ アント端末に配信するメタデータ配信部と を備えるメタデータ配信装置。
7 . メタデータに含まれる記述子の種類と内容を記述するメタデータ最適化ヒ ント情報を解析するヒント情報解析部と、
前記解析されたメタデータ最適化ヒント情報、 及び検索条件に基づいて、 動画 像、 音声の少なく とも一つを含むマルチメディアコンテンツの内容及び構造を記 述したメタデータを解析するメタデータ解析部と、
前記メタデータの解析結果を利用して、 前記検索条件に適合するコンテンツを 検索する検索部と
を備えるメタデータ検索装置。
8 . メタデータに含まれる記述子の種類と内容を記述するメタデータ最適化ヒ ント情報を解析するヒント情報解析部と、
前記解析されたメタデータ最適化ヒント情報に基づいて、 動画像、 音声の少な くとも一つを含むマルチメディアコンテンツの内容及び構造を記述したメタデー タを再生成するための条件を設定するメタデータ再生成条件設定部と
を備えるメタデータ再生成条件設定装置。
9 . メタデータに含まれる記述子の種類と内容を記述するメタデータ最適化ヒ ント情報を解析するヒント情報解析部と、
前記解析されたメタデータ最適化ヒント情報、 及ぴコンテンッ再構成に関する 条件に基づいて、 動画像、 音声の少なくとも一つを含むマルチメディアコンテン ッの内容及び構造を記述したメタデータから前記コンテンツ再構成に関する条件 に合致する記述を抽出するメタデータ解析部と、
前記抽出された記述に基づいて、 コンテンツを再構成してクライアント端末に 配信するコンテンッ再構成 ·配信部と
を備えるコンテンツ配信装置。
1 0 . メタデータに含まれる記述子の種類を記述するメタデータ最適化ヒント 情報を解析するステップと、
前記解析されたメタデータ最適化ヒント情報、 及ぴメタデータ再生成に関する 条件に基づいて、 動画像、 音声の少なくとも一つを含むマルチメディアコンテン ッの内容及び構造を記述したメタデータを解析して第 2のメタデータを再生成す 前記再生成された第 2のメタデータをクライアント端末に配信するステップと を含むメタデータ配信方法。
1 1 . 前記メタデータ最適化ヒント情報は、 メタデータファイル情報として、 メタデータファイルの所在、 メタデータに含まれる要素の数を示す出現要素数が 記述されている
請求項 1 0のメタデータ配信方法。
1 2 . 前記メタデータ最適化ヒント情報は、 メタデータファイル情報として、 メタデータフアイ/レのサイズ、 メタデータファイルのフォーマット、 シンタック スフアイル情報が記述されている
請求項 1 0のメタデータ配信方法。
1 3 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子の名称が記述されている
請求項 1 0のメタデータ配信方法。
1 4 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子の出現する頻度が記述されている
請求項 1 0のメタデータ配信方法。
1 5 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子の完全記述性が記述されている
請求項 1 0のメタデータ配信方法。
1 6 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子がもつ時間における階層性が記述されている 請求項 1 0のメタデータ配信方法。
1 7 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子がもつ空間における階層性が記述されている 請求項 1 0のメタデータ配信方法。
1 8 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子が出現する出現位置が記述されている 請求項 1 0のメタデータ配信方法。
1 9 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子の型が記述されている
請求項 1 0のメタデータ配信方法。
2 0 . 前記メタデータ最適化ヒント情報は、 メタデータ構成要素情報の一つと して、 メタデータに含まれる記述子のとり得る範囲が記述されている
請求項 1 0のメタデータ配信方法。
PCT/JP2003/003450 2002-04-12 2003-03-20 Dispositif d'edition de metadonnees, dispositif de reproduction de metadonnees, dispositif de distribution de metadonnees, dispositif de recherche de metadonnees, dispositif d'etablissement de conditions de reproduction de metadonnees, et procede de distribution de metadonnees WO2003088665A1 (fr)

Priority Applications (12)

Application Number Priority Date Filing Date Title
CA2482431A CA2482431C (en) 2002-04-12 2003-03-20 An apparatus to edit, reproduce, deliver, search and re-generate condition settings for metadata
JP2003585438A JPWO2003088665A1 (ja) 2002-04-12 2003-03-20 メタデータ編集装置、メタデータ再生装置、メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、及びメタデータ配信方法
US10/510,548 US7826709B2 (en) 2002-04-12 2003-03-20 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
AU2003221185A AU2003221185A1 (en) 2002-04-12 2003-03-20 Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
KR1020047016204A KR100912984B1 (ko) 2002-04-12 2003-03-20 메타데이터 편집 장치, 메타데이터 재생 장치, 메타데이터 배신 장치, 메타데이터 검색 장치, 메타데이터 재생성 조건 설정 장치, 콘텐츠 배신 장치, 메타데이터 배신 방법, 메타데이터 재생성 장치, 메타데이터 재생성 방법
EP03712804A EP1496701A4 (en) 2002-04-12 2003-03-20 METADATA EDITING DEVICE, METADATA REPRODUCTION DEVICE, METADATA DISTRIBUTION APPARATUS, METADA SEARCHING DEVICE, METADATA REPRODUCTION STATUS DISPLAYING DEVICE AND METADATA DISTRIBUTION METHOD
US11/980,544 US20080065697A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,624 US20080071837A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,514 US20080075431A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,523 US20080071836A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,648 US8811800B2 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US12/555,510 US20100005070A1 (en) 2002-04-12 2009-09-08 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, and metadata delivery method and hint information description method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002-110259 2002-04-12
JP2002110259 2002-04-12
JP2002-178169 2002-06-19
JP2002178169 2002-06-19

Related Child Applications (7)

Application Number Title Priority Date Filing Date
US10510548 A-371-Of-International 2003-03-20
US11/980,523 Division US20080071836A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,514 Division US20080075431A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,648 Division US8811800B2 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,624 Division US20080071837A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US11/980,544 Division US20080065697A1 (en) 2002-04-12 2007-10-31 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US12/555,510 Division US20100005070A1 (en) 2002-04-12 2009-09-08 Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, and metadata delivery method and hint information description method

Publications (1)

Publication Number Publication Date
WO2003088665A1 true WO2003088665A1 (fr) 2003-10-23

Family

ID=29253534

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003450 WO2003088665A1 (fr) 2002-04-12 2003-03-20 Dispositif d'edition de metadonnees, dispositif de reproduction de metadonnees, dispositif de distribution de metadonnees, dispositif de recherche de metadonnees, dispositif d'etablissement de conditions de reproduction de metadonnees, et procede de distribution de metadonnees

Country Status (10)

Country Link
US (7) US7826709B2 (ja)
EP (7) EP1496701A4 (ja)
JP (5) JPWO2003088665A1 (ja)
KR (4) KR100918725B1 (ja)
CN (1) CN100367794C (ja)
AU (1) AU2003221185A1 (ja)
CA (2) CA2482431C (ja)
SG (1) SG152905A1 (ja)
TW (1) TWI231140B (ja)
WO (1) WO2003088665A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005192196A (ja) * 2003-11-12 2005-07-14 Sony Internatl Europ Gmbh ビデオ信号のサブセットの定義方法及び自動番組要約装置
JP2006066015A (ja) * 2004-08-30 2006-03-09 Sony Corp 画像情報記録装置および画像情報表示装置
JP2007041861A (ja) * 2005-08-03 2007-02-15 Sharp Corp コンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体
JP2007527142A (ja) * 2003-07-08 2007-09-20 松下電器産業株式会社 コンテンツ蓄積システム、ホームサーバ装置、情報提供装置、集積回路、及びプログラム
JP2008099012A (ja) * 2006-10-12 2008-04-24 Mitsubishi Electric Corp コンテンツ再生システム及びコンテンツ蓄積システム
JP2008526071A (ja) * 2004-12-24 2008-07-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 番組検索情報を編集する方法および装置
JP2008244656A (ja) * 2007-03-26 2008-10-09 Ntt Docomo Inc 遠隔視聴システム及び遠隔視聴方法
WO2008136466A1 (ja) * 2007-05-01 2008-11-13 Dep Co., Ltd. 動画編集装置
JP2009152927A (ja) * 2007-12-21 2009-07-09 Sony Corp コンテンツの再生方法および再生システム
JP2009171480A (ja) * 2008-01-21 2009-07-30 Hitachi Ltd 映像記録再生装置及び映像再生装置
JPWO2008041629A1 (ja) * 2006-09-29 2010-02-04 ソニー株式会社 再生装置および方法、情報生成装置および方法、データ格納媒体、データ構造、プログラム格納媒体、並びにプログラム
JP4978894B2 (ja) * 2005-01-25 2012-07-18 日本電気株式会社 構造化文書検索装置、構造化文書検索方法および構造化文書検索プログラム
JP2013051707A (ja) * 2007-04-17 2013-03-14 Thomson Licensing データストリームにおけるビデオデータ及び関連するメタデータを送信する方法
CN103309933A (zh) * 2005-07-19 2013-09-18 苹果公司 用于媒体数据传输的方法和设备
JP2014197879A (ja) * 2007-01-05 2014-10-16 ソニック アイピー, インコーポレイテッド プログレッシブ再生を含む映像分配システム

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050162515A1 (en) * 2000-10-24 2005-07-28 Objectvideo, Inc. Video surveillance system
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
TWI310545B (en) * 2003-10-04 2009-06-01 Samsung Electronics Co Ltd Storage medium storing search information and reproducing apparatus
KR20070007788A (ko) * 2004-01-30 2007-01-16 마츠시타 덴끼 산교 가부시키가이샤 콘텐츠 재생장치
CA2568060A1 (en) * 2004-05-25 2005-12-08 Samsung Electronics Co., Ltd. Method of reproducing multimedia data using musicphotovideo profiles and reproducing apparatus using the method
US20050289593A1 (en) * 2004-05-26 2005-12-29 Skipjam Corp. Method and system for displaying and selecting content of an electronic program guide
US8953908B2 (en) * 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features
US8156123B2 (en) * 2004-06-25 2012-04-10 Apple Inc. Method and apparatus for processing metadata
US9053754B2 (en) * 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
KR100619064B1 (ko) 2004-07-30 2006-08-31 삼성전자주식회사 메타 데이터를 포함하는 저장 매체, 그 재생 장치 및 방법
KR100565080B1 (ko) * 2004-09-13 2006-03-30 삼성전자주식회사 대표 타이틀 정보가 부가된 메타 데이터를 포함한 av데이터를 기록한 정보저장매체, 그 재생장치 및 메타데이터 검색방법
KR100602388B1 (ko) * 2004-11-17 2006-07-20 주식회사 픽스트리 엠펙-21 멀티미디어 프레임워크에서의 리소스 참조 방법
KR20060065476A (ko) 2004-12-10 2006-06-14 엘지전자 주식회사 기록매체, 기록매체 내의 콘텐츠 서치방법 및 기록매체재생방법과 재생장치
JP4349277B2 (ja) * 2004-12-24 2009-10-21 株式会社日立製作所 動画再生装置
US8360884B2 (en) 2005-01-07 2013-01-29 Electronics And Telecommunications Research Institute Apparatus and method for providing adaptive broadcast service using game metadata
FR2883441A1 (fr) * 2005-03-17 2006-09-22 Thomson Licensing Sa Procede de selection de parties d'une emission audiovisuelle et dispositif mettant en oeuvre le procede
TWI309389B (en) * 2005-05-06 2009-05-01 Sunplus Technology Co Ltd Digital audio-video information reproducing apparatus and reproducing method thereof
KR100654455B1 (ko) 2005-05-26 2006-12-06 삼성전자주식회사 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법
EP2894831B1 (en) * 2005-06-27 2020-06-03 Core Wireless Licensing S.a.r.l. Transport mechanisms for dynamic rich media scenes
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20070078898A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Server-based system and method for retrieving tagged portions of media files
US20070078883A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Using location tags to render tagged portions of media files
US20070078896A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Identifying portions within media files with location tags
US8271551B2 (en) * 2005-10-13 2012-09-18 Lg Electronics Inc. Method and apparatus for encoding/decoding
US7743363B2 (en) * 2005-10-13 2010-06-22 Microsoft Corporation Extensible meta-data
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US8856118B2 (en) * 2005-10-31 2014-10-07 Qwest Communications International Inc. Creation and transmission of rich content media
JPWO2007052395A1 (ja) * 2005-10-31 2009-04-30 シャープ株式会社 視聴環境制御装置、視聴環境制御システム、視聴環境制御方法、データ送信装置及びデータ送信方法
US8196032B2 (en) * 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
JP2007179435A (ja) * 2005-12-28 2007-07-12 Sony Corp 情報処理装置、情報処理方法、プログラム
US7421455B2 (en) * 2006-02-27 2008-09-02 Microsoft Corporation Video search and services
US20070204238A1 (en) * 2006-02-27 2007-08-30 Microsoft Corporation Smart Video Presentation
US7873946B2 (en) * 2006-03-23 2011-01-18 Oracle America, Inc. Scalable vector graphics, tree and tab as drag and drop objects
JP2007265341A (ja) * 2006-03-30 2007-10-11 Sony Corp コンテンツ利用方法、コンテンツ利用装置、コンテンツ記録方法、コンテンツ記録装置、コンテンツ提供システム、コンテンツ受信方法、コンテンツ受信装置およびコンテンツデータフォーマット
JP4377887B2 (ja) * 2006-03-30 2009-12-02 株式会社東芝 映像分割装置
US8549492B2 (en) * 2006-04-21 2013-10-01 Microsoft Corporation Machine declarative language for formatted data processing
US7827155B2 (en) * 2006-04-21 2010-11-02 Microsoft Corporation System for processing formatted data
JP4760572B2 (ja) * 2006-06-30 2011-08-31 ソニー株式会社 編集装置および編集方法、並びにプログラム
US8275814B2 (en) 2006-07-12 2012-09-25 Lg Electronics Inc. Method and apparatus for encoding/decoding signal
US20080019281A1 (en) * 2006-07-21 2008-01-24 Microsoft Corporation Reuse of available source data and localizations
US7769363B2 (en) * 2006-08-01 2010-08-03 Chew Gregory T H User-initiated communications during multimedia content playback on a mobile communications device
US20080065693A1 (en) * 2006-09-11 2008-03-13 Bellsouth Intellectual Property Corporation Presenting and linking segments of tagged media files in a media services network
WO2008032739A1 (fr) * 2006-09-12 2008-03-20 Panasonic Corporation Dispositif de formation d'image de contenu
WO2008048067A1 (en) 2006-10-19 2008-04-24 Lg Electronics Inc. Encoding method and apparatus and decoding method and apparatus
KR101317204B1 (ko) * 2006-11-27 2013-10-10 삼성전자주식회사 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치
KR100827241B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 동적 영상물을 생성하기 위한 템플릿을 편집하는 장치 및방법
FR2910769B1 (fr) * 2006-12-21 2009-03-06 Thomson Licensing Sas Procede de creation d'un resume d'un document audiovisuel comportant un sommaire et des reportages, et recepteur mettant en oeuvre le procede
US8671346B2 (en) * 2007-02-09 2014-03-11 Microsoft Corporation Smart video thumbnail
KR100864524B1 (ko) * 2007-02-14 2008-10-21 주식회사 드리머 디지털 방송 데이터 어플리케이션 실행 방법 및 이를실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한기록 매체
JP4469868B2 (ja) * 2007-03-27 2010-06-02 株式会社東芝 説明表現付加装置、プログラムおよび説明表現付加方法
WO2008129600A1 (ja) * 2007-04-05 2008-10-30 Sony Computer Entertainment Inc. コンテンツ再生装置、コンテンツ配信装置、コンテンツ配信システム及びメタデータ生成方法
KR100935862B1 (ko) * 2007-07-06 2010-01-07 드리머 매체 재생 장치 기반 컨텐츠 제공 시스템
JP4360428B2 (ja) * 2007-07-19 2009-11-11 ソニー株式会社 記録装置、記録方法、コンピュータプログラムおよび記録媒体
JP4420085B2 (ja) * 2007-08-20 2010-02-24 ソニー株式会社 データ処理装置、データ処理方法、プログラムおよび記録媒体
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치
KR20090031142A (ko) * 2007-09-21 2009-03-25 삼성전자주식회사 컨텐츠 생성시 관련된 컨텐츠를 표시하는 gui 제공방법및 이를 적용한 멀티미디어 기기
KR101034758B1 (ko) * 2007-10-04 2011-05-17 에스케이 텔레콤주식회사 통합 멀티미디어 파일의 초기 실행 방법과 이를 위한시스템
US20090158157A1 (en) * 2007-12-14 2009-06-18 Microsoft Corporation Previewing recorded programs using thumbnails
KR20090079010A (ko) * 2008-01-16 2009-07-21 삼성전자주식회사 프로그램 정보 표시 방법 및 장치
JP5188260B2 (ja) * 2008-05-08 2013-04-24 キヤノン株式会社 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体
US20090287655A1 (en) * 2008-05-13 2009-11-19 Bennett James D Image search engine employing user suitability feedback
JP2011523309A (ja) * 2008-06-06 2011-08-04 ディヴィクス インコーポレイテッド マルチメディアファイルのためのフォントファイル最適化システム及び方法
US20090315981A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
KR101539935B1 (ko) * 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
US20090317062A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
JP5649273B2 (ja) * 2008-08-25 2015-01-07 株式会社東芝 情報処理装置、情報処理方法および情報処理プログラム
JP5091806B2 (ja) * 2008-09-01 2012-12-05 株式会社東芝 映像処理装置及びその方法
JP5322550B2 (ja) * 2008-09-18 2013-10-23 三菱電機株式会社 番組推奨装置
US8239359B2 (en) * 2008-09-23 2012-08-07 Disney Enterprises, Inc. System and method for visual search in a video media player
KR101592943B1 (ko) * 2008-12-11 2016-02-12 엘지전자 주식회사 이동 단말기 및 이동 단말기의 데이터 관리 방법
KR20110032610A (ko) * 2009-09-23 2011-03-30 삼성전자주식회사 장면 분할 장치 및 방법
KR20110047768A (ko) 2009-10-30 2011-05-09 삼성전자주식회사 멀티미디어 컨텐츠 재생 장치 및 방법
CN102065237B (zh) * 2009-11-13 2014-12-24 新奥特(北京)视频技术有限公司 一种方便处理字幕文件的字幕机
WO2011059275A2 (en) * 2009-11-13 2011-05-19 Samsung Electronics Co., Ltd. Method and apparatus for managing data
JP2011130279A (ja) * 2009-12-18 2011-06-30 Sony Corp コンテンツ提供サーバ、コンテンツ再生装置、コンテンツ提供方法、コンテンツ再生方法、プログラムおよびコンテンツ提供システム
EP2517466A4 (en) * 2009-12-21 2013-05-08 Estefano Emilio Isaias SYSTEM AND METHOD FOR VIDEO SEGMENT MANAGEMENT AND DISTRIBUTION
JP2011188342A (ja) * 2010-03-10 2011-09-22 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP5913788B2 (ja) * 2010-03-25 2016-04-27 ソニー株式会社 コンテンツサーバ、コンテンツ提供システム及びコンテンツ提供方法
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
US9191639B2 (en) 2010-04-12 2015-11-17 Adobe Systems Incorporated Method and apparatus for generating video descriptions
US9276986B2 (en) * 2010-04-27 2016-03-01 Nokia Technologies Oy Systems, methods, and apparatuses for facilitating remote data processing
GB2481185A (en) * 2010-05-28 2011-12-21 British Broadcasting Corp Processing audio-video data to produce multi-dimensional complex metadata
US8806340B2 (en) * 2010-09-01 2014-08-12 Hulu, LLC Method and apparatus for embedding media programs having custom user selectable thumbnails
JP5671288B2 (ja) * 2010-09-24 2015-02-18 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理方法及び情報処理システム
US9753609B2 (en) * 2010-12-03 2017-09-05 Facebook, Inc. User interface with media wheel facilitating viewing of media objects
US8587672B2 (en) 2011-01-31 2013-11-19 Home Box Office, Inc. Real-time visible-talent tracking system
US9264484B1 (en) * 2011-02-09 2016-02-16 Google Inc. Attributing preferences to locations for serving content
CN102143001B (zh) * 2011-04-02 2013-10-09 西南科技大学 一种基于语义理解的音频资源管理方法
GB2491894A (en) * 2011-06-17 2012-12-19 Ant Software Ltd Processing supplementary interactive content in a television system
US9146909B2 (en) * 2011-07-27 2015-09-29 Qualcomm Incorporated Web browsing enhanced by cloud computing
KR101315608B1 (ko) * 2011-09-27 2013-10-18 엘지전자 주식회사 컨텐츠 관리 방법 및 그를 이용한 영상 표시 장치
US20130089301A1 (en) * 2011-10-06 2013-04-11 Chi-cheng Ju Method and apparatus for processing video frames image with image registration information involved therein
US9536044B2 (en) 2011-12-06 2017-01-03 Microsoft Technology Licensing, Llc Metadata extraction pipeline
US9525642B2 (en) 2012-01-31 2016-12-20 Db Networks, Inc. Ordering traffic captured on a data connection
US9100291B2 (en) * 2012-01-31 2015-08-04 Db Networks, Inc. Systems and methods for extracting structured application data from a communications link
TWI461955B (zh) * 2012-02-20 2014-11-21 Univ Nat Cheng Kung 惡意程式破壞系統及其破壞方法
CN104126307B (zh) 2012-02-29 2018-02-06 杜比实验室特许公司 用于改善的图像处理和内容传递的图像元数据创建处理器及方法
KR101332834B1 (ko) * 2012-04-03 2013-11-27 모젼스랩(주) 온톨로지 기반 전시관련 서비스 제공방법
KR101952260B1 (ko) 2012-04-03 2019-02-26 삼성전자주식회사 다수의 동영상 썸네일을 동시에 표시하기 위한 영상 재생 장치 및 방법
SE537206C2 (sv) * 2012-04-11 2015-03-03 Vidispine Ab Metod och system för sökningar i digitalt innehåll
EP2680601A1 (en) * 2012-06-29 2014-01-01 Moda e Technologia S.r.l. Video streams management system for a television apparatus
US20140136545A1 (en) 2012-10-05 2014-05-15 International Business Machines Corporation Multi-tier Indexing Methodology for Scalable Mobile Device Data Collection
TWI474201B (zh) * 2012-10-17 2015-02-21 Inst Information Industry Construction system scene fragment, method and recording medium
KR101537665B1 (ko) * 2013-02-26 2015-07-20 주식회사 알티캐스트 콘텐츠 재생 방법 및 장치
EP2809077A1 (en) * 2013-05-27 2014-12-03 Thomson Licensing Method and apparatus for classification of a file
EP2809078A1 (en) * 2013-05-27 2014-12-03 Thomson Licensing Method and apparatus for managing metadata files
US9197926B2 (en) 2013-06-05 2015-11-24 International Business Machines Corporation Location based determination of related content
EP3028446A1 (en) 2013-07-30 2016-06-08 Dolby Laboratories Licensing Corporation System and methods for generating scene stabilized metadata
US20150331551A1 (en) * 2014-05-14 2015-11-19 Samsung Electronics Co., Ltd. Image display apparatus, image display method, and computer-readable recording medium
US20170091197A1 (en) * 2014-05-19 2017-03-30 Huawei Technologies Co., Ltd. Multimedia Display Method, Apparatus, and Device
KR102190233B1 (ko) 2014-10-06 2020-12-11 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
KR101640317B1 (ko) 2014-11-20 2016-07-19 소프트온넷(주) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
KR102380979B1 (ko) * 2015-01-05 2022-04-01 삼성전자 주식회사 이미지의 메타데이터 관리 방법 및 장치
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
JP2016144080A (ja) * 2015-02-03 2016-08-08 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
KR102310241B1 (ko) 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
US9554160B2 (en) * 2015-05-18 2017-01-24 Zepp Labs, Inc. Multi-angle video editing based on cloud video sharing
US10462524B2 (en) * 2015-06-23 2019-10-29 Facebook, Inc. Streaming media presentation system
US9917870B2 (en) 2015-06-23 2018-03-13 Facebook, Inc. Streaming media presentation system
US10375443B2 (en) 2015-07-31 2019-08-06 Rovi Guides, Inc. Method for enhancing a user viewing experience when consuming a sequence of media
US9966110B2 (en) * 2015-10-16 2018-05-08 Tribune Broadcasting Company, Llc Video-production system with DVE feature
US10645465B2 (en) * 2015-12-21 2020-05-05 Centurylink Intellectual Property Llc Video file universal identifier for metadata resolution
US11023417B2 (en) * 2017-05-30 2021-06-01 Home Box Office, Inc. Video content graph including enhanced metadata
CN108829881B (zh) * 2018-06-27 2021-12-03 深圳市腾讯网络信息技术有限公司 视频标题生成方法及装置
JP6688368B1 (ja) * 2018-11-13 2020-04-28 西日本電信電話株式会社 映像コンテンツ構造化装置、映像コンテンツ構造化方法、及びコンピュータプログラム
CN112150778A (zh) * 2019-06-29 2020-12-29 华为技术有限公司 环境音处理方法及相关装置
KR102250642B1 (ko) * 2019-10-31 2021-05-11 테크온미디어(주) 효율적인 콘텐츠 유통을 위한 탈중앙화된 콘텐츠 분산 관리 시스템 및 이를 수행하기 위한 컴퓨팅 장치
JP2021132281A (ja) * 2020-02-19 2021-09-09 Jcc株式会社 メタデータ生成システムおよびメタデータ生成方法
US20210319230A1 (en) * 2020-04-10 2021-10-14 Gracenote, Inc. Keyframe Extractor
US11526612B2 (en) 2020-09-22 2022-12-13 International Business Machines Corporation Computer file metadata segmentation security system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167099A (ja) * 1999-12-07 2001-06-22 Nippon Hoso Kyokai <Nhk> 映像・音声オブジェクトを基本としたデータベース装置
JP2001320693A (ja) * 2000-05-12 2001-11-16 Sony Corp サービス提供装置および方法、受信端末装置および方法、サービス提供システム
JP2001357008A (ja) * 2000-06-14 2001-12-26 Mitsubishi Electric Corp コンテンツ検索配信装置およびコンテンツ検索配信方法
JP2002041541A (ja) * 2000-05-19 2002-02-08 Jisedai Joho Hoso System Kenkyusho:Kk 映像検索装置
JP2002051287A (ja) * 2000-08-04 2002-02-15 Sony Corp 番組録画支援システムおよび番組録画支援方法、並びに、番組視聴サービスシステムおよび番組視聴サービス提供方法

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5119465A (en) * 1989-06-19 1992-06-02 Digital Equipment Corporation System for selectively converting plurality of source data structures through corresponding source intermediate structures, and target intermediate structures into selected target structure
US5758180A (en) * 1993-04-15 1998-05-26 Sony Corporation Block resizing function for multi-media editing which moves other blocks in response to the resize only as necessary
JP3194837B2 (ja) 1994-07-19 2001-08-06 日本電信電話株式会社 代表画面抽出方法および装置
JP3144285B2 (ja) 1995-11-30 2001-03-12 松下電器産業株式会社 映像処理装置
JP3529540B2 (ja) * 1996-03-07 2004-05-24 Kddi株式会社 動画像検索装置
WO1997034240A1 (en) * 1996-03-15 1997-09-18 University Of Massachusetts Compact tree for storage and retrieval of structured hypermedia documents
US5986675A (en) * 1996-05-24 1999-11-16 Microsoft Corporation System and method for animating an object in three-dimensional space using a two-dimensional input device
US20010038719A1 (en) * 1996-10-14 2001-11-08 Nikon Corporation Information processing apparatus
JP3633229B2 (ja) * 1997-09-01 2005-03-30 セイコーエプソン株式会社 発光素子の製造方法および多色表示装置の製造方法
AUPO918697A0 (en) * 1997-09-15 1997-10-09 Canon Information Systems Research Australia Pty Ltd Enhanced information gathering apparatus and method
KR100284574B1 (ko) * 1997-10-27 2001-03-15 정선종 객체자동저장시스템및그운용방법
US6134558A (en) * 1997-10-31 2000-10-17 Oracle Corporation References that indicate where global database objects reside
US6751623B1 (en) * 1998-01-26 2004-06-15 At&T Corp. Flexible interchange of coded multimedia facilitating access and streaming
JPH11238071A (ja) * 1998-02-20 1999-08-31 Toshiba Corp ダイジェスト作成装置及びダイジェスト作成方法
US6085198A (en) * 1998-06-05 2000-07-04 Sun Microsystems, Inc. Integrated three-tier application framework with automated class and table generation
US6711590B1 (en) * 1998-07-10 2004-03-23 Canon Kabushiki Kaisha Linking metadata with a time-sequential digital signal
KR100279735B1 (ko) * 1998-11-20 2001-02-01 정선종 메타데이터를 이용한 멀티미디어 컨텐츠 전달방법
JP2000253337A (ja) * 1999-02-24 2000-09-14 Sony Corp 画面の制御方法および画面の制御装置および映像再生方法および映像再生装置および映像情報の記録方法および映像情報の記録装置およびコンピュータが読み取り可能な記録媒体
US7362946B1 (en) * 1999-04-12 2008-04-22 Canon Kabushiki Kaisha Automated visual image editing system
JP4227241B2 (ja) * 1999-04-13 2009-02-18 キヤノン株式会社 画像処理装置及び方法
JP2001008136A (ja) * 1999-06-21 2001-01-12 Victor Co Of Japan Ltd マルチメディアデータのオーサリング装置
JP2001028722A (ja) 1999-07-13 2001-01-30 Matsushita Electric Ind Co Ltd 動画像管理装置及び動画像管理システム
JP2001111957A (ja) * 1999-08-16 2001-04-20 Univ Of Washington ビデオシーケンスの対話型処理方法と、その記憶媒体およびシステム
WO2001020908A1 (en) * 1999-09-16 2001-03-22 Ixl Enterprises, Inc. System and method for linking media content
KR100373371B1 (ko) 1999-09-20 2003-02-25 한국전자통신연구원 메타데이터의 중요도 결정기법을 적용한 비디오 데이터 검색방법
JP3738631B2 (ja) * 1999-09-27 2006-01-25 三菱電機株式会社 画像検索システムおよび画像検索方法
WO2001024046A2 (en) 1999-09-29 2001-04-05 Xml-Global Technologies, Inc. Authoring, altering, indexing, storing and retrieving electronic documents embedded with contextual markup
KR100371813B1 (ko) 1999-10-11 2003-02-11 한국전자통신연구원 효율적인 비디오 개관 및 브라우징을 위한 요약 비디오 기술구조 및 이의 기록매체, 이를 이용한 요약 비디오 기술 데이터 생성 방법 및 생성시스템, 요약 비디오 기술 데이터의 브라우징 장치 및 브라우징 방법.
KR100305964B1 (ko) 1999-10-22 2001-11-02 구자홍 사용자 적응적인 다단계 요약 스트림 제공방법
JP3478331B2 (ja) * 1999-10-29 2003-12-15 株式会社リコー 構造表示方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001167109A (ja) 1999-12-08 2001-06-22 Kddi Corp オーディオビデオ情報の特徴記述群構成方法
US7212972B2 (en) * 1999-12-08 2007-05-01 Ddi Corporation Audio features description method and audio video features description collection construction method
AU780811B2 (en) 2000-03-13 2005-04-21 Sony Corporation Method and apparatus for generating compact transcoding hints metadata
KR100739031B1 (ko) * 2000-03-27 2007-07-25 주식회사 큐론 멀티미디어 검색시스템에서 mpeg-7 표준 메타데이터의 은닉 및 검출 방법과 이를 이용한 멀티미디어 데이터의 검색 방법
JP3517631B2 (ja) * 2000-05-08 2004-04-12 株式会社リコー ダイジェスト映像蓄積方法およびダイジェスト映像蓄積装置
JP4953496B2 (ja) * 2000-05-15 2012-06-13 ソニー株式会社 コンテンツ検索・提示システム及び方法、並びに、ソフトウェア記憶媒体
US6646676B1 (en) * 2000-05-17 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Networked surveillance and control system
JP2001326901A (ja) 2000-05-18 2001-11-22 Sharp Corp 動画像シーン情報管理装置
AUPQ867700A0 (en) 2000-07-10 2000-08-03 Canon Kabushiki Kaisha Delivering multimedia descriptions
KR100369222B1 (ko) * 2000-07-26 2003-01-24 (학)창성학원 디지털 비디오 검색 및 저작기
US7054508B2 (en) * 2000-08-03 2006-05-30 Canon Kabushiki Kaisha Data editing apparatus and method
US6959326B1 (en) * 2000-08-24 2005-10-25 International Business Machines Corporation Method, system, and program for gathering indexable metadata on content at a data repository
US20020087987A1 (en) * 2000-11-16 2002-07-04 Dudkiewicz Gil Gavriel System and method for creating and editing a viewer profile used in determining the desirability of video programming events
JP4536940B2 (ja) * 2001-01-26 2010-09-01 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体、及びコンピュータプログラム
US7254570B2 (en) * 2001-03-21 2007-08-07 Nokia Corporation Query resolution system and service
JP2003067397A (ja) 2001-06-11 2003-03-07 Matsushita Electric Ind Co Ltd コンテンツ管理システム
US20030088876A1 (en) * 2001-11-08 2003-05-08 Liberate Technologies Video on demand gateway
US20030110501A1 (en) * 2001-12-12 2003-06-12 Rafey Richter A. Personalizing media presentations based on a target duration
JP3826048B2 (ja) * 2002-02-15 2006-09-27 キヤノン株式会社 情報処理装置及び方法
JP3826043B2 (ja) * 2002-01-31 2006-09-27 キヤノン株式会社 情報処理装置及び方法
JP2007179435A (ja) * 2005-12-28 2007-07-12 Sony Corp 情報処理装置、情報処理方法、プログラム
US8386438B2 (en) * 2009-03-19 2013-02-26 Symantec Corporation Method for restoring data from a monolithic backup

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167099A (ja) * 1999-12-07 2001-06-22 Nippon Hoso Kyokai <Nhk> 映像・音声オブジェクトを基本としたデータベース装置
JP2001320693A (ja) * 2000-05-12 2001-11-16 Sony Corp サービス提供装置および方法、受信端末装置および方法、サービス提供システム
JP2002041541A (ja) * 2000-05-19 2002-02-08 Jisedai Joho Hoso System Kenkyusho:Kk 映像検索装置
JP2001357008A (ja) * 2000-06-14 2001-12-26 Mitsubishi Electric Corp コンテンツ検索配信装置およびコンテンツ検索配信方法
JP2002051287A (ja) * 2000-08-04 2002-02-15 Sony Corp 番組録画支援システムおよび番組録画支援方法、並びに、番組視聴サービスシステムおよび番組視聴サービス提供方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1496701A4 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527142A (ja) * 2003-07-08 2007-09-20 松下電器産業株式会社 コンテンツ蓄積システム、ホームサーバ装置、情報提供装置、集積回路、及びプログラム
JP2005192196A (ja) * 2003-11-12 2005-07-14 Sony Internatl Europ Gmbh ビデオ信号のサブセットの定義方法及び自動番組要約装置
US8059161B2 (en) 2004-08-30 2011-11-15 Sony Corporation Image-information recording device and image-information display device
JP2006066015A (ja) * 2004-08-30 2006-03-09 Sony Corp 画像情報記録装置および画像情報表示装置
US9063955B2 (en) 2004-12-24 2015-06-23 Koninklijke Philips N.V. Method and apparatus for editing program search information
JP2008526071A (ja) * 2004-12-24 2008-07-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 番組検索情報を編集する方法および装置
JP4978894B2 (ja) * 2005-01-25 2012-07-18 日本電気株式会社 構造化文書検索装置、構造化文書検索方法および構造化文書検索プログラム
JP2013201763A (ja) * 2005-07-19 2013-10-03 Apple Inc メディアデータ送信方法及び装置
CN103309933A (zh) * 2005-07-19 2013-09-18 苹果公司 用于媒体数据传输的方法和设备
JP2007041861A (ja) * 2005-08-03 2007-02-15 Sharp Corp コンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体
JP4514671B2 (ja) * 2005-08-03 2010-07-28 シャープ株式会社 コンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体
JPWO2008041629A1 (ja) * 2006-09-29 2010-02-04 ソニー株式会社 再生装置および方法、情報生成装置および方法、データ格納媒体、データ構造、プログラム格納媒体、並びにプログラム
JP2008099012A (ja) * 2006-10-12 2008-04-24 Mitsubishi Electric Corp コンテンツ再生システム及びコンテンツ蓄積システム
JP2014197879A (ja) * 2007-01-05 2014-10-16 ソニック アイピー, インコーポレイテッド プログレッシブ再生を含む映像分配システム
US9794318B2 (en) 2007-01-05 2017-10-17 Sonic Ip, Inc. Video distribution system including progressive playback
US10412141B2 (en) 2007-01-05 2019-09-10 Divx, Llc Systems and methods for seeking within multimedia content during streaming playback
US10574716B2 (en) 2007-01-05 2020-02-25 Divx, Llc Video distribution system including progressive playback
US11050808B2 (en) 2007-01-05 2021-06-29 Divx, Llc Systems and methods for seeking within multimedia content during streaming playback
US11706276B2 (en) 2007-01-05 2023-07-18 Divx, Llc Systems and methods for seeking within multimedia content during streaming playback
JP4511569B2 (ja) * 2007-03-26 2010-07-28 株式会社エヌ・ティ・ティ・ドコモ 遠隔視聴システム及び遠隔視聴方法
JP2008244656A (ja) * 2007-03-26 2008-10-09 Ntt Docomo Inc 遠隔視聴システム及び遠隔視聴方法
JP2013051707A (ja) * 2007-04-17 2013-03-14 Thomson Licensing データストリームにおけるビデオデータ及び関連するメタデータを送信する方法
WO2008136466A1 (ja) * 2007-05-01 2008-11-13 Dep Co., Ltd. 動画編集装置
JP2009152927A (ja) * 2007-12-21 2009-07-09 Sony Corp コンテンツの再生方法および再生システム
JP2009171480A (ja) * 2008-01-21 2009-07-30 Hitachi Ltd 映像記録再生装置及び映像再生装置

Also Published As

Publication number Publication date
KR100912984B1 (ko) 2009-08-20
AU2003221185A1 (en) 2003-10-27
US20080071838A1 (en) 2008-03-20
KR100986401B1 (ko) 2010-10-08
EP2202979A1 (en) 2010-06-30
US8811800B2 (en) 2014-08-19
EP2200315A1 (en) 2010-06-23
CA2482431C (en) 2013-03-19
KR20080064875A (ko) 2008-07-09
CA2664732A1 (en) 2003-10-23
EP2202649A1 (en) 2010-06-30
JPWO2003088665A1 (ja) 2005-08-25
SG152905A1 (en) 2009-06-29
JP2009171622A (ja) 2009-07-30
US20080071837A1 (en) 2008-03-20
TWI231140B (en) 2005-04-11
KR100997599B1 (ko) 2010-11-30
EP2202978A1 (en) 2010-06-30
EP2202977A1 (en) 2010-06-30
KR20060097767A (ko) 2006-09-15
KR20100055541A (ko) 2010-05-26
JP2009171624A (ja) 2009-07-30
EP1496701A4 (en) 2009-01-14
US20080075431A1 (en) 2008-03-27
US7826709B2 (en) 2010-11-02
JP2009171621A (ja) 2009-07-30
EP2202648A1 (en) 2010-06-30
CN1647528A (zh) 2005-07-27
KR20040108726A (ko) 2004-12-24
CA2664732C (en) 2013-07-02
US20100005070A1 (en) 2010-01-07
JP2009171623A (ja) 2009-07-30
KR100918725B1 (ko) 2009-09-24
TW200306114A (en) 2003-11-01
CA2482431A1 (en) 2003-10-23
JP4652462B2 (ja) 2011-03-16
JP4987907B2 (ja) 2012-08-01
EP1496701A1 (en) 2005-01-12
US20080065697A1 (en) 2008-03-13
US20080071836A1 (en) 2008-03-20
CN100367794C (zh) 2008-02-06
US20050149557A1 (en) 2005-07-07

Similar Documents

Publication Publication Date Title
JP4987907B2 (ja) メタデータ処理装置
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
KR100686521B1 (ko) 비디오 및 메타데이터의 통합을 위한 비디오 멀티미디어응용 파일 형식의 인코딩/디코딩 방법 및 시스템
CA2387404A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
JP4732418B2 (ja) メタデータ処理方法
CN101132528A (zh) 元数据再生、分发、检索装置、元数据再生成条件设定装置
JP4652389B2 (ja) メタデータ処理方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10510548

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020047016204

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038082608

Country of ref document: CN

Ref document number: 2482431

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2003712804

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020047016204

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003712804

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2003585438

Country of ref document: JP