WO2001040953A1 - Dispositif d'adaptation de donnees, procede d'adaptation de donnees, support de stockage et programme - Google Patents

Dispositif d'adaptation de donnees, procede d'adaptation de donnees, support de stockage et programme Download PDF

Info

Publication number
WO2001040953A1
WO2001040953A1 PCT/JP2000/008408 JP0008408W WO0140953A1 WO 2001040953 A1 WO2001040953 A1 WO 2001040953A1 JP 0008408 W JP0008408 W JP 0008408W WO 0140953 A1 WO0140953 A1 WO 0140953A1
Authority
WO
WIPO (PCT)
Prior art keywords
segment
user
content
viewpoint
priority
Prior art date
Application number
PCT/JP2000/008408
Other languages
English (en)
French (fr)
Inventor
Koichi Emura
Toshihiko Munetsugu
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP00979008A priority Critical patent/EP1246070A4/en
Priority to JP2001541947A priority patent/JP4741133B2/ja
Priority to AU16485/01A priority patent/AU1648501A/en
Publication of WO2001040953A1 publication Critical patent/WO2001040953A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums

Definitions

  • the present invention relates to a data adaptation device and a data adaptation method for adapting data to user preferences, and a recording medium including the data adaptation device.
  • the present invention relates to a data adaptation device including video, audio, and documents via broadcasting and communication media such as digital broadcasting and the Internet.
  • Fig. 68 shows a block diagram of a conventional data adaptation device.
  • the conventional data adaptation device includes a data adaptation unit 100, a policy engine 101, a content analysis unit 102, a content selection unit 103, and a content operation unit 104. And a terminal 105.
  • the content analysis unit 102 receives the in-net content d 1001.
  • a terminal preference d 1002 indicating capability information of the terminal 105 is stored in the terminal 105.
  • FIG. 69 is a detailed diagram of the terminal preference d 1002.
  • the terminal preference d 1002 includes screen color number information X, which is the display capability of the terminal 105, and screen size information axb.
  • FIG. 70 is a processing flowchart illustrating the operation of data adaptation section 100.
  • the policy engine 101 identifies the display screen size and the number of display colors as the terminal capability based on the terminal preference d 1002 obtained from the terminal 105 (P1221). Then, the policy engine 101 controls the content selection unit 10.3 and the content operation unit 104 in accordance with the information identified in P1 201 and the policy.
  • the content analysis unit 102 analyzes the physical data type of the Internet content d 1001 requested by the user (P 122). And The content selection unit 103 determines whether the Internet content d1001 can be displayed with the display capability of the terminal 105 (P1203), and the Internet content d1001 has the display capability. If possible, select only content that can be displayed with terminal capabilities from Internet content d1001 (P1204).
  • the content operation unit 104 converts the displayable content selected in P122 to a form that can be displayed by the terminal capability. Specifically, the content selection unit 103 determines whether the content is larger than the display screen size (P1205), and the content operation unit 104 reduces the content larger than the display screen size (P12). 1 206). If the content is not larger than the display screen size, the content operation unit 104 determines whether the content is smaller than the display capability (P1207), and the content operation unit 104 expands the small content. (P128).
  • the content operation unit 104 determines whether the number of display colors of the terminal 105 is color (P1209). If the number of display colors of the terminal 105 is not a color, the content operation unit 104 determines whether it is a gray scale (P1210), and if it is a gray scale, the number of colors of the content. Is converted to gray scale (P 1 2 1 1), and is binarized if it is neither color or gray scale (P 1 2 1 2).
  • the content is selected and operated from the content analysis result according to a general policy, that is, a policy tailored to a specific terminal. Therefore, there is a problem that data adaptation can be performed only in accordance with a predetermined number of terminal patterns.
  • the prior art cannot perform selection and operation that matches the content to the user's preference, for example, selection and operation such as displaying a part of an image instead of reducing it. Therefore, according to the conventional technology, even when selecting and operating content using a predetermined specific terminal, the user can use the terminal to convert the content into a form that matches the user's preference. There is a problem that it cannot be adapted. Disclosure of the invention
  • a first object of the present invention is to solve the above-described conventional problems by selecting a segment of data according to the user's preference information, so that the content can be adapted in a manner adapted to the user's preference. It is to do.
  • a second object of the present invention is to perform content adaptation in a scalable manner in a form that a user wants to receive and at the time of network distribution when distributing content via a network. is there.
  • the present invention provides a user-preference information as a user-preference, selects a data segment according to the user-preference, and adjusts the segment priority and terminal capability.
  • a user-preference information as a user-preference
  • selects a data segment according to the user-preference and adjusts the segment priority and terminal capability.
  • the present invention obtains information on the transmission band of the network as a network preference when distributing the content via the network, and according to the priority of the segment and the transmission band. In this way, the amount of data is adjusted in a timely manner, so that the data can be adjusted in a scalable manner in the form that the user wants to receive and according to the network conditions. As a result, it is possible to adapt to the schedule in a manner that the user wants to receive and according to the network status.
  • FIG. 1 is a block diagram of a terminal including a data adaptation device according to Embodiments 1 and 3 of the present invention.
  • FIG. 2 is a detailed diagram of a user preference according to the first embodiment.
  • FIG. 3 is a diagram illustrating a description definition of the user preference according to the first embodiment.
  • FIG. 4 is a diagram showing a description example of the user preference according to the first embodiment. Yes,
  • FIG. 5 is an explanatory diagram of the operation of the segment selection unit according to the first embodiment.
  • FIG. 6 is a processing flow diagram of the user adaptation control unit according to the first embodiment.
  • FIG. 8 is a block diagram of a system including a data adaptation unit according to the second and fourth embodiments of the present invention.
  • FIG. 9 is a processing flowchart of the network adaptive control unit according to the second embodiment.
  • FIG. 10 is a detailed diagram showing a second example of user preferences.
  • FIG. 11 is a diagram showing a second descriptive definition of user preferences.
  • FIG. 12 is a diagram showing user preferences.
  • FIG. 13 is a diagram illustrating a second description example, and FIG. 13 is a diagram illustrating a second operation of the segment selection unit;
  • FIG. 14 is a flowchart of a second process of the user adaptive control unit.
  • FIG. 15 is a block diagram showing another example of the system including the data adaptation unit according to the embodiment of the present invention.
  • FIG. 16 is a diagram showing another form of the segment according to the embodiment of the present invention.
  • FIG. 17 is a diagram showing a description example of a segment according to the embodiment of the present invention.
  • FIG. 18 is a diagram showing a data structure according to the fifth embodiment of the present invention.
  • FIG. 20 is a diagram illustrating a description example of data according to the fifth embodiment of the present invention.
  • FIG. 20 is a diagram illustrating another example of the data structure according to the fifth embodiment of the present invention.
  • FIG. 21 is a diagram illustrating a description example of another example of the data structure according to the fifth embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a data structure according to the sixth embodiment of the present invention.
  • FIG. 23 is a diagram illustrating a description example of data according to the sixth embodiment of the present invention.
  • FIG. 25 is a diagram illustrating a data structure according to a seventh embodiment of the present invention.
  • FIG. 25 is a diagram illustrating a description of data according to the seventh embodiment of the present invention.
  • FIG. 26 is a diagram illustrating another example of the data structure according to the seventh embodiment of the present invention.
  • FIG. 27 is a diagram showing a description of another example of the data structure according to the seventh embodiment of the present invention.
  • FIG. 28 is a diagram illustrating a data structure according to the eighth embodiment of the present invention.
  • FIG. 29 is a diagram illustrating a description of data according to the eighth embodiment of the present invention.
  • FIG. 19 is a diagram showing another example of the data structure according to the eighth embodiment of the present invention.
  • FIG. 31 is a diagram showing another description example of the data according to the eighth embodiment of the present invention.
  • FIG. 32 is a first diagram illustrating a definition of user preference according to the ninth embodiment of the present invention.
  • FIG. 33 is a second diagram illustrating the definition of the user preference according to the ninth embodiment of the present invention.
  • FIG. 34 is a diagram illustrating a description example of a user preference according to the ninth embodiment of the present invention.
  • FIG. 35 is a first diagram illustrating the definition of the segment description according to the ninth embodiment.
  • FIG. 36 is a second diagram showing the definition of the segment description according to the ninth embodiment.
  • FIG. 37 is a third diagram showing the definition of the segment description according to the ninth embodiment.
  • FIG. 38 is a diagram illustrating a first description example of a segment according to the ninth embodiment.
  • FIG. 39 is a diagram illustrating a second description example of a segment according to the ninth embodiment.
  • 0 is a diagram showing a third description example of the segment according to the ninth embodiment
  • FIG. 41 is a diagram showing a fourth description example of the segment according to the ninth embodiment.
  • Is a diagram showing a fifth description example of the segment according to the ninth embodiment
  • FIG. 43 is a diagram showing a sixth description example of the segment according to the ninth embodiment
  • FIG. 44 is a diagram illustrating a seventh description example of the segment according to the ninth embodiment.
  • FIG. 45 is a diagram illustrating an eighth description example of the segment according to the ninth embodiment.
  • FIG. 6 is a diagram showing a ninth description example of a segment according to the ninth embodiment.
  • FIG. 47 is a first diagram showing a description definition of user preferences according to the tenth embodiment of the present invention.
  • FIG. 48 is a second diagram illustrating the definition of the user preference according to the tenth embodiment.
  • FIG. 49 is a third diagram showing the description definition of the user preference according to the tenth embodiment.
  • FIG. 50 is a fourth diagram illustrating the description definition of the user preference according to the tenth embodiment.
  • FIG. 51 is a fifth diagram illustrating the description definition of the user preference according to the tenth embodiment.
  • FIG. 52 is a diagram illustrating a description example of a user preference according to the tenth embodiment.
  • FIG. 53 is a first diagram showing the definition of the segment description according to the tenth embodiment.
  • FIG. 54 is a second diagram illustrating the definition of the segment description according to the tenth embodiment.
  • FIG. 55 is a third diagram showing the definition of the segment description according to the tenth embodiment.
  • FIG. 56 is a fourth diagram showing the definition of the segment description according to the tenth embodiment.
  • FIG. 57 is a first diagram illustrating a description example of a segment according to the tenth embodiment.
  • FIG. 58 is a second diagram illustrating the example of description of the segment according to the tenth embodiment.
  • FIG. 59 is a third diagram showing a description example of a segment according to the tenth embodiment. Yes,
  • FIG. 60 is a first diagram showing another example of the description of the segment according to the tenth embodiment.
  • FIG. 61 is a second diagram showing another example of the description of the segment according to the tenth embodiment.
  • FIG. 62 is a first diagram illustrating the definition of the digest description according to the eleventh embodiment.
  • FIG. 63 is a second diagram illustrating the definition of the digest description according to the eleventh embodiment.
  • FIG. 64 is a third diagram illustrating the definition of the digest description according to the eleventh embodiment.
  • FIG. 65 is a fourth diagram illustrating the definition of the digest description according to Embodiment 11.
  • FIG. 66 is a diagram illustrating an example of a description of a viewpoint list according to the embodiment
  • FIG. 67 is a diagram illustrating an example of a description of a digest according to the embodiment 11,
  • Figure 69 is a detailed description of the conventional terminal preferences.
  • FIG. 70 is a processing flowchart of the conventional data adaptation unit. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram of a terminal including the data adaptation apparatus according to the first embodiment.
  • the terminal 10 has a data d102 that is composed of content composed of a plurality of segments and a message that is information for explaining the data d102.
  • the user-adaptive unit 12 is provided with a means for acquiring various data.
  • a means of acquiring the data of each species there are two methods: a data acquisition unit that acquires the data d101 and a data acquisition unit that acquires the data d1 and d1102. 2 1 b, a content data overnight acquisition unit 21, a user preference acquisition unit 22 to acquire user preferences d 103, and a terminal preference to acquire terminal preferences d 104
  • An acquisition unit 23 is provided.
  • the user adaptation unit 12 is provided with a means for selecting a predetermined segment from the data d 102 acquired according to the user's preference and matching it with the user's preference. As a means of matching the selected segment to the preference of the user, a predetermined segment is obtained from the obtained data d 102 using the obtained data d 101 and the user preference data d 103.
  • a segment selection unit that selects and extracts a predetermined segment from the user adaptive control unit 14 that generates information for selection and the data d102 that is acquired based on the information generated by the user adaptive control unit 14 16 are provided.
  • the user adaptation unit 12 is provided with means for converting the data d 102 according to the terminal capability of the display unit 18 which is a processing device for the data d 102.
  • the spatial resolution and color resolution of data d1 are changed from d1 and d1 to d1
  • a terminal adaptation control unit 15 that generates information for performing the conversion is provided, and a resolution conversion unit 17 that performs spatial resolution conversion and color resolution conversion of d102 based on the information generated by the terminal adaptation control unit 15 is provided. ing.
  • FIG. 2 is a detailed view of the user-preference d 103.
  • the reference d103 includes a plurality of user preference descriptions 3a to 3n.
  • the user-preference descriptions 3a to 3n include a content identifier 34 for identifying the corresponding content of the user-preference descriptions 3a to 3n, and a time length for displaying the content at a desired time.
  • a plurality of pairs of information 35, keywords for extracting a desired segment from the content (user perspective) 36a, 36b, and priorities 37a, 37b for the keywords 36a, 36b are stored. I have.
  • FIG. 3 is a diagram showing a definition description of the user preference d 103.
  • the user preference description definition 40 is described in a DTD (Document Type Definition) of XML (eXtensible Markup Language).
  • the user preference description definition 40 defines that a user preference has one or more contents (Content) as shown in 41 in the figure.
  • each content has one or more key words (user-viewpoint) 36 (Keyword).
  • the content has a content identifier 34 (Content ID), a time length 35 (Dur at ion), and a screen that is size information for displaying data as attributes. Size 46 (ScreenSize) is defined.
  • the keyword 36 (Keyword) is defined to be described in text data.
  • the keyword 36 is defined as having a priority 37 (Priority) as an attribute.
  • FIG. 4 is a diagram showing an example of a user preference.
  • the user preference 50 has two contents 51 and 52.
  • the content 51 has a content ID 53a (123456789 in this example), and the content 52 has a content ID 53b (123456788 in this example).
  • the content 51 includes keywords (from a user's viewpoint) 55a to 55c.
  • the keyword 55a describes Nak at a
  • the keyword 55b describes Soc c er
  • the keyword 55c describes Jap an.
  • priority 5 is described for keyword 55a
  • priority 4 is described for keyword 55b
  • priority 2 is described for keyword 55c.
  • the content 52 describes a key 55 d to 55 f.
  • the key 55 describes Head 1 line
  • the key 55 e describes Stok k
  • the key 55 describes Sports.
  • a priority 5 is described for the keyword 55d
  • a priority 5 is described for the keyword 55e
  • a priority 3 is described for the keyword 55f.
  • the data d102 is composed of segments 61 constituting a certain time range of the data d102.
  • Segment 61 includes a first sub-segment 62 and a second sub-segment 63.
  • Sub-segment 62 includes a first sub-segment 64 and a second sub-segment 65
  • sub-segment 63 includes a first sub-segment 66 and a sub-segment 67.
  • the data stream d 102 has a hierarchical structure with segments and sub-segments.
  • keyword 621 is added to subsegment 62 (segment viewpoint)
  • the sub-segment 63 has a keyword 631 added.
  • a key (segment viewpoint) 641 is assigned to the sub-segment 64
  • a keyword (segment viewpoint) 651 is added to the sub-segment 65
  • a keyword (segment viewpoint) 661 is assigned to the sub-segment 66.
  • the sub-segment 67 has a keyword (segment viewpoint) 671 added.
  • the key codes 621, 631, 641, 651, 661, 671 are described in Metadata List 101.
  • the keywords 621, 631, 641, 651, 661, and 671 each include a plurality of segments 62 to 67 corresponding to the keys 621, 631, 641, 651, 661, and 671. Keyword (KWD) is granted.
  • Segment priority is assigned to each keyword (KWD).
  • the keyword 621 is a combination of KWD # 2 and the segment priority 3 which is the ranking in KWD # 2
  • the keyword 621 is the combination of KWD # 3 and the segment priority 3 which is the ranking in KWD # 3. It consists of a set.
  • FIG. 5 is an operation explanatory diagram for explaining the operation of the segment selection unit 16.
  • FIG. 6 is a processing flowchart illustrating the operation of the user adaptive control unit 14.
  • the content data acquisition unit 21 of the data adaptation unit 12 reads and acquires the meta data d 101 and the data d 102 from the storage medium 11. Then, the user adaptation control unit 14 analyzes the obtained data d101 and obtains the data structure and at least one or more segment viewpoints added to each segment of the data structure and the segment priority in the segment viewpoint. The degree is extracted, and the read data (content) d1 2 is identified (P701).
  • the user adaptation control unit 14 selects a user preference description (for example, the user preference description 31) corresponding to the content identified from the user preference d103 (P702). Further, the user adaptation control unit 14 uses the user viewpoint (keyword) included in the user preference description 31 as an attribute of the user viewpoint. Arrange in order of a certain priority (P703). Then, the user-adaptive control unit 14 selects the user viewpoint to which the highest priority is assigned (P 704) ⁇ Next, the user-adaptive control unit 14 selects the user with the highest priority. From the viewpoint (first user's viewpoint), information that selects a segment that matches the user's viewpoint from d 102 is sent to the segment selection unit 16 in order.
  • the segment selection unit 16 compares the first user viewpoint with the segment viewpoint of the segment, and assigns a segment viewpoint that matches the first user viewpoint. It is determined whether there is a segment (P705).
  • the operation moves on to select a segment to which a segment viewpoint that matches the first user viewpoint is assigned.
  • the segment selection unit 16 provisionally selects a segment that matches the user's viewpoint (P 706).
  • the segment selection unit 16 determines whether the provisional selection has been completed for all the segments included in the data d 101 (P 707).
  • the next segment is extracted using 01, and the processing of P705 and p706 is performed. In this way, provisional selection can be made for all segments included in the data d102.
  • the tentatively selected segments are sorted in the order of the segment priority given to the segments (P770) 8). This is the This is because the main segment is selected from the segment with the highest segment priority when the main segment is selected.
  • the data adaptation unit 12 permanently selects the segment having the highest segment priority (P709).
  • the data adaptation unit 12 determines whether the full selection of all the tentatively selected segments has been completed (P710). Then, at P710, if the data adaptation unit 12 determines that the final selection of all the temporarily selected segments has not been completed, the data length of the finally selected segment is set to the time length, the spatial range, or It is determined whether both constraints have been exceeded (P711). Then, the data adaptation unit 12 repeats the operation from P709 to P711 within a range not exceeding these constraints.
  • P710 when the data adaptation unit 12 determines that the final selection of all the segments temporarily selected has been completed, the processing is performed for all user perspectives (keywords). It is determined whether or not it has been performed (P 715). Then, in P715, when the data adaptation unit 12 determines that the processing has been completed for all user viewpoints, the processing is terminated. On the other hand, in P 715, if the data adaptation unit 12 determines that the processing has not been completed for all user viewpoints, the process shifts to the processing for the next user viewpoint.
  • the data adaptation unit 12 extracts unselected segments, and performs the following processing only on unselected segments (P 714). Then, the data adaptation unit 12 selects the next user viewpoint (P713), and performs the processing from P705 to P711.
  • the data adaptation unit 1 2 has the highest segment priority among the user viewpoints (user keywords) included in the user preferences 3
  • the key 661 of subsegment 66 has KWD # 1 each.
  • the data adaptation unit 1 2 sets the time length to subsegment 63 and subsegment 66. Taking the constraints into account, select from sub-segment 63 and sub-segment 66 in the order of strict time length constraint. Specifically, first, the subsegment 66 whose time length constraint is not strict, that is, the time length is short, is given the highest priority and is selected as the output data d102a. Then, the subsegment 63 is selected as a segment constituting the output data 102b.
  • the data adaptation unit 12 searches for a subsegment having KWD # 2 having the next highest priority among the user viewpoints included in the user preference 3. All sub-segments that make up segment 61 include KWD # 2. Therefore, it is necessary to determine which subsegment has priority here.
  • the data adaptation unit 12 compares the segment priorities of the segments added to each sub-segment.
  • subsegment 63, subsegment 62, subsegment 65 and subsegment 66 have the same priority, followed by subsegment 64 and subsegment 67. Also, since sub-segments 67 have already been selected, they are omitted from the following processing targets.
  • the sub-segment 6 5 having a higher segment priority than the sub-segment 6 4 Is selected as a sub-segment constituting the output data 102 c in addition to the sub-segment 63.
  • the remaining subsegment 64 contains KWD # 2 and KWD # 3 and has a lower segment priority than subsegment 65. Therefore, when the time length constraint is the least strict, subsegment 64 is selected as a subsegment constituting output data stream 102 d in addition to subsegments 63 and 65.
  • the user adaptation control unit 14 updates the priority of the user viewpoint included in the user preference d 103 matching the keyword in accordance with the priority of the keyword added to the selected segment. I do.
  • FIG. 7 is a processing flowchart illustrating the operation of the terminal adaptive control unit 15.
  • the terminal adaptation control unit 15 obtains the terminal preference d 104 recorded in the terminal 10 and identifies the screen display size and the number of display colors of the display unit 18 as the terminal capability (P 8 0 1).
  • the terminal adaptation control unit 15 determines the segment priority which the segment selected by the segment selection unit 16 has as its own attribute (P802).
  • the terminal adaptation control unit 15 determines whether the selected segment is larger than the display capability of the display unit 18 of the terminal 10 (P803).
  • P803 if the terminal adaptive control unit 15 determines that the selected segment is larger than the display capability of the display unit 18 of the terminal 10, the terminal adaptive control unit 15 sets the terminal preference. Adds the segment priority to d104 to reduce the entire selected segment, display part of the selected segment, hide part of the selected segment, or Determine whether to convert and display a part of the segment (P804).
  • the terminal adaptive control unit 15 determines that the selected segment is not larger than the display capability of the display unit 18 of the terminal 10 in P803, the terminal adaptive control unit 15 is selected. It is determined whether the segment data is smaller than the screen display size of the display section 18 (P805). Then, in P805, when the terminal adaptive control unit 15 determines that the data of the selected segment is smaller than the screen display size of the display unit 18, the terminal adaptive control unit 15 sets the terminal preference. d 104, taking into account the segment priority, expands the entire selected segment, expands part of the selected segment, does not display part of the selected segment, Decide whether to convert and display the copy (P806) o
  • the terminal adaptive control unit 15 identified the number of display colors of the terminal from the terminal preference d 104 and performed the processing from P801 to P806 in accordance with the number of terminal display colors. It is determined whether or not the segment can be completely displayed on the display section 18 (P807). Then, in P807, when the terminal adaptive control unit 15 determines that the segments on which the above-described processing has been performed can be completely displayed on the display unit 18, the processing is terminated. On the other hand, in P807, when the terminal adaptive control unit 15 determines that the segment on which the above processing has been performed cannot be displayed in color on the display unit 18, the segment on which the above processing has been performed is grayscale.
  • the terminal adaptation control unit 15 determines whether or not display can be performed on the display unit 18 (P808). Then, when the terminal adaptation control unit 15 determines that the segment on which the above-described processing has been performed is gray-scaled on the display unit 18 and can be displayed, the segment on which the above-described processing has been performed is displayed in gray scale. (P809). When the terminal adaptation control unit 15 determines that the segment subjected to the above-described processing is not displayable after being grayscaled by the display unit 18, the terminal adaptation control unit 15 determines to binarize the segment subjected to the above-described processing. (P810).
  • the resolution conversion section 17 performs resolution conversion by adapting the content determined by the terminal adaptation control section 15 to the actually selected segment. Then, the display unit 18 displays the segments converted by the resolution conversion unit 17.
  • At least one or more segment viewpoints added to each segment of the message d 101 and the segment priority in the segment viewpoints are extracted.
  • a segment having a segment viewpoint that matches the user viewpoint included in the user preference d103 can be selected based on the segment priority. As a result, it is possible to uniquely adapt the data over time d 102 to the user's preference.
  • FIG. 8 is a block diagram of a data adaptation apparatus according to the second embodiment.
  • the user adaptation control unit according to the first embodiment is provided in one server, and the server and the terminal are connected via a network.
  • simply connecting the user adaptation control unit and the terminal to the network does not allow scalable data adaptation in the form that the user wants to receive and according to the state of the network.
  • the user adaptation unit obtains information on the network transmission bandwidth as a network preference when distributing the content to the terminal via the network, and obtains the segment priority. And the amount of data is adjusted according to the transmission band. In this way, the second embodiment enables the user to receive data in a desired manner and to perform scalable data adaptation according to the state of the network.
  • FIG. 8 is a block diagram of a system including a data adaptation unit 22 according to the second embodiment.
  • server 20 and terminal 2B are connected by network 2A.
  • the terminal 2B includes a user preference storage unit 30 that stores a user preference d103 that is information on user preferences, and a terminal that stores a terminal preference d104 that is capability information of the terminal 2B.
  • Preference storage unit 31 network preference storage unit 32 for storing network preference d 205 that is transmission band information of network 2 A, and data sent from server 20.
  • the server 20 is a content data storage medium in which the data d102, which is the content composed of a plurality of segments, and the metadata d101, which is information for explaining the data d102, are stored.
  • the data d102 which is the content composed of a plurality of segments
  • the metadata d101 which is information for explaining the data d102, are stored.
  • the user adaptation unit 22 is provided with means for acquiring various data.
  • the means for acquiring each type of data consists of a data acquisition unit 33 a that acquires the data d 101 and a data acquisition unit 33 b that acquires the data d 102.
  • a terminal preference acquisition unit 35 for acquiring a network preference d205 via the network 2A and a network preference acquisition unit 36 for acquiring a network preference d205 via the network 2A are provided.
  • the user adaptation unit 12 is provided with a means for selecting a predetermined segment from the data d 102 obtained in accordance with the user's preference and matching it with the user's preference.
  • the acquired data d100 and the user preference data d103 are used to obtain a predetermined segment from the acquired data d102.
  • Segment selection unit that selects and extracts a predetermined segment from the data d102 acquired based on the information generated by the user adaptation control unit 24 and the user adaptation control unit 24 that generates information for selecting 26 are provided.
  • the user adaptation unit 24 is provided with means for converting the data d102 in accordance with the capability of the terminal 2B which is a processing device for the data d102.
  • the spatial resolution and color resolution of the data d100 from the data preference d101 and the terminal preference d104 to the data d100 are used.
  • the network adaptation control unit 28 generates information for adjusting the amount of data d 102 to be sent to the network 2 A using the message d 101 and the network preference d 205.
  • the content data acquisition unit 33 of the data adaptation unit 24 reads and acquires the metadata d101 and data d102 from the storage medium 21. Then, the user adaptation control unit 24 analyzes the obtained data set d 101 and obtains the data structure and at least one or more segment viewpoints and segments added to each segment of the structure. The priority in the viewpoint is extracted, and the read data (content) dlO2 is identified (P701). Next, the user-adaptive control unit 24 selects a user preference description (for example, the user-preference description 3 1) corresponding to the content identified from the user preference d 103 (P 702).
  • a user preference description for example, the user-preference description 3 1
  • the user adaptation control unit 24 arranges the user viewpoints (keywords) included in the user preference description 31 in the order of priority, which is an attribute of the user viewpoint (P703). Then, the user viewpoint to which the highest priority is assigned is selected (P704). Next, the user adaptation control unit 24 selects a segment that matches the user's viewpoint from the d 1002 in order from the user's viewpoint with the highest user priority (the first user's viewpoint). Information to the segment selection unit 26.
  • the segment selection unit 26 compares the first user viewpoint with the segment viewpoint of the segment, and is given a segment viewpoint that matches the first user viewpoint. It is determined whether or not the segment is available (P705).
  • the operation moves on to the operation of selecting a segment to which a segment viewpoint that matches the first user viewpoint is assigned.
  • the segment selection section 26 provisionally selects a segment that matches the user's viewpoint (P706).
  • the segment selection unit 26 determines whether the provisional selection has been completed for all the segments included in the message d 101 (P 707).
  • the next segment is extracted using d1 0 1 Perform the processing of P705 and P706. In this way, provisional selection can be made for all the segments included in the data d102.
  • the tentatively selected segments are arranged in the order of the segment priority assigned to the segments (P 707 8). This is because the main selection is made from the segment having the higher segment priority when the main selection of the segment described later is made.
  • the de-adaptation adaptation unit 22 permanently selects the segment having the highest segment priority (P709).
  • P710 it is determined whether the main selection of all the segments temporarily selected by the data adaptation unit 22 has been completed. If the data adaptation unit 22 determines in P710 that the final selection of all the tentatively selected segments has not been completed, the data length of the finally selected segment is set to the time length, the spatial range, or the It is determined whether both constraints have been exceeded (P711). Then, as long as the adaptation unit 22 does not exceed these constraints,? From 7 09? Repeat the operation up to 7 1 1.
  • P710 if the data adaptation unit 22 determines that the final selection of all the segments temporarily selected has been completed, the processing is performed for all user perspectives (keywords). It is determined whether or not it has been performed (P 715). Then, in P715, when the data adaptation unit 22 determines that the processing has been completed for all user viewpoints, the processing is terminated. On the other hand, in P715, if the data adaptation unit 22 determines that the processing has not been completed for all of the user's viewpoints, the process shifts to processing for the next user's viewpoint.
  • the data adaptation unit 22 extracts unselected segments, and performs the following processing only on unselected segments (P 714). Then, the next user viewpoint is selected (P711), and the processing from P705 to P711 is performed.
  • the data d102 is adapted to the user preference d103.
  • the data d102 can be adapted to the user preference d103.
  • the data adaptation unit 12 shifts to the operation of converting the segment selected as described above in accordance with the terminal preference d104, which is terminal capability information.
  • terminal adaptation control section 25 will be described with reference to FIG.
  • the terminal adaptation control unit 25 acquires the terminal preference d 104 recorded in the terminal 2 B from the terminal preference acquisition unit 35, and determines the screen display size of the display unit 18 as the terminal capability. The number of display colors is identified (P801). Next, the terminal adaptation control unit 25 determines the segment priority which the segment selected by the segment selection unit 26 has as its own attribute (P802). Then, the terminal adaptation control unit 25 determines whether the selected segment is larger than the display capability of the terminal 2B (P803).
  • the terminal adaptation control unit 25 determines that the selected segment is larger than the display capability of the terminal 2B, the terminal adaptation control unit 25 adds the segment to the terminal preference d104. Reduce priority to reduce the entire selected segment, display part of the selected segment, hide part of the selected segment, or select part of the selected segment Is converted and displayed (P804).
  • the terminal adaptation control unit 25 determines that the data of the selected segment is Judge whether it is smaller than the screen display size of 2B (P805). If the terminal adaptation control unit 25 determines in P805 that the data of the selected segment is smaller than the screen display size of the terminal 2B, the terminal adaptation control unit 25 sets the terminal preference dl 0 Adding the segment priority to 4, expanding the entire selected segment, enlarging a part of the selected segment, not displaying part of the selected segment, or selecting one of the selected segments It is determined whether the part is to be converted and displayed (P806).
  • the terminal adaptation control unit 25 sends the terminal preference B
  • the number of display colors is identified, and it is determined whether the segment subjected to the processing from P801 to P806 in accordance with the number of display colors of the terminal can be displayed in color on the display unit (P807).
  • the terminal adaptive control unit 25 determines that the segment subjected to the above processing can be displayed in color on the terminal 2B, and ends the processing.
  • the terminal adaptation control unit 25 determines that the segment subjected to the above processing cannot be displayed completely on the terminal 2B, the segment subjected to the above processing is grayed out. After the scaling, it is determined whether or not it can be displayed on the terminal 2B (P808).
  • the terminal adaptation control unit 25 determines that the segment on which the above-described processing has been performed is grayscale-displayed on the display unit 18 and is displayable, the segment on which the above-described processing has been performed is gray-scaled. (P809). Further, when the terminal adaptation control unit 25 determines that the segment subjected to the above processing is not displayable after being grayscaled by the terminal 2B, it determines to binarize the segment subjected to the above processing. (P810)
  • the resolution conversion section 27 performs resolution conversion by adapting the content determined by the terminal adaptation control section 25 to the actually selected segment. Then, the data after the resolution conversion is sent to the data amount adjusting unit 29.
  • FIG. 9 is a processing flowchart of the network adaptive control unit 28 according to the second embodiment.
  • the network adaptation control unit 28 acquires the network preference d 205 sent from the terminal 2 B via the network 2 A from the network preference acquisition unit 36. Then, the network adaptation control unit 28 identifies the transmission band of the network 2A (P910). Next, the network adaptation control unit 28 determines the segment priority that the segment selected by the segment selection unit 26 has as its own attribute (P902). Then, the network adaptation control unit 28 determines whether the converted data is larger than the transmission band (P903) In P903, if the network adaptive control unit 28 determines that the converted data is larger than the transmission band, the network adaptive control unit 28 compresses the entire data, Determine whether to transmit the data, not to transmit the entire data, or to convert and transmit a part of the data (P904).
  • converting and transmitting data means format conversion, such as converting MPEG-1 data to MPEG-4 data, or converting AAC data to MP3 data.
  • the network adaptation control unit 28 determines that the converted segment data has not been transmitted. It is determined whether it is smaller than the transmission band (P805). In P805, when the network adaptive control unit 28 determines that the converted data is smaller than the transmission band, the network adaptive control unit 28 transmits additional data of the untransmitted data or transmits the data. Decide whether or not to convert or transmit after converting or undoing the conversion (P906) o
  • data amount adjusting section 29 adapts the decision made by network adaptation control section 28 to the actually selected segment, adjusts the data amount, and transmits the adjusted data amount to terminal 2B.
  • the terminal 2B records the received segment on the storage medium 2C.
  • the amount of data of the selected segment is adjusted according to the transmission band included in the network preference d205.
  • data adaptation can be performed in a form that the user wants to receive and scalably according to the network conditions.
  • Embodiment 3 of the present invention a data adaptation apparatus according to Embodiment 3 of the present invention will be described.
  • the configuration of the data adaptation apparatus according to the third embodiment is the same as the configuration of the data adaptation apparatus according to the first embodiment. Therefore, description of the configuration of the data adaptation apparatus according to the third embodiment will be omitted.
  • FIG. 10 is a second detailed view of the user preference d103.
  • the user preference d103 is composed of a plurality of user preference descriptions 131 to 133.
  • the user preference descriptions 131-133 include a content identifier 134 for identifying the content corresponding to the user preference descriptions 131-133, a time length information 135 for displaying the content, and A plurality of keywords 136a and 136b for extracting a predetermined segment are stored.
  • the user preferences according to the third embodiment do not store the priorities for the keywords 136a and 136b. In this point, the user preference of the third embodiment is different from the user preference of the first embodiment.
  • FIG. 11 is a definition description of the user preference d103.
  • the user preference description definition 140 is described in XML (eXtensible Markup Language) DTD (Document Type Definition).
  • the user preference description definition 140 defines that one user preference has one or more contents (Content) as shown by 141 in the figure.
  • each content has one or more keywords 136 (Keyword).
  • the content has attributes such as a content identifier 134 (Content ID), a time length 135 (Duration), and a screen size 144 which is size information for displaying data. (S cre enS ize) is defined.
  • the keyword 136 is defined to be described in text data overnight.
  • FIG. 12 is a diagram illustrating an example of a user preference.
  • reference numeral 150 denotes an actual user preference description example described in XML using the user preference description definition 40.
  • the user preference 150 shown in FIG. 12 has two contents 151, 152.
  • the content 151 describes the content ID 153a (123456789 in this example), and the content 152 describes the content ID 153b (123456788 in this example).
  • the content 151 includes keywords 155a to 155c. Nak at a is described in the keypad 155a, Soccer is described in the keypad 155b, and Japan is described in the keypad 155c.
  • keywords 155 d to 55 f are described.
  • the key word 155d describes Head 1 line
  • the key word 155e describes Stokk
  • the keyword 155f describes Sports.
  • FIG. 13 is an operation explanatory diagram for explaining the operation of the segment selection unit 16.
  • what is given 131 is a user-preference description.
  • the configuration other than the user preference description 131 is the same as that of the first embodiment.
  • FIG. 13 is an operation explanatory diagram for explaining the operation of the segment selection unit 16.
  • Figure 14 shows the user
  • FIG. 9 is a process flowchart illustrating the operation of the adaptive control unit 14;
  • the content data acquisition unit 21 of the data adaptation unit 12 reads and acquires the metadata d 101 and data d 102 from the storage medium 11. Then, the user adaptation control unit 14 analyzes the obtained message data d 101 and obtains at least one or more segment viewpoints and segments added to each segment of the data structure and the structure. The priority is extracted from the viewpoint of the element, and the read out content (content) dlO2 is identified (P1771). Next, the user adaptation control unit 14 selects a user preference description (for example, the user preference description 13 1) corresponding to the content identified from the user preference d 103 (P 1702). Further, the user-adaptive control unit 14 arranges the user viewpoints (keywords) included in the user preference description 13 1 in the described order. In the example of Fig.
  • the keywords are described in order from the keyword described in the upper line, that is, the keyword 15a, the keyword 15b, and the keyword 15c. Then, the user's viewpoint described first, that is, at the highest level, is selected (P1704). In this manner, the keywords are arranged in the order in which they are described, since the user preference d 101 according to the third embodiment is not assigned a user priority, and corresponds to the user priority. This is because it is necessary to give some priority. In the third embodiment, the priority of keywords is made to correspond to the described order instead of the user priority.
  • the user-adaptive control unit 14 generates information that selects a segment that matches the user viewpoint from the user viewpoint d1 102 in order from the user viewpoint with the highest priority (the first user viewpoint). To the segment selector 16.
  • the segment selection unit 16 compares the first user viewpoint with the segment viewpoint of the segment, and assigns a segment viewpoint that matches the first user viewpoint. It is determined whether there is a segment (P1755).
  • the operation moves on to the operation of selecting a segment to which a segment viewpoint matching the first user viewpoint has been assigned.
  • the segment selection section 16 provisionally selects a segment that matches a user's viewpoint (P1776).
  • the segment selection unit 16 determines whether or not the provisional selection has been completed for all the segments included in the data d102 (P1707).
  • the next segment is extracted using d 101, and the processing of P 175 and P 176 is performed. In this way, provisional selection can be made for all the segments included in the data d102.
  • the provisionally selected segments are arranged in the order of the segment priority assigned to the segments. (P177). This is because the main selection is made from the segment with the highest segment priority when the main selection of the segment described later is made.
  • the data adaptation unit 12 permanently selects the segment having the highest segment priority (P1799).
  • the data adaptation unit 12 determines whether the final selection of all the tentatively selected segments has been completed (P17710). If the data adaptation unit 12 determines in P1770 that the final selection of all the temporarily selected segments has not been completed, the data length of the finally selected segment is changed to the time length, the spatial range, and so on. It is determined whether or not both of the constraints have been exceeded (P1771). Then, the operation from P177 to P1771 is repeated within a range where the data adaptation unit 12 does not exceed these constraints.
  • the data adaptation section 1 2 The selected segment is extracted, and the following processing is performed only for the unselected segment (P1714). Then, the data adaptation unit 12 selects the next user viewpoint (P1773), and performs the processing from P175 to P171.
  • the data adaptation unit 12 is the one with the highest priority KWD # 1 listed in the top row of the user viewpoint (user-keyword) included in the user preference (user preference description) 13 1 Find a subsegment.
  • the keypad 631 of subsegment 63 and the keypad 661 of subsegment 66 have KWD # 1 respectively.
  • the data adaptation unit 12 takes the sub-segment 63 and the sub-segment 66 into consideration with the time length constraint, and selects the sub-segment 63 and the sub-segment 66 in order of the time length constraint.
  • the sub-segment 66 whose time length constraint is not strict, that is, the time length is short, has the highest priority and is selected as the output data d 102 a. Then, the subsegment 63 is selected as a segment constituting the output data 102b.
  • the data adaptation unit 12 searches for a sub-segment having KWD # 2 having the next highest priority among the user viewpoints included in the user preference d103. All sub-segments that make up segment 61 include KWD # 2. Therefore, it is necessary to determine which subsegment has priority here.
  • the data adaptation unit 12 compares the segment priorities of the segment viewpoints added to each sub-segment.
  • subsegment 63, subsegment 62, subsegment 65, and subsegment 66 have the same priority, followed by subsegment 64 and subsegment 67. Also, since sub-segments 67 have already been selected, they are omitted from the following processing targets.
  • sub-segment with a higher segment priority than sub-segment 64 65 is selected as a subsegment constituting output data 102c in addition to subsegment 63.
  • Remaining subsegment 6 4 includes KWD # 2 and KWD # 3, with lower segment priority than subsegment 6 5 Therefore, when the time length constraint is least restrictive, subsegment 64 is selected as a subsegment constituting output data stream 102 d in addition to subsegment 63 and subsegment 65.
  • the user adaptive control unit 14 determines the priority of the user viewpoint included in the user preference d 103 matching the keyword in accordance with the priority of the key added to the selected segment. Update.
  • a segment corresponding to the user preference d103 can be selected from the data d102, and the data d102 can be adapted to the user preference d103.
  • the terminal control unit 15 converts the resolution of the selected segment sent from the segment selection unit 16 according to the flow shown in FIG.
  • the order in which one user viewpoint is described can be processed as the priority of the user viewpoint without assigning the user priority to the user preference dl 03. .
  • the order in which one user viewpoint is described can be processed as the priority of the user viewpoint without assigning the user priority to the user preference dl 03. .
  • the data structure of the user preference d103 can be simplified.
  • the server has the user adaptive control unit according to the third embodiment, and the server and the terminal are connected via a network.
  • FIG. 8 shows a system block diagram including the data adaptation device according to the fourth embodiment.
  • FIG. 10 is a diagram showing the user preference d 103 according to the fourth embodiment.
  • FIG. 11 is a definition of a user preference according to the fourth embodiment.
  • FIG. 13 is an operation explanatory diagram for explaining the operation of the segment selection unit 26.
  • FIG. 14 is a processing flowchart illustrating the operation of the user adaptive control unit 24 according to the fourth embodiment.
  • terminal adaptation control section 25 according to the fourth embodiment performs the same operation as the terminal adaptation control sections according to the first to third embodiments. Therefore,
  • FIG. 7 is a processing flow illustrating the operation of terminal adaptive control section 25 according to the fourth embodiment.
  • the network adaptive control unit 28 according to the fourth embodiment performs the same operation as the network adaptive control unit 28 according to the second embodiment. Therefore, FIG. 9 is a process flow chart for explaining the operation of the network adaptive control unit 28 according to the fourth embodiment.
  • the content data acquisition unit 33 of the data adaptation unit 22 reads and acquires the meta data d 101 and the data d 102 from the storage medium 21. Then, the user adaptation control unit 24 analyzes the acquired metadata d101, and determines the data structure and at least one or more segment viewpoints added to each segment of the structure and the priority in the segment viewpoint. Extract and read out the content (content) dlO2 (P1701). Next, the user-adaptive control unit 24 selects a user preference description (for example, the user preference description 13 1) corresponding to the content identified from the user preference d 10 3 (P 1702). Further, the user-adaptive control unit 24 arranges the user viewpoints (keywords) included in the user preference description 13 1 in the described order. In the example of FIG.
  • the keys are arranged in the order of description, that is, in order from the top row, in the order of key 1555 a, key 1555 b, and key 1505 c. And first, the top-ranked user view Select a point (PI704).
  • the keywords are arranged in the order in which they are described, since the user preference d 101 according to the fourth embodiment is not assigned a user priority, and thus corresponds to some user priority. This is because it is necessary to give priority.
  • the priority of keywords is set in the order in which the priorities of keywords are described instead of the one user priority.
  • the user adaptation control unit 24 selects information that selects a segment that matches the user viewpoint from the data d102 in order from the user viewpoint with the highest priority (first user viewpoint). Send to Part 26.
  • the segment selection unit 26 compares the first user viewpoint with the segment viewpoint of the segment, and gives a segment viewpoint that matches the first user viewpoint. It is determined whether or not there is a segment (P 175).
  • the operation moves on to the operation of selecting a segment to which a segment viewpoint matching the first user viewpoint has been assigned.
  • the segment selection section 26 provisionally selects a segment that matches the user's viewpoint (P1776).
  • the segment selection unit 26 determines whether the tentative selection has been completed for all the segments included in the message d101 (P1707).
  • the next segment is extracted using the message d 101, and the processing of P 175 and P 176 is performed. In this way, provisional selection can be made for all segments included in the data d102.
  • the tentatively selected segments are sorted in the order of the segment priority assigned to the segments (P 1 7 8). This is because the main selection is made from the segment with the highest segment priority when the main selection of the segment described later is made.
  • the data adaptation unit 22 first selects the segment with the highest segment priority (P1799). Next, the de-adaptation adaptation unit 22 determines whether the final selection of all the tentatively selected segments has been completed (P 171 0). And to P 1 7 1 0 If the data adaptation unit 22 determines that the final selection of all the temporarily selected segments has not been completed, the data length of the finally selected segment exceeds the time length, spatial range, or both constraints. (P1711). Then, the data adaptation unit 22 repeats the operation from P177 to P1771 within a range not exceeding these constraints.
  • the processing is performed for all user viewpoints (keywords). Judgment is made (P1715). Then, in P1775, when the data adaptation unit 22 determines that the processing has been completed for all user viewpoints, the processing is terminated. On the other hand, in P1775, if the data adaptation unit 22 determines that the processing has not been completed for all user viewpoints, the processing shifts to the next user viewpoint.
  • the data adaptation unit 22 extracts an unselected segment, and performs the following processing only on the unselected segment (P1774). Then, the data adaptation unit 22 selects the next user viewpoint (P 171 3), and performs the processing from P 175 to P 171.
  • the data adaptation unit 22 has the highest priority KWD # 1 listed in the top line of the user viewpoints (user keywords) included in the user preferences (user preference description) 1 3 1 Find a subsegment.
  • the keyword 631 of subsegment 63 and the keyword 661 of subsegment 66 each have KWD # 1.
  • the de-adaptive adapting unit 22 adds the time g constraint to the sub-segment 6 3 and the sub-segment 6 6.
  • the sub-segment 6 3 and the sub-segment 66 select the sub-segment 63 and the sub-segment 66 in order of the time length constraint.
  • the sub-segment 66 whose time length constraint is not strict, that is, the time length is short, has the highest priority and is selected as the output data d 102 a. Then, sub-segment 6 3 is used as a segment that constitutes output data 102 b. Selected.
  • the data adaptation unit 22 searches for a sub-segment having KWD # 2 with the next highest priority among the user viewpoints included in the user preference d103. All sub-segments that make up segment 61 include KWD # 2. Therefore, it is necessary to determine which subsegment has priority here.
  • the data adaptation unit 22 compares the segment priorities of the segment viewpoints added to each sub-segment.
  • subsegment 63, subsegment 62, subsegment 65, and subsegment 66 have the same priority, followed by subsegment 64 and subsegment 67. Also, since sub-segments 67 have already been selected, they are omitted from the following processing targets.
  • the sub-segment 6 5 having a higher segment priority than the sub-segment 6 4 Is selected as a subsegment constituting output data 102c in addition to subsegment 63.
  • the remaining subsegment 6 4 includes KWD # 2 and KWD # 3, and the segment priority is lower than subsegment 6 5, so subsegment 6 4 is subsegment 6 3 In addition to 65, it is selected as a sub-segment making up the output data stream 102d.
  • the user-adaptive control unit 24 determines the priority of the user viewpoint included in the user preference d 103 matching the keyword in accordance with the priority of the key added to the selected segment. To update.
  • a segment corresponding to the user preference d 103 can be selected from the data ⁇ 102 and the data d 102 can be adapted to the user preference d 103.
  • the terminal adaptation control unit 25 converts the resolution of the selected segment sent from the segment selection unit 26 according to the flow of FIG.
  • FIG. 9 is a processing flowchart of the network adaptive control unit 28 according to the fourth embodiment.
  • the network adaptation control unit 28 acquires from the network preference acquisition unit 36 the network preference d 205 sent from the terminal 2B via the network 2A. Then, the network adaptation control unit 28 identifies the transmission band of the network 2A (P910). Next, the network adaptation control unit 28 determines the segment priority that the segment selected by the segment selection unit 26 has as its own attribute (P902). Then, the network adaptation control unit 28 determines whether or not the converted data is larger than the transmission band (P903).
  • the network adaptive control unit 28 when the network adaptive control unit 28 determines that the converted data is larger than the transmission band, the network adaptive control unit 28 compresses the entire data, Decide whether to transmit a part of the data, not to transmit the entire data, or to convert and transmit a part of the data (P904).
  • the network adaptive control unit 28 determines that the converted data is not larger than the transmission band, the network adaptive control unit 28 transmits the converted segment data. It is determined whether it is smaller than the band (P905). In P905, when the network adaptation control unit 28 determines that the converted data is smaller than the transmission band, the network adaptation control unit 28 determines whether to perform the additional transmission of the untransmitted data. Decide whether to transmit or not to transmit, or to convert and undo the conversion (P906).
  • data amount adjusting section 29 adapts the decision made by network adaptation control section 28 to the actually selected segment, adjusts the data amount, and transmits the adjusted data amount to terminal 2B.
  • the terminal 2B records the received segment on the storage medium 2C.
  • At least one or more viewpoints added to each segment of the data structure and structure are extracted from the metadata and included in the user preference. Select a segment based on the priority of the viewpoint that matches the user's viewpoint and include it in the terminal preference.
  • the time and spatial resolution of the selected segment is converted according to the terminal capability information to be transmitted, and the amount of data of the selected segment is adjusted according to the transmission band included in the network preference, so that the user can receive in the desired format and Therefore, data adaptation can be performed scalably according to network conditions.
  • the priorities from the user's viewpoint are described in the order of description. However, the order may be reversed, or the priority at the center of the described order may be maximized.
  • the priority of each user viewpoint may be expressed by a description method.
  • a server 20 is provided with a user adaptive control section 24, a terminal adaptive control section 25, and a network adaptive control section 28 as control means on the server 20 side.
  • the user adaptation control unit 24, the terminal adaptation control unit 25, and the network adaptation control unit 28 may be provided in the terminal 2B as shown in FIG.
  • the server 20 sends a message d102 to the terminal 2B, and the terminal 2B adapts the data d102 to the user by the user adaptation control unit 25. Send the result to server 20. Then, the server 20 selects a segment from the data d102 based on the information sent from the user adaptive control unit 25, and transmits the selected segment to the terminal 2B. Also, a signal for controlling the resolution conversion unit 27 of the server 20 is sent from the terminal adaptation control unit 25 of the terminal 2B, and the data amount adjustment unit 29 of the server 20 is transmitted from the network adaptation control unit 28 of the terminal 2B. Send a signal to control.
  • the resolution conversion unit 27 and the data amount adjustment unit 29 operate according to the control signal sent from the terminal 2B, process the data selected by the segment selection unit 26, and process the processed segment into the terminal 2B.
  • assigning one segment viewpoint to each segment or sub-segment the description has been made in the form of assigning one segment viewpoint to each segment or sub-segment. However, if there are multiple segments or sub-segments to which the same segment viewpoint has been assigned, a segment viewpoint is added to any one of the segments or sub-segments. Other segments or sub-segments may be provided with link information for the segment viewpoint.
  • FIG. 16 is a diagram showing another form of the segment according to the embodiment of the present invention.
  • FIG. 17 is a diagram illustrating a description example of a segment according to the embodiment of this invention.
  • segment 1601 is a segment having the structure already described in the first to fourth embodiments. Segment 1601 is assigned a segment perspective and segment priority.
  • Segment 1602 and segment 1603 have the same segment perspective.
  • the segment 163 is provided with link information for the segment 162, and is linked to the segment 162.
  • Segment 1602 and segment 1603 will be described in detail with reference to FIG.
  • Segment 1602 describes the ID number (id) 1701 of the segment viewpoint (keyword).
  • the ID number 17001 is 1.
  • the segment priority (P) 172 for the keyword is described.
  • the segment priority is 5.
  • "TeamA" is described as a keyword.
  • a reference number (idref) 1703 for another segment viewpoint (keyword) as link information is described.
  • the reference number 17001 is 1.
  • segment 163 refers to the keyword whose ID number is 1.
  • segment 163 becomes "Team A".
  • the segment 1603 describes the segment priority (P) 1704 for the keyword.
  • the segment priority is 2.
  • linking segment keywords it is not necessary to describe the keywords in all the segments.
  • linking segment keywords clarifies the relationship between segments.
  • a table summarizing all appearing segment viewpoints is a child element of content which is an element of the highest layer of the description structure data. It was given as.
  • FIG. 18 is a diagram illustrating a data structure according to the fifth embodiment.
  • FIG. 19 is a diagram illustrating a description example of data according to the fifth embodiment.
  • the content has the viewpoint table 1801 as a child element.
  • the viewpoint table 1801 stores a plurality of segment viewpoints 1802a to 1802n included in the content.
  • the content includes a plurality of segments 1803 to 1805.
  • the segment 1803 is provided with link information to the viewpoint table 1801, and is linked to the segment viewpoint 1802a of the viewpoint table 1801.
  • the segment 1804 is provided with link information to the viewpoint table 1801, and is linked to the segment viewpoint 1802b of the viewpoint table 1801.
  • the segment 1804 is provided with link information to the viewpoint table 1801, and is linked to the segment viewpoint 1802c of the viewpoint table 1801.
  • Segments 1803 to 1805 are assigned segment priorities with respect to each segment viewpoint.
  • the viewpoint table 1801 describes the segment viewpoints 1802a to 1802c. ing.
  • an ID number (id) 1901a is described in the segment viewpoint 1802a.
  • the ID number 1901a is 1.
  • the segment viewpoint 1802a is represented by the text "A".
  • segment number 1802b has an ID number (id) of 190 lb.
  • ID number 1901 b is 2.
  • the segment viewpoint 1802b is represented by the text "B”.
  • the segment viewpoint 1 802c describes an ID number (id) 1901c.
  • the ID number 1901 c is 3.
  • the segment viewpoint 1802c is represented by the text "C”.
  • reference numbers (idref) 1903a to 1903c which are link information for the segment viewpoints 1802a to 1802c of the viewpoint table 1801 are described.
  • segment 1803a of segment 1803 is 1.
  • segment 1803 refers to user viewpoint 1802a with ID number 1. Therefore, the key of segment 1803 is "A”.
  • segment 1803 describes the segment priority (P) 1904a for the keyword.
  • the segment priority is 2.
  • the reference number 1903 b of the segment 1804 is 2. In other words, it refers to segment 1803 4, user perspective 1802b with ID number 2.
  • the keyword for segment 1804 is "B".
  • segment 1804 describes the segment priority (P) 1904 b for the keyword.
  • segment priority is 3.
  • the reference number 1903 c of the segment 1805 is 3.
  • segment 1805 refers to user perspective 1802c with ID number 1.
  • the keyword for segment 1805 is "C”.
  • segment 1805 includes a segment priority (P) 1904c for the keyword.
  • the segment priority is 4.
  • a segment viewpoint list can be set in advance for each user. Can be easily presented. This allows the user to know the segment viewpoint that appears before the user enters his or her favorite segment viewpoint. In addition, the user can input the segment viewpoint from the viewpoint table.
  • Each segment or sub-segment may be configured to add a set of a link to the corresponding viewpoint in this viewpoint table and a score for the link.
  • viewpoint table may be configured to have any segment or sub-segment instead of the content, or may be described separately.
  • pairs of links to viewpoint lists and scores, and pairs of viewpoints and scores may be mixed.
  • FIG. 20 is a diagram showing a data configuration in which a set of viewpoints and scores is mixed. As can be seen from FIG. 20, the content does not have segments 1803 and 1804 having link information for viewpoint table 1801, and no link information for viewpoint table 1801. Segment 2 0 1 is mixed.
  • FIG. 21 is a description example of the data configuration shown in FIG. As is apparent from this figure, the viewpoint table 1801 does not need to describe all the segment viewpoints appearing in the context description data, but only those referenced by the link. In addition, segment 20001 does not include link information to viewpoint table 1801.
  • a viewpoint table showing a list of segment viewpoints appearing in contextual content description data is prepared and presented to the user before input.
  • the content according to the sixth embodiment includes a viewpoint table 210 and a plurality of segments 210-3 to 210-5.
  • the viewpoint table 2101 includes a plurality of segment viewpoints 2102a to 2102n.
  • Segment 2103 has segment perspective 210 and segment priority 210, and segment 210 has segment perspective 210 and segment priority.
  • the last two hundred ninety-nine, the segment two hundred and fifty-nine include the segment viewpoint two hundred and ten and the segment priority two one two-two.
  • the segments 210-3 to 2105 do not include the link information for the viewpoint table 2101, unlike the segment of the fifth embodiment. In other words, the segments 210 to 210 and the viewpoint table 210 have an independent configuration.
  • FIG. 23 is a diagram illustrating a description example of data according to the sixth embodiment of the present invention.
  • the viewpoint table 210 stores viewpoints 210, 210, and 210 included in the segments 210 to 210. .
  • viewpoints 2301 to 2303 are stored corresponding to viewpoints 210, 210, and 210, respectively.
  • the viewpoint table 211 is displayed.
  • the description when the context description data is represented so as to be processed by a computer, the description is divided into a description part of the structure and a part describing the viewpoint as an attribute and its score. .
  • FIG. 24 is a diagram showing a data structure in the seventh embodiment.
  • FIG. 25 shows a description of data in the seventh embodiment.
  • the structure part 2 200 a describes the structure.
  • the attribute part describes the segment viewpoints whose attributes are the attributes and their priorities.
  • b. In the content of the structural part 220a, a plurality of segments 220a to 2201n are described.
  • a plurality of segment viewpoints 2202a and 2202b are described.
  • a set of link information 2203a to 2203f to the target segment ⁇ subsegment and priority 2204a to 2204f for each segment viewpoint 2202a and 2202b It is summarized.
  • the content describes a plurality of segments 2201a to 2201c.
  • Segment 2201a is assigned a segment ID number (id) 2301a.
  • id 2301 a is 1.
  • Segment 2201b is assigned the ID number (id) 2301b of the segment.
  • id 2301 a is 2.
  • Segment 2 201 n is assigned the segment ID number (id) 2301 n.
  • id 2301 n is n.
  • the segment viewpoint 2202a is "TeamA".
  • a plurality of segment priorities 2204a to 2204c are described.
  • the priority of the segment priority 2204a is 3
  • the priority of the segment priority 2204b is 2
  • the priority of the segment priority 2204c is 5.
  • link information 2203a to 2203c is assigned to the segment priority 2202a.
  • the link information 2203 a to 2203 c describes a reference number I dref for referring to the ID number 2301 a to 2301 c of the segment 2201 a to 2201 c.
  • segment priority 2204 & ⁇ (11 ⁇ 6 :? is 1; segment priority 220413 ⁇ (11 ⁇ 6 is 11; segment priority 2204c has an idref of 2. Therefore, segment priority Target segment with degree 2204a is segment 2201a, segment priority 2204b is segment 2201c, segment priority 22 The target segment for 04c is segment 2201n.
  • the segments 2201a to 2201c can be referenced from the segment priorities 2204a to 2204c.
  • the segment viewpoint 2202 b is “TeamB”.
  • a plurality of segment priorities 2204d to 2204f are described.
  • the priority of the segment priority 2204 d is 4
  • the priority of the segment priority 2204 e is 5
  • the priority of the segment priority 2204 f is 2.
  • link information 2203 d to 2203 f is assigned to the segment priority 2202 b.
  • Link information 2203 c! 2202203f describes a reference number idref to refer to the ID number 2301a to 2301c of the segment 2201a to 2201c.
  • idref of segment priority 2204 d is 2
  • idref of segment priority 2204 e is 3
  • idref of segment priority 2204 f is 1. Therefore, the target segment with segment priority 2204 d is segment 2201 b, the target segment with segment priority 2204 e is segment 2201 c, and the target segment with segment priority 2204 f is segment 2201 a.
  • the segments 22Ola to 2201n can be referenced from the segment priorities 2204a to 2204f.
  • the segment selection units 16 and 26 calculate the target segment viewpoints 2202 a and 2202 from the part described in the attribute part 220 Ob. For each b, select the priority 2204 a to 2204 f. Since the link information 2203 a to 2203 f is assigned to each of the selected priorities 2204 a to 2204 f, the segments 220 1 a to 2201 n which are the target of the selected priorities 2203 a to 2203 f are selected. be able to. In this way, the segment selectors 16 and 26 can select the target segments 2201 a to 2201 n by specifying the viewpoint priority 2204 a viewpoint for each of the segments 2202 a and 2202 b. O
  • FIG. 26 shows a data structure according to the seventh embodiment.
  • FIG. 27 is a diagram showing a description of the data in the seventh embodiment.
  • This form of data is also composed of a structural part 2400a and an attribute part 2400b, as in the seventh embodiment.
  • the content of the structural part 2400a describes a plurality of segments 2401a to 2401n.
  • a plurality of segment viewpoints 2402a and 2402b are described.
  • the link information for the segment priorities 2404a to 2404f is also described in the segments 2401a to 2401n. I have.
  • the content includes a plurality of segments 2401a to 2401c.
  • Segment 2401a is assigned a segment ID number (id) 2501a.
  • id 2501 a is 1.
  • Segment 2401b is assigned a segment ID number (id) 2501b.
  • id 2501 a is 2.
  • Segment 2 401c has a segment ID number (id) of 2501c.
  • segment viewpoint 2402a describes a plurality of segment priorities 2404a to 2404c.
  • segment priority 2404a has a priority of 3
  • segment priority 2404b has a priority of 2
  • segment priority 2 404c has a priority of 5.
  • link information 2403a to 2403c is added to the segment priority 2402a.
  • the link information 2403a to 2403c includes a reference number I dref for referring to the ID number 2501a to 2501c of the segment 2403a to 2401c. I have.
  • the segment priority 2404 a has id r e f of 1
  • the segment priority 2404 b has id r e f of 2
  • the segment priority 2404 c has id r e f of n.
  • the target segment having the segment priority 2404a is the segment 2401a
  • the target segment having the segment priority 2404b is the segment 2401b
  • the target segment having the segment priority 2404c is the segment 2401n.
  • segment viewpoint 2402b describes a plurality of segment priorities 2404d to 2404f.
  • segment priority 2404 d has a priority of 4
  • segment priority 2404 e has a priority of 5
  • segment priority 2 404 f has a priority of 2.
  • link information 2403d to 2403f is added to the segment priority 2402b.
  • the link information 240 3 d to 2403 f includes the reference number I dref for referring to the ID number 2501 a to 2501 c of the segment 2401 a to 2401 c. I have.
  • the id r ef of the segment priority 2404 d is 2
  • the id ref of the segment priority 2404 e is 3
  • the id ref of the segment priority 2 404 f is 1.
  • the target segment with segment priority 2404d is segment 2401b
  • the target segment with segment priority 2404e is segment 2401c
  • the target segment with segment priority 2404f is segment 2401a.
  • the segment priority 2402a is given a priority ID number (idref) 2503a to 2503c, respectively.
  • the priority ID number 2503a is p101
  • the priority ID number 2503b is pl02
  • the priority ID number 2503c is p103.
  • the segment priority 2402 b is assigned a priority ID number (idr ef) 2503 d to 2503 f, respectively.
  • the priority ID number 2503 d is p 201
  • the priority ID number 2503 e is p 202
  • the priority ID number 2503 f is p 203.
  • the segments 2401 a to 2401 n have priority reference numbers (id re fs) 2502 a to 2502 e that refer to the priority IDs 2503 a to 2503 c, which are link information for the segment priorities 2404 a to 2404 f.
  • idrefs2502a is p101
  • idrefs2502b is p203
  • idrefs2502c is p102
  • idrefs2502d is p201
  • idrefs2502e is p202.
  • segment priorities targeted for segment 2401a are segment priorities 2404a, 2404f
  • segment priorities targeted for segment 2401b are segment priorities 2404c, 2404d, and segment 2401a.
  • the target segment priority of n is the segment priority 2404b.
  • the segments 2401 a to 2401 n and the segment priorities 2204 a to 2204 f can be referred to from both sides.
  • the above-described segment selection units 16 and 26 can perform processing using the method described in the first to sixth embodiments or the method described in the seventh embodiment.
  • the context description data is expressed in two parts: a part that describes the structure, and a part that describes the viewpoint as an attribute and its score.
  • the link to the segment It is not expressed as a set with the segment priority and the segment priority, but described in order of segment priority for each segment viewpoint.
  • FIG. 28 is a diagram illustrating a data structure according to the eighth embodiment.
  • FIG. 29 shows a description of data according to the eighth embodiment.
  • the data structure according to the eighth embodiment includes a structure part 2600a that describes the structure and an attribute part 2600b.
  • a structure part 2600a that describes the structure
  • an attribute part 2600b In the content of the structural part 2600a, a plurality of segments 2601a to 2601n are described.
  • the attribute part 2600b describes a plurality of segment viewpoints 2602a and 2602b. For each segment viewpoint 2602a and 2602b, link information 2603a to 2603f to the target segment / sub-segment is described.
  • the content includes a plurality of segments 2601a to 2601n.
  • Each of the segments 2601 a to 2601 n has a segment ID number (id) 2701 a to 270 In.
  • idref 2702a is 1
  • idref 2702b is n
  • idref 2702c is 2.
  • the description order is recognized as the segment priority, so in this example, the segment priority of the link information 2603a is Is the highest, and the segment priority of the link information 2603c is the lowest.
  • segment 2601a has the highest segment priority and segment 260lb has the lowest segment priority.
  • link information 2603 d to 2603 f is assigned to the segment viewpoint 2602 b.
  • link information 2603 d to 2603 f reference numbers idre f 2702 d to 2302 f for referring to the ID numbers 2701 a to 2701 n of the segments 260 la to 260 In are described.
  • idr ef 2702 d is 2
  • id r ef 2702 e is 3
  • id r ef 2702 f is 1.
  • the link information 2603 d to 2603 f the description order is recognized as the segment priority. Therefore, in this example, the link information 2603 d has the highest segment priority and the link information 2603 f has the segment priority. Lowest.
  • segment 2601 b has the highest segment priority
  • segment 2601 a has the lowest segment priority
  • the segments 2201a to 2201n can be referred to from the segment viewpoints 2602a and 2602b, and the priority can be determined. .
  • each segment (or sub-segment) has a different segment priority, but as shown in Fig. 30, it is possible to describe the same segment priority. good.
  • the segment viewpoint 2802 of the attribute portion 2800 indicates that the segment priority is higher in order from the left, and those having the same segment priority are described above and below.
  • link information 2803a and link information 2803b are described above and below, and link information 2803a is described to the left of link information 2803c.
  • link information 2803a links to segment 2601b
  • link information 2803c links to segment 2601a
  • link information 2803b links to segment 261b.
  • Link to 01 n That is, segment 2601b and segment 2601n have the same segment priority, and segment 2601a has a lower segment priority than segment 2601b and segment 2601n.
  • the content includes a plurality of segments 2601a to 2601n.
  • Segments 2601 a to 2601 n are assigned segment ID numbers (id) 2901 a to 2901 n c
  • ⁇ 12901 & is 1
  • id 2901 a is 2
  • id 2901 n is n It is.
  • segment viewpoint 2802 is “Team A”.
  • link information (idref) 2803a to 2803c is assigned to the segment viewpoint 2602a.
  • idref2803a is 2
  • idref2803b is 1
  • idref2803c is n.
  • the description order is recognized as the segment priority. Therefore, in this example, the link information 2803a has the highest segment priority, and the link information 2803c has the segment priority. Lowest.
  • segment 2601a has the highest segment priority
  • segment 2601b has the lowest segment priority
  • segment selection units 16 and 26 select a segment by the method described in the seventh embodiment.
  • Embodiments 1 to 8 of the present invention are modes in which content is identified by a content identifier.
  • the content is not identified by the content identification, and the content is identified by the key or the co-occurrence probability of the key. Is also good.
  • the content may be identified by other methods.
  • user preferences may not be prepared for each content, and user preferences may be prepared as defaults, regardless of user preferences, as some preference categories or general preferences such as age or group. Good.
  • FIGS. 32 and 33 are diagrams showing the description definition of a user preference according to the ninth embodiment.
  • the user preference is indicated by UserPreference
  • the keyword is indicated by PreferenceSummaryTheme
  • the time length information for displaying the content is indicated by SummaryDuration
  • the priority for the keyword is indicated by preferencevalue.
  • UserPreference 321 is a user information as elements, and Userldentifier 322, which is an identifier for identifying a user, and UsagePreference 322, which is user preference information. It is defined to include Further, UsagePreference 3 203 is defined to include zero or one.
  • Userldentifier 322 is defined as having no element, as indicated by 324 in the figure.
  • the Userldentifier 3 202 is defined to include protected 3204 which is information indicating whether rewriting is possible and userName 3205 which is a single user as attributes.
  • Protected 3204 selects one of "true” that is rewritable, "false” that is not rewritable, and "user” that is rewritable according to the user.
  • the default of protected 3 204 is "true”.
  • userName 3205 is defined as CDATA, that is, text information. Also, “anoymous" is set as the default for userName 3205.
  • UsagePreference 323 is defined to include zero or more BrowsingPreferences 327 having information such as time and weather as elements.
  • UsagePreference 323 is defined to include allowAutomaticupdate 328, which is information indicating whether it can be automatically rewritten by an administrator or the like, as an attribute.
  • allowAutomaticupdate 32 08 selects one of "true” that is rewritable, "false” that is not rewritable, and "user” that is rewritable according to the user. .
  • the default value of allowAutomaticupdate 322 is "true”.
  • BrowsingPreferences 322 is defined to have zero or more Summarypreferences 321 as elements.
  • the BrowsingPreferences 3207 defines that it contains protected 3221, which is information indicating whether it can be rewritten as an element, and prefernceValue3221, which is the priority of BrowsingPreferences 327, as attributes. Have been.
  • Protected 3 2 1 1 selects one of "true” that is rewritable, "false” that is not rewritable, and "user” that is rewritable according to the user. .
  • the default of protected 3 2 1 1 is "true”.
  • prefernceValue 3 2 1 2 is defined as CDATA, that is, text information.
  • 100 is set as the default for prefernceValue 3 212.
  • SummaryPreferences 3 210 has 0 or more PreferredSummaryTheme 3302 as keywords, and 0 or 1 SummaryDuration 3303 as display period information as elements. It is defined as Also, summaryPreierences 3 2 1 0 is preferncevalue 3 3 It is defined to have 0 4 as an attribute. It is defined that the default of prefemcevalue 334 is 100.
  • the SummaryPreferences ⁇ ⁇ 10 has the priority priority preierncevalue 334 as an attribute, and it is the upper level of the keyword PreferredSummaryTheme 3302.
  • Prioritized processing can also be performed on the layer SummaryPreferences 3 210.
  • the definition of PreferredSummaryTheme 3302 will be described. As shown at 335 in the figure, the PreferredSummaryTheme 3302 is defined to have text data as an element. Further, PreferredSummaryTheme 3302 is defined to have xml: lang 3306 which is language information as options and preferenceValue 3307 which is priority information as attributes. Also, the default of preferenceValue 333, which is priority information, is defined as 100.
  • the prioritySummaryTheme 3302 can be prioritized.
  • SummaryDuration 3303 is defined to include text data as an element.
  • the user preference according to the ninth embodiment is not processed for each content, but is processed for each layer higher than PreferredSummaryTheme 3302 such as BrowsingPreferences 327 and SummaryPreferences 321. Can be. Also 7 This, BrowsingPreferences 3 of 2 0 7 N SummaryPreferences 3 2 1 0, it is treated that prioritize the PreferredSummaryTheme 3 3 0 every second upper layer.
  • PreferredSummaryTheme 3302 such as BrowsingPreferences 327 and SummaryPreferences 321. Can be.
  • BrowsingPreferences 3 of 2 0 7 N SummaryPreferences 3 2 1 it is treated that prioritize the PreferredSummaryTheme 3 3 0 every second upper layer.
  • FIG. 34 is a diagram illustrating a description example of a user preference according to the ninth embodiment.
  • the description example of the user preference shown in FIG. 34 corresponds to the description example of the user preference shown in FIG. That's what I did.
  • the UserPre Schlierence 3400 describes the Summary Preferences 404a and 3404b.
  • the information "Nakata” is described in the SummaryPreferences 3404a as the PreferredSummaryTheme.
  • the preferenceValue of PreferredSummaryTheme shown at 3405a in the figure is 500.
  • the information "Soccer” is described in the SummaryPreferences 3404a as the PreferredSummaryTheme.
  • the preferenceValue of PreferredSummaryTheme indicated by 3406a in the figure is 400.
  • SummaryPreferences 3404a describes,, Japan "as PreferredSummaryTheme.
  • the preference value of PreferredSummaryTheme shown in 347a in the figure is 200.
  • the SummaryDuration describes "PT5M", that is, information of 5 minutes.
  • the information "Headline” is described in the SummaryPreferences 3404b as the PreferredSummaryTheme.
  • the preferenceValue of PreferredSummaryTheme shown in 340b in the figure is 500.
  • the information "Stock” is described as the SummarySuieraryTheme in SummaryPreierences 404b.
  • the preference value of PreferredSummaryTheme indicated by 340b in the figure is 500.
  • SummaryPreferences 3404b contains Information "Sports” is described as PreferredSummaryTheme.
  • the preference value of PreferredSummaryTheme indicated by 340b in the figure is 300.
  • the SummaryDuration describes "PT3M", that is, information of 3 minutes.
  • the content corresponding to FIG. 4 can be described by the definition of the user preference according to the ninth embodiment.
  • FIGS. 35 to 37 are diagrams showing definitions of segment descriptions according to the ninth embodiment.
  • AudioVisualSegment a segment of audio and visual
  • AudioVisualSegment 3502 is defined to include zero or more PointOfViews 3503 and Mediaimes 3504 as elements.
  • PointOfView 3503 is an element including a viewpoint related to a segment.
  • MediaTime 3504 is an element including the segment time length and the like.
  • AudioVisualSegment 3502 is defined to have an ID, which is an identifier, as an attribute.
  • AudioVisualSegment 3502 has an optional href which is URL reference information as shown in 3506 in the figure and an idref which is an ID reference information as an option as shown in 3507 in the figure Is defined as an attribute.
  • PointOfView 3503 is defined as having 0 Supplementallnfo 3503 and 0 or more Value3510 as elements. .
  • Supplementallnfo 3503 is a comment indicating the contents of PointOfView 3503.
  • Value 3501 is priority information of PointOfView 3503.
  • PointOfView 3503 is defined to have an id, which is identifier information, as an attribute as an option, as indicated by 3511 in the figure.
  • PointOfView 3503 is defined as having viewPoint, which is a segment viewpoint, as an attribute, as indicated by 3512 in the figure.
  • viewPoint is defined to be described by text information.
  • Value 315 is defined to include text information as an element.
  • Value 315 is defined to have an identifier id as an attribute.
  • the identifier i d of Value 350 is defined as optional.
  • the AudioVisualSegment 3502 becomes the PointOfView 3 by the idref. You can refer to 502 and Value 350. That is, AudioVisualSegment 3502 can be linked to PointOfView 3502 and Value3501 by idref.
  • Supplementallnfo 359 is defined to have at least one FreeTextAnnotation 366 or StructuredAnnotation 366 as an element.
  • Supplementallnfo 359 is defined to have text data as an element. Further, as indicated by 365 in the figure, Supplementallnfo 359 is defined to have language information as an attribute. Next, the definition of StructuredAnnotation 366 will be described. 3 6 0
  • StructuredAnnotation 366 is 0 or 1 of Who 366, which is information indicating who went, or WhatObject 366, which is information indicating what was done. 0 or 1 of 8 or 0 or 1 of WhatAction 3.6.0 9 which is information indicating what was done, or 0 or 1 of Where 3 6 10 which is information indicating where it was done 1 or 0 or 1 or 3 It is defined to have 0 or 1 Wy3612, which is the information indicating whether or not it has been performed, as an element. ,
  • StructuredAnnotation 3653 is defined to have id which is identifier information as an attribute.
  • StructuredAnnotation 3603 is defined to have linguistic information as an attribute.
  • a MediaTime 354 is defined to have a MediaTimePoint 372 and a MediaDuration 370 as elements.
  • MediaTimePoint 370 2 is start time information of AudioVisualSegment 352
  • MediaDuration 370 3 is time length information of AudioVisualSegment 352.
  • AudioVisualSegment 3502 is defined. Next, a description example of AudioVisualSegment 3502 defined as described above will be described.
  • FIG. 38 is a description example in which the description example of the segment shown in FIG. 17 corresponds to the ninth embodiment.
  • the segment 1602 has the ID number (id) 1701 of the segment viewpoint (key) as in the description example of FIG. I have.
  • a segment priority (P) 1702 for the keyword is described.
  • Te amA is described as a keyword.
  • segment 1603 similarly to the description example in FIG. 17, a reference number (idref) 1703 for another segment viewpoint (keyword) as link information is described.
  • the keyword for segment 1603 is "Te am A”.
  • segment 1603 describes a segment priority (P) 1704 for the keyword.
  • segments can be linked to each other.
  • the viewpoint table 1801 describes the segment viewpoints 1802a to 1802c.
  • the segment viewpoint 1802a describes the ID number (id) 1901a.
  • the segment viewpoint 1802a is represented by the text "A".
  • segment viewpoint 1802b describes the ID number (id) 1901b.
  • the segment viewpoint 1802b is represented by the text "B”.
  • the segment viewpoint 1802c describes the ID number (id) 1901c.
  • the segment viewpoint 1802c is represented by the text "C”.
  • reference numbers (idref) 1903a to 1903c which are link information for the segment viewpoints 1802a to 1802c in the viewpoint table 1801 are described.
  • segment 1803 describes the segment priority (P) 1904a for the keyword.
  • segment 1804 describes the segment priority (P) 1904 b for the keyword.
  • Segment 1805 contains the segment priority (P) 1904 c for the keyword ing.
  • the viewpoint table 1801 does not need to describe all the segment viewpoints appearing in the context description data, but merely refers to the links. Also, segment 2001 does not include link information to viewpoint table 1801.
  • FIG. 21 can correspond to the ninth embodiment by the description as shown in FIG.
  • viewpoint table 2101 stores viewpoints 2106, 2108, and 2110 included in segments 2103 to 2105. Specifically, viewpoints 2301 to 2303 are stored corresponding to viewpoints 2106, 2108, and 2110.
  • the point-of-view table 2101 is displayed.
  • the description shown in FIG. 41 can correspond to the description in Embodiment 9 with the description shown in FIG.
  • the content describes a plurality of segments 2201a to 2201c.
  • Segment 2201a is assigned a segment ID number (id) 2301a.
  • Segment 2201b is assigned the ID number (id) 2301b of the segment.
  • Segment 2201c is assigned a segment ID number (id) 2301c.
  • segment viewpoint 2202a is "Team A”. Further, the segment viewpoint 2202a describes a plurality of segment priorities 2204a to 2204c.
  • the link priority 2203a to 2203c is assigned to the segment priority 2202a.
  • a reference number Idref for referring to the ID number 2301a to 2301c of the segment 2201a to 2201c is described.
  • the segments 2201a to 2201c can be referenced from the segment priorities 2204a to 2204c.
  • segment viewpoint 2202b is "TeamB".
  • segment viewpoint 2202b a plurality of segment priorities 2204d to 2204f are described.
  • link information 2203 d to 2203 f is assigned to the segment priority 2202 b.
  • the link information 2203 d to 2203 f describes a reference number Idref for referencing the ID number 2301 a to 2301 c of the segment 2201 a to 2201 c.
  • the segments 22Ola to 2201n can be referenced from the segment priorities 2204a to 2204f.
  • FIG. 25 can be made to correspond to the ninth embodiment by the description as shown in FIG.
  • segment 2401a is assigned the segment ID number (id) 2501a.
  • Segment 2401b is assigned the ID number (id) 2501b of the segment.
  • Segment ID number (id) 2501 c is assigned to segment 2401 c.
  • the segment viewpoint 2402a describes a plurality of segment priorities 2404a to 2404c.
  • link information 2403a to 2403c is added to the segment priority 2402a.
  • the link information 2403a to 2403c describes a reference number I dref for referring to the ID number 2501a to 2501c of the segment 2401a to 2401c.
  • the target segment with segment priority 2404a is segment 2401a
  • the target segment with segment priority 2404b is segment 2401b
  • the target segment with segment priority 2404c is segment 2401n.
  • the segment viewpoint 2402b describes a plurality of segment priorities 2404d to 2404f.
  • link information 2403 d to 2403 f is given to the segment priority 2402 b, respectively.
  • the link information 2403d to 2403f describes a reference number Idref for referring to the ID numbers 2501a to 2501c of the segments 2401a to 2401c. Therefore, the target segment with segment priority 2404d is segment 2401b, the target segment with segment priority 2404e is segment 2401c, and the target segment with segment priority 2404f is segment 2401a.
  • the segment priority 2402a is given a priority ID number (idref) 2503a to 2503c, respectively.
  • the segment priority 2402b is assigned a priority ID number (idref) 2503d to 2503f, respectively.
  • the segments 2401 a to 2401 c have priority reference numbers (idr ef s) 2502 a to 2502 e that refer to the priority IDs 2503 a to 2503 c, which are link information for the segment priorities 2404 a to 2404 f. Has been granted.
  • segment priorities targeted for segment 2401a are segment priorities 2404a and 2404f
  • segment priorities targeted for segment 2401b are segment priorities 2404b and 2404d.
  • the segment priority to be subject to g 2401 c is the segment priority 2404 e.
  • the segments 2401a to 2401c and the segment priorities 2204a to 2204f can be referred to from both sides.
  • the content includes a plurality of segments 2601a to 2601c.
  • Segment ID numbers (id) 2701 a to 2701 c are assigned to the segments 2601 a to 2601 c, respectively.
  • the segment viewpoint 2602a is "TeamA”.
  • link information 2603a to 2603c is added to the segment viewpoint 2602a.
  • reference numbers idref 2702a to 2302c for referring to the ID numbers 2701a to 2701c of the segments 2601a to 2601c are described.
  • the description order is recognized as the segment priority, so in this example, the link information 2603a has the highest segment priority, and the link information 2603c has the segment priority. Lowest. Therefore, segment 2601a has the highest segment priority, and segment 2601b has the lowest segment priority.
  • the segment viewpoint 2602 b is “TeamB”.
  • link information 2603 d to 2603 f is added to the segment viewpoint 2602 b.
  • reference numbers id ref 2702 d to 2302 f for referring to the ID numbers 270 1 a to 2701 c of the segments 2601 a to 260 1 c are described.
  • the description order is recognized as the segment priority. Therefore, in this example, the link information 2603 d has the highest segment priority and the link information 2603 f has the segment priority. Lowest. Therefore, segment 2601 b has the highest segment priority, and segment 2601 a has the lowest segment priority.
  • the description in FIG. 45 corresponds to the description in FIG. 29 according to the ninth embodiment.
  • the content includes a plurality of segments 2601a to 2601c.
  • Segment ID numbers (id) 2901a to 2901c are assigned to segments 2601a to 2601c, respectively.
  • the segment viewpoint 2802 is "Team A”.
  • link information (idref) 2803a to 2803c is added to the segment viewpoint 2602a.
  • the description order is recognized as the segment priority, so in this example, the link information 2803a has the highest segment priority, and the link information 2803c has the segment priority. Lowest.
  • segment 2601a has the highest segment priority
  • segment 2601b has the lowest segment priority
  • the user preferences are described in a form in which the user preferences are described in XML-DTD, but the user preferences are described in RDF, XML-Schema, other XML-based languages, languages other than XML, Or a description other than the language may be used.
  • FIG. 47 to FIG. 51 are diagrams showing the description definition of the user preference according to the tenth embodiment.
  • Fig. 47 Accordingly, FIG. 51 corresponds to the description definition of the user preference according to the ninth embodiment.
  • UserPreference 3 201 is composed of Userldentifier 3 202, which is an identifier for identifying the user, and UsagePreference 3 203, which is the user's preference information, as user information as elements. It is defined to include. Further, UsagePreference 3 203 is defined to include 0 or 1 Next, the definition of UsagePreference 3 203 will be described. As shown in 480 3, UsagePreierence J 200 is defined to include 0 or more BrowsingPreierences 3207. Further, UsagePreference 323 is defined to include aUowAutomaticUpdate 328 as an attribute. As shown in 4801 in the figure, UsagePreference 3203 is defined as having zero or more FilteringAndSearchPreferences4802 as elements.
  • BrowsingPreferences 3207 is defined to have zero or more Summarypreferences 3210 as elements.
  • BrowsingPreferences ⁇ 0 ⁇ is defined to include protected 3 2 1 1 and prefernceValue 3 2 1 2 as attributes.
  • BrowsingPreferences 327 is defined to include zero or more PreferaceConditionType 492 as elements.
  • SummaryPreferences 3 210 has zero or more elements of SummaryPreferncesType, which is an extension of summaryComponentType that has a list as shown by 503 in the figure. It is defined as In addition, SummaryPreferences 32 is defined as having 0 or more PreferredSummaryTheme 3302 as keywords and 0 or 1 SummaryDuration 3330 as display period information as elements. ing. Also, SummaryPreferences 3 210 is defined as having a priority, preferncevalue 3304, as an attribute. Also, it is defined that the default of preferncevalue 330 is 100.
  • PreferredSummaryTheme 3302 is defined as having TextualType, that is, text data as an element and linguistic information. Also, PreferredSummaryTheme 3302 is defined to have preference value 3303, which is priority information, as an attribute.
  • MinSummaryDuration indicating the minimum time length
  • MaxSummaryDuration indicating the maximum time length
  • NumOfKeyframes indicating the number of display frames
  • MinNumOfKeyframes indicating the minimum number of display frames
  • MaxNumOfeyframes indicating the maximum number of display frames
  • the number of display characters NumOfChars indicating the minimum number of displayed characters
  • MaxNumOfChars indicating the maximum number of displayed characters as elements.
  • these elements are defined as having priority as attributes.
  • FIG. 52 is a diagram showing a description example of a user preference according to the tenth embodiment.
  • the Userldentifier describes "true” as protected and “Mike” as userName.
  • UsagePreierences is described as “false” or g as allowAutomaticUpdate.
  • BrowsingPreferences is described as "true” as protected.
  • the UserPreference 520 two SummaryPreferences 520 are described. As indicated by reference numeral 520 in the figure, the information “Free-kick” is described in the SummaryPreferences 504 as the PreferredSummaryTheme. In addition, as indicated by reference numeral 520 in the figure, the information “Goals” is described in the SummaryPreferences 504 as the PreferredSummaryTheme. Also, as shown by 508 in the figure, the SummaryDuration describes information of “PT5M”, that is, 5 minutes.
  • FIGS. 53 to 56 are diagrams showing definitions of segment descriptions according to the tenth embodiment.
  • the segment according to the tenth embodiment is defined as Segment DS, which is an abstract segment shown in FIGS. 53 and 54.
  • the Audio VisualSegment DS, AudioSegment DS, VideoSegment DS, StillRegion DS, and MovingRegion DS each inherit the Segment DS and become a specific description definition.
  • the Audio VisualSegment DS will be described below. First, the Segment DS will be described.
  • Segment is declared to be an abstract type.
  • the Segment is defined as having Medialnformation as media information such as an encoding format as an element. Further, as indicated by 5302 in the figure, the Segment is defined as having a MediaLocator, which is link information to the entity of the segment, as an element. As indicated by reference numeral 503 in the figure, the Segment is defined as having a Creationlnformation which is manufacturer information such as copy right information as an element. In addition, as shown by 534 in the figure, a Segment has Usagelnformation, which is usage information such as usage methods and usage restrictions, as elements. Is defined.
  • the Segment is defined to have TextAnnotation, which is an annotation of the segment, as an element.
  • Segment is defined as having a PointOfView, which is a viewpoint (key) of the segment, as an element.
  • SegmentDecomposition is defined as an element used to designate a subsegment.
  • the Segment is defined to have an id, which is an identifier, as an attribute. Also, as indicated by 5312 in the figure, the Segment is defined to have href, which is link information to URL, as an attribute. Further, as indicated by 5313 in the figure, the Segment is defined as having an idref, which is link information to the id, as an attribute.
  • a segment has PointOfView that is keyword information, id that is an identifier, and idref that is reference information for an identifier of another segment.
  • AudioVisualSegment is described as an extension of the above-described Abstract Segment.
  • AudioVisualSegment is defined to have MediaTime indicating the start time as an extended element.
  • AudioVisualSegment is defined to have idref, which is reference information for other segments, as an attribute.
  • AudioVisualSegment has idref which is reference information as in the ninth embodiment.
  • PointOfView Next, the definition of PointOfView will be described with reference to FIG. As shown by 560 in the figure, the type of PointOfView is declared.
  • PointOfView is defined to have Supplementallnfo as an element.
  • PointOfView is defined to have Value as an element.
  • PrimitivelmportanceType indicated by 5603 in the figure.
  • PrimitivelmportanceType is defined as having attribute idref, which is reference information of segment id, as indicated by 5604 in the figure.
  • PointOfView has viewPoint described in text as an attribute.
  • the PointOfView has the id and the idref as in the ninth embodiment.
  • FIGS. 57 to 59 are diagrams illustrating examples of description of a segment according to the tenth embodiment.
  • FIGS. 57 to 59 are examples in which a PointOfView is described in the segment structure.
  • the id has the segment "FootBallGame", as indicated by 5700 in the figure.
  • the segment with the id “FootBallGame” is composed of two sub-segments, as shown at 570 1a and 570 1b in the figure.
  • the sub-segment denoted by 570 1a in the figure has a sub-segment 5702a with an id of "seg 1", a sub-segment 5702 b with an id of "seg2", and a sub-segment 5702 c with an id of "seg20".
  • the sub-segment 5702a has a viewPoint called “T ea mA” with a priority Value of 0.3, as shown in 5703a in the figure, and a priority, as shown in 5703b in the figure. It has a viewPoint called "TeamB” where a Value is 0.7.
  • the sub-segment 5702a also has MediaTime information, as shown by 5704a in the figure.
  • the sub-segment 5702b has a viewPoint of “TeamA” with a Value of 0.5 as priority, as indicated by 5703c in the figure.
  • the sub-segment 5702a also has MediaTime information, as indicated by 5704b in the figure.
  • the sub-segment 5702 c has a viewPoint “ ⁇ ⁇ am ⁇ ⁇ ” with a Value of 0.8 which is a priority as shown in 5703 d in the figure, and a priority as shown in 5703 e in the figure.
  • Has a viewPoint of "Te amB" whose Value is 0.2.
  • the sub-segment 5702a also has MediaTime information as shown by 5704c in the figure.
  • the subsegment indicated by 570 1 b in the figure is a subsegment 5702 d with an id of “2segl”, a subsegment 5702 e with an id of “2seg2”, and a subsegment 5702 f with an id of “2seg20” Having.
  • the subsegment 5702d has a viewPoint of “TeamA” with a priority Value of 0.3, as indicated by 5703f in the figure.
  • the sub-segment 5702b also has MediaTime information, as indicated by 5704d in the figure.
  • the sub-segment 5702b has a viewPoint of “TeamA” with a Value of 0.5, as shown in 5703g in the figure.
  • the sub-segment 5702a also has MediaTime information, as indicated by 5704e in the figure.
  • the sub-segment 5702f has a viewPoint of “TeamA” with a Value of 0.8, which is the priority, as indicated by 5703h in the figure.
  • the subsegment 5702f also has MediaTime information, as indicated by 5704f in the figure.
  • FIGS. 60 and 61 are diagrams showing other examples of the description of the segments according to the first embodiment.
  • the segment structure with the id “FootBaUGame” is 600 It is composed of one subsegment, as shown in Fig. 1.
  • the subsegment shown has a subsegment 6004a with id "segl”, a subsegment 6004b with id "seg2", and a subsegment 6004c with id "seg20".
  • the sub-segment 6 002a has MediaTime information, as indicated by 6004a in the figure.
  • the sub-segment 6002b has MediaTime information as shown by 6004b in the figure.
  • the sub-segment 6002c has MediaTime information as shown by 6004c in the figure.
  • the subsegment 6001 also has MediaTime information, as indicated by 6004d in the figure.
  • the PointOfView structure 6005 has a PointOfView of “T e am A”.
  • the PointOfView structure 6005 has segment reference information 6006a to 6 ⁇ 0c.
  • the segment reference information 6006a has a value of 0.3 and the reference information to the segment idref is "seg ⁇ .
  • the segment reference information 6006b has a value of 0.5 and a reference information to the segment.
  • the idref is “seg2.”
  • the segment reference information 6006 c has a Value of 0.8, and the reference information idref to the segment is “seg20”.
  • the PointOfView structure 6008 has a PointOfView called "T e amB”.
  • the PointOfView structure 6008 has segment reference information 6009a and 600b.
  • the segment reference information 6009a has 0. ⁇ as the Value, and the reference information idref to the segment is "seg 1".
  • the segment reference information 6009b has a Value of 0.2, and the reference information idref to the segment is "seg 20".
  • the PointOfView has information for referring to the id of the segment, the segment structure and the PointOfView structure can be separated.
  • a viewpoint (keyword) is assigned to a segment, and the segment is extracted using this viewpoint. And extract like this A group of the multiple segments is created to create a Digest.
  • Embodiment 11 a viewpoint (keyword) is added to this digest. In this way, digests can be extracted using viewpoints.
  • HierarchicalSummary is defined as having a SummaryThemeList, which is a viewpoint (keyword) list of HierarchicalSummary, as an element.
  • HierarchicalSummary ⁇ Well is defined as having a HighlightLevel is information indicating whether or become what segment configuration HierarchicalSummary force 5 as elements.
  • HierarchicalSummary is defined to have summaryComponentList as an attribute, as indicated by 623 in the figure.
  • SummaryComponentList is, Ni Let 's are shown in figure 6 2 0 4, in which inherited the shows to summaryComponentListType the Hier arcnicalSumm ary force s etc. Let' s to Do configuration force.
  • the SummaryComponentListType has a list of keyFrameS indicating the frame configuration, keyVideoClips indicating the video clip configuration, keyAudioClips indicating the audio clip configuration, keyThemes indicating the theme configuration, and unconstrained indicating the constraint condition. Has become.
  • SmnmaryThemeList which is a HierarchicalSummary viewpoint (keyword) list
  • SummaryThemeList is It is defined to have SummaryTheme, which is a HierarchicalSummary viewpoint, as an element.
  • SummaryTheme is text information and is defined to have linguistic information.
  • SummaryTheme is defined to have an id which is an identifier as an attribute.
  • SummaryTheme is defined to have parentld, which is reference information to other SummaryTheme in the upper hierarchy.
  • HighlightLevel is information indicating the segment configuration of HierarchicalSummary
  • HighlightLevel is declared. Then, as indicated by 6501 in the figure, the HighlightLevel has a HighlightSegment, which is segment information included in the HierarchicalSummary, as an element.
  • HighlightLevel has HighlightLevel as an element. This makes it possible to have a HighlightLevel below the HighlightLevel, and the HighlightLevel can be configured recursively.
  • HighlightLevel is name which is name information of HighlightLevel, level which is priority information of HighlightLevel, and duration which is length information of HighlightLevel. It has a reference to the SummaryTheme, themelds, as an attribute.
  • HighlightLevel can be linked to SummaryTheme.
  • the SummaryThemeList 660 includes SummaryTheme 660a to 660f.
  • SummaryTheme 660a is shown in English as indicated by 660a in the figure. And the SummaryTheme 660 1a is as shown in the figure 660 3a Has an id of "itemO". SummaryTheme 660 1a has the content of "baseball” as shown in 6604a in the figure.
  • SummaryTheme 660 1b is shown in English as shown in 6602b in the figure. Then, SummaryTheme 660 1b has an id of "itemOl” as shown by 6603b in the figure. The SummaryTheme 6601b has the content "home run” as shown in the figure 6604b. Then, SummaryTheme 660 1b has a parentID of "itemO” as shown in 6605b in the figure. That is, SummaryTheme 660 1b is a SummaryTheme located at a lower hierarchy than SummaryTheme 660 1a.
  • SummaryTheme 660 1c is shown in English as indicated by 6602c in the figure. Then, SummaryTheme 660 1c has an id of "iteml” as shown by 6603c in the figure. The SummaryTheme 660 1c has the content of "basketball” as shown in 660c in the figure. And SummaryTheme 660 1a has a parentID of itemO.
  • SummaryTheme 660 1d is shown in English as shown in 6602d in the figure. Then, SummaryTheme 660 1d has an id of "itemll” as shown in 6603d in the figure. Also, SummaryTheme 660 1d has the content of "three-pointer” as shown in 6604d in the figure. The SummaryTheme 660 1d is called “iteml”, as shown in 6605d in the figure.
  • SummaryTheme 660 1d is a SummaryTheme located at a lower hierarchy than SummaryTheme 660 1c.
  • SummaryTheme 660 1 e is shown in English as indicated by 6602 e in the figure. Then, SummaryTheme 660 1 e has an id of "iteml2" as shown by 6603 e in the figure. Also, SummaryTheme 6601 e is
  • the content is "slamdunk” as shown in the figure 6 6 04 e.
  • the SummaryTheme 660 1 e has a parentID of "iteml” as shown by 6605 e in the figure. That is, SummaryTheme 660 1 e is a SummaryTheme located at a lower hierarchy than SummaryTheme 660 1 c.
  • the SummaryTheme 6601f is shown in English as indicated by 660f in the figure.
  • the SummaryTheme 6601f has an id of "item2", as shown by 660f in the figure.
  • the SummaryTheme 6601f has the content "soccer" as shown by 660f in the figure.
  • SummaryTheme parentID you can link to other SummaryTheme. Also, SummaryTheme can be linked hierarchically.
  • SummaryThemeList 670 1 has slam dunk and one SummaryTheme 670 3a. Also, SummaryTheme 670.3a has an id of "E0". Further, SummaryThemeList 670 1 has SummaryTheme 670 b called "3-point shots”. Also, SummaryTheme 6703b has an id of "El”.
  • HighlightLevel 670 2a has a segment configuration as shown by 6704a in the figure. Then, HighlightLevel 670a has themelds of "E0" as shown in 675a in the figure. That is, HighlightLevel 6702a is linked to SummaryTheme 6703a with id "E0". Therefore, HighlightLevel 6 7 0 2 a has SummaryTheme 3 ⁇ 4r called "slam dunk”.
  • HighlightLevel 670b has a segment configuration as indicated by 670b in the figure. Then, HighlightLevel 670_2b has themelds " ⁇ , as shown in 6705b in the figure. That is, HighliehtLevel 6702b links to SummaryTheme 6703b with id "El". Therefore, HighlightLevel 6702b has SummaryTheme called "3-point shots”.
  • HierarchicalSummary can have SummaryTheme.
  • HighlightLevel and SummaryTheme can be linked. Therefore, HighlightLevel and SummaryTheme can be described separately.
  • the user preference may be anything such as a user's usage history, purchase history, event history, or a template prepared in advance.
  • the method of describing the content identifier, the time length, the keyword, the priority, or the priority of the keyword in the user preference is not limited to this embodiment.
  • the terminal preference represents not a specific terminal type or terminal capability value, but a terminal category (for example, for PC, portable terminal, etc.). It may be an ID or the like.
  • the terminal preference may be uniquely determined by the terminal, or may be updated by upgrading the firmware / software.
  • data may be data other than audio-video documents.
  • the user adaptive control unit controls the user adaptive control unit
  • Embodiments 1 to 10 there may be one or more hierarchies of segments and sub-segments.
  • the user preferences, terminal preferences, and network preferences are not on the terminal side, but are on the server side or completely different. It may be on the management site.
  • the network preference may be uniquely determined by the service contracted by the terminal, or may be uniquely or dynamically determined by the state of communication between the terminal and the server.
  • each part of the present invention described above is entirely or partially converted into a program, this program is stored in a computer-readable storage medium, and the operation of each part is executed by using a computer. It may be realized.
  • the present invention may be realized by using dedicated hardware for performing the functions of the respective units of the present invention described above.
  • the present invention may take a form of a computer, a program, or a product for causing a computer to execute all or a part of the operations of each unit included in the present invention.
  • user preference information is provided for each content as a user preference
  • a data segment is selected according to a user preference
  • the segment priority and terminal capability are determined.
  • the user when content is distributed over the network, the user obtains information on the network transmission bandwidth as a network preference, and adjusts the data amount according to the segment priority and transmission bandwidth to allow the user to receive data.
  • Data adaptation can be performed in a scalable manner according to the form desired and in accordance with the state of the network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

明 細 書 デ一夕適合化装置、 デ一夕適合化方法、 記憶媒体およびプログラム 技術分野
本発明は、 データをユーザーの嗜好に適応させるデータ適合化装置及びデ一 夕適応化方法、 およびデータ適合化装置を含む記録媒体に関するものである。 特に、 デジタル放送やインターネッ トなどの放送及び通信メディアを介したビ デォ、 オーディオ、 ドキュメントを含むデ一夕適合化装置に関するものである 背景技術
近年、 放送のデジタル化の動きが活発になり通信との融合も進んできている 放送分野では既に衛星デジ夕ル放送が開始され、 今後地上波放送もデジ夕ル化 される予定である。 放送内容をデジタル化することにより、 従来のビデオ 'ォ 一ディ ォに加えデ一夕放送も行われている。 TiVo(www.tivo.com)や ReplayTV(www.replaytv.com)など、 テレビ放送をハードディスクに蓄積し、 後で視聴するというコンセプト(TV Anytime)を実現する製品も米国で発売さ れている。 また通信分野ではイン夕一ネットを介したデジタルコンテンツ配信 が音楽を切り出しとして始まり、 ビデオを放送するインターネッ ト放送局も増 加している。 さらに、 携帯端末においてもアクセスネットワークの広帯域化と ィン夕ーネッ 卜への接続によりィン夕ーネットコンテンツへのアクセスが可 能となってきている。
このような情報インフラの飛躍的変化の中で、 今後ビデオ、 オーディオゃド キュメントなどを含む膨大な情報ソースへユーザーが様々な端末から簡単に アクセス可能となることが予想される。 このように通信と放送の融合 ·デジ夕 ル化により、 コンテンツを説明するメタデータを使用してユーザ一の好みに合 つた情報のみを選択的に伝送や再生することなしには、 膨大な情報ソースをュ —ザ一が扱うことが困難となってきている。 "Adapting Multimedia Internet Content For Universal Access" (IEEE Transactions on Multimedia, March 1999, pp.104-114.)に示されるように、 一つのコンテン トをテレビや携帯端末など様々な端末へ配信した り、 HHC(Hand Held Computer)や PDA(Personal Digital Assistant) Smart Phone など様々な端末からイン夕一ネット上のリッチコンテンツへアクセス するための記述スキームと、 イン夕一ネットコンテンツを端末の表示能力に合 わせて変換 (データ適応)する (例えば、表示サイズや表示色数の変更)方法とが提 案されている。
以下、 従来のデータ適応装置について説明する。 図 6 8は従来のデータ適応 装置のブロック図を示すものである。 従来のデ一夕適応装置は、 デ一夕適応部 1 0 0と、 ポリシ一エンジン 1 0 1と、 コンテンツ解析部 1 0 2と、 コンテン ッ選択部 1 0 3と、 コンテンツ操作部 1 0 4と、 端末 1 0 5とから構成されて いる。 コンテンツ解析部 1 0 2には、 イン夕一ネットコンテンツ d 1 0 0 1が 入力される。 また、 端末 1 0 5には端末 1 0 5の能力情報を示す端末プリファ レンス d 1 0 0 2が蓄積されている。
また、 図 6 9は端末プリファレンス d 1 0 0 2の詳細図である。 端末プリフ アレンス d 1 0 0 2は、 端末 1 0 5の表示能力である画面色数情報 Xと画面サ ィズ情報 a x bを含む。
以下、 以上のように構成されたデータ適応部の動作について、 図 7 0を用い て説明する。 図 7 0は、 データ適応部 1 0 0の動作を説明する処理フロー図で ある。
ポリシ一エンジン 1 0 1は、 端末 1 0 5から取得した端末プリファレンス d 1 0 0 2により端末能力としての表示画面サイズ及び表示色数を識別する (P 1 2 0 1 ) 。 そして、 ポリシ一エンジン 1 0 1は、 P 1 2 0 1で識別した情報 とポリシ一に従ってコンテンツ選択部 1 0. 3及びコンテンツ操作部 1 0 4を 制御する。
また、 コンテンツ解析部 1 0 2は、 ユーザーが要求したインターネットコン テンッ d 1 0 0 1の物理的データ種別を解析する (P 1 2 0 2 ) 。 そして、 コ ンテンッ選択部 1 0 3が、 インターネットコンテンツ d 1 0 0 1が端末 1 0 5 の表示能力で表示可能か判断し (P 1 2 0 3 ) 、 イン夕一ネットコンテンツ d 1 0 0 1が表示能力可能な場合はィン夕ーネッ トコンテンツ d 1 0 0 1から 端末能力で表示可能なコンテンツのみを選択する (P 1 2 0 4 ) 。
そして、 さらにコンテンツ操作部 1 0 4が、 P 1 2 0 4で選択した表示可能 なコンテンツを端末能力で表示可能な形態にコンテンツを変換する。 具体的に は、 コンテンツ選択部 1 0 3が表示画面サイズよりコンテンツが大きいかどう か判定し (P 1 2 0 5 ) 、 表示画面サイズより大きなコンテンツはコンテンツ 操作部 1 0 4が縮小する (P 1 2 0 6 ) 。 また、 表示画面サイズよりコンテン ッが大きくない場合は、 コンテンツ操作部 1 0 4はコンテンツが表示能力より 小さいか判断し (P 1 2 0 7 ) 、 小さなコンテンツはコンテンツ操作部 1 0 4 が拡大する (P 1 2 0 8 ) 。
また、 コンテンヅ操作部 1 0 4は、 端末 1 0 5の表示色数がカラーか判断す る (P 1 2 0 9 ) 。 そして、 端末 1 0 5の表示色数がカラーで無い場合は、 コ ンテンッ操作部 1 0 4は、 グレースケールか判定し (P 1 2 1 0 ) 、 グレース ケ一ルであればコンテンツの色数をグレースケールに変換 (P 1 2 1 1 ) 、 力 ラーでもグレースケールでもなければ二値化する (P 1 2 1 2 ) 。
しかしながら、 上記従来技術では、 一般的なポリシー、 つまり特定の端末に 合わせたポリシ一に従ってコンテンツ解析結果からコンテンツの選択及び操 作を行うことになる。 このため、 予め決められた一定数の端末のパターンに合 わせたデータ適応しかできないという問題がある。
また、 従来技術は、 コンテンツをユーザーの嗜好に会わせた選択および操作、 例えばある画像に対しては縮小ではなく一部を表示するなどの選択および操 作を行えない。 よって、 従来技術では、 予め決められた特定の端末を使用して コンテンツの選択および操作を行う場合であっても、 ユーザーがその端末を使 つてコンテンツをユーザーの嗜好にあわせた形態にデ一夕適応はできないと いう問題点がある。 発明の開示
本発明の第 1の目的は、 上記従来の問題点を解決するために、 ユーザーの嗜好 情報によってデ一夕のセグメントを選択することで、 ユーザーの嗜好にあわせ た形態でコンテンツのデ一夕適応を行うことである。
また、 本発明の第 2の目的は、 ネットワークを介してコンテンツを配信する 際に、 ユーザーが受信したい形態でかつ、 ネットワークの状態に合わせてスケ —ラブルにコンテンツのデ一夕適応を行うことである。
上記第 1の目的を達成するために、 本発明は、 ユーザ一の嗜好情報をユーザ —プリファレンスとして持たせ、 ユーザ一プリファレンスによってデータのセ グメントを選択し、 セグメントの優先度と端末能力に基づいて解像度変換を行 うことで、 コンテンツ毎にュ一ザ一が見たい形態でデータ適応を行うものであ る。 これにより、 ユーザーの嗜好に合わせて一意にデータ適応を可能とするこ とができる。
また、 上記第 2の目的を達成するために、 本発明は、 ネットワークを介して コンテンツを配信する際にネットワークの伝送帯域の情報をネッ トワークプ リファレンスとして取得し、 セグメントの優先度と伝送帯域に応じてデ一夕量 を調整することで、 ユーザーが受信したい形態でかつ、 ネットワークの状態に 合わせてスケ一ラブルにデ一夕適応を行うようにしたものである。 これにより、 ユーザーが受信したい形態でかつ、 ネットワークの状態に合わせてスケ一ラブ ルにデ一夕適応を行うことができる。 図面の簡単な説明
図 1は、 本発明の実施の形態 1及び実施の形態 3にかかるデ一夕適合化装置 を具備する端末のブロック図であり、
図 2は、 実施の形態 1にかかるユーザ一プリファレンスの詳細図であり、 図 3は、 実施の形態 1にかかるユーザープリファレンスの記述定義を示す図 であり、
図 4は、 実施の形態 1にかかるユーザ一プリファレンスの記述例を示す図で あり、
図 5は、 実施の形態 1にかかるセグメント選択部の動作説明図であり、 図 6は、 実施の形態 1にかかるユーザ一適応制御部の処理フロー図であり、 図 Ίは、 実施の形態 1にかかる端末適応制御部の処理フロー図であり、 図 8は、 本発明の実施の形態 2及び実施の形態 4にかかるデータ適合ィ匕部を 具備するシステムのプロック図であり、
図 9は、 実施の形態 2にかかるネットワーク適応制御部の処理フロー図であ り、
図 1 0は、 ユーザ一プリファレンスの第 2の例を示す詳細図であり、 図 1 1は、 ユーザープリファレンスの第 2の記述定義を示す図であり、 図 1 2は、 ユーザープリファレンスの第 2の記述例を示す図であり、 図 1 3は、 セグメント選択部の第 2の動作を説明する図であり、
図 1 4は、 ユーザー適応制御部の第 2の処理のフロー図であり、
図 1 5は、 本発明の実施の形態にかかるデ一夕適合化部を具備するシステム のその他の例を示すブロック図であり、
図 1 6は、 本発明の実施の形態にかかるセグメントのその他の形態を示す図 であり、
図 1 7は、 本発明の実施の形態にかかるセグメントの記述例を示す図であり 図 1 8は、 本発明の実施の形態 5にかかるデータ構造を示す図であり、 図 1 9は、 本発明の実施の形態 5にかかるデータの記述例を示す図であり、 図 2 0は、 本発明の実施の形態 5にかかるデ一夕構造のその他の例を示す図 であり、
図 2 1は、 本発明の実施の形態 5にかかるデ一夕構造のその他の例の記述例 を示す図であり、
図 2 2は、 本発明の実施の形態 6にかかるデータ構造を示す図であり、 図 2 3は、 本発明の実施の形態 6にかかるデータの記述例を示す図であり、 図 2 4は、 本発明の実施の形態 7にかかるデ一夕構造を示す図であり、 図 2 5は、 本発明の実施の形態 7にかかるデータの記述を示す図であり、 図 2 6は、 本発明の実施の形態 7にかかるデータ構造のその他の例を示す図 であり、
図 2 7は、 本発明の実施の形態 7にかかるデータ構造のその他の例の記述を 示す図であり、
図 2 8は、 本発明の実施の形態 8にかかるデ一夕構造を示す図であり、 図 2 9は、 本発明の実施の形態 8にかかるデータの記述を示す図であり、 図 3 0は、 本発明の実施の形態 8にかかるデータ構造のその他の例を示す図 であり、
図 3 1は、 本発明の実施の形態 8にかかるデ一夕のその他の記述例を示す図 であり、
図 3 2は、 本発明の実施の形態 9にかかるユーザ一プリファレンスの記述定 義を示す第 1の図であり、
図 3 3は、 本発明の実施の形態 9にかかるユーザープリファレンスの記述定 義を示す第 2の図であり、
図 3 4は、 本発明の実施の形態 9にかかるユーザープリファレンスの記述例 を示す図であり、
図 3 5は、 実施の形態 9にかかるセグメント記述の定義を示す第 1の図であ り、
図 3 6は、 実施の形態 9にかかるセグメント記述の定義を示す第 2の図であ り、
図 3 7は、 実施の形態 9にかかるセグメント記述の定義を示す第 3の図であ り、
図 3 8は、 実施の形態 9にかかるセグメントの第 1の記述例を示す図であり、 図 3 9は、 実施の形態 9にかかるセグメントの第 2の記述例を示す図であり、 図 4 0は、 実施の形態 9にかかるセグメン卜の第 3の記述例を示す図であり、 図 4 1は、 実施の形態 9にかかるセグメントの第 4の記述例を示す図であり、 図 4 2は、 実施の形態 9にかかるセグメントの第 5の記述例を示す図であり、 図 4 3は、 実施の形態 9にかかるセグメン卜の第 6の記述例を示す図であり、 図 4 4は、 実施の形態 9にかかるセグメントの第 7の記述例を示す図であり、 図 4 5は、 実施の形態 9にかかるセグメントの第 8の記述例を示す図であり、 図 4 6は、 実施の形態 9にかかるセグメントの第 9の記述例を示す図であり、 図 4 7は、 本発明の実施の形態 1 0にかかるユーザ一プリファレンスの記述 定義を示す第 1の図であり、
図 4 8は、 実施の形態 1 0にかかるユーザ一プリファレンスの記述定義を示 す第 2の図であり、
図 4 9は、 実施の形態 1 0にかかるユーザープリフアレンスの記述定義を示 す第 3の図であり、
図 5 0は、 実施の形態 1 0にかかるユーザープリファレンスの記述定義を示 す第 4の図であり、
図 5 1は、 実施の形態 1 0にかかるユーザープリファレンスの記述定義を示 す第 5の図であり、
図 5 2は、 実施の形態 1 0にかかるユーザープリファレンスの記述例を示し た図であり、
図 5 3は、 実施の形態 1 0にかかるセグメント記述の定義を示す第 1の図で あり、
図 5 4は、 実施の形態 1 0にかかるセグメント記述の定義を示す第 2の図で あり、
図 5 5は、 実施の形態 1 0にかかるセグメント記述の定義を示す第 3の図で あり、
図 5 6は、 実施の形態 1 0にかかるセグメント記述の定義を示す第 4の図で あり、
図 5 7は、 実施の形態 1 0にかかるセグメントの記述例を示した第 1の図で あり、
図 5 8は、 実施の形態 1 0にかかるセグメントの記述例を示した第 2の図で あり、
図 5 9は、 実施の形態 1 0にかかるセグメントの記述例を示した第 3の図で あり、
図 6 0は、 実施の形態 1 0にかかるセグメントの記述のその他の例を示した 第 1の図であり、
図 6 1は、 実施の形態 1 0にかかるセグメントの記述のその他の例を示した 第 2の図であり、
図 6 2は、 実施の形態 1 1にかかるダイジェスト記述の定義を示す第 1の図 であり、
図 6 3は、 実施の形態 1 1にかかるダイジェスト記述の定義を示す第 2の図 であり、
図 6 4は、 実施の形態 1 1にかかるダイジヱスト記述の定義を示す第 3の図 であり、
図 6 5は、 実施の形態 1 1にかかるダイジエスト記述の定義を示す第 4の図 であり、
図 6 6は、 実施の形態にかかる観点リス卜の記述の例を示す図であり、 図 6 7は、 実施の形態 1 1にかかるダイジェストの記述の例を示す図であり、 図 6 8は、 従来のデ一夕適合化装置のブロック図であり、
図 6 9は、 従来の端末プリファレンスの記述詳細図であり、
そして、 図 7 0は、 従来のデータ適応部の処理フロー図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 添付図面を参照して詳細に説明する。 (実施の形態 1 )
以下、 本発明の実施の形態 1におけるデータ適合ィ匕装置を具備する端末につ いて説明する。 図 1は、 実施の形態 1にかかるデータ適合化装置を具備する端 末のブロック図である。 図 1に示すように、 端末 1 0は、 複数のセグメントか ら構成されるコンテンツからなるデ一夕 d 1 0 2、 およびデ一夕 d 1 0 2を説 明するための情報であるメ夕デ一夕 d 1 0 1が蓄積されたコンテンツデ一夕 蓄積媒体 1 1と、 ユーザーの嗜好に関する情報であるユーザープリファレンス d 1 0 3を蓄積するユーザープリファレンス蓄積部 1 9と、 端末の能力情報で ある端末プリファレンス d 1 0 4を格納する端末プリファレンス蓄積部 2 0 と、 デ一夕 d 1 0 2をメ夕デ一夕 d 1 0 1とユーザ一プリファレンス d 1 0 3 および端末プリファレンス d 1 0 4とを用いてユーザーの嗜好に適応させる ユーザー適応部 1 2とから構成されている。
ユーザ一適応部 1 2には、 各種デ一夕を取得する手段が設けられている。 各 種デ一夕を取得する手段としては、 メ夕デ一夕 d 1 0 1を取得するメ夕デ一夕 取得部 2 1 aとデ一夕 d 1 0 2を取得するデ一夕取得部 2 1 bとから構成さ れるコンテンツデ一夕取得部 2 1と、 ユーザープリファレンス d 1 0 3を取得 するユーザープリファレンス取得部 2 2と、 端末プリファレンス d 1 0 4を取 得する端末プリファレンス取得部 2 3とが設けられている。
また、 ユーザー適応部 1 2には、 ユーザ一の嗜好にあわせて取得したデータ d 1 0 2から所定のセグメントを選択しユーザーの嗜好に合わせる手段が設 けられている。 選択したセグメントをユーザ一の嗜好に合わせる手段としては、 取得したメ夕デ一夕 d 1 0 1とユーザープリファレンスデータ d 1 0 3を用 いて、 取得したデータ d 1 0 2から所定のセグメントを選択するための情報を 生成するユーザー適応制御部 1 4と、 ユーザ一適応制御部 1 4で生成した情報 に基づいて取得したデータ d 1 0 2から所定のセグメントを選択し、 抽出する セグメント選択部 1 6が設けられている。
また、 ユーザー適応部 1 2には、 データ d 1 0 2の処理装置である表示部 1 8などの端末能力に合わせてデータ d 1 0 2を変換する手段が設けられてい る。 デ一夕 d 1 0 2を端末能力に合わせて変換する手段としては、 メ夕デ一夕 d 1 0 1と端末プリファレンス d 1 0 4からデータ d 1 0 2の空間解像度や 色解像度を変化するための情報を生成する端末適応制御部 1 5と、 端末適応制 御部 1 5で生成した情報により d 1 0 2の空間解像度変換や色解像度変換を する解像度変換部 1 7とが設けられている。
次に、 ユーザ一プリファレンス d 1 0 3について説明する。 図 2は、 ユーザ —プリファレンス d 1 0 3の詳細図である。 図 2に示すように、 ユーザープリ ファレンス d 103は、 複数のユーザ一嗜好記述 3 a〜 3 nから構成されてい る。 また、 ユーザ一嗜好記述 3 a〜 3 nには、 ユーザ一嗜好記述 3 a〜 3 nの それそれに対応するコンテンツを識別するコンテンツ識別子 34と、 コンテン ッを所望の時間で表示するための時間長情報 35と、 コンテンツから所望のセ グメントを抽出するためのキーワード (ユーザー観点) 36 a、 36 bとこの キーワード 36 a、 36 bに対する優先度 37 a、 37 bとの組が複数格納さ れている。
次に、 ユーザー嗜好記述 3 a〜 3 nを含むユーザープリファレンス d 103 の定義記述について具体的に説明する。 図 3は、 ユーザープリファレンス d 1 03の定義記述を示す図である。
図 3 に示すよう に、 ユーザープリ フ ァ レ ンス記述定義 4 0は、 XML(eXtensible Markup Language)の DTD(Document Type Definition)で記 述されている。
ユーザープリファレンス記述定義 40は、 図中 41に示すようにユーザ一プ リファレンスには一つ以上のコンテンツ (C ont ent) を有すると定義し ている。 また、 図中 42に示すように、 コンテンツ毎にひとつ以上のキーヮー ド (ユーザ—観点) 36 (Keywo rd) を有すると定義している。 また、 図中 43に示すように、コンテンツには、属性としてコンテンツ識別子 34 (C ont ent ID) と、 時間長 35 (Dur at i on) と、 デ一夕を表示す るサイズ情報である画面サイズ 46 (S c r e enS i z e) とが定義される。 また、 図中 47に示すようにキーワード 36 (Keywo r d) は、 テキスト データで記述されると定義されている。 また、 図中 48に示すように、 キーヮ ード 36には、 それそれ属性として優先度 37 (Pr i o r i t y) を有する と定義されている。
次に、 図 3に示したユーザープリファレンスの記述定義を用いて作成したュ 一ザ一プリファレンスについて説明する。 図 4は、 ユーザープリファレンスの 例を示す図である。
図 4において、 50で記されるものは、 ユーザー嗜好記述定義 40を使って XMLで記述した実際のユーザー嗜好記述例である。
ユーザ一プリファレンス 50は、 2つのコンテンヅ 51、 52を有する。 コ ンテンッ 51にはコンテンツ ID 53 a (この例では、 123456789) 、 コンテンツ 52にはコンテンツ ID 53b (この例では、 123456788) が記載されている。 また、 コンテンツ 51には、 コンテンツの属性として表示 時間長 54 (この例では、 smpt e = 00 : 05 : 00 : 00) が記載され ている。
また、 コンテンツ 5 1にはキ一ワード (ユーザ一観点) 55 a〜 55 cが記 載されている。 キーヮード 55 aには Nak a t a、 キーヮ一ド 55 bには S o c c e r、 キーワード 55 cには J a p a nが記載されている。 また、 キ一 ワード 55 a〜 55 cの属性として、 キーワード 55 aには優先度 5、 キーヮ ード 55 bには優先度 4、 キーワード 55 cには優先度 2が記載されている。 一方、 コンテンツ 52には、 コンテンツの属性として表示スケール 56 (こ の例では、 p ixe l = 320 x240) が記載されている。 また、 コンテン ッ 52にはキ一ヮ一ド 55 d〜55 fが記載されている。 キーヮ一ド 55 に は H e ad 1 i ne、 キ一ヮ一ド 55 eには S t o c k、 キーヮード 55 に は S p o r t sが記載されている。 また、 キーヮ一ド 55 d〜55 fの属性と して、 キーワード 55 dには優先度 5、 キーワード 55 eには優先度 5、 キー ワード 55 fには優先度 3が記載されている。
次に、 図 5を使用して、 デ一夕 d 102の構成について説明する。
データ d 102は、 デ一夕 d 102のある時間範囲を構成するセグメント 6 1から構成される。 セグメント 61は、 第 1サブセグメント 62と第 2サブセ グメント 63とから構成される。 サブセグメント 62は、 第 1サブセグメント 64と第 2サブセグメント 65から構成され、 サブセグメント 63は第 1サブ セグメント 66とサブセグメント 67とから構成される。 このように、 デ一夕 d 102は、 セグメントおよびサブセグメン卜によって階層化された構造を持 つ o
また、 サブセグメント 62にはキ一ワード (セグメント観点) 621が付加 され、 サブセグメント 63にはキーワード 631が付加されている。 また、 サ ブセグメント 64にはキ一ヮ一ド (セグメント観点) 641が付与され、 サブ セグメント 65にはキーワード (セグメント観点) 651が付加され、 サブセ グメント 66にはキーワード (セグメント観点) 661が付与され、 サブセグ メント 67にはキーワード (セグメント観点) 671が付加されている。 キーヮ一ド 621、 631、 641、 65 1、 661、 671は、 メタデ一 夕 d 101に記載されている。 また、 キーヮード 621、 631、 641、 6 51、 661、 671には、 キ一ヮ一ド 62 1、 631、 641、 65 1、 6 61、 671に対応するセグメント 62〜67の内容を示す複数のキーヮード (KWD) が付与されている。
また、 キーワード (KWD) 毎にセグメントの優先度 (セグメント優先度) が付与されている。 図の例では、 キーワード 621は、 KWD#2と KWD# 2内の順位つけであるセグメント優先度 3との組と、 KWD#3と KWD#3 内の順位つけであるセグメン卜優先度 3の組から構成されている。
次に、 セグメント選択部 16の動作およびュ一ザ一適応制御部 14の動作に ついて図 5および図 6を用いて説明する。 図 5は、 セグメント選択部 16の動 作を説明する動作説明図である。 図 6はユーザー適応制御部 14の動作を説明 する処理フロー図である。
データ適応部 12のコンテンツデータ取得部 21は、 蓄積媒体 1 1からメタ デ一夕 d 101とデ一夕 d 102を読み出し、 取得する。 そして、 ユーザー適 応制御部 14は、 取得したメ夕デ一夕 d 101を解析し、 データの構造と構造 の各セグメン卜に付加される少なくとも 1つ以上のセグメント観点及びセグ メント観点におけるセグメント優先度を抽出し、 読み出したデータ (コンテン ッ) d 1◦ 2を識別する (P 701) 。
次に、 ユーザー適応制御部 14は、 ユーザ一プリファレンス d 103から識 別したコンテンツに対応するユーザー嗜好記述 (例えばユーザー嗜好記述 3 1) を選択する (P 702) 。 さらに、 ユーザー適応制御部 14は、 ユーザー 嗜好記述 31に含まれるユーザー観点 (キーワード) をユーザー観点の属性で ある優先度の順番に整列する (P 7 0 3 ) 。 そして、 ユーザ一適応制御部 1 4 は、最も優先度の高い優先度が付与されたユーザー観点を選択する(P 7 0 4 ) < 次に、 ユーザー適応制御部 1 4は、 優先度の高いユーザー観点 (最初のユー ザ一観点) から順に、 そのユーザー観点と合致するセグメントをデ一夕 d 1 0 2から選択するような情報をセグメント選択部 1 6に送る。
そして、 セグメント選択部 1 6は、 ユーザー適応制御部 1 4から送られてき た情報により、 最初のユーザー観点とセグメントのセグメント観点とを比較し、 最初のユーザー観点と一致するセグメント観点が付与されたセグメントがあ るか判断する (P 7 0 5 ) 。
次に、 最初のユーザー観点と一致するセグメント観点が付与されたセグメン トの選択動作に移る。
しかし、 単純に最初のユーザ一観点と一致するセグメント観点が付与された セグメントを全て選択したのでは、 選択したセグメン卜がユーザープリファレ ンス d 1 0 3に記載された時間長情報 5 4、.空間範囲情報 5 6またはその両方 の制約条件を超えてしまう可能性がある。 そこで、 本実施の形態では、 一旦、 最初のユーザー観点と一致するセグメント観点が付与されたセグメントを全 て仮選択する。 そして、 仮選択したセグメントから、 時間長情報 5 4、 空間範 囲情報 5 6またはその両方の制約条件を超えない範囲の数のセグメントを本 選択するようにしている。
具体的には、 まず、 セグメント選択部 1 6はユーザー観点に合致するセグメ ントを仮選択する (P 7 0 6 ) 。 次に、 セグメント選択部 1 6はデータ d 1 0 1に含まれる全てのセグメントに対して仮選択が終了したか判断し (P 7 0 7 ) 、 終了していなければメ夕デ一夕 d 1 0 1を用いて次のセグメントを抽出 し、 P 7 0 5、 p 7 0 6の処理をする。 このようにして、 データ d 1 0 2に含 まれる全てのセグメントに対しての仮選択ができる。
そして、 P 7 0 7において、 データ適応部 1 2が全てのセグメントに対して 仮選択が終了したと判断すると、 仮選択されたセグメントをセグメントに付与 されたセグメント優先度順に整列する (P 7 0 8 ) 。 これは、 後述するセグメ ン卜の本選択時にセグメント優先度の高いセグメントからセグメントの本選 択するためである。
まず、 データ適応部 1 2が最もセグメント優先度の高いセグメントを本選択 する (P 7 0 9 ) 。 次にデータ適応部 1 2が、 仮選択した全てのセグメントの 本選択が終了したか判断する (P 7 1 0 ) 。 そして、 P 7 1 0において、 デ一 夕適応部 1 2が仮選択した全てのセグメン卜の本選択が終了していないと判 断すると、 本選択したセグメントのデータ長が時間長、 空間範囲またはその両 方の制約条件を超えたか判断する (P 7 1 1 ) 。 そして、 データ適応部 1 2が これらの制約条件を超えない範囲で、 P 7 0 9から P 7 1 1までの動作を繰り 返す。
また、 P 7 1 0において、 デ一夕適応部 1 2が仮選択した全てのセグメント の本選択が終了しているという判断をすると、 すべてのユーザ一観点 (キーヮ —ド) に対して処理をしたか判断する (P 7 1 5 ) 。 そして、 P 7 1 5におい て、 データ適応部 1 2がすべてのユーザー観点に対して処理が終了したと判断 した場合は処理を終了する。 一方、 P 7 1 5において、 デ一夕適応部 1 2がす ベてのユーザー観点に対して処理が終了していない判断した場合は、 次のユー ザ一観点に対する処理に移行する。
ここで、 既に上述した処理で選択済みのセグメントに対して、 再度処理を行 つて再度選択することは無意味である。 よって、 まず、 データ適応部 1 2が未 選択のセグメントを抽出し、 未選択のセグメントに限定して以下の処理を行う ようにする (P 7 1 4 ) 。 そして、 データ適応部 1 2が次のユーザー観点を選 択し (P 7 1 3 )、 P 7 0 5から P 7 1 1の処理をする。
さらに、 具体的にセグメント選択動作について図 5を用いて説明する。 まず、 データ適応部 1 2がユーザープリファレンス (ユーザ一嗜好記述) 3に含まれ るユーザー観点 (ユーザーキーワード) のうち最もセグメント優先度が高い
KWD#1があるサブセグメントを探す。 サブセグメント 6 3のキーヮ一ド 6 3
1、 サブセグメント 6 6のキ一ヮ一ド 6 6 1には、 それそれ KWD#1がある。 次に、 データ適応部 1 2がサブセグメント 6 3、 サブセグメント 6 6に時間長 制約を加味し、 サブセグメント 6 3、 サブセグメント 6 6から時間長制約が厳 しい順に選択する。 具体的には、 まず、 時間長制約が厳しくない、 つまり時間 長が短いサブセグメント 6 6が最も優先されて出力データ d 1 0 2 aとして 選択される。 そして、 次に、 サブセグメント 6 3が出力デ一夕 1 0 2 bを構成 するセグメントとして選択される。
同様に、 デ一夕適応部 1 2がユーザ一プリファレンス 3に含まれるユーザー 観点のうち次に優先度が高い KWD#2があるサブセグメントを探す。セグメン ト 6 1を構成する全てのサブセグメントに KWD#2が含まれる。 よって、 ここ では、 どのサブセグメントが優先されるかを決定する必要がある。
具体的には、 デ一夕適応部 1 2が各サブセグメン卜に付加されるセグメント 観点のセグメント優先度を比較する。 図 5の例では、 サブセグメント 6 3、 サ ブセグメント 6 2、 サブセグメント 6 5、 サブセグメント 6 6が同優先度で、 次にサブセグメント 6 4、 サブセグメント 6 7と優先度が続く。 また、 サブセ グメント 6 7はすでに選択済みであるので、 以下の処理対象から省く。
よって、 デ一夕適応部 1 2が出力データ d 1 0 2 bを選択した後に、 更に時 間長制約が許容される場合には、 セグメント優先度がサブセグメント 6 4より も高いサブセグメント 6 5がサブセグメント 6 3に加えて出力デ一夕 1 0 2 cを構成するサブセグメントとして選択される。残ったサブセグメント 6 4は KWD#2と KWD#3を含み、 セグメント優先度がサブセグメント 6 5より低い。 よって、 最も時間長制約が緩い場合に、 サブセグメント 6 4はサブセグメント 6 3とサブセグメント 6 5に加えて出力デ一タストリーム 1 0 2 dを構成す るサブセグメントとして選択される。
またユーザ一適応制御部 1 4は、 選択されたセグメントに付加されるキーヮ ードの優先度に応じて、 キーワードと合致するユーザ一プリファレンス d 1 0 3に含まれるユーザー観点の優先度を更新する。
このようにして、 データ d 1 0 2からユーザープリファレンス d 1 0 3に適 応するセグメントを選択し、 データ d 1 0 2をユーザープリファレンス d 1 0 3に適合化できる。 次に、 データ適応部 1 2は、 上述したように選択したセグメントを端末能力 情報である端末プリファレンス d 1 0 4に応じて変換する動作に移行する。 以 下、 端末適応制御部 1 5の動作について、 図 7を用いて説明する。 図 7は、 端 末適応制御部 1 5の動作を説明する処理フロー図である。
まず、 端末適応制御部 1 5は、 端末 1 0に記録される端末プリファレンス d 1 0 4を取得して、 端末能力としての表示部 1 8の画面表示サイズと表示色数 を識別する (P 8 0 1 ) 。 次に、 端末適応制御部 1 5は、 セグメント選択部 1 6によって選択されたセグメントが自身の属性として持つセグメント優先度 を判定する (P 8 0 2 ) 。 そして、 端末適応制御部 1 5は、 選択されたセグメ ントが端末 1 0の表示部 1 8の表示能力より大きいか判断する (P 8 0 3 ) 。 そして、 P 8 0 3において端末適応制御部 1 5が選択されたセグメン卜が端 末 1 0の表示部 1 8の表示能力より大きいと判断した場合は、 端末適応制御部 1 5は端末プリファレンス d 1 0 4にセグメント優先度を加味して、 選択され たセグメント全体を縮小するか、 選択されたセグメントの一部を表示するか、 選択されたセグメントの一部を表示しないか、 選択されたセグメントの一部を 変換して表示するかを決定する (P 8 0 4 ) 。
一方、 P 8 0 3において端末適応制御部 1 5が選択されたセグメン卜が端末 1 0の表示部 1 8の表示能力より大きくないと判断した場合は、 端末適応制御 部 1 5は選択されたセグメントのデ一夕が表示部 1 8の画面表示サイズより 小さいか判断する (P 8 0 5 ) 。 そして、 P 8 0 5において端末適応制御部 1 5が選択されたセグメントのデータが表示部 1 8の画面表示サイズより小さ いという判断をした場合には、 端末適応制御部 1 5は端末プリファレンス d 1 0 4にセグメント優先度を加味して、 選択したセグメント全体を拡大するか、 選択したセグメントの一部を拡大するか、 選択したセグメントの一部を表示し ないか、 選択したセグメントの一部を変換して表示するかを決定する (P 8 0 6 ) o
次に、 端末適応制御部 1 5は、 端末プリファレンス d 1 0 4から端末の表示 色数を識別し、 端末表示色数に合わせて P 8 0 1から P 8 0 6の処理を施した セグメントが表示部 1 8でカラ一表示可能か判断する (P 8 0 7 ) 。 そして、 P 8 0 7において、 端末適応制御部 1 5が、 上述した処理を施したセグメント が表示部 1 8でカラ一表示可能であるという判断をすると処理を終了する。 一方、 P 8 0 7において、 端末適応制御部 1 5が、 上述した処理を施したセ グメン卜が表示部 1 8でカラー表示可能でないという判断をすると、 上述した 処理を施したセグメントがグレースケール化した後に表示部 1 8で表示可能 になるか判断する (P 8 0 8 ) 。 そして、 端末適応制御部 1 5が、 上述した処 理を施したセグメン卜が表示部 1 8でグレ一スケール化した後に表示可能あ るという判断をすると、 上述した処理を施したセグメントをグレースケール化 する決定をする (P 8 0 9 ) 。 また、 端末適応制御部 1 5が、 上述した処理を 施したセグメントが表示部 1 8でグレースケール化した後に表示可能でない という判断をすると、 上述した処理を施したセグメントを二値化する決定をす る (P 8 1 0 )。
そして、 解像度変換部 1 7は端末適応制御部 1 5の决定内容を実際に選択さ れたセグメントに対して適応し解像度変換を行う。 そして、 表示部 1 8は解像 度変換部 1 7で変換したセグメントを表示する。
以上のように、 実施の形態 1によれば、 メ夕デ一夕 d 1 0 1の各セグメント に付加される少なくとも 1つ以上のセグメント観点及びセグメント観点にお けるセグメント優先度を抽出し、ュ一ザ一プリファレンス d 1 0 3に含まれる ユーザー観点と合致するセグメント観点を有するセグメントをセグメント優 先度に基づいてセグメントの選択を行える。 これにより、 デ一夕 d 1 0 2をュ 一ザ一の嗜好に合わせて一意にデ一夕適合化することが可能となる。
また、 実施の形態 1によれば、 端末プリファレンスに含まれる端末能力情報 に従ってセグメントの時間及び空間解像度変換を行うことで、 端末の能力に合 わせて一意にデータ適合化することが可能となる。
また、 実施の形態 1によれば、 ユーザー観点毎にユーザー優先度を付与する 形態であるので、 ユーザ一優先度のみを変更することでユーザー観点間の優先 度を変更できる。 よって、 ユーザーによるユーザー観点の編集が容易になる。 (実施の形態 2 )
以下、 本発明の実施の形態 2におけるデータ適合化装置について図 8を用い て説明する。 図 8は実施の形態 2におけるデ一夕適合化装置のブロック図を示 すものである。
実施の形態 2は、 実施の形態 1にかかるユーザー適応制御部をサーバ一に持 たせ、 サーバーと端末とをネットワークで接続したものである。 しかし、 単純 にユーザー適応制御部と端末とをネットワーク接続したのでは、 ユーザ一が受 信したい形態でかつ、 ネットワークの状態に合わせてスケ一ラブルにデータ適 応を行えない。 これを解決するために、 実施の形態 2では、 ユーザー適応部が、 ネットワークを介してコンテンツを端末に配信する際にネットワークの伝送 帯域の情報をネヅトワークプリファレンスとして取得し、 セグメントの優先度 と伝送帯域に応じてデ一夕量を調整するようにしている。 このようにして、 実 施の形態 2は、 ユーザーが受信したい形態でかつ、 ネットワークの状態に合わ せてスケーラブルにデ一夕適応を行えるようになつている。
以下、 実施の形態 2について詳細に説明する。 まず、 実施の形態 2にかかる デ一夕適合ィ匕部 2 2の構成について図 8を用いて説明する。 図 8は、 実施の形 態 2におけるデータ適合化部 2 2を具備するシステムのブロック図である。 図 8に示すように、 サーバ一 2 0と端末 2 Bとはネットワーク 2 Aで接続さ れている。 端末 2 Bは、 ユーザーの嗜好に関する情報であるユーザープリファ レンス d 1 0 3を蓄積するユーザープリファレンス蓄積部 3 0と、 端末 2 Bの 能力情報である端末プリファレンス d 1 0 4を格納する端末プリファレンス 蓄積部 3 1と、 ネットワーク 2 Aの伝送帯域情報であるネットワークプリファ レンス d 2 0 5を格納するネヅトワークプリファレンス格納部 3 2と、 サーバ —2 0から送られてくるデ一夕を蓄積する蓄積媒体 2 Cとから構成される。 また、 サーバー 2 0は、 複数のセグメントからなるコンテンツであるデータ d 1 0 2およびデ一夕 d 1 0 2を説明するための情報であるメタデータ d 1 0 1が蓄積されたコンテンツデータ蓄積媒体 2 1と、 データ d 1 0 2をメ夕デ 一夕 d 1 0 1とユーザ一プリファレンス d 1 0 3、 端末プリファレンス d 1 0 4、 およびネットワークプリファレンス d 2 0 5とを用いてユーザ一の嗜好に 適応させるユーザー適応部 2 2とから構成されている。
ユーザー適応部 2 2には、 各種データを取得する手段が設けられている。 各 種データを取得する手段としては、 メ夕デ一夕 d 1 0 1を取得するメ夕デ一夕 取得部 3 3 aとデータ d 1 0 2を取得するデータ取得部 3 3 bとから構成さ れるコンテンツデータ取得部 3 3と、 ネットワーク 2 Aを介してユーザープリ ファレンス d 1 0 3を取得するユーザープリファレンス取得部 3 4と、 ネット ワーク 2 Aを介して端末プリファレンス d 1 0 4を取得する端末プリファレ ンス取得部 3 5と、 ネットワーク 2 Aを介してネットワークプリファレンス d 2 0 5を取得するネヅトワークプリファレンス取得部 3 6とが設けられてい る。
また、 ユーザー適応部 1 2には、 ユーザーの嗜好にあわせて取得したデ一夕 d 1 0 2から所定のセグメントを選択しユーザーの嗜好に合わせる手段が設 けられている。選択したセグメントをユーザーの嗜好に合わせる手段としては、 取得したメ夕デ一夕 d 1 0 1とユーザープリファレンスデ一夕 d 1 0 3を用 いて、 取得したデータ d 1 0 2から所定のセグメントを選択するための情報を 生成するユーザー適応制御部 2 4と、 ユーザー適応制御部 2 4で生成した情報 に基づいて取得したデータ d 1 0 2から所定のセグメントを選択し、 抽出する セグメント選択部 2 6が設けられている。
また、 ユーザー適応部 2 4には、 データ d 1 0 2の処理装置である端末 2 B の能力に合わせてデータ d 1 0 2を変換する手段が設けられている。 データ d 1 0 2を端末能力に合わせて変換する手段としては、 メ夕デ一夕 d 1 0 1と端 末プリファレンス d 1 0 4からデ一夕 d 1 0 2の空間解像度や色解像度を変 化するための情報を生成する端末適応制御部 2 5と、 端末適応制御部 2 5で生 成した情報により d 1 0 2の空間解像度変換や色解像度変換をする解像度変 換部 2 7と、 メ夕デ一夕 d 1 0 1とネットヮ一クプリファレンス d 2 0 5を用 いてネットワーク 2 Aに送るデ一夕 d 1 0 2の量を調整する情報を生成する ネットワーク適応制御部 2 8と、 ネットワーク適応制御部 2 8で生成した情報 によりネットワーク 2 Aに送るデータ d 1 0 2の量を調整するデ一夕量調整 部 2 9と、 が設けられている。
次に、 セグメント選択部 2 6の動作およびユーザ一適応制御部 2 4の動作に ついて図 6を用いて説明する。
データ適応部 2 4のコンテンツデータ取得部 3 3は、 蓄積媒体 2 1からメタ データ d 1 0 1とデータ d 1 0 2を読み出し、 取得する。 そして、 ユーザー適 応制御部 2 4は、 取得したメ夕デ一夕 d 1 0 1を解析し、 データの構造と構造 の各セグメン卜に付加される少なくとも 1つ以上のセグメン卜観点及びセグ メント観点における優先度を抽出し、 読み出したデータ (コンテンツ) d l O 2を識別する (P 7 0 1 ) 。 次に、 ユーザ一適応制御部 2 4は、 ユーザープリ ファレンス d 1 0 3から識別したコンテンツに対応するユーザー嗜好記述(例 えばユーザ一嗜好記述 3 1 ) を選択する (P 7 0 2 ) 。 さらに、 ユーザー適応 制御部 2 4は、 ユーザー嗜好記述 3 1に含まれるユーザ一観点 (キーワード) をユーザー観点の属性である優先度の順番に整列する (P 7 0 3 ) 。 そして、 最も優先度の高い優先度が付与されたユーザー観点を選択する (P 7 0 4 ) 。 次に、 ユーザー適応制御部 2 4は、 ユーザー優先度の高いユーザ一観点 (最 初のユーザ一観点) から順に、 そのユーザ一観点と合致するセグメントをデ一 夕 d 1 0 2から選択するような情報をセグメント選択部 2 6に送る。
そして、 セグメント選択部 2 6は、 ユーザー適応制御部 2 4から送られてき た情報により、 最初のユーザー観点とセグメントのセグメント観点とを比較し、 最初のユーザー観点と一致するセグメント観点が付与されたセグメントがぁ るか判断する (P 7 0 5 ) 。
次に、 最初のユーザ一観点と一致するセグメント観点が付与されたセグメン トの選択動作に移る。
まず、 セグメント選択部 2 6は、 ユーザー観点に合致するセグメントを仮選 択する (P 7 0 6 ) 。 次に、 セグメント選択部 2 6は、 メ夕デ一夕 d 1 0 1に 含まれる全てのセグメントに対して仮選択が終了したか判断し (P 7 0 7 )、 終了していなければ、 メタデ一夕 d 1 0 1を用いて次のセグメントを抽出し、 P 7 0 5、 P 7 0 6の処理をする。 このようにして、 データ d 1 0 2に含まれ る全てのセグメントに対しての仮選択ができる。
そして、 P 7 0 7において、 データ適応部 2 2が全てのセグメントに対して 仮選択が終了したと判断すると、 仮選択されたセグメントをセグメントに付与 されたセグメント優先度順に整列する (P 7 0 8 ) 。 これは、 後述するセグメ ントの本選択時にセグメント優先度の高いセグメン卜から本選択するためで ある。
そして、 まずデ一夕適応部 2 2が最もセグメント優先度の高いセグメントを 本選択する (P 7 0 9 ) 。 次に、 データ適応部 2 2が仮選択した全てのセグメ ントの本選択が終了したか判断する (P 7 1 0 ) 。 そして、 デ一夕適応部 2 2 が P 7 1 0において、 仮選択した全てのセグメントの本選択が終了していない と判断すると、 本選択したセグメントのデータ長が時間長、 空間範囲またはそ の両方の制約条件を超えたか判断する (P 7 1 1 ) 。 そして、 デ一夕適応部 2 2がこれらの制約条件を超えない範囲で、 ? 7 0 9から? 7 1 1までの動作を 繰り返す。
また、 P 7 1 0において、 デ一夕適応部 2 2が仮選択した全てのセグメント の本選択が終了しているという判断をすると、 すべてのユーザ一観点 (キーヮ ード) に対して処理をしたか判断する (P 7 1 5 ) 。 そして、 P 7 1 5におい て、 データ適応部 2 2がすべてのユーザー観点に対して処理が終了したと判断 した場合は、 処理を終了する。 一方、 P 7 1 5において、 データ適応部 2 2が すべてのユーザ一観点に対して処理が終了していないと判断した場合は、 次の ユーザー観点に対する処理に移行する。
ここで、 既に上述した処理で選択済みのセグメントに対して、 再度処理を行 つて再度選択することは無意味である。 よって、 まず、 データ適応部 2 2が未 選択のセグメントを抽出し、 未選択のセグメントに限定して以下の処理を行う ようにする (P 7 1 4 ) 。 そして、 次のユーザー観点を選択し (P 7 1 3 ) 、 P 7 0 5から P 7 1 1の処理をする。
このようにして、 データ d 1 0 2からユーザ一プリファレンス d 1 0 3に適 応ずるセグメントを選択し、 データ d 1 0 2をユーザ一プリファレンス d 1 0 3に適合ィ匕できる。
次に、 データ適応部 1 2は、 上述したように選択したセグメントを端末能力 情報である端末プリファレンス d 1 0 4に応じて変換する動作に移行する。 以 下、 端末適応制御部 2 5の動作について、 図 7を用いて説明する。
まず、 端末適応制御部 2 5は、 端末 2 Bに記録される端末プリファレンス d 1 0 4を端末プリファレンス取得部 3 5から取得して、 端末能力としての表示 部 1 8の画面表示サイズと表示色数を識別する (P 8 0 1 ) 。 次に、 端末適応 制御部 2 5は、 セグメント選択部 2 6によって選択されたセグメントが自身の 属性として持つセグメント優先度を判定する (P 8 0 2 ) 。 そして、 端末適応 制御部 2 5は、 選択されたセグメントが端末 2 Bの表示能力より大きいか判断 する (P 8 0 3 ) 。
そして、 P 8 0 3において端末適応制御部 2 5が選択されたセグメントが端 末 2 Bの表示能力より大きいと判断した場合は、 端末適応制御部 2 5は端末プ リファレンス d 1 0 4にセグメント優先度を加味して、 選択されたセグメント 全体を縮小するか、 選択されたセグメントの一部を表示するか、 選択されたセ グメン卜の一部を表示しないか、 選択されたセグメントの一部を変換して表示 するかを決定する (P 8 0 4 ) 。
一方、 P 8 0 3において端末適応制御部 2 5が選択されたセグメントが端末 2 Bの表示能力より大きくないと判断した場合は、 端末適応制御部 2 5は選択 されたセグメン卜のデータが端末 2 Bの画面表示サイズより小さいか判断す る (P 8 0 5 ) 。 そして、 P 8 0 5において端末適応制御部 2 5が選択された セグメン卜のデータが端末 2 Bの画面表示サイズより小さい場合と判断した 場合には、 端末適応制御部 2 5は端末プリファレンス d l 0 4にセグメント優 先度を加味して、 選択したセグメント全体を拡大するか、 選択したセグメント の一部を拡大するか、 選択したセグメントの一部を表示しないか、 選択したセ グメン卜の一部を変換して表示するかを決定する (P 8 0 6 ) 。
次に、 端末適応制御部 2 5は、 端末プリファレンス d l 0 4から端末 2 Bの 表示色数を識別し、 端末表示色数に合わせて P 8 0 1から P 8 0 6の処理を施 したセグメントが表示部でカラー表示可能か判断する (P 8 0 7 ) 。 そして、 P 8 0 7において、 端末適応制御部 2 5が、 上述した処理を施したセグメント が端末 2 Bでカラー表示可能であるという判断をすると処理を終了する。 一方、 P 8 0 7において、 端末適応制御部 2 5が、 上述した処理を施したセ グメン卜が端末 2 Bでカラ一表示可能でないという判断をすると、 上述した処 理を施したセグメントがグレースケール化した後に端末 2 Bで表示可能にな るか判断する (P 8 0 8 ) 。 そして、 端末適応制御部 2 5が、 上述した処理を 施したセグメントが表示部 1 8でグレースケール化した後に表示可能あると いう判断をすると、 上述した処理を施したセグメントをグレースケール化する 決定をする (P 8 0 9 ) 。 また、 端末適応制御部 2 5が、 上述した処理を施し たセグメントが端末 2 Bでグレースケール化した後に表示可能でないという 判断をすると、 上述した処理を施したセグメントを二値化する決定をする (P 8 1 0 )
そして、 解像度変換部 2 7は端末適応制御部 2 5の決定内容を実際に選択さ れたセグメントに対して適応し解像度変換を行う。 そして、 解像度変換された デ一夕はデータ量調節部 2 9に送られる。
次に、 ネットワーク適応制御部 2 8の動作について図 9を用いて説明する。 図 9は、 実施の形態 2にかかるネッ トワーク適応制御部 2 8の処理フロー図で ある。
ネットワーク適応制御部 2 8は、 ネットワーク 2 Aを介して端末 2 Bから送 られてきたネッ トワークプリファレンス d 2 0 5をネヅ トワークプリファレ ンス取得部 3 6から取得する。 そして、 ネットワーク適応制御部 2 8は、 ネッ トワーク 2 Aの伝送帯域を識別する (P 9 0 1 ) 。 次に、 ネットワーク適応制 御部 2 8は、 セグメント選択部 2 6によって選択されたセグメントが自身の属 性として持つセグメント優先度を判定する (P 9 0 2 ) 。 そして、 ネットヮ一 ク適応制御部 2 8は、 変換されたデータが伝送帯域より大きいか判断する (P 9 0 3 ) P 9 0 3において、 ネットワーク適応制御部 2 8が、 変換されたデ一夕が伝 送帯域より大きいと判断した場合には、 ネットワーク適応制御部 2 8はデータ 全体を圧縮するか、 データの一部を伝送するか、 データ全体を伝送しないか、 デ一夕の一部を変換して伝送するかを決定する (P 9 0 4 ) 。 ここでデータを 変換して伝送するとは、 M P E G 1のデ一夕を M P E G 4のデ一夕に変換する こと、 または A A Cのデータを M P 3のデータに変換するなどのフォーマツト 変換である。
一方、 P 9 0 3において、 ネットワーク適応制御部 2 8が、 変換されたデー 夕が伝送帯域より大きくないと判断した場合には、 ネットワーク適応制御部 2 8は変換されたセグメントのデ一夕が伝送帯域より小さいか判断する (P 8 0 5 ) 。 P 8 0 5において、 ネットワーク適応制御部 2 8が伝送帯域より変換さ れたデ一夕が小さいと判断した場合には、 ネットワーク適応制御部 2 8は未伝 送データの追加伝送するか、 伝送しないか、 変換または変換を元に戻して伝送 するかを決定する (P 9 0 6 ) o
そして、 データ量調整部 2 9はネットワーク適応制御部 2 8の決定内容を実 際に選択されたセグメントに対して適応し、 データ量を調整して端末 2 Bに伝 送する。 端末 2 Bは受信したセグメントを蓄積媒体 2 Cに記録する。
以上のように、 実施の形態 2によれば、 実施の形態 1にかかる効果に加えて、 ネットワークプリファレンス d 2 0 5に含まれる伝送帯域に従って、 選択され たセグメントのデ一夕量を調整することで、 ユーザーが受信したい形態でかつ、 ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができ る。
(実施の形態 3 )
以下、 本発明の実施の形態 3におけるデータ適合化装置について説明する。 実施の形態 3におけるデータ適合化装置の構成は実施の形態 1にかかるデ一 夕適合化装置の構成と同一である。 よって、 実施の形態 3にかかるデ一夕適合 化装置の構成の説明は省略する。
実施の形態 3にかかるデー夕適合化装置と実施の形態 1にかかるデ一夕適 合化装置とでは、 ユーザ一プリファレンス d 103の構成が異なる。 以下、 実 施の形態 3にかかるユーザープリファレンス d 103について説明する。 図 1 0はユーザープリファレンス d 103の第 2の詳細図である。
図 10に示すように、 ユーザ一プリファレンス d 103は、 複数のユーザ一 嗜好記述 13 1〜1 33から構成されている。 また、 ユーザー嗜好記述 13 1 〜 133には、 ユーザー嗜好記述 1 3 1〜 1 33のそれそれに対応するコンテ ンッを識別するコンテンツ識別子 1 34と、 コンテンツを表示するため時間長 情報 135と、 コンテンツから所定のセグメントを抽出するためのキーワード 136 a、 136 bが複数格納されている。 このように、 実施の形態 3のュ一 ザ一プリファレンスには、 キーワード 136 a、 136 bに対する優先度が格 納されていない。 この点で、 実施の形態 3のユーザープリファレンスと実施の 形態 1のユーザープリファレンスとは異なる。
次に、 ユーザ一嗜好記述 13 1〜 133を含むユーザープリファレンス d 1 03の定義記述について具体的に説明する。 図 1 1は、 ユーザープリファレン ス d 103の定義記述である。
図 1 1に示すように、 ユーザープリ ファレンス記述定義 1 4 0は、 XML(eXtensible Markup Language)の DTD(Document Type Definition)で記 述されている。
ユーザープリファレンス記述定義 140は、 図中 141に示すようにユーザ 一プリファレンスには一つ以上のコンテンツ (Cont ent) を有すると定 義している。 また、 図中 142に示すように、 コンテンツ毎にひとつ以上のキ —ワード 136 (Keywo rd) を有すると定義している。 また、 図中 14 3に示すように、 コンテンツには、 属性としてコンテンツ識別子 134 (Co nt ent I D) と、 時間長 135 (Dur a t i on) と、 データを表示す るサイズ情報である画面サイズ 144 (S c r e enS i z e) とが定義され る。 また、 図中 148に示すようにキーワード 136 (Ke ywo rd) は、 テキストデ一夕で記述されると定義されている。
図 1 1のユーザープリファレンス記述定義 140からも、 実施の形態 3のュ 一ザ一プリファレンスには、 キーワード 136に対する優先度が格納されてい ないことがわかる。
次に、 図 1 1に示したユーザープリファレンスの記述定義を用いて作成した ユーザ—プリファレンスについて説明する。 図 12は、 ユーザープリファレン スの例を示す図である。
図 12において 1 50はユーザー嗜好記述定義 40を使って XMLで記述し た実際のユーザ一嗜好記述例である。
図 12に示すユーザープリファレンス 150は、 2つのコンテンツ 15 1、 152を有する。 コンテンツ 151にはコンテンツ I D 153 a (この例では、 123456789) 、 コンテンヅ 152にはコンテンツ ID 153b (この 例では、 123456788) が記載されている。 また、 コンテンツ 15 1に は、 コンテンツの属性として表示時間長 154 (この例では、 smpt e = 0 0 : 05 : 00 : 00) が記載されている。 また、 コンテンツ 151にはキー ワード 155 a〜 155 cが記載されている。 キーヮ一ド 155 aには Nak a t a、 キーヮ一ド 155 bには S o c c e r、 キーヮ一ド 155 cには J a p anが記載されている。
一方、 コンテンツ 152には、 コンテンツの属性として表示スケール 156 (この例では、 p ixe l = 320 x 240) が記載されている。 また、 コン テンッ 152にはキーワード 155 d〜l 55 fが記載されている。 キーヮ一 ド 155 dには H e ad 1 i ne、 キ一ヮ一ド 155 eには S t o c k、 キー ワード 155 fには Sp o r t sが記載されている。
次に、 図 13を使用して、 実施の形態 3にかかるデ一夕 d 102の構成につ いて説明する。 また図 13は、 セグメント選択部 16の動作を説明する動作説 明図である。 図 13において、 131が付与されているものはユーザ一嗜好記 述である。 ユーザー嗜好記述 131以外の構成は、 実施の形態 1と同様である。 次に、 実施の形態 3にかかるセグメント選択部 16の動作およびユーザー適 応制御部 14の動作について図 13および図 14を用いて説明する。 図 13は、 セグメント選択部 16の動作を説明する動作説明図である。 図 14はユーザー 適応制御部 1 4の動作を説明する処理フロー図である。
デ一夕適応部 1 2のコンテンツデータ取得部 2 1は、 蓄積媒体 1 1からメタ データ d 1 0 1とデータ d 1 0 2を読み出し、 取得する。 そして、 ユーザー適 応制御部 1 4は、 取得したメ夕デ一夕 d 1 0 1を解析し、 デ一夕の構造と構造 の各セグメン卜に付加される少なくとも 1つ以上のセグメント観点及びセグ メント観点における優先度を抽出し、 読み出したデ一夕 (コンテンツ) d l O 2を識別する (P 1 7 0 1 ) 。 次に、 ユーザー適応制御部 1 4は、 ユーザープ リファレンス d 1 0 3から識別したコンテンツに対応するユーザー嗜好記述 (例えばユーザー嗜好記述 1 3 1 ) を選択する (P 1 7 0 2 ) 。 さらに、 ユー ザ一適応制御部 1 4は、 ユーザー嗜好記述 1 3 1に含まれるユーザー観点 (キ 一ワード) を記述された順番に整列する。 図 1 2の例では、 上の行に記述され たキーワードから順に、 つまりキーワード 1 5 5 a、 キ一ワード 1 5 5 b、 キ —ワード 1 5 5 cの順に整列する。 そして、 最初に、 つまり最も上位に記述さ れたユーザ一観点を選択する (P 1 7 0 4 ) 。 このように、 キーワードを記述 された順番に整列するのは、 実施の形態 3にかかるュ一ザ一プリファレンス d 1 0 3にユーザー優先度が付与されていないため、 ユーザ一優先度に対応する 何らかの優先度を付与する必要があるからである。 実施の形態 3では、 このュ 一ザ一優先度の代わりとして、 キーヮードの優先度を記述した順に対応させる ようにしている。
次に、 ユーザ一適応制御部 1 4は、 優先度の高いユーザー観点 (最初のユー ザ一観点) から順に、 そのユーザー観点と合致するセグメントをデ一夕 d 1 0 2から選択するような情報をセグメント選択部 1 6に送る。
そして、 セグメント選択部 1 6は、 ユーザー適応制御部 1 4から送られてき た情報により、 最初のユーザー観点とセグメントのセグメント観点とを比較し、 最初のユーザー観点と一致するセグメント観点が付与されたセグメン卜があ るか判断する (P 1 7 0 5 ) 。
次に、 最初のユーザー観点と一致するセグメント観点が付与されたセグメン 卜の選択動作に移る。 まず、 セグメント選択部 1 6はユーザ一観点に合致するセグメントを仮選択 する (P 1 7 0 6 ) 。 次に、 セグメント選択部 1 6はデ一夕 d 1 0 2に含まれ る全てのセグメントに対して仮選択が終了したか判断し (P 1 7 0 7 ) 、 終了 していなければ、 メ夕デ一夕 d 1 0 1を用いて次のセグメントを抽出し、 P 1 7 0 5 , P 1 7 0 6の処理をする。 このようにして、 データ d 1 0 2に含まれ る全てのセグメントに対しての仮選択ができる。
そして、 P 1 7 0 7において、 デ一夕適応部 1 2が全てのセグメントに対し て仮選択が終了したと判断すると、 仮選択されたセグメントをセグメントに付 与されたセグメント優先度順に整列する (P 1 7 0 8 ) 。 これは、 後述するセ グメン卜の本選択時にセグメント優先度の高いセグメントから本選択するた めである。
そして、 まずデータ適応部 1 2が最もセグメント優先度の高いセグメントを 本選択する (P 1 7 0 9 ) 。 次にデータ適応部 1 2が、 仮選択した全てのセグ メントの本選択が終了したか判断する (P 1 7 1 0 ) 。 そして、 P 1 7 1 0に おいて、 データ適応部 1 2が仮選択した全てのセグメン卜の本選択が終了して いないと判断すると、 本選択したセグメントのデータ長が時間長、 空間範囲ま たはその両方の制約条件を超えたか判断する (P 1 7 1 1 ) 。 そして、 デ一夕 適応部 1 2がこれらの制約条件を超えない範囲で、 P 1 7 0 9から P 1 7 1 1 までの動作を繰り返す。
また、 P 1 7 1 0において、 データ適応部 1 2が仮選択した全てのセグメン 卜の本選択が終了しているという判断をすると、 すべてのユーザー観点 (キ一 ワード) に対して処理をしたか判断する (P 1 7 1 5 ) 。 そして、 P 1 7 1 5 において、 データ適応部 1 2がすべてのユーザー観点に対して処理が終了した と判断した場合は処理を終了する。 一方、 P 1 7 1 5において、 データ適応部 1 2がすべてのユーザー観点に対して処理が終了していない判断した場合は、 次のユーザー観点に対する処理に移行する。
ここで、 既に上述した処理で選択済みのセグメントに対して、 再度処理を行 つて再度選択することは無意味である。 よって、 まず、 データ適応部 1 2が未 選択のセグメントを抽出し、 未選択のセグメン卜に限定して以下の処理を行う ようにする (P 1 7 1 4 ) 。 そして、 データ適応部 1 2が次のユーザー観点を 選択し (P 1 7 1 3 ) 、 P 1 7 0 5から P 1 7 1 1の処理をする。
さらに具体的にセグメント選択動作について図 1 3を用いて説明する。 まず、 データ適応部 1 2がユーザープリファレンス (ユーザー嗜好記述) 1 3 1に含 まれるユーザー観点 (ユーザ一キーワード) のうち最も上の行に記載された、 つまり優先度が高い KWD#1があるサブセグメントを探す。サブセグメント 6 3のキーヮ一ド 6 3 1、 サブセグメント 6 6のキ一ヮ一ド 6 6 1には、 それそ れ KWD#1がある。 次に、 データ適応部 1 2がサブセグメント 6 3、 サブセグ メント 6 6に時間長制約を加味し、 サブセグメント 6 3、 サブセグメント 6 6 から時間長制約が厳しい順に選択する。 具体的には、 まず、 時間長制約が厳し くない、 つまり時間長が短いサブセグメント 6 6が最も優先されて出力デ一夕 d 1 0 2 aとして選択される。 そして、 次に、 サブセグメント 6 3が出力デー 夕 1 0 2 bを構成するセグメントとして選択される。
同様に、 データ適応部 1 2がユーザープリファレンス d 1 0 3に含まれるュ 一ザ一観点のうち次に優先度が高い KWD#2があるサブセグメントを探す。セ グメント 6 1を構成する全てのサブセグメントに KWD#2が含まれる。よって、 ここではどのサブセグメントが優先されるかを決定する必要がある。
具体的には、 デ一夕適応部 1 2が各サブセグメントに付加されるセグメント 観点のセグメント優先度を比較する。 図 1 3の例では、 サブセグメント 6 3、 サブセグメント 6 2、 サブセグメント 6 5、 サブセグメント 6 6が同優先度で、 次にサブセグメント 6 4、 サブセグメント 6 7と優先度が続く。 また、 サブセ グメント 6 7はすでに選択済みであるので、 以下の処理対象から省く。
よって、 デ一夕適応部 1 2が出力デ一夕 d 1 0 2 bを選択した後に、 更に時 間長制約が許容される場合には、 セグメント優先度がサブセグメント 6 4より も高いサブセグメント 6 5がサブセグメント 6 3に加えて出力データ 1 0 2 cを構成するサブセグメントとして選択される。残ったサブセグメント 6 4は KWD#2と KWD#3を含み、 セグメント優先度がサブセグメント 6 5より低い ので、 最も時間長制約が緩い場合に、 サブセグメント 6 4はサブセグメント 6 3とサブセグメント 6 5に加えて出力データストリーム 1 0 2 dを構成する サブセグメントとして選択される。
またユーザー適応制御部 1 4は、 選択されたセグメントに付加されるキ一ヮ —ドの優先度に応じて、 キーワードと合致するユーザ一プリファレンス d 1 0 3に含まれるユーザー観点の優先度を更新する。
このようにして、 データ d 1 0 2からユーザ一プリファレンス d 1 0 3に適 応するセグメントを選択し、 デ一夕 d 1 0 2をユーザ一プリファレンス d 1 0 3に適合ィ匕できる。
そして、 次に、 端末制御部 1 5が実施の形態 1と同様に、 図 7に示すフロー にしたがって、 セグメント選択部 1 6から送られてくる選択されたセグメント の解像度変換をする。
以上のように、 実施の形態 3によれば、 ユーザ一プリファレンス d l 0 3に ユーザー優先度を付与しなくても、 ユーザ一観点を記述した順をユーザー観点 の優先度として処理することができる。 これにより、 ユーザープリファレンス d 1 0 3にユーザ一優先度を付与しなくても、 実施の形態 1と同様にユーザー の嗜好に合わせて一意にデ一夕適応を可能とすることができる。
また、 実施の形態 3のように、 ユーザー優先度を具備しないようにすること で、 ユーザ一プリファレンス d 1 0 3のデ一夕構造が簡単になる。
(実施の形態 4 )
以下、 本発明の実施の形態 4におけるデ一夕適合化装置について説明する。 実施の形態 4は、 実施の形態 3にかかるユーザー適応制御部をサーバーに持た せ、 サーバーと端末とをネットワークで接続したものである。
実施の形態 4にかかるデータ適合化装置を含むシステムは、 実施の形態 2に かかるデ一夕適合化装置を含むシステムと同一の構成である。 よって、 図 8は、 実施の形態 4におけるデータ適合化装置を含むシステムブロック図を示すも のである。
また、 実施の形態 4にかかるユーザープリファレンス d 1 0 3については、 実施の形態 3と同じである。 よって、 図 1 0に示す図が実施の形態 4にかかる ユーザ一プリファレンス d 1 0 3を示す図である。 また、 図 1 1は、 実施の形 態 4にかかるユーザ一プリファレンスの定義である。
また、 実施の形態 4にかかるセグメント選択部 2 6の動作も、 実施の形態 3 にかかるセグメント選択部 2 6と同一である。 よって、 図 1 3はセグメント選 択部 2 6の動作を説明する動作説明図である。 また、 図 1 4は、 実施の形態 4 にかかるユーザー適応制御部 2 4の動作を説明する処理フロー図である。 また、 実施の形態 4にかかる端末適応制御部 2 5は、 実施の形態 1から実施 の形態 3にかかる端末適応制御部と同一の動作をする。 よって、 図 7は、 実施 の形態 4にかかる端末適応制御部 2 5の動作を説明する処理フローである。 ま た、 実施の形態 4にかかるネットワーク適応制御部 2 8は、 実施の形態 2にか かるネットワーク適応制御部 2 8と同一の動作をする。 よって、 図 9は、 実施 の形態 4にかかるネットワーク適応制御部 2 8の動作を説明する処理フロー 図である。
以下、 これらの添付図面を使用して実施の形態 4にかかるデータ適合ィ匕装置 を含むシステムについて説明する。
データ適応部 2 2のコンテンツデータ取得部 3 3は、 蓄積媒体 2 1からメタ デ一夕 d 1 0 1とデ一夕 d 1 0 2を読み出し、 取得する。 そして、 ユーザ一適 応制御部 2 4は、 取得したメタデータ d 1 0 1を解析し、 データの構造と構造 の各セグメントに付加される少なくとも 1つ以上のセグメント観点及びセグ メント観点における優先度を抽出し、 読み出したデ一夕 (コンテンツ) d l O 2を識別する (P 1 7 0 1 ) 。 次に、 ユーザ一適応制御部 2 4は、 ユーザープ リファレンス d 1 0 3から識別したコンテンツに対応するユーザー嗜好記述 (例えばユーザー嗜好記述 1 3 1 ) を選択する (P 1 7 0 2 ) 。 さらに、 ユー ザ一適応制御部 2 4は、 ユーザー嗜好記述 1 3 1に含まれるユーザー観点 (キ 一ワード) を記載された順番に整列する。 図 1 2の例では、 記載順、 つまり上 の行から順に、 キ一ヮ一ド 1 5 5 a、 キーヮ一ド 1 5 5 b、 キーヮード 1 5 5 cの順に整列する。 そして、 最初に、 つまり最も上位に記載されたユーザ一観 点を選択する (P I 7 0 4 ) 。 このように、 キーワードを記載された順番に整 列するのは、 実施の形態 4にかかるユーザープリファレンス d 1 0 3にユーザ 一優先度が付与されていないから、 何らかのユーザ一優先度に対応する優先度 を付与する必要があるからである。 実施の形態 3では、 このユーザ一優先度の 代わりとして、 キーワードの優先度を記述した順として設定している。
次に、 ユーザー適応制御部 2 4は、 優先度の高いユーザー観点 (最初のユー ザ一観点) から順に、 そのユーザー観点と合致するセグメントをデータ d 1 0 2から選択するような情報をセグメント選択部 2 6に送る。
そして、 セグメント選択部 2 6は、 ユーザー適応制御部 2 4から送られてき た情報により、 最初のユーザ一観点とセグメントのセグメント観点とを比較し、 最初のユーザー観点と一致するセグメント観点が付与されたセグメン卜があ るか判断する (P 1 7 0 5 ) 。
次に、 最初のユーザー観点と一致するセグメント観点が付与されたセグメン 卜の選択動作に移る。
まず、 セグメント選択部 2 6はユーザー観点に合致するセグメントを仮選択 する (P 1 7 0 6 ) 。 次に、 セグメント選択部 2 6はメ夕デ一夕 d 1 0 1に含 まれる全てのセグメントに対して仮選択が終了したか判断し (P 1 7 0 7 )、 終了していなければ、 メ夕デ一夕 d 1 0 1を用いて次のセグメントを抽出し、 P 1 7 0 5、 P 1 7 0 6の処理をする。 このようにして、 データ d 1 0 2に含 まれる全てのセグメントに対しての仮選択ができる。
そして、 P 1 7 0 7において、 データ適応部 2 2が全てのセグメントに対し て仮選択が終了したと判断すると、 仮選択されたセグメントをセグメントに付 与されたセグメント優先度順に整列する (P 1 7 0 8 ) 。 これは、 後述するセ グメン卜の本選択時にセグメント優先度の高いセグメントから本選択するた めである。
そして、 まずデータ適応部 2 2が最もセグメント優先度の高いセグメントを 本選択する (P 1 7 0 9 ) 。 次にデ一夕適応部 2 2が、 仮選択した全てのセグ メントの本選択が終了したか判断する (P 1 7 1 0 ) 。 そして、 P 1 7 1 0に おいて、 データ適応部 2 2が仮選択した全てのセグメントの本選択が終了して いないと判断すると、 本選択したセグメントのデータ長が時間長、 空間範囲ま たはその両方の制約条件を超えたか判断する (P 1 7 1 1 ) 。 そして、 データ 適応部 2 2がこれらの制約条件を超えない範囲で、 P 1 7 0 9から P 1 7 1 1 までの動作を繰り返す。
また、 P 1 7 1 0において、 デ一夕適応部 2 2が仮選択した全てのセグメン 卜の本選択が終了しているという判断をすると、 すべてのユーザー観点 (キー ワード) に対して処理をしたか判断する (P 1 7 1 5 ) 。 そして、 P 1 7 1 5 において、 データ適応部 2 2がすべてのユーザー観点に対して処理が終了した と判断した場合は処理を終了する。 一方、 P 1 7 1 5において、 デ一夕適応部 2 2がすべてのユーザー観点に対して処理が終了していないと判断した場合 は、 次のユーザー観点に対する処理に移行する。
ここで、 既に上述した処理で選択済みのセグメントに対して、 再度処理を行 つて再度選択することは無意味である。 よって、 まず、 データ適応部 2 2が未 選択のセグメントを抽出し、 未選択のセグメントに限定して以下の処理を行う ようにする (P 1 7 1 4 ) 。 そして、 デ一夕適応部 2 2が次のユーザ一観点を 選択し (P 1 7 1 3 ) 、 P 1 7 0 5から P 1 7 1 1の処理をする。
さらに具体的にセグメント選択動作について図 1 3を用いて説明する。 まず、 データ適応部 2 2がユーザープリファレンス (ユーザ一嗜好記述) 1 3 1に含 まれるユーザー観点 (ユーザーキーワード) のうち最も上の行に記載された、 つまり優先度が高い KWD#1があるサブセグメントを探す。サブセグメント 6 3のキーワード 6 3 1、 サブセグメント 6 6のキーワード 6 6 1には、 それそ れ KWD#1がある。 次に、 デ一夕適応部 2 2がサブセグメント 6 3、 サブセグ メント 6 6.に時間 g制約を加味し、 サブセグメント 6 3、 サブセグメント 6 6 から時間長制約が厳しい順に選択する。
具体的には、 まず、 時間長制約が厳しくない、 つまり時間長が短いサブセグ メント 6 6が最も優先されて出力デ一夕 d 1 0 2 aとして選択される。 そして、 次に、 サブセグメント 6 3が出力データ 1 0 2 bを構成するセグメントとして 選択される。
同様に、 データ適応部 2 2がユーザープリファレンス d 1 0 3に含まれるュ 一ザ一観点のうち次に優先度が高い KWD#2があるサブセグメントを探す。セ グメント 6 1を構成する全てのサブセグメントに KWD#2が含まれる。よって、 ここではどのサブセグメントが優先されるかを決定する必要がある。
具体的には、 デー夕適応部 2 2が各サブセグメントに付加されるセグメント 観点のセグメント優先度を比較する。 図 1 3の例では、 サブセグメント 6 3、 サブセグメント 6 2、 サブセグメント 6 5、 サブセグメント 6 6が同優先度で、 次にサブセグメント 6 4、 サブセグメント 6 7と優先度が続く。 また、 サブセ グメント 6 7はすでに選択済みであるので、 以下の処理対象から省く。
よって、 デ一夕適応部 1 2が出力データ d 1 0 2 bを選択した後に、 更に時 間長制約が許容される場合には、 セグメント優先度がサブセグメント 6 4より も高いサブセグメント 6 5がサブセグメント 6 3に加えて出力データ 1 0 2 cを構成するサブセグメントとして選択される。残ったサブセグメント 6 4は KWD#2と KWD#3を含み、 セグメント優先度がサブセグメント 6 5より低い ので、 最も時間長制約が緩い場合に、 サブセグメント 6 4はサブセグメント 6 3とサブセグメント 6 5に加えて出力データストリーム 1 0 2 dを構成する サブセグメントとして選択される。
またユーザ一適応制御部 2 4は、 選択されたセグメントに付加されるキ一ヮ —ドの優先度に応じて、 キーワードと合致するユーザ一プリファレンス d 1 0 3に含まれるユーザー観点の優先度を更新する。
このようにして、 データ ά 1 0 2からユーザ一プリファレンス d 1 0 3に適 応するセグメントを選択し、 データ d 1 0 2をユーザープリファレンス d 1 0 3に適合ィ匕できる。
そして、 次に、 端末適応制御部 2 5が実施の形態 1と同様に、 図 7のフロー にしたがって、 セグメント選択部 2 6から送られてくる選択されたセグメント の解像度変換をする。
次に、 ネットワーク適応制御部 2 8の動作について図 9を用いて説明する。 図 9は、 実施の形態 4にかかるネッ トワーク適応制御部 2 8の処理フロー図で める。
ネットワーク適応制御部 2 8は、 ネットワーク 2 Aを介して端末 2 Bから送 られてきたネッ トワークプリファレンス d 2 0 5をネットワークプリファレ ンス取得部 3 6から取得する。 そして、 ネットワーク適応制御部 2 8は、 ネッ トワーク 2 Aの伝送帯域を識別する (P 9 0 1 ) 。 次に、 ネットワーク適応制 御部 2 8は、 セグメント選択部 2 6によって選択されたセグメントが自身の属 性として持つセグメント優先度を判定する (P 9 0 2 ) 。 そして、 ネットヮ一 ク適応制御部 2 8は、 変換されたデータが伝送帯域より大きいか判断する (P 9 0 3 ) 。
P 9 0 3において、 ネットワーク適応制御部 2 8が、 変換されたデ一夕が伝 送帯域より大きいと判断した場合には、 ネッ トワーク適応制御部 2 8はデ一夕 全体を圧縮するか、 データの一部を伝送するか、 データ全体を伝送しないか、 デ一夕の一部を変換して伝送するかを決定する (P 9 0 4 ) 。
一方、 P 9 0 3において、 ネヅトワーク適応制御部 2 8が、 変換されたデ一 夕が伝送帯域より大きくないと判断した場合には、 ネットワーク適応制御部 2 8は変換されたセグメントのデータが伝送帯域より小さいか判断する (P 9 0 5 ) 。 P 9 0 5において、 ネットワーク適応制御部 2 8が伝送帯域より変換さ れたデ一夕が小さいと判断した場合には、 ネットワーク適応制御部 2 8は未伝 送デ一夕の追加伝送するか、 伝送しないか、 変換または変換を元に戻して伝送 するかを決定する (P 9 0 6 ) 。
そして、 データ量調整部 2 9はネットワーク適応制御部 2 8の決定内容を実 際に選択されたセグメントに対して適応し、 データ量を調整して端末 2 Bに伝 送する。 端末 2 Bは受信したセグメントを蓄積媒体 2 Cに記録する。
以上のように、 実施の形態 4によれば、 メタデータからデータの構造及び構 造の各セグメントに付加される少なくとも 1つ以上の観点及び観点における 優先度を抽出し、 ユーザープリファレンスに含まれるユーザ一観点と合致する 観点の優先度に基づいてセグメントの選択を行い、 端末プリファレンスに含ま れる端末能力情報に従って選択されたセグメン卜の時間及び空間解像度変換 を行い、 ネットワークプリファレンスに含まれる伝送帯域に従って選択された セグメントのデ一夕量を調整することで、 ユーザーが受信したい形態でかつ、 ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができ る。
なお、 実施の形態 3及び実施の形態 4において、 ユーザー観点の優先度を記 述順としたが、 その順番が逆であったり、 記述した順の中心に位置するものを 最も高くするなどその他の記述方法で各ユーザー観点の優先度を表現しても よい。
また、 実施の形態 2および実施の形態 4では、 図 8のようにサーバー 2 0側 に制御手段であるユーザー適応制御部 2 4、 端末適応制御部 2 5、 ネットヮー ク適応制御部 2 8を設けた形態で説明したが、 図 1 5に示すようにユーザー適 応制御部 2 4、 端末適応制御部 2 5、 ネットワーク適応制御部 2 8を端末 2 B に設ける形態でも良い。
この形態の場合は、 サーバ一 2 0から端末 2 Bにメ夕デ一夕 d 1 0 2を送つ て、 端末 2 Bでデータ d 1 0 2をユーザー適応制御部 2 5でユーザー適応し、 その結果をサーバー 2 0に送る。 そして、 サーバー 2 0が、 ユーザー適応制御 部 2 5から送られてきた情報に基づいてデータ d 1 0 2からセグメントを選 択し、 選択したセグメントを端末 2 Bに送信する。 また、 端末 2 Bの端末適応 制御部 2 5からサーバー 2 0の解像度変換部 2 7を制御する信号を送り、 端末 2 Bのネヅトワーク適応制御部 2 8からサーバー 2 0のデータ量調整部 2 9 を制御する信号を送る。 解像度変換部 2 7およびデータ量調整部 2 9は、 端末 2 Bから送られてくる制御信号に応じて動作し、 セグメント選択部 2 6が選択 したデータを処理し、 処理したセグメントを端末 2 Bの蓄積媒体 2 Cに送る。 また、 上記実施例では、 セグメントもしくはサブセグメントに対してそれそ れ 1つのセグメント観点をわりあてた形態で説明した。 しかし、 同一のセグメ ント観点が付与されたセグメントあるいはサブセグメントが複数ある場合に、 どれかひとつのセグメントまたはサブセグメントにセグメント観点を付加し、 他のセグメントもしくはサブセグメントにはそのセグメント観点に対するリ ンク情報を付与する形態であっても良い。
これにより、 あるセグメントもしくはサブセグメントのセグメント観点を他 のセグメントもしくはサブセグメン卜のセグメント観点に対するリンクで表 現できる。
以下、 この形態について、 図 1 6、 図 1 7を使用して詳細に説明する。 図 16 は、 本発明の実施の形態のセグメントのその他の形態を示す図である。 図.17 は、 本発明の実施の形態のセグメントの記述例を示す図である。
図 1 6からわかるように、 セグメント 1 6 0 1は、 実施の形態 1から実施の 形態 4で既に説明した構造を有するセグメントである。 セグメント 1 6 0 1に は、 セグメント観点とセグメント優先度が付与されている。
セグメント 1 6 0 2と、 セグメント 1 6 0 3とは、 同一のセグメント観点が 付与されている。 セグメント 1 6 0 3には、 セグメント 1 6 0 2に対してのリ ンク情報が付与されていて、 セグメント 1 6 0 2にリンクしている。
セグメント 1 6 0 2およびセグメント 1 6 0 3について図 1 7を使用して 詳細に説明する。
セグメント 1 6 0 2には、 セグメント観点(キーワード)の I D番号(i d ) 1 7 0 1が記載されている。 この例では、 I D番号 1 7 0 1は 1である。 また、 セグメント 1 6 0 2には、 キ一ワードに対するセグメント優先度 (P ) 1 7 0 2が記載されている。 この例では、 セグメント優先度は 5である。 そして、 セ グメント 1 6 0 2にはキーワードとして、 " T e a m A" が記載されている。 また、 セグメント 1 6 0 3には、 リンク情報でる他のセグメント観点 (キ一 ワード) に対する参照番号 (i d r e f ) 1 7 0 3が記載されている。 この例 では、 参照番号 1 7 0 1は 1である。 つまり、 セグメント 1 6 0 3は、 I D番 号が 1のキーワードを参照している。
よって、 セグメント 1 6 0 3のキーヮ一ドは" T e a m A" になる。 セグメ ント 1 6 0 3には、 キーワードに対するセグメント優先度 (P ) 1 7 0 4が記 載されている。 この例では、 セグメント優先度は 2である。 このように、 セグメントキーワード同士をリンクさせることで、 すべてのセ グメン卜にキーワードを記載する必要がなくなる。 また、 セグメントキーヮー ド同士をリンクさせることによりセグメント間の関係が明確になる。
(実施の形態 5 )
以下、 本発明の実施の形態 5におけるデータ適合化装置について説明する。 システム構成としては実施の形態 1から実施の形態 4と同様である。
実施の形態 5は、 セグメントまたはサブセグメントに付加するセグメント観 点に関して、 登場するセグメント観点すベてをまとめた表 (観点表)を文脈構造 記述データの最上位層の要素であるコンテンツの子要素として持たせたもの である。
次に、 実施の形態 5にかかるデ一夕構造について、 図 1 8、 図 1 9を用いて 説明する。 図 18は、 実施の形態 5におけるデ一夕構造を示す図である。 図 1 9は、 実施の形態 5におけるデータの記述例を示す図である。
図 1 8からわかるように、 コンテンツは、 観点表 1 8 0 1を子要素として有 する。 観点表 1 8 0 1には、 コンテンツに含まれる複数のセグメント観点 1 8 0 2 a〜 1 8 0 2 nが格納されている。
また、 コンテンツには複数のセグメント 1 8 0 3〜 1 8 0 5が含まれている。 セグメント 1 8 0 3には、 観点表 1 8 0 1に対してのリンク情報が付与されて いて、 観点表 1 8 0 1のセグメント観点 1 8 0 2 aにリンクしている。 セグメ ント 1 8 0 4には、 観点表 1 8 0 1に対してのリンク情報が付与されていて、 観点表 1 8 0 1のセグメント観点 1 8 0 2 bにリンクしている。 セグメント 1 8 0 4には、 観点表 1 8 0 1に対してのリンク情報が付与されていて、 観点表 1 8 0 1のセグメント観点 1 8 0 2 cにリンクしている。 また、 セグメント 1 8 0 3〜 1 8 0 5には、 それそれのセグメント観点に対するセグメント優先度 が付与されている。
次に、 実施の形態 5にかかるデータ構造について図 1 9を使用して詳細に説 明する。
観点表 1 8 0 1には、 セグメント観点 1 8 0 2 aから 1 8 0 2 cが記載され ている。 セグメント観点 1802 aには、 ID番号 (id) 1901 aが記載 されている。 この例では、 I D番号 1901 aは 1である。 また、 セグメント 観点 1802 aは、 " A" というテキス卜で表されている。
また、 セグメント観点 1802 bには、 ID番号 (id) 190 lbが記載 されている。 この例では、 I D番号 1901 bは 2である。 また、 セグメント 観点 1802 bは、 " B"というテキス卜で表されている。 セグメント観点 1 802 cには、 ID番号 (id) 1901 cが記載されている。 この例では、 ID番号 1901 cは 3である。 また、 セグメント観点 1802 cは、 " C" というテキス卜で表されている。
一方、 セグメント 1803〜1805には、 観点表 1801のセグメント観 点 1802 a〜 1802 cに対するリンク情報である参照番号 ( i d r e f ) 1903 a〜 1903 cがそれそれ記載されている。
この例では、 セグメント 1803の参照番号 1903 aは 1である。 つまり、 セグメント 1803は、 ID番号が 1のユーザー観点 1802 aを参照してい る。 よって、 セグメント 1803のキ一ヮ一ドは" A"になる。 さらに、 セグ メント 1803には、 キーワードに対するセグメント優先度 (P) 1904 a が記載されている。 この例では、 セグメント優先度は 2である。 また、 セグメ ント 1804の参照番号 1903 bは 2である。 つまり、 セグメント 1803 4、 I D番号が 2のユーザー観点 1802 bを参照している。 よって、 セグメ ント 1804のキーワードは" B"になる。
さらに、 セグメント 1804には、 キ一ワードに対するセグメント優先度 (P) 1904 bが記載されている。 この例では、 セグメント優先度は 3であ る。 また、 セグメント 1805の参照番号 1903 cは 3である。 つまり、 セ グメント 1805は、 ID番号が 1のユーザ一観点 1802 cを参照している。 よって、 セグメント 1805のキーワードは" C"になる。 さらに、 セグメン ト 1805には、 キーワードに対するセグメント優先度 (P) 1904 cが記 載されている。 この例では、 セグメント優先度は 4である。
このような構成とすることで、 ユーザ一にあらかじめセグメント観点リスト の提示が容易となる。 これにより、 ユーザーが好みのセグメント観点を入力す る前にそこに現れるセグメント観点を知ることが出来る。 また、 ユーザーのセ グメント観点入力を観点表からの選択作業で出来る。
なお、 各セグメントまたはサブセグメントには、 この観点表の中に対応する 観点へのリンクとそれに対するスコアの組を付加する構成にしてもよい。
また、 観点表は、 コンテンツではなく、 いずれかのセグメントまたはサブセ グメン卜に持たせる構成であっても、 また、 別途記述するものであっても構わ ない。
また、 すべてを観点リストへのリンクで表現するのではなく、 観点リストへ のリンクとスコアの組、 および観点とスコアの組を混在させてもよい。
図 2 0は、 観点とスコアの組を混在させたデータ構成を示した図である。 図 2 0からもわかるように、 コンテンツには、 観点表 1 8 0 1に対するリンク情 報を持つセグメント 1 8 0 3 , 1 8 0 4と、 観点表 1 8 0 1に対するリンク情 報を持たないセグメント 2 0 0 1が混在している。
図 2 1は、 図 2 0に示すデ一夕構成の記述例である。 この図からあきらかな ように、 観点表 1 8 0 1には、 文脈内容記述データに現れるすべてのセグメン ト観点を記述する必要はなく、 リンクで参照されるものだけになつている。 ま た、 セグメント 2 0 0 1には、 観点表 1 8 0 1への、 リンク情報が含まれない。
(実施の形態 6 )
以下、 本発明の実施の形態 6のデータ適合化装置について説明する。
実施の形態 6は、 文脈内容記述データに現れるセグメント観点の一覧を表す 観点表を用意し、 ユーザーに対して入力前に提示するものである。
以下、 実施の形態 6にかかるデ一夕構造について図 2 2を用いて説明する。 実施の形態 6にかかるコンテンツは、 観点表 2 1 0 1と複数のセグメント 2 1 0 3〜2 1 0 5から構成されている。 観点表 2 1 0 1には、 複数のセグメン ト観点 2 1 0 2 a〜 2 1 0 2 nが含まれている。
また、 セグメント 2 1 0 3にはセグメント観点 2 1 0 6とセグメント優先度 2 1 0 7が、 セグメント 2 1 0 4にはセグメント観点 2 1 0 8とセグメント優 先度 2 1 0 9が、 セグメント 2 1 0 5にはセグメント観点 2 1 1 0とセグメン ト優先度 2 1 2 2が、 含まれている。 セグメント 2 1 0 3〜2 1 0 5には、 実 施の形態 5のセグメントとは違い観点表 2 1 0 1に対するリンク情報は含ま れていない。 つまり、 セグメント 2 1 0 3〜2 1 0 5と観点表 2 1 0 1とは独 立した構成になっている。
図 2 3は、 本発明の実施の形態 6にかかるデータの記述例を示す図である。 図 2 3からわかるように、 観点表 2 1 0 1には、 セグメント 2 1 0 3〜 2 1 0 5に含まれる観点 2 1 0 6、 2 1 0 8、 2 1 1 0が格納されている。 具体的に は、 観点 2 1 0 6、 2 1 0 8、 2 1 1 0に対応して観点 2 3 0 1〜2 3 0 3が 格納されている。
そして、 ユーザ一がユーザ一観点を入力する前に、 観点表 2 1 0 1を表示す るようにする。
これにより、 ユーザーが好みのユーザ一観点を入力する前にそこに現れる観 点を知ることが出来る。 また、 ユーザーのユーザー観点入力をこの観点表から の選択作業で出来る、 といった効果がある。
(実施の形態 7 )
以下、 本発明の実施の形態 7のデータ適合化装置について説明する。
実施の形態 7は、 文脈内容記述データをコンピュータが処理できるように表 現する場合に、 構造を記述する部分と、 属性である観点とそのスコアを記述す る部分に分けて表現したものである。
以下、 図 2 4、 2 5を用いて実施の形態 7について説明する。 図 2 4は、 実 施の形態 7におけるデータ構造を示す図である。 図 2 5は、 実施の形態 7にお けるデータの記述を示す図である。
図 2 4の上半分に記載されたものが構造を記述する構造部分 2 2 0 0 a、 下 半分に記載されたものが属性であるセグメント観点とその優先度を記述する 属性部分 2 2 0 0 bである。 構造部分 2 2 0 0 aのコンテンツには、 複数のセ グメント 2 2 0 1 a〜2 2 0 1 nが記述されている。
なお、 この図では、 構造を記述する部分は最も簡単な構成を記述しているが、 他の実施の形態で記述したような構成がとれる。
また、 属性部分 2200 bには、 複数のセグメント観点 2202 a, 220 2 bが記述されている。 各セグメント観点 2202 a、 2202 b毎に、 対象 となるセグメントゃサブセグメントへのリンク情報 2203 a〜2203 f と、 各セグメント観点 2202 a、 2202 bに関する優先度 2204 a〜 2 204 fの組とがまとめられている。
次に、 実施の形態 7にかかるデ一夕構造について図 25を用いて詳細に説明 する。
図 25からわかるように、 コンテンツには、 複数のセグメント 2201 a〜 2201 cが記載されている。 セグメント 2201 aには、 セグメントの ID 番号 (i d) 230 1 aが付与されている。 この例では、 i d 2301 aは 1 である。 セグメント 2201 bには、 セグメン卜の I D番号 (i d) 2301 bが付与されている。 この例では、 i d 2301 aは 2である。 セグメント 2 201 nには、 セグメントの I D番号 (id) 2301 nが付与されている。 この例では、 i d 2301 nは nである。
一方、 図 25からセグメント観点 2202 aは、 " T e amA"であること がわかる。 また、 セグメント観点 2202 aには、 複数のセグメント優先度 2 204 a〜2204 cが記載されている。 この例では、 セグメント優先度 22 04 aの優先度は 3、 セグメント優先度 2204bの優先度は 2、 セグメント 優先度 2204 cの優先度は 5である。
また、 セグメント優先度 2202 aには、 それそれリンク情報 2203 a〜 2203 cが付与されている。 リンク情報 2203 a〜2203 cは、 セグメ ント 2201 a〜 220 1 cの ID番号 230 1 a〜230 1 cを参照する ための参照番号 I d r e fが記載されている。 この例では、 セグメント優先度 2204 &の丄(11^ 6:?は1、 セグメント優先度 220413の丄(11^ 6 は11、 セグメント優先度 2204 cの i d r e fは 2である。 よって、 セグメント優 先度 2204 aの対象セグメントはセグメント 2201 a、 セグメント優先度 2204 bの対象セグメントはセグメント 2201 c、 セグメント優先度 22 04 cの対象セグメントはセグメント 2201 nとなる。
このように、 セグメント優先度 2204 a〜2204 cからセグメント 22 01 a〜2201 cを参照できるようになつている。
また、 図 25からセグメント観点 2202 bは、 " T e amB"であること がわかる。 また、 セグメント観点 2202 bには、 複数のセグメント優先度 2 204 d〜2204 fが記載されている。 この例では、 セグメント優先度 22 04 dの優先度は 4、 セグメント優先度 2204 eの優先度は 5、 セグメント 優先度 2204 fの優先度は 2である。
また、 セグメント優先度 2202 bには、 それそれリンク情報 2203 d〜 2203 fが付与されている。 リンク情報 2203 c!〜 2203 fは、 セグメ ント 2201 a〜 220 1 cの I D番号 230 1 a〜230 1 cを参照する ための参照番号 i d r e fが記載されている。 この例では、 セグメント優先度 2204 dの idr efは 2、 セグメント優先度 2204 eの i dr e fは 3、 セグメント優先度 2204 fの i d r e fは 1である。 よって、 セグメント優 先度 2204 dの対象セグメントはセグメント 2201 b、 セグメント優先度 2204 eの対象セグメントはセグメント 2201 c、 セグメント優先度 22 04 fの対象セグメントはセグメント 2201 aとなる。
このように、 セグメント優先度 2204a〜2204 fからセグメント 22 O l a〜 2201 nを参照できるようになつている。
以下、 このようなデ一夕構造の場合のセグメント選択処理について説明する c まず、 上述したセグメント選択部 16、 26が、 属性部分 220 Obに記述し た部分から対象となるセグメント観点 2202 a, 2202 bごとに、 優先度 2204 a〜 2204 fを選択する。 選択した優先度 2204 a〜2204f には、 それぞれリンク情報 2203 a〜2203 fが付与されているので、 選 択した優先度 2203 a〜 2203 fの対象となるセグメント 220 1 a〜 2201 nを選択することができる。 このようにして、 セグメント選択部 16, 26は、 セグメント 2202 a、 2202 b毎に、 観点優先度 2204 a観点 を指定することで、 対象となるセグメント 2201 a〜2201 nを選択でき る o
なお、 リンク情報 2203 a〜2203 f と優先度 2204 a〜2204f の部分は、 同一ファイルとせず、 別々に記述されたものであっても、 同様の効 果が得られる。
また、 セグメントとセグメント観点を双方向のリンクで結ぶ形態も考えられ る。
以下、 図 26、 27を用いてこの形態について説明する。 図 26は、 実施の 形態 7におけるデータ構造を示す図である。 図 27は、 実施の形態 7における デ一夕の記述を示す図である。
この形態のデータも、 実施の形態 7と同様、 構造部分 2400 aと属性部分 2400 bとから構成されている。 構造部分 2400 aのコンテンツには、 複 数のセグメント 2401 a〜240 1 nが記述されている。 また、 属性部分 2 400 bには、 複数のセグメント観点 2402 a, 2402 bが記述されてい る。 各セグメント観点 2402 a, 2402 b毎に、 対象となるセグメントゃ サブセグメントへのリンク情報 2403 a〜2403 f と、 各セグメント観点 2402 a, 2402 bに関する優先度 2404 a〜2404 fの組とがまと められている。
また、 この形態では、 構造部分 2400 aと属性部分 2400 bとを双方向 にリンクさせるため、 セグメント 2401 a〜セグメント 240 1 nにもセグ メント優先度 2404 a〜2404 fに対するリンク情報が記載されている。 次に、 この実施にかかるデータ構造について図 25を用いて詳細に説明する。 図 27からわかるように、 コンテンツには、 複数のセグメント 2401 a〜 240 1 cが記載されている。 セグメント 2401 aには、 セグメントの ID 番号 ( i d) 2501 aが付与されている。 この例では、 i d 2501 aは 1 である。 セグメント 2401 bには、 セグメントの ID番号 (i d) 2501 bが付与されている。 この例では、 i d 2501 aは 2である。 セグメント 2 401 cには、 セグメントの I D番号 (id) 2501 cが付与されている。 この例では、 i d 2501 cは 3である。 一方、 セグメント観点 2402 aには、 複数のセグメント優先度 2404 a 〜2404 cが記載されている。 この例では、 セグメント優先度 2404 aの 優先度は 3、 セグメント優先度 24 04 bの優先度は 2、 セグメント優先度 2 404 cの優先度は 5である。
また、 セグメント優先度 2402 aには、 それそれリンク情報 240 3 a〜 2403 cが付与されている。 リンク情報 2 40 3 a〜240 3 cは、 セグメ ント 2 40 l a〜 2 4 0 1 cの I D番号 2 5 0 1 a〜 2 5 0 1 cを参照する ための参照番号 I d r e fが記載されている。 この例では、 セグメント優先度 2404 aの i d r e fは 1、 セグメント優先度 2404 bの i d r e fは 2、 セグメント優先度 2404 cの i d r e fは nである。
よって、 セグメント優先度 2404 aの対象セグメントはセグメント 240 1 a、 セグメント優先度 2404 bの対象セグメントはセグメント 240 1 b、 セグメント優先度 2 404 cの対象セグメントはセグメント 2 4 0 1 nとな る。
一方、 セグメント観点 2402 bには、 複数のセグメント優先度 2404 d 〜2404 fが記載されている。 この例では、 セグメント優先度 2404 dの 優先度は 4、 セグメント優先度 2404 eの優先度は 5、 セグメント優先度 2 404 fの優先度は 2である。
また、 セグメント優先度 2402 bには、 それそれリンク情報 240 3 d〜 2403 fが付与されている。 リンク情報 240 3 d〜2403 fは、 セグメ ント 2 4 0 1 a〜 2 4 0 1 cの I D番号 2 5 0 1 a〜 2 5 0 1 cを参照する ための参照番号 I d r e fが記載されている。 この例では、 セグメント優先度 2404 dの i d r e fは 2、 セグメント優先度 2404 eの i d r e fは 3、 セグメント優先度 2 404 fの i d r e fは 1である。
よって、 セグメント優先度 2404 dの対象セグメントはセグメント 240 1 b、 セグメント優先度 2404 eの対象セグメントはセグメント 240 1 c、 セグメント優先度 2 4 0 4 fの対象セグメントはセグメント 2 4 0 1 aとな る。 また、 セグメント優先度 2402 aには、 それそれ優先度 ID番号 (i d r e f ) 2503 a〜 2503 cが付与されている。 この例では、 優先度 I D番 号 2503 aは p 101、 優先度 I D番号 2503bは p l 02、 優先度 I D 番号 2503 cは p 103である。
また、 セグメント優先度 2402 bには、 それそれ優先度 ID番号 (idr e f ) 2503 d〜 2503 fが付与されている。 この例では、 優先度 I D番 号 2503 dは p 201、 優先度 I D番号 2503 eは p 202、 優先度 I D 番号 2503 fは p 203である。
一方、 セグメント 2401 a〜 2401 nには、 セグメント優先度 2404 a〜2404 fに対するリンク情報である、 優先度 I D 2503 a〜 2503 cを参照する優先度参照番号 (id re f s) 2502 a〜2502 eが付与 されている。 この例では、 i d r e f s 2502 aは p 101、 idr ef s 2502 bは p 203、 i d r e f s 2502 cは p 102、 i d r e f s 2 502 dは p 201、 i dref s 2502 eは p 202である。
よって、 セグメント 2401 aの対象となるセグメント優先度はセグメント 優先度 2404 a, 2404 fであり、 セグメント 2401 bの対象となるセ グメント優先度はセグメント優先度 2404 c、 2404 dであり、 セグメン ト 2401 nの対象となるセグメント優先度はセグメント優先度 2404 b となる。
このように、 セグメント 2401 a~2401 nとセグメント優先度 220 4 a〜2204 f とが双方から参照できるようになつている。 これにより、 上 述したセグメント選択部 16、 26が、 実施の形態 1〜実施の形態 6に記載し た手法でも、 実施の形態 7で記載した手法でも、 処理を行うことができる。
(実施の形態 8)
以下、 本発明の実施の形態 8のデ一夕適合化装置について説明する。
実施の形態 8は、 実施の形態 7と同様に、 文脈内容記述データの表現を、 構 造を記述する部分と、 属性である観点とそのスコアを記述する部分に分けて表 現するものである。 ただし、 実施の形態 8の場合は、 セグメントへの、 リンク およびセグメント優先度との組で表現するのではなく、 各セグメント観点毎に セグメント優先度の高い順に記述するものである。
以下、 図 28、 29を用いて実施の形態 8について説明する。 図 28は、 実 施の形態 8におけるデータ構造を示す図である。 図 29は、 実施の形態 8にお けるデータの記述を示す図である。
図 28に示すように、 実施の形態 8にかかるデータ構造は、 構造を記述する 構造部分 2600 aと属性部分 2600 bとから構成されている。構造部分 2 600 aのコンテンツには、 複数のセグメント 2601 a〜 2601 nが記述 されている。 属性部分 2600 bには、 複数のセグメント観点 2602 a, 2 602 bが記述されている。 各セグメント観点 2602 a、 2602 b毎に、 対象となるセグメントゃサブセグメン卜へのリンク情報 2603 a~260 3 fが記述されている。
次に、 実施の形態 8にかかるデ一夕構造について図 29を用いて詳細に説明 する。
図 29からわかるように、 コンテンツには、 複数のセグメント 2601 a〜 260 1 nが記載されている。 セグメン卜 2601 a〜 2601 nには、 それ それセグメントの ID番号 (id) 2701 a〜 270 I nが付与されている。 この例では、 丄(12701 &は1、 i d 2701 aは 2、 i d 2701 nは n である。
一方、 図 29から、 セグメント観点 2602 aは、 " TeamA"であるこ とがわかる。 また、 セグメント観点 2602 aには、 それそれリンク情報 26 03 a〜2603 cが付与されている。 リンク情報 2603 a〜2603 cは、 セグメント 260 1 a〜 2601 ηの I D番号 2701 a〜270 1 nを参 照するための参照番号 i d re f 2702 a〜2302 cが記載されている。 この例では、 i dr ef 2702 aは 1、 i d r e f 2702 bは n、 i d r e f 2702 cは 2である。
また、 リンク情報 2603 a~2603 cは、 記述順がセグメント優先度と して認識されるため、 この例では、 リンク情報 2603 aのセグメント優先度 が最も高く、 リンク情報 2603 cのセグメント優先度が最も低くなる。
よって、 セグメント 2601 aのセグメント優先度が最も高く、 セグメント 260 l bのセグメント優先度が最も低くなる。
一方、 図 29から、 セグメント観点 2602 bは、 " T e amB"であるこ とがわかる。 また、 セグメント観点 2602 bには、 それそれリンク情報 26 03 d〜2603 fが付与されている。 リンク情報 2603 d〜2603 fは、 セグメント 260 l a〜 260 I nの I D番号 2701 a〜2701 nを参 照するための参照番号 i d r e f 2702 d〜2302 fが記載されている。 この例では、 idr ef 2702 dは 2、 i dr ef 2702 eは 3、 i d r e f 2702 fは 1である。
また、 リンク情報 2603 d〜2603 fは、 記述順がセグメント優先度と して認識されるため、 この例では、 リンク情報 2603 dのセグメント優先度 が最も高く、 リンク情報 2603 fのセグメント優先度が最も低くなる。
よって、 セグメント 2601 bのセグメント優先度が最も高く、 セグメント 2601 aのセグメント優先度が最も低くなる。
このように、 セグメント観点 2602 a、 bにセグメント優先度が記載され ていなくても、 セグメント観点 2602 a, bからセグメント 2201 a〜2 201 nを参照でき、 優先度を決定できるようになつている。
なお、 図 28では、 各セグメント (またはサブセグメント) に対して、 すべ て異なるセグメント優先度を有するようになっているが、 図 30のように同じ セグメント優先度のものを記述できるようにしても良い。
図 30に示す例では、 属性部分 2800のセグメント観点 2802に、 左か ら順にセグメント優先度が高いものを表し、 同じセグメント優先度のものは上 下に並べて記述している。
具体的には、 リンク情報 2803 aとリンク情報 2803 bを上下に、 リン ク情報 2803 aをリンク情報 2803 cの左に記述している。 そして、 リン ク情報 2803 aはセグメント 2601 bにリンクし、 リンク情報 2803 c はセグメント 2601 aにリンクし、 リンク情報 2803 bはセグメント 26 01 nにリンクしている。 つまり、 セグメント 2601 bとセグメント 260 1 nは同じセグメント優先度を有し、 セグメント 2601 aはセグメント 26 01 bとセグメント 2601 nより低いセグメント優先度を有することにな る o
ここで、 図 31を用いて図 30のデータ構造について詳細に説明する。
図 31からわかるように、 コンテンツには、 複数のセグメント 2601 a〜 2601 nが記載されている。 セグメント 2601 a〜 2601 nには、 それ それセグメントの I D番号 (i d) 2901 a〜2901 nが付与されている c この例では、 丄 12901 &は1、 id 2901 aは 2、 i d 2901 nは n である。
一方、 図 31から、 セグメント観点 2802は、 " T e am A"であること がわかる。 また、 セグメント観点 2602 aには、 それそれリンク情報 (id r e f ) 2803 a〜2803 cが付与されている。 この例では、 idre f 2803 aは 2、 i d r e f 2803 bは 1、 i d r e f 2803 cは nであ る。
また、 リンク情報 2803 a〜2803 cは、 記述順がセグメント優先度と して認識されるため、 この例では、 リンク情報 2803 aのセグメント優先度 が最も高く、 リンク情報 2803 cのセグメント優先度が最も低くなる。
よって、 セグメント 2601 aのセグメント優先度が最も高く、 セグメント 2601 bのセグメント優先度が最も低くなる。
このようにして、 セグメント優先度をセグメント観点に記載しなくても、 同 じセグメント優先度を有するセグメントを記述することができる。
また、 上述したセグメント選択部 16、 26が、 実施の形態 7で記載した手 法により、 セグメントの選択を行う。
(実施の形態 9)
本発明の実施の形態 1〜8までは、 コンテンツ識別子によりコンテンツの識 別を行う形態である。 しかし、 コンテンツ識別により、 コンテンツ識別を行わ ず、 キ一ヮ一ドまたはキ一ヮ一ドの共起確率によりコンテンヅの識別を行って もよい。 また、 その他の方法によりコンテンツを識別しても構わない。
また、 ユーザープリファレンスをコンテンツ毎に用意せず、 ユーザ一プリフ ァレンスを年代やグループ毎等のいくつかの嗜好カテゴリや一般的な嗜好と して、 ユーザ一嗜好に関係なくデフオルトとして用意してもよい。
実施の形態 9は、 コンテンツ識別によりコンテンツ識別を行わないものであ る。 以下、 実施の形態 9にかかるュ一ザ一プリファレンスについて、 図 3 2、 3 3を用いて説明する。 図 3 2、 3 3は、 実施の形態 9にかかるユーザ一プリ ファレンスの記述定義を示す図である。
なお、 図中、 ユーザープリファレンスは UserPreference、 キーワードは PreferenceSummaryTheme、 コンテンツを表示するため時間長情報は SummaryDuration、 キーワードに対する優先度は preferencevalueで示され ている。
図からわかるように、 UserPreference 3 2 0 1は、 要素としてュ一ザ一情報 として、 ユーザーを識別するための識別子である Userldentifier 3 2 0 2と、 ユーザーの嗜好情報である UsagePreference 3 2 0 3とを含むと定義されて いる。 また、 UsagePreference 3 2 0 3は、 0個又は 1個含むと定義されてい る。
次に、 Userldentifier 3 2 0 2の定義について説明する。 Userldentifier 3 2 0 2は、 図中 3 2 0 4で示すように、 要素を含まないと定義されている。 また、 Userldentifier 3 2 0 2は、書き換え可能かを示す情報である protected 3 2 0 4と、 ユーザ一名である userName 3 2 0 5とを属性として含むと定義されて いる。 protected 3 2 0 4は、 書き換え可能である" true"、 書き換え不可能で ある" false"、 ユーザ一に応じて書き換え可能になる" user"の中から一つを 選択するようになっている。 また、 protected 3 2 0 4のデフォルトは" true" になっている。 userName 3 2 0 5は、 CDATAつまりテキスト情報であると 定義されている。また、 userName 3 2 0 5は、デフォルトとして" anoymous" が設定されている。
次に、 UsagePreference 3 2 0 3の定義について説明する。 図中 3 2 0 6に 示すように、 UsagePreference 3 2 0 3は、 要素として時間や天候などの状況 などの情報を持つ BrowsingPreferences 3 2 0 7を 0個以上含むと定義されて いる。 また、 UsagePreference 3 2 0 3は、 管理者などにより自動的に書き換 え可能かを示す情報である allowAutomaticupdate 3 2 0 8を属性として含む と定義されている。 allowAutomaticupdate 3 2 0 8は、 書き換え可能である" true"、 書き換え不可能である" false"、 ユーザーに応じて書き換え可能にな る " user " の中から一つを選択する よ う になっている。 また、 allowAutomaticupdate 3 2 0 8のデフオノレトは" true" になっている。
次に、 BrowsingPreferences 3 2 0 7の定義について説明する。 図中 3 2 0 9 に示すよ う に、 BrowsingPreferences 3 2 0 7 には、 要素と して Summarypreferences 3 2 1 0を 0個以上持つと定義されている。 そして、 BrowsingPreferences 3 2 0 7には、 要素として書き換え可能かを示す情報で ある protected 3 2 1 1と、 BrowsingPreferences 3 2 0 7の優先度である prefernce Value 3 2 1 2とを属性として含むと定義されている。 protected 3 2 1 1は、 書き換え可能である" true"、 書き換え不可能である" false" 、 ユー ザ一に応じて書き換え可能になる" user"の中から一つを選択するようになつ ている。 また、 protected 3 2 1 1のデフォルトは" true" になっている。 prefernceValue 3 2 1 2は、 CDATAつまりテキスト情報であると定義されて いる。 また、 prefernceValue 3 2 1 2は、 デフォルトとして 1 0 0が設定され ている。
このよつに、 BrowsingPreierences 3 2 0 7力 s prefernceValue 3 2 1 2を持 つので、 Userpreierence ό ; 0 1を BrowsingPreferences 3 2 0 7とレヽっ上位 の階層においても、 優先度付けして処理を行うことができる。
次に、 SummaryPreferences 3 2 1 0の定義について説明する。 図中 3 3 0 1で示すように、 SummaryPreferences 3 2 1 0は、 キーワードである PreferredSummaryTheme 3 3 0 2 を 0個以上、 表示期間情報である SummaryDuration 3 3 0 3を 0又は 1個、要素として持つと定義されている。 また、 summaryPreierences 3 2 1 0は、 f愛先度である preferncevalue 3 3 0 4を属性として持つと定義されている。 また、 prefemcevalue 3 3 0 4のデ フォルトは 1 0 0であると、 定義されている。
このよつに、 SummaryPreferences ο ά 1 0力優先度である preierncevalue 3 3 0 4 を 属 性 と し て 持 つ こ と で 、 キ ー ワ ー ド で あ る PreferredSummaryTheme 3 3 0 2 の 上 位 の 階 層 で あ る SummaryPreferences 3 2 1 0においても、 優先度付けした処理ができる。 次に、 PreferredSummaryTheme 3 3 0 2の定義について説明する。 図中 3 3 0 5に示すように、 PreferredSummaryTheme 3 3 0 2は、 要素としてテキ ストデ一夕を有すると定義されている。 また、 PreferredSummaryTheme 3 3 0 2は、 ォプシヨンとして言語情報である xml:lang 3 3 0 6と、優先度情報で ある preferenceValue 3 3 0 7を属性として持つと定義されている。 また、 優 先度情報である preferenceValue 3 3 0 7のデフォルトは、 1 0 0であると定 義されている。
このように、キーワードである PreferredSummaryTheme 3 3 0 2が優先度 情報である preferenceValue 3 3 0 7 を属性と して持つこ とで、 PreferredSummaryTheme 3 3 0 2を優先度付けした処理ができる。
また、 図中 3 3 0 8に示すように SummaryDuration 3 3 0 3は、 要素とし てテキストデ一夕を含むと定義されている。
このように、 実施の形態 9にかかるユーザープリファレンスは、 コンテンツ 毎の処 ¾では く、 BrowsingPreferences 3 2 0 7、 SummaryPreferences 3 2 1 0という、 PreferredSummaryTheme 3 3 0 2の上位の階層毎に処理する ことができる。 ま 7こ、 BrowsingPreferences 3 2 0 7 N SummaryPreferences 3 2 1 0という、 PreferredSummaryTheme 3 3 0 2の上位の階層毎に優先度 付けした処理ができる。
次に、 実施の形態 9にかかるユーザープリファレンスの具体的な記述につい て図 3 4を用いて説明する。 図 3 4は、 実施の形態 9にかかるユーザープリフ アレンスの記述例を示す図である。 図 3 4に示すユーザープリファレンスの記 述例は、 図 4に示すユーザ一プリファレンスの記述例を実施の形態 9に対応す るようにしたものである。
図中 340 1に示すように、 Userldentifierは、 protectedとして" true"が、 userName として" Bob" が記述されている。 また、 図中 3402に示すよう に、 UsagePreierencesは、 allowAutomaticUpdate として false が §己述さ れている。 また、 図中 34 03に示すように、 BrowsingPreferences は、 protectedとして" true" が記述されている。
ま 、 UserPreierence 3400には、 っの Summary Preferences ύ 404 a、 3404 bが記述されている。
図中 3 40 5 aに示すように、 SummaryPreferences 34 0 4 aには、 PreferredSummaryThemeとして、 " Nakata"という情報が記述されている。 また、 図中 3405 aに示す PreferredSummaryThemeの preferenceValue は 500である。 また、 図中 3406 aに示すように、 SummaryPreferences 3 404 aには、 PreferredSummaryThemeとして、 " Soccer"という情報が記 述されている。 また、 図中 3406 aに示す PreferredSummaryTheme の preferenceValue は 4 0 0である。 図中 3 4 0 7 aに示すよう に、 SummaryPreferences 3404 aには、 PreferredSummaryTheme として、 ,, Japan" という情報が記述されている。 また、 図中 3 4 0 7 aに示す PreferredSummaryThemeの preferenceValueは 200である。 また、 図中 3408 aに示すように、 SummaryDurationには、 " PT5M"、 つまり 5分 という情報が記述されている。
図中 34 0 5 bに示すように、 SummaryPreferences 34 0 4 bには、 PreferredSummaryTheme として、 " Headline" という情報が記述されてい る 。 ま た、 図中 3 4 0 5 b に示す PreferredSummaryTheme の preferenceValue は 500 である。 また、 図中 3 4 0 6 bに示すように、 SummaryPreierences ό 404 bには、 PreferredSummaryTheme として、 " Stock" という情報が記述されている。 また、 図中 3 4 0 6 bに示す PreferredSummaryThemeの preferenceValueは 500である。 図中 340 7 b に 示 す よ う に 、 SummaryPreferences 3 4 0 4 b に は 、 PreferredSummaryThemeとして、 " Sports"という情報が記述されている。 また、 図中 3 4 0 7 bに示す PreferredSummaryThemeの preference Value は 3 0 0である。 また、 図中 3 4 0 8 bに示すように、 SummaryDurationに は、 " PT 3 M"、 つまり 3分という情報が記述されている。
以上のように、 実施の形態 9にかかるユーザープリファレンスの定義によつ ても、 図 4に対応する内容の記述ができる。
次に、 実施の形態 9にかかるセグメント記述について説明する。 まず、 実施 の形態 9にかかるセグメントの定義について、 図 3 5〜図 3 7を用いて説明す る。 図 3 5〜図 3 7は、 実施の形態 9にかかるセグメント記述の定義を示す図 である。
この例では、 セグメントとして、 オーディオとビジュアルのセグメントであ る AudioVisualSegmentの定義について説明する。
図中 3 5 0 1に示すように、 AudioVisualSegment 3 5 0 2には、 0個以上 の PointOfView 3 5 0 3と、 Media ime 3 5 0 4とを要素として含むと定義 されている。 PointOfView 3 5 0 3は、 セグメン卜に関する観点を含む要素で ある。 MediaTime 3 5 0 4は、 セグメントの時間長などを含む要素である。 また、 図中 3 5 0 5に示すように、 AudioVisualSegment 3 5 0 2は、 識別 子である I Dを属性として持つと定義されている。また、 AudioVisualSegment 3 5 0 2は、 図中 3 5 0 6に示すようにオプションとして U R L参照情報であ る h r e f と、 図中 3 5 0 7に示すようにオプションとして I D参照倩報であ る i d r e f を属性として持つと定義されている。
次に、 PointOfView 3 5 0 3の定義について説明する。 図中 3 5 0 8に示す ように、 PointOfView 3 5 0 3は、 0個力 1個の Supplementallnfo 3 5 0 3 と、 1個以上の Value 3 5 1 0とを要素として持つと定義されている。 Supplementallnfo 3 5 0 3は、 PointOfView 3 5 0 3の内容を示すコメントな どである。 Value 3 5 1 0は、 PointOfView 3 5 0 3の優先度情報である。 また、 PointOfView 3 5 0 3は、 図中 3 5 1 1に示すように、 識別子情報で ある i dをオプションとして属性に持つと定義されている。また、 PointOfView 3 5 0 3は、 図中 3 5 1 2に示すように、 セグメント観点である viewPointを 属性として持つと定義されている。 また、 viewPointはテキスト情報で記述さ れると定義されている。
次に、 Value 3 5 1 0の定義について説明する。図中 3 5 1 3に示すように、 Value 3 5 1 0は要素としてテキスト情報を含むと定義されている。 また、 図 中 3 5 1 4に示すように、 Value 3 5 1 0は識別子 i dを属性として持つと定 義されている。 また、 Value 3 5 1 0の識別子 i dはオプションであると定義 されている。
このように、 PointOfView 3 5 0 2 と、 Value 3 5 1 0が i dを持ち AudioVisualSegment 3 5 0 2がこれらの i dを参照する i d r e f を持つこ とで、 AudioVisualSegment 3 5 0 2が、 i d r e f により PointOfView 3 5 0 2 と、 Value 3 5 1 0 を参照す る こ と がで き る 。 つ ま り 、 AudioVisualSegment 3 5 0 2が、 i d r e f により PointOfView 3 5 0 2と、 Value 3 5 1 0とにリンクすることができる。
次に、 Supplementallnfo 3 5 0 9の定義について説明する。図中 3 6 0 1に 示すように、 Supplementallnfo 3 5 0 9は、 FreeTextAnnotation 3 6 0 2も しくは StructuredAnnotation 3 6 0 3を少なくとも 1つ要素として持つと定 義されている。
また、 図中 3 6 0 4に示すように、 Supplementallnfo 3 5 0 9は、 要素とし てテキストデ一夕を持つと定義されている。 また、 図中 3 6 0 5に示すように、 Supplementallnfo 3 5 0 9は、言語情報を属性として有すると定義されている。 次に、 StructuredAnnotation 3 6 0 3の定義について説明する。図中 3 6 0
6に示すように、 StructuredAnnotation 3 6 0 3は、誰が行つたかを示す情報 である Who 3 6 0 7を 0もしくは 1個、もしくは何に対して行われたかを示す 情報である WhatObject 3 6 0 8を 0個もしくは 1個、 もしくは何をしたかを 示す情報である WhatAction 3 6 .0 9を 0個もしくは 1個、 もしくはどこで行 われたかを示す情報である Where 3 6 1 0を 0個もしくは 1個、もしくはいつ 行われたかを示す情報である When 3 6 1 1を 0個もしくは 1個、 もしくはな ぜ行われたかを示す情報である W y 3 6 1 2を 0個もしくは 1個、要素として 持つと定義されている。 ,
また、 図中 3 6 1 3〜3 6 1 8に示すように、 Who 3 6 0 7、 WhatObject 3 6 0 8、 W atAction 3 6 0 9、 Where 3 6 1 0、 When 3 6 1 1、 Why 3 6 1 2は、 要素としてテキスト情報を含むと定義されている。
また、 図中 3 6 1 9に示すように、 StructuredAnnotation 3 6 0 3は、 識別 子情報である i dを属性として持つと定義されている。 また、 図中 3 6 2 0に 示すように、 StructuredAnnotation 3 6 0 3は、 言語情報を属性として持つと 定義されている。
こ の よ う に 、 StructuredAnnotation 3 6 0 3 に よ っ て 、 AudioVisualSegment 3 5 0 2がどのような情報かを容易に認識することがで ぎる。
次に、 MediaTime 3 5 0 4の定義について説明する。図中 3 7 0 1に示すよ うに、 MediaTime 3 5 0 4は、 MediaTimePoint 3 7 0 2と、 MediaDuration 3 7 0 3とを要素として持つと定義されている。 MediaTimePoint 3 7 0 2は、 AudioVisualSegment 3 5 0 2の開始時間情報であり、 MediaDuration 3 7 0 3は AudioVisualSegment 3 5 0 2の時間長情報である。
また、 図中 3 7 0 4に示すように、 MediaTimePoint 3 7 0 2は、 テキスト 情報を要素として持つと定義されている。 また、 図中 3 7 0 5に示すように、 MediaDuration 3 7 0 3も、 テキスト情報を要素として持つと定義されている。 以上、 説明したように、 AudioVisualSegment 3 5 0 2は定義されている。 次に、 上述したように定義された AudioVisualSegment 3 5 0 2の記述例につ いて説明する。
図 3 8は、 図 1 7に示すセグメントの記述例を実施の形態 9に対応させた記 述例である。
図 3 8からわかるように、 セグメント 1 6 0 2には、 図 1 7の記述例と同様 に、 セグメント観点 (キーヮ一ド) の I D番号 (i d ) 1 7 0 1が記載されて いる。 また、 セグメント 1602には、 キーワードに対するセグメント優先度 (P) 1702が記載されている。 そして、 セグメント 1602にはキーヮー ドとして、 " Te amA" が記載されている。
また、 セグメント 1603には、 図 17の記述例と同様に、 リンク情報であ る他のセグメント観点 (キーワード) に対する参照番号 ( i d r e f) 170 3が記載されている。 よって、 セグメント 1603のキーワードは" Te am A"になる。 また、 セグメント 1603には、 キーワードに対するセグメント 優先度 (P) 1704が記載されている。
このように、 実施の形態 9によってもセグメント同士をリンクさせることが できる。
次に、 図 19に示すセグメントの記述例を実施の形態 9に対応させた記述に ついて図 39を用いて説明する。
図 39からわかるように、 観点表 1801には、 セグメント観点 1802 a から 1802 cが記載されている。 セグメント観点 1802 aには、 I D番号 (id) 1901 aが記載されている。 また、 セグメント観点 1802 aは、 " A" というテキストで表されている。
また、 セグメント観点 1802 bには、 ID番号 (i d) 1901 bが記載 されている。 また、 セグメント観点 1802 bは、 " B" というテキス卜で表 されている。 セグメント観点 1802 cには、 ID番号 (i d) 1901 cが 記載されている。 また、 セグメント観点 1802 cは、 " C" というテキスト で表されている。
一方、 セグメント 1803〜 1805には、 観点表 1801のセグメント観 点 1802 a〜 1802 cに対するリンク情報である参照番号 ( i d r e f ) 1903 a〜 1903 cがそれそれ記載されている。
さらに、 セグメント 1803には、 キーワードに対するセグメント優先度 (P) 1904 aが記載されている。 セグメント 1804には、 キーヮードに 対するセグメント優先度 (P) 1904 bが記載されている。 セグメント 18 05には、 キーワードに対するセグメント優先度 (P) 1904 cが記載され ている。
このように、 実施の形態 9を用いても、 ユーザ一にあらかじめセグメント観 点リストを提示することが容易となる。
次に、 図 2 1に示すセグメントの記述例を実施の形態 9に対応させた記述に ついて図 40を用いて説明する。
図 40からあきらかなように、 観点表 1801には、 文脈内容記述データに 現れるすべてのセグメント観点を記述する必要はなく、 リンクで参照されるも のだけになつている。 また、 セグメント 2001には、 観点表 1801への、 リンク情報が含まれない。
このように、 図 40のような記述により、 図 2 1の記述を実施の形態 9に対 応させることができる。
次に、 図 23に示すセグメントの記述例を実施の形態 9に対応させた記述に ついて図 41を用いて説明する。
図 41からわかるように、 観点表 2101には、 セグメント 2 103〜 21 05に含まれる観点 2106、 2108、 2 1 10が格納されている。 具体的 には、 観点 2106、 2 108、 2 1 10に対応して観点 2301〜 2303 が格納されている。
そして、 ユーザーがユーザ—観点を入力する前に、 観点表 2 101を表示す るようにする。 このようにして、 図 41のような記述により、 図 23の記述を 実施の形態 9に対応させることができる。
次に、 図 25に示すセグメントの記述例を実施の形態 9に対応させた記述に ついて図 42を用いて説明する。
図 42からわかるように、 コンテンツには、 複数のセグメント 2201 a〜 220 1 cが記載されている。 セグメント 2201 aには、 セグメントの ID 番号 ( i d) 2301 aが付与されている。 セグメント 2201 bには、 セグ メントの I D番号 (id) 2301 bが付与されている。 セグメント 2201 cには、 セグメントの ID番号 (i d) 2301 cが付与されている。
一方、 セグメント観点 2202 aは、 " T e am A"であることがわかる。 また、 セグメント観点 2202 aには、 複数のセグメント優先度 2204 a〜 2204 cが記載されている。
また、 セグメント優先度 2202 aには、 それそれリンク倩報 2203 a〜 2203 cが付与されている。 リンク情報 2203 a〜2203 cは、 セグメ ント 220 1 a〜 220 1 cの ID番号 230 1 a〜 230 1 cを参照する ための参照番号 I d r e fが記載されている。
このように、 セグメント優先度 2204 a~2204 cからセグメント 22 01 a〜2201 cを参照できるようになつている。
また、 セグメント観点 2202 bは、 " T e amB"であることがわかる。 また、 セグメント観点 2202 bには、 複数のセグメント優先度 2204 d〜 2204 fが記載されている。
また、 セグメント優先度 2202 bには、 それそれリンク情報 2203 d〜 2203 fが付与されている。 リンク情報 2203 d〜2203 fは、 セグメ ント 2201 a〜 220 1 cの I D番号 230 1 a〜 2301 cを参照する ための参照番号 I d r e fが記載されている。
このように、 セグメント優先度 2204 a〜2204fからセグメント 22 O l a〜 2201 nを参照できるようになつている。
このように、 図 42のような記述により、 図 25の記述を実施の形態 9に対 応させることができる。
次に、 図 27に示すセグメントの記述例を実施の形態 9に対応させた記述に ついて図 43、 図 44を用いて説明する。
図からわかるように、 コンテンツには、 複数のセグメント 2401 a〜24 01 cが記載されている。 セグメント 2401 aには、 セグメン卜の I D番号 (i d) 2501 aが付与されている。 セグメント 2401 bには、 セグメン 卜の I D番号 (id) 2501 bが付与されている。 セグメント 2401 cに は、 セグメントの ID番号 (id) 2501 cが付与されている。
一方、 セグメント観点 2402 aには、 複数のセグメント優先度 2404 a 〜2404 cが記載されている。 また、 セグメント優先度 2402 aには、 それそれリンク情報 2403 a〜 2403 cが付与されている。 リンク情報 2403 a〜2403 cは、 セグメ ント 2401 a〜 240 1 cの I D番号 250 1 a〜 250 1 cを参照する ための参照番号 I d r e fが記載されている。
よって、 セグメント優先度 2404 aの対象セグメントはセグメント 240 1 a、 セグメント優先度 2404 bの対象セグメントはセグメント 2401 b、 セグメント優先度 2404 cの対象セグメントはセグメント 240 1 nとな る。
一方、 セグメント観点 2402 bには、 複数のセグメント優先度 2404 d 〜2404 fが記載されている。 また、 セグメント優先度 2402 bには、 そ れそれリンク情報 2403 d〜2403 fが付与されている。 リンク情報 24 03d〜2403 fは、 セグメント 2401 a〜 2401 cの I D番号 250 1 a〜2501 cを参照するための参照番号 I d r e fが記載されている。 よって、 セグメント優先度 2404 dの対象セグメントはセグメント 240 1 b、 セグメント優先度 2404 eの対象セグメントはセグメント 2401 c、 セグメント優先度 2404 fの対象セグメントはセグメント 240 1 aとな る。
また、 セグメント優先度 2402 aには、 それそれ優先度 I D番号 (i d r e f ) 2503 a〜2503 cが付与されている。 また、 セグメント優先度 2 402 bには、 それそれ優先度 I D番号 (i dref) 2503 d〜 2503 fが付与されている。
一方、 セグメント 2401 a〜2401 cには、 セグメント優先度 2404 a〜2404 fに対するリンク情報である、 優先度 I D 2503 a〜 2503 cを参照する優先度参照番号 (idr ef s) 2502 a〜2502 eが付与 されている。
よって、 セグメント 2401 aの対象となるセグメント優先度はセグメント 優先度 2404 a, 2404 fであり、 セグメント 2401 bの対象となるセ グメント優先度はセグメント優先度 2404 b、 2404 dであり、 セグメン ト 2401 cの対象となるセグメント優先度はセグメント優先度 2404 e となる。
このように、 実施の形態 9を用いても、 セグメント 2401 a〜 2401 c とセグメント優先度 2204 a〜2204 f とが双方から参照できるように なる。
次に、 図 29に示すセグメントの記述例を実施の形態 9に対応させた記述に ついて図 45を用いて説明する。
図からわかるように、 コンテンツには、 複数のセグメント 2601 a〜 26 01 cが記載されている。 セグメント 2601 a〜2601 cには、 それそれ セグメントの ID番号 (i d) 2701 a〜 2701 cが付与されている。 一方、 図から、 セグメント観点 2602 aは、 " T e amA"であることが わかる。 また、 セグメント観点 2602 aには、 それそれリンク情報 2603 a〜2603 cが付与されている。 リンク情報 2603 a〜2603 cは、 セ グメント 2601 a〜 260 1 cの I D番号 270 1 a〜2701 cを参照 するための参照番号 i dref 2702 a〜2302 cが記載されている。 また、 リンク情報 2603 a〜2603 cは、 記述順がセグメント優先度と して認識されるため、 この例では、 リンク情報 2603 aのセグメント優先度 が最も高く、 リンク情報 2603 cのセグメント優先度が最も低くなる。 よって、 セグメント 2601 aのセグメント優先度が最も高く、 セグメント 2601 bのセグメント優先度が最も低くなる。
一方、 図から、 セグメント観点 2602 bは、 " T e amB"であることが わかる。 また、 セグメント観点 2602 bには、 それそれリンク情報 2603 d〜2603 fが付与されている。 リンク情報 2603 d〜2603 fは、 セ グメント 2601 a〜 260 1 cの I D番号 270 1 a〜270 1 cを参照 するための参照番号 i d re f 2702 d〜2302 fが記載されている。 また、 リンク情報 2603 d〜2603 fは、 記述順がセグメント優先度と して認識されるため、 この例では、 リンク情報 2603 dのセグメント優先度 が最も高く、 リンク情報 2603 fのセグメント優先度が最も低くなる。 よって、 セグメント 2601 bのセグメント優先度が最も高く、 セグメント 2601 aのセグメント優先度が最も低くなる。
このように、 図 45の記述により、 図 29の記述を実施の形態 9に対応させ られる。
次に、 図 31に示すセグメン卜の記述例を実施の形態 9に対応させた記述に ついて図 46を用いて説明する。
図からわかるように、 コンテンツには、 複数のセグメント 2601 a〜 26 01 cが記載されている。 セグメント 2601 a〜 2601 cには、 それそれ セグメントの ID番号 (id) 2901 a〜2901 cが付与されている。 一方、 図から、 セグメント観点 2802は、 " TeamA"であることがわ かる。 また、 セグメント観点 2602 aには、 それそれリンク情報 ( i d r e f ) 2803 a〜2803 cが付与されている。
また、 リンク情報 2803 a~2803 cは、 記述順がセグメント優先度と して認識されるため、 この例では、 リンク情報 2803 aのセグメント優先度 が最も高く、 リンク情報 2803 cのセグメント優先度が最も低くなる。
よって、 セグメント 2601 aのセグメント優先度が最も高く、 セグメント 2601 bのセグメント優先度が最も低くなる。
このように、 図 46の記述を用いて、 図 31の記述を実施の形態 9に対応さ せることができる。
(実施の形態 10 )
実施の形態 1から実施の形態 9まではユーザ一プリファレンスを XML- DTDで記述する形態で説明したが、 ユーザープリファレンスを RDF、 XML- Schema、 XMLベースの他の言語、 XML以外の言語、 または言語以外の記述 をしても良い。
実施の形態 10は、 ユーザープリファレンスを XML-Schemaで記載したも のである。 以下、 実施の形態 10にかかるユーザープリファレンスの定義につ いて図 47から図 5 1を用いて説明する。 図 47から図 51は、 実施の形態 1 0にかかるユーザ一プリファレンスの記述定義を示す図である。 また、 図 47 から図 5 1は、 実施の形態 9にかかるユーザープリファレンスの記述定義に対 応じたものである。
図からわかるように、 UserPreference 3 2 0 1は、 要素としてユーザー情報 として、 ユーザ一を識別するための識別子である Userldentifier 3 2 0 2と、 ユーザ一の嗜好情報である UsagePreference 3 2 0 3とを含むと定義されて いる。 また、 UsagePreference 3 2 0 3は、 0個又は 1個含むと定義されてい 次に、 UsagePreference 3 2 0 3の定義について説明する。 図中 4 8 0 3に 不すよつに、 UsagePreierence J 2 0 oは、 BrowsingPreierences 3 2 0 7を 0個以上含むと定義されている。 また、 UsagePreference 3 2 0 3は、 aUowAutomaticUpdate 3 2 0 8を属性として含むと定義されている。 また、 UsagePreference 3 2 0 3 は、 図 中 4 8 0 1 に 示 す よ う に 、 FilteringAndSearchPreferences 4 8 0 2を要素として、 0個以上持つと定義 されている。
次に、 BrowsingPreferences 3 2 0 7の定義について説明する。 図中 4 9 0 0 に示すよう に、 BrowsingPreferences 3 2 0 7 には、 要素と して Summarypreferences 3 2 1 0を 0個以上持つと定義されている。 そして、 BrowsingPreferences ό Δ 0 ιには、 protected 3 2 1 1と、 prefernceValue 3 2 1 2とを属性として含むと定義されている。 また、 BrowsingPreferences 3 2 0 7には、 要素として PreferaceConditionType 4 9 0 2を 0個以上含むと 定義されている。
次に、 SummaryPreferences 3 2 1 0の定義について説明する。 図中 5 0 0 2に示すように、 SummaryPreferences 3 2 1 0は、 図中 5 0 0 3で示される よ う な リ ス ト を 持 つ summaryComponentType を 拡 張 し た SummaryPreferncesTypeという要素を 0個以上持つと定義されている。 また、 SummaryPreferences 3 2 ΐ 0 ίま 、 キ ー ワ ー ド で あ る PreferredSummaryTheme 3 3 0 2 を 0個以上、 表示期間情報である SummaryDuration 3 3 0 3を 0又は 1個、要素として持つと定義されている。 また、 SummaryPreferences 3 2 1 0は、 優先度である preferncevalue 3 3 0 4を属性として持つと定義されている。 また、 preferncevalue 3 3 0 4のデ フォルトは 1 0 0であると、 定義されている。
また、 PreferredSummaryTheme 3 3 0 2は、 TextualTypeつまり要素とし てテキス トデ一夕と、 言語情報を有すると定義されている。 また、 PreferredSummaryTheme 3 3 0 2は、 優先度情報である preference Value 3 3 0 7を属性として持つと定義されている。
また、 図中 5 1 0 1〜5 1 1 0に示すように、 SummaryPreferences 3 2 1
0は、 最小時間長を示す MinSummaryDuration と、 最大時間長を示す MaxSummaryDurationと、 表示フレーム数を示す NumOfKeyframesと、 最 小表示フレーム数を示す MinNumOfKeyframesと、 最大表示フレーム数を示 す MaxNumOf eyframesと、 表示文字数を示す NumOfCharsと、 最小表示 文字数を示す MinNumOfCharsと、最大表示文字数を示す MaxNumOfChars と、 を要素として持つと定義されている。
また、 図中 5 1 1 0に示すように、 これらの要素は属性として、 優先度を持 つと定義されている。
このように、 図 4 7から図 5 1を用いて、 XML-Schema を用いてユーザー プリファレンスが記述できる。
次に、 実施の形態 1 0にかかるュ一ザ一プリファレンス定義の具体例につい て図 5 2を用いて説明する。 図 5 2は、 実施の形態 1 0にかかるユーザープリ ファレンスの記述例を示した図である。
図中 5 2 0 1に示すように、 Userldentifierは、 protectedとして" true"が、 userNameとして" Mike"が記述されている。 また、 図中 5 2 0 2に示すよう に、 UsagePreierencesは、 allowAutomaticUpdate として" false" か g己述さ れている。 また、 図中 5 2 0 3に示すように、 BrowsingPreferences は、 protectedとして" true"が記述されている。
また、 UserPreference 5 2 0 0には、 2つの SummaryPreferences 5 2 0 4 が記述されている。 図中 5 2 0 5 に示すように、 SummaryPreferences 5 2 0 4 には、 PreferredSummaryTheme として、 " Free-kick" という情報が記述されてい る。 また、 図中 5 2 0 6に示すように、 SummaryPreferences 5 2 0 4には、 PreferredSummaryThemeとして、 " Goals" という情報が記述されている。 また、 図中 5 2 0 8に示すように、 SummaryDurationには、 " PT5M"、 つ まり 5分という情報が記述されている。
このように、 XML-Schemaを用いてユーザ一プリファレンスを記述できる。 また、 実施の形態 1 0は、 セグメント記述についても XML-Schemaで記述 している。 以下、 実施の形態 1 0にかかるセグメント記述について説明する。 まず、 実施の形態 9にかかるセグメントの定義について、 図 5 3〜図 5 6を用 いて説明する。 図 5 3〜図 5 6は、 実施の形態 1 0にかかるセグメント記述の 定義を示す図である。
実施の形態 1 0にかかるセグメントは、 図 5 3、 図 5 4に示す抽象セグメン トである Segment DSとして定義されている。 そして、 Audio VisualSegment DS、 AudioSegment DS、 VideoSegment DS、 StillRegion DS,MovingRegion DS がそれそれ Segment DS を継承して具体的な記述定義になる。 以下、 Audio VisualSegment DSについて説明するが、 まず Segment DSについて説 明する。
図中 5 3 0 0に示されるように、 Segmentは抽象タイプであると宣言されて いる。
そして、 図中 5 3 0 1で示されるように、 Segmentは、 符号化フォーマツト などのメディァインフォメーションである Medialnformationを要素として持 つと定義されている。 また、 図中 5 3 0 2で示されるように、 Segmentは、 こ のセグメントの実体へのリンク情報である MediaLocatorを要素として持つと 定義されている。 また、 図中 5 3 0 3で示されるように、 Segmentは、 コピー ライ ト情報などの製造者情報である Creationlnformationを要素として持つと 定義されている。 また、 図中 5 3 0 4で示されるように、 Segmentは、 使用方 法や、 使用制限などの使用情報である Usagelnformationを要素として持つと 定義されている。 また、 図中 5 3 0 5で示されるように、 Segmentは、 セグメ ントの注釈などである TextAnnotationを要素として持つと定義されている。 また、 図中 5 3 0 7で示されるように、 Segmentは、 セグメントの観点(キー ヮ一ド)である PointOfViewを要素として持つと定義されている。 また、 図中 5 3 0 8で示されるように、 Segmentは、 サブセグメントを指定するのに使用 する SegmentDecompositionを要素として持つと定義されている。
また、 図中 5 3 1 1で示されるように、 Segmentは、 識別子である idを属 性として持つと定義されている。 また、 図中 5 3 1 2で示されるように、 Segmentは、 U R Lへのリンク情報である href を属性として持つと定義され ている。 また、 図中 5 3 1 3で示されるように、 Segment は、 idへのリンク 情報である idrefを属性として持つと定義されている。
このように、 segmentには、 キ一ワード情報である PointOfView と、 識別 子である idと、 他のセグメン卜の識別子に対する参照情報である idref と、 を 有する。
次に、上述した抽象セグメントを継承した AudioVisualSegmentについて図 5 5を用いて説明する。
図中 5 5 0 1に示すように、 AudioVisualSegmentは上述した抽象 Segment を拡張したものであると記述されている。
そして、 図中 5 5 0 2に示すように AudioVisualSegmentは、 開始時間を示 す MediaTimeを拡張された要素として持つと定義されている。
また、 図中 5 5 0 4に示すように AudioVisualSegmentは、他のセグメント 対する参照情報である idrefを属性として持つと定義されている。
このように、 AudioVisualSegmentは、 実施の形態 9と同様に参照情報であ る idrefを有する。
次に、 PointOfViewの定義について図 5 6を用いて説明する。 図中 5 6 0 0 で示されるように、 PointOfViewのタイプが宣言されている。
そして、図中 5 6 0 1で示されるように、 PointOfViewは Supplementallnfo を要素として持つと定義されている。 また、 図中 5 6 0 2で示されるように、 PointOfViewは Valueを要素として持つと定義されている。
Valueのタイプは、 図中 5603で示される PrimitivelmportanceTypeで ある。 PrimitivelmportanceTypeは、 図中 5604で示すように、 セグメント の idの参照情報である idrefを属性で持つと定義されている。
また、 図中 5 60 6に示すように、 PointOfView はテキス卜で記述された viewPointを属性に持つと記述されている。
このように、 PointOfViewは実施の形態 9と同様に、 idと idref とを持って いる。
次に、 上述した定義に基づいたセグメントの記述例について図 57から図 5 9を用いて説明する。 図 57から図 59は、 実施の形態 10にかかるセグメン トの記述例を示した図である。
図 57から図 59に示す記述例は、 セグメント構造中に、 PointOfViewを記 述した例である。
この例では、 図中 5700で示すように、 idが" FootBallGame" というセ グメントを持つ。 この" FootBallGame" という idを持つセグメントは、 図中 570 1 a、 570 1 bに示すように、 2つのサブセグメントによって構成さ れている。 さらに、 図中 570 1 aで示されるサブセグメントは、 id が" seg 1" というサブセグメント 5702 aと、 id が" seg2" というサブセグメン ト 5702 bと、 idが" seg20" というサブセグメント 5702 cを有する。 そして、 サブセグメント 5702 aは、 図中 5703 aに示すように、 優先 度である Valueが 0. 3である" T e a mA" という viewPointと、 図中 57 03 bに示すように、 優先度である Valueが 0. 7である" T e amB" とい う viewPointとを持つ。 また、 サブセグメント 5702 aは、 図中 5704 a に示すように、 MediaTime情報も有する。
また、 サブセグメント 5702 bは、 図中 5703 cに示すように、 優先度 である Valueが 0. 5である" T e amA" という viewPointを持つ。 また、 サブセグメント 5702 aは、 図中 5704 bに示すように、 MediaTime 情 報も有する。 また、 サブセグメント 5702 cは、 図中 5703 dに示すように、 優先度 である Valueが 0. 8である" Τ θ am Α" という viewPointと、 図中 570 3 eに示すように、 優先度である Valueが 0. 2である" Te amB" という viewPointとを持つ。 また、 サブセグメント 5702 aは、 図中 5704 cに 示すように、 MediaTime情報も有する。
一方、 図中 570 1 bで示されるサブセグメントは、 id が" 2segl" とい うサブセグメント 5702 dと、 id が" 2seg2" というサブセグメント 57 02 eと、 idが" 2seg20" というサブセグメント 5702 f を有する。 サ プセグメント 5702 dは、図中 5703 f に示すように、優先度である Value が 0. 3である" T e amA" という viewPointを持つ。 また、 サブセグメン ト 5702 bは、 図中 5704 dに示すように、 MediaTime情報も有する。 また、 サブセグメント 5702 bは、 図中 5703 gに示すように、 優先度 である Valueが 0. 5である" T e amA" という viewPointを持つ。 また、 サブセグメント 5702 aは、 図中 5704 eに示すように、 MediaTime 情 報も有する。
また、 サブセグメント 5702 fは、 図中 5703 hに示すように、 優先度 である Valueが 0. 8である" T e amA" という viewPointを持つ。 また、 サブセグメント 5702 fは、 図中 5704 f に示すように、 MediaTime 情 報も有する。
このように、 図 5 7から図 5 9に示す記述例では、 セグメント構造中に PointOfViewが記述されている。
次に、セグメント構造と PointOfView構造を分けた記述例について図 60、 図 6 1を用いて説明する。 図 60、 6 1は実施の形態 1ひにかかるセグメント の記述のその他の例を示した図である。
これ例では、 図中 6000で示すように、 idカ , FootBaUGame" というセ グメント構造と、 PointOfView構造 6 00 5、 600 8とを持つ。 この" FootBaUGame" という idを持つセグメント構造は、 図中 600 1に示すよう に、 1つのサブセグメントによって構成されている。 さらに、 図中 600 1で 示されるサブセグメントは、 id が" segl" というサブセグメント 6004 a と、 idが" seg2" というサブセグメント 6004bと、 idが" seg20" とい うサブセグメント 6004 cを有する。
そして、 サブセグメント 6 002 aは、 図中 6 004 aに示すように、 MediaTime情報を有する。 また、 サブセグメント 6002 bは、 図中 600 4 bに示すように、 MediaTime倩報を有する。 サブセグメント 6002 cは、 図中 6004 cに示すように、 MediaTime情報を有する。
サブセグメント 600 1も、 図中 6004 dに示すように、 MediaTime 情 報を有する。
一方、 PointOfView構造 6005は、 " T e am A" という PointOfView を持つ。 そして、 PointOfView構造 6005は、 セグメント参照情報 6006 a〜6◦ 0 cを有する。セグメント参照情報 6006 aは Valueとして 0. 3 を有し、 セグメントへの参照情報 idrefは" seg Γ,である。 セグメント参照倩 報 6006 bは Valueとして 0. 5を有し、 セグメントへの参照情報 idrefは" seg2"である。 セグメント参照情報 6006 cは Valueとして 0. 8を有し、 セグメントへの参照情報 idrefは" seg 20 " である。
また、 PointOfView構造 6008は、 " T e amB" という PointOfView を持つ。 そして、 PointOfView構造 6008は、 セグメント参照情報 6009 a、 600 bを有する。 セグメント参照情報 6009 aは Valueとして 0. Ί を有し、 セグメントへの参照情報 idrefは" seg 1 "である。 セグメント参照情 報 6009 bは Valueとして 0. 2を有し、セグメントへの参照情報 idrefは" seg 20" である。
このように、 実施の形態 10においても、 PointOfView がセグメントの id を参照する情報をもっているので、セグメント構造と PointOfView構造を分け ることができる。
(実施の形態 1 1 )
上述した実施の形態では、 セグメントに対して観点 (キーワード) を付与し、 この観点を用いてセグメントの抽出を行っている。 そして、 このように抽出し た複数のセグメントをグループィ匕し、 ダイジエストを作成している。
実施の形態 1 1は、 このダイジェストに対して観点 (キーワード) を付与し たものである。 これにより、 観点を用いてダイジェストの抽出も行えるように している。
以下、 実施の形態 1 1にかかるダイジエス卜について、 図 6 2〜図 6 5を用 いて説明する。 まず、 ダイジエスト (図中では HierarchicalSummaryと記述) の定義について図 6 2、 6 3を用いて説明する。
図中 6 2 0 0に示すように、 HierarchicalSummary のタイプが宣言されて いる。 そして、 図中 6 2 0 1に示すように、 HierarchicalSummary は、 HierarchicalSummary の 観 点 ( キ ー ワ ー ド ) リ ス ト で あ る SummaryThemeListをエレメントに持つと定義されている。 また、 図中 6 2 0 2に すよつに、 HierarchicalSummary ίま、 HierarchicalSummary力5どの ようなセグメント構成になっているか示す情報である HighlightLevel を要素 として持つと定義されている。
ま た、 図中 6 2 0 3 に示すよ う に HierarchicalSummary は、 summaryComponentList を 属 '性 に 持 つ と 定 義 さ れ て い る 。 SummaryComponentList は 、 図 中 6 2 0 4 に 示 す よ う に 、 Hier arcnicalSumm ary 力 s ど の よ う な 構 成 力 を 示 す summaryComponentListType を継承したものである。 具体的には、 SummaryComponentListType は、 リス ト と してフ レーム構成を示す keyFrameS ビデオクリップ構成を示す keyVideoClips、 オーディオクリップ 構成を示す keyAudioClips、 テーマの構成を示す keyThemes、 や制約条件を 示す unconstrainedを持つ構成になっている。
次に、 HierarchicalSummary の観点 (キーワー ド) リス トである SmnmaryThemeListの定義について図 6 4を用いて説明する。
図中 6 4 0 0に示すように、 SummaryThemeListのタイプが宣言されてい る。
そ して、 図中 6 4 0 1 に示すよ う に、 SummaryThemeList は、 HierarchicalSummaryの観点、である SummaryThemeを要素として持つと定 義されている。 また、 SummaryThemeは、 テキスト情報であり、 言語情報も 持つと定義されている。
また、 図中 6 4 0 2に示すように、 SummaryTheme は、 識別子である id を属性に持つと定義されている。 さらに、 図中 6 4 0 3に示すように、 SummaryTheme は、 上位階層の他の SummaryTheme への参照情報である parentldを持つと定義されている。
このように、 SummaryThemeを階層化した表現ができるようになっている。 次に、 HierarchicalSummary がどのようなセグメント構成になっているか 示す情報である HighlightLevelの定義について図 6 5を用いて説明する。
図中 6 5 0 0に示すように、 HighlightLevelは宣言されている。 そして、 図 中 6 5 0 1に示すように、 HighlightLevelは HierarchicalSummaryにふくま れるセグメン卜情報である HighlightSegmentを要素として持つ。
また、 図中 6 5 0 2に示すように、 HighlightLevelは HighlightLevelを要 素として持つ。 これにより、 HighlightLevelの下位階層に HighlightLevelを 持つことが可能になり、 HighlightLevelを再帰的な構成にできる。
また、 HighlightLevel は、 図中 6 5 0 3〜 6 5 0 6に示すように、 HighlightLevelの名前情報である nameと、 HighlightLevelの優先度情報で ある level と、 HighlightLevel の長さ情報である duration と、 どの SummaryThemeへの参照情報である themeldsとを属性として持つ。
このようにして、 HighlightLevelを、 SummaryThemeに対してリンクさせ ることができる。
次に、 HierarchicalSummaryの定義に基づいて作成された SummaryTheme の具体例について、 図 6 6を用いて説明する。
SummaryThemeList 6 6 0 0には、 SummaryTheme 6 6 0 1 a〜 6 6 0 1 fが含まれる。
SummaryTheme 6 6 0 1 aは、 図中 6 6 0 2 aに示すように英語で示され ている。 そして、 SummaryTheme 6 6 0 1 aは、 図中 6 6 0 3 aに示すよう に" itemO" という idを持つ。 また、 SummaryTheme 660 1 aは、 図中 6 604 aに示すように" baseball" という内容である。
また、 SummaryTheme 660 1 bは、 図中 6602 bに示すように英語で 示されている。 そして、 SummaryTheme 660 1 bは、 図中 6603 bに示 すように" itemOl" という idを持つ。 また、 SummaryTheme 6601 bは、 図中 6 6 04 bに示すように" home run" という内容である。 そして、 SummaryTheme 660 1 bは、 図中 6605 bに示すように、 " itemO" とい う parentIDを持つ。つまり、 SummaryTheme 660 1 bは、 SummaryTheme 660 1 aの下位階層に位置する SummaryThemeである。
) また、 SummaryTheme 660 1 cは、 図中 6602 cに示すように英語で 示されている。 そして、 SummaryTheme 660 1 cは、 図中 6603 cに示 すように" iteml" という idを持つ。 また、 SummaryTheme 660 1 cは、 図中 6 6 04 cに示すように" basketball" という内容である。 そして、 SummaryTheme 660 1 aは、 itemO という parentIDを持つ。
ί また、 SummaryTheme 660 1 dは、 図中 6602 dに示すように英語で 示されている。 そして、 SummaryTheme 660 1 dは、 図中 6603 dに示 すように" itemll" という idを持つ。 また、 SummaryTheme 660 1 dは、 図中 66 04 dに示すように" three-pointer" という内容である。 そして、 SummaryTheme 660 1 dは、 図中 6605 dに示すように、 " iteml" とい
• う parentIDを持つ。つまり、 SummaryTheme 660 1 dは、 SummaryTheme 660 1 cの下位階層に位置する SummaryThemeである。
また、 SummaryTheme 660 1 eは、 図中 6602 eに示すように英語で 示されている。 そして、 SummaryTheme 660 1 eは、 図中 6603 eに示 すように" iteml2" という idを持つ。 また、 SummaryTheme 6601 eは、
' 図中 6 6 04 eに示すように" slamdunk" という内容である。 そして、 SummaryTheme 660 1 eは、 図中 6605 eに示すように、 " iteml" とい う parentIDを持つ。つまり、 SummaryTheme 660 1 eは、 SummaryTheme 660 1 cの下位階層に位置する SummaryThemeである。 また、 SummaryTheme 6 6 0 1 f は、 図中 6 6 0 2 f に示すように英語で 示されている。 そして、 SummaryTheme 6 6 0 1 f は、 図中 6 6 0 3 f に示 すように" item2" という idを持つ。 また、 SummaryTheme 6 6 0 1 f は、 図中 6 6 0 4 f に示すように" soccer" という内容である。
このよ う に、 SummaryTheme 力 parentID を持つこ とで、 他の SummaryTheme に対してリンクすることができる。 また、 SummaryTheme 同士を階層化してリンクさせることができる。
次に、 SummaryThemeListを用レ Vこ HierarchicalSummaryの 述 ί列につ いて図 6 7を用いて説明する。
図中 6 7 0 0で示すように、 " keyThemesSummaryOOl" という名前を持 つ HierarchicalSummary力旦 eれてレ る。
そレ C、 HierarchicalSummary ¾■、 SummaryThemeList D 7 0 1と、 summaryOOl" とレ う名前の HighlightLevel 6 7 0 2 aと、 " summary002" という名前の HighlightLevel 6 7 0 2 bとから構成されている。
SummaryThemeList 6 7 0 1は、 slam dunk とレ つ SummaryTheme 6 7 0 3 aを持つ。 また、 SummaryTheme 6 7 0 3 aは、 " E 0 " という id を持つ。 さらに、 SummaryThemeList 6 7 0 1は、 " 3-point shots" という SummaryTheme 6 7 0 3 bを持つ。 また、 SummaryTheme 6 7 0 3 bは、 " E l" という idを持つ。
一方、 HighlightLevel 6 7 0 2 aは、 図中 6 7 0 4 aで示されるようなセグ メント構成をしている。 そして、 HighlightLevel 6 7 0 2 aは、 図中 6 7 0 5 aに示すように、 " E0" という themelds を持つ。 つまり、 HighlightLevel 6 7 0 2 aは、 " E0" という idを持つ SummaryTheme 6 7 0 3 aにリンク している。 よって、 HighlightLevel 6 7 0 2 aは、 " slam dunk" という SummaryTheme ¾r持つ。
また、 HighlightLevel 6 7 0 2 bは、 図中 6 7 0 4 bで示されるようなセグ メント構成をしている。 そして、 HighlightLevel 6 7 0 2 bは、 図中 6 7 0 5 bに示すように、 " Ε という themelds を持つ。 つまり、 HighliehtLevel 6 7 0 2 bは、 " El" という idを持つ SummaryTheme 6 7 0 3 bにリンク している。 よって、 HighlightLevel 6 7 0 2 bは、 " 3-point shots" という SummaryTheme 持つ。
ι_のよつにし 、 HierarchicalSummaryに SummaryThemeを持たせ し とができる。
また、 このようにして、 HighlightLevel と SummaryTheme とをリンクさ せることができる。 よって、 HighlightLevel と SummaryTheme とを別構成 に分けて記述できる
また、 実施の形態 1から実施の形態 1 1において、 ユーザープリファレンス は、 ユーザーの利用履歴や購買履歴、 イベント履歴、 あらかじめ用意されたテ ンプレートなど何でも良い。
また、 実施の形態 1から実施の形態 1 1において、 ユーザープリファレンス におけるコンテンツ識別子、 時間長、 キーワード、 優先度またはキーワードの 優先関係の記述方法は本実施例に限定しない。
また、 実施の形態 1から実施の形態 1 1において、 端末プリファレンスは具 体的な、 端末の種類や端末の能力値でなく、 端末のカテゴリ (例えば P C用、 携帯端末用等) を代表する I D等でもよい。 また端末プリファレンスは端末に よって一意に決まっても良いし、 ファームウェアゃソフトウエアのバージョン アップによって更新されても良い。
また、 実施の形態 1から実施の形態 1 1において、 データはオーディオ - ビ デォゃドキュメント以外のデータであってもよい。
また、 実施の形態 1から実施の形態 1 1において、 ユーザー適応制御部はュ
—ザ一プリファレンスを更新しなくても良い。 また、 同じコンテンツに対して 異なる複数のユーザー嗜好記述を持つこともできる。
また、 実施の形態 1から実施の形態 1 0において、 セグメント及びサブセグ メントの階層は 1以上いくつあってもよい。
また、 実施の形態 2において、 ユーザープリファレンス、 端末プリファレン ス、 ネットワークプリファレンスは端末側でなく、 サーバー側または全く別の 管理サイトにあっても良い。 また、 ネットワークプリファレンスは、 端末の契 約するサービスによって一意に決まっても良いし、 端末とサーバー間の通信の 状態により一意または動的に決まっても良い。
なお、 上述した本発明の各部の全てもしくは一部の動作をプログラム化にし、 このプログラムをコンピュータ読み取り可能な記憶媒体に格納し、 コンビユー 夕を用いてこのプログラムを実行することにより、 各部の動作を実現するよう にしてもよい。
また、 上述した本発明の各部の機能を発揮する専用のハ一ドウエアを用いて 実現しても構わない。
また、 上述した本発明に含まれる各部の全て又は一部の動作をコンピュータ で実行するためのコンピュータ ·プログラム ·プロダクトという形態を採って も良い。
本明細書は、 1 9 9 9年 1 2月 3日出願の特顧平 1 1— 3 4 4 4 7 6号及び 2 0 0 0年 3月 1 0日出願の特願 2 0 0 0 - 0 6 6 5 3 1号に基づく。 これら の内容はすべてここに含めておく。 産業上の利用可能性
以上のように、 本発明によれば、 第 1に、 ユーザーの嗜好情報をユーザープ リファレンスとしてコンテンツ毎に持たせ、 ユーザ一プリファレンスによって データのセグメントを選択し、 セグメントの優先度と端末能力に基づいて解像 度変換を行うことで、 コンテンツ毎にユーザ一が見たい形態でデータ適応を行 うことができる。
第 2に、 ネットワークを介してコンテンツを配信する際にネットワークの伝 送帯域の情報をネットワークプリファレンスとして取得し、 セグメントの優先 度と伝送帯域に応じてデータ量を調整することで、 ユーザーが受信したい形態 でかつ、 ネットワークの状態に合わせてスケ一ラブルにデータ適応を行うこと ができる。

Claims

請求の範囲
1 . コンテンツと前記コンテンツのメ夕デ一夕を取得するコンテンツデータ取 得部と、 ユーザーの嗜好に関するユーザープリファレンス情報を取得するユー ザ一プリファレンス取得部と、 前記メ夕デ一夕を用いて前記コンテンツを前記 ユーザープリファレンスに適応させるユーザー適応部と、 を具備したことを特 徴とするコンテンツ適合化装置。
2 . 前記ユーザープリファレンス情報は、 前記コンテンツのセグメントから任 意の前記セグメントを選択するためのユーザー観点から構成されることを特 徴とする請求項 1記載のコンテンツ適合化装置。
3 . 前記ユーザー観点には、 前記ユーザ一観点毎にユーザー優先度が付与され ていることを特徴とする請求項 2記載のコンテンツ適合ィ匕装置。
4 . 前記メ夕デ一夕は、 前記セグメント毎に付与された前記セグメントの内容 を示すセグメント観点と、 前記セグメント観点毎に付与されたセグメント優先 度から構成されることを特徴とする請求項 2記載のコンテンツ適合化装置。
5 . 前記ユーザー適応部は、 前記メ夕デ一夕から前記セグメント観点を抽出し、 前記抽出したセグメント観点と前記ユーザープリファレンス情報に含まれる 前記ユーザー観点とを比較し、 合致した前記セグメント観点を有する前記セグ メントを抽出することを特徴とする請求項 4記載のコンテンツ適合化装置。
6 . 前記ユーザー適応部は、 前記メ夕データから前記セグメント観点と前記セ グメント優先度を抽出し、 前記抽出したセグメント観点と前記ユーザープリフ アレンス情報に含まれる前記ユーザ一観点とを比較し、 合致した前記セグメン ト観点を有する複数の前記セグメントを前記セグメント優先度の高い順に抽 出することを特徴とする請求項 4記載のコンテンッ適合化装置。
7 . 前記メタデータは、 前記セグメント毎に付与されたセグメントの内容を示 すセグメント観点と、 前記セグメント観点毎に付与されたセグメント優先度か ら構成されることを特徴とする請求項 3記載のコンテンツ適合化装置。
8 . 前記ユーザー適応部は、 前記メ夕デ一夕から前記セグメント観点を抽出し、 前記抽出したセグメント観点を第 1のユーザー優先度が付与された第 1のュ 一ザ一観点から前記第 1のユーザー優先度より低い前記ユーザー優先度であ る第 2のユーザー優先度が付与された第 2のユーザー観点の順に比較し、 前記 第 1のユーザー観点と合致した前記セグメント観点を有する前記セグメント を抽出した後に、 前記第 2のユーザー観点を有する前記セグメント観点を有す る前記セグメントを抽出することを特徴とする請求項 7記載のコンテンツ適 合化装置。
9 . 前記ユーザープリファレンス情報は、 前記コンテンツの表示時間長情報を 含むことを特徴とする請求項 5記載のコンテンッ適合化装置。
1 0 . 前記ユーザー適応部は、 前記表示時間長情報が示す時間内で表示できる 数の前記セグメントを抽出することを特徴とする請求項 9記載のコンテンツ 適合化装置。
1 1 . 前記ユーザ一プリファレンス情報は、 前記コンテンツの表示空間範囲情 報もしくは表示位置情報を含むことを特徴とする請求項 5記載のコンテンツ 適合化装置。
1 2 . 前記ユーザー適応部は、 前記表示空間範囲情報もしくは前記表示位置情 報が示す位置範囲内で表示できる数の前記セグメントを抽出することを特徴 とする請求項 1 1記載のコンテンツ適合化装置。
1 3 . 前記コンテンツは、 同じ前記セグメント観点を持つ前記セグメントが複 数ある場合、 前記同じセグメント観点を持つ前記セグメントのうちの 1つに前 記同じセグメント観点を付加し、 前記同じセグメント観点を持つその他の前記 セグメントに対して前記同じセグメント観点に対するリンク情報を付加する ことを特徴とする請求項 4記載のデ一夕適合化装置。
1 4 . 前記コンテンツは、 含まれる複数の前記セグメントに付与された複数の 前記セグメント観点をまとめたセグメント観点表を具備したことを特徴とす る請求項 4記載のコンテンツ適合化装置。
1 5 . 前記セグメント観点は、 前記セグメント観点と対象となる前記セグメン 卜とを対応付けるリンク情報を有することを特徴とする請求項 4記載のコン テンッ適合化装置。
1 6 . 前記セグメントは、 前記セグメントと対象となる前記セグメント観点と を対応付けるリンク情報を有することを特徴とする請求項 4記載のコンテン ッ適合化装置。
1 7 . 前記ユーザ一プリファレンス情報に適応させた前記コンテンツに所定の 処理する端末の処理能力である端末情報を取得する端末情報取得部と、 前記適 応させたコンテンツを前記端末情報に応じて解像度変換する解像度変換部と、 を具備したことを特徴とする請求項 1記載のコンテンッ適合化装置。
1 8 . 前記ユーザープリファレンス情報に適応させた前記コンテンツをネット ワークに出力するネットワーク出力部と、 前記ネットワークの伝送帯域を示す ネットワーク情報を取得するネットワーク情報取得部と、 前記ネットワークを 介して送信する前記適応させたコンテンッのデ一夕量を前記ネッ トワーク情 報に応じて調整するネットワーク適応部と、 を具備したことを特徴とする請求 項 1記載のコンテンヅ適合化装置。
1 9 . 前記ユーザープリファレンス情報は、 本装置内予め保持してあることを 特徴とする請求項 1記載のコンテンヅ適合化装置。
2 0 . 前記ユーザープリファレンス情報は、 前記ユーザープリファレンス情報 に適応させた前記コンテンツに所定の処理する端末からネットワークを介し て送られてくることを特徴とする請求項 1記載のコンテンツ適合化装置。
2 1 . 前記ユーザ一プリファレンスは、 前記データのコンテンツ識別子毎に管 理されていることを特徴とする請求項 1記載のデータ適合化装置。
2 2 . 前記ユーザ一プリファレンスは、 MLの DTDによって定義されている ことを特徴とする請求項 1記載のデ一夕適合化装置。
2 3 . 前記ユーザープリファレンスは、 XML Schema によって定義されてい ることを特徴とする請求項 1記載のデータ適合化装置。
2 4 . コンテンツと前記コンテンツのメ夕デ一夕を取得するステップと、 ユー ザ一の嗜好に関するユーザープリファレンス情報を取得するステップと、 前記 メ夕デ一夕を用いて前記コンテンツを前記ユーザープリファレンスに適応さ せるュ一ザ一適応ステップと、 を具備したことを特徴とするコンテンツ適合化 方法。
2 5 . 前記ユーザ一プリファレンス情報は前記コンテンツのセグメントから任 意の前記セグメントを選択するためのユーザ一観点から構成され、 前記メ夕デ —夕は前記セグメント毎に付与されたセグメントの内容を示すセグメント観 点と前記セグメント観点毎に付与されたセグメント優先度から構成され、 前記 ユーザー適応ステップは、 前記メ夕デ一夕から前記セグメント観点を抽出し、 前記抽出したセグメント観点と前記ユーザープリファレンス情報に含まれる 前記ユーザー観点とを比較し、 合致した前記セグメント観点を有する前記セグ メントを抽出することを特徴とする請求項 2 4記載のコンテンツ適合ィ匕方法。
2 6 . コンテンツを保持するサーバーからネットワークを介して端末装置に前 記コンテンツのメ夕デ一夕を送るステップと、 前記メ夕デ一夕のセグメント毎 に付与された前記セグメントの内容を示すセグメント観点と、 前記端末装置に 予め保持されたユーザ一の嗜好に関するユーザープリファレンス情報に含ま れる、 前記コンテンツのセグメントから任意の前記セグメントを選択するため のユーザー観点とを比較するステップと、 前記比較した結果を前記サーバーに 送るステップと、 前記サーバーが前記比較した結果から前記コンテンツのセグ メントを選択し、 選択したセグメントを前記端末装置へ送信するステップ、 と を具備するデータ適合化方法。
2 7 . コンピュータに、 コンテンツと前記コンテンツのメタデータを取得させ るステップと、 ユーザーの嗜好に関するユーザープリファレンス情報を取得さ せるステップと、 前記メタデータを用いて前記コンテンツを前記ユーザ一プリ ファレンスに適応させるユーザー適応ステツプと、 を具備したプログラムを格 納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
2 8 . 前記ユーザープリファレンス情報は前記コンテンツのセグメントから任 意の前記セグメントを選択するためのユーザー観点から構成され、 前記メ夕デ 一夕は前記セグメント毎に付与されたセグメン卜の内容を示すセグメント観 点と前記セグメント観点毎に付与されたセグメント優先度から構成され、 前記 ユーザー適応ステップは、 コンビユー夕に、 前記メ夕デ一夕から前記セグメン ト観点を抽出させ、 前記抽出したセグメント観点と前記ユーザ一プリファレン ス情報に含まれる前記ユーザー観点とを比較させ、 合致した前記セグメント観 点を有する前記セグメントを抽出させることを特徴とする請求項 2 7記載の コンビユー夕読み取り可能な記憶媒体。
2 9 . コンピュータに、 コンテンツと前記コンテンツのメタデ一夕を取得させ るステップと、 ユーザ一の嗜好に関するユーザ一プリファレンス情報を取得さ せるステップと、 前記メ夕デ一夕を用いて前記コンテンツを前記ュ一ザ一プリ ファレンスに適応させるユーザ一適応ステツプと、 を具備したプログラム。
3 0 . 前記ユーザ一プリファレンス情報は前記コンテンヅのセグメントから任 意の前記セグメントを選択するためのユーザー観点から構成され、 前記メ夕デ 一夕は前記セグメント毎に付与されたセグメントの内容を示すセグメント観 点と前記セグメント観点毎に付与されたセグメント優先度から構成され、 前記 ユーザー適応ステップは、 コンピュータに、 前記メ夕デ一夕から前記セグメン ト観点を抽出させ、 前記抽出したセグメント観点と前記ユーザ一プリファレン ス情報に含まれる前記ユーザー観点とを比較させ、 合致した前記セグメント観 点を有する前記セグメントを抽出させることを特徴とする請求項 2 9記載の プログラム。
PCT/JP2000/008408 1999-12-03 2000-11-29 Dispositif d'adaptation de donnees, procede d'adaptation de donnees, support de stockage et programme WO2001040953A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP00979008A EP1246070A4 (en) 1999-12-03 2000-11-29 DATA ADAPTATION DEVICE, DATA ADAPTATION METHOD, STORAGE MEDIUM, AND PROGRAM
JP2001541947A JP4741133B2 (ja) 1999-12-03 2000-11-29 データ適合化装置、データ適合化方法
AU16485/01A AU1648501A (en) 1999-12-03 2000-11-29 Data adapting device, data adapting method, storage medium, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP34447699 1999-12-03
JP11/344476 1999-12-03
JP2000066531 2000-03-10
JP2000-66531 2000-03-10

Publications (1)

Publication Number Publication Date
WO2001040953A1 true WO2001040953A1 (fr) 2001-06-07

Family

ID=26577778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/008408 WO2001040953A1 (fr) 1999-12-03 2000-11-29 Dispositif d'adaptation de donnees, procede d'adaptation de donnees, support de stockage et programme

Country Status (7)

Country Link
US (1) US8266653B2 (ja)
EP (2) EP1950673A3 (ja)
JP (2) JP4741133B2 (ja)
KR (1) KR100441704B1 (ja)
CN (1) CN100437528C (ja)
AU (1) AU1648501A (ja)
WO (1) WO2001040953A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234158A (ja) * 2003-01-29 2004-08-19 Sony Corp 情報処理装置、およびコンテンツ管理方法、コンテンツ情報管理方法、並びにコンピュータ・プログラム
JP2005530266A (ja) * 2002-06-20 2005-10-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Xml文書の構造化ストリーミング方法及び装置

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7134074B2 (en) 1998-12-25 2006-11-07 Matsushita Electric Industrial Co., Ltd. Data processing method and storage medium, and program for causing computer to execute the data processing method
JP2001333353A (ja) * 2000-03-16 2001-11-30 Matsushita Electric Ind Co Ltd データ処理方法および記録媒体、並びに該データ処理方法をコンピュータに実行させるためのプログラム
JP3966503B2 (ja) * 2002-05-30 2007-08-29 インターナショナル・ビジネス・マシーンズ・コーポレーション コンテンツ再生制御装置、データ管理装置、蓄積型コンテンツ配信システム、コンテンツの配信方法、制御データ送信サーバ、プログラム
US8230465B2 (en) * 2002-09-09 2012-07-24 Koninklijke Philips Electronics N.V. Data network, user terminal and method for providing recommendations
US7103591B2 (en) * 2002-12-02 2006-09-05 International Business Machines Corporation Method of describing business and technology information for utilization
KR100745995B1 (ko) * 2003-06-04 2007-08-06 삼성전자주식회사 메타 데이터 관리 장치 및 방법
DE10339498B4 (de) * 2003-07-21 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiodateiformatumwandlung
JP4405510B2 (ja) * 2003-07-21 2010-01-27 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオファイルフォーマット変換
JP2005071227A (ja) * 2003-08-27 2005-03-17 Sony Corp メタデータ流通管理システム,メタデータ流通管理装置,個人別メタデータ管理装置,クライアント端末,メタデータ流通管理方法およびコンピュータプログラム
WO2005094080A1 (ja) * 2004-03-29 2005-10-06 Matsushita Electric Industrial Co., Ltd. 蓄積表示装置及び連動表示方法並びにシステム
KR100664306B1 (ko) * 2004-10-29 2007-01-04 삼성전자주식회사 데이터 유효성 검증을 위한 예방 통제 데이터 생성 및검증 장치 및 방법
KR100673653B1 (ko) * 2005-08-22 2007-01-24 주식회사 텔레칩스 메타 데이터 검색 방법
US8819659B2 (en) 2005-09-14 2014-08-26 Millennial Media, Inc. Mobile search service instant activation
US10038756B2 (en) 2005-09-14 2018-07-31 Millenial Media LLC Managing sponsored content based on device characteristics
US7702318B2 (en) 2005-09-14 2010-04-20 Jumptap, Inc. Presentation of sponsored content based on mobile transaction event
US10911894B2 (en) 2005-09-14 2021-02-02 Verizon Media Inc. Use of dynamic content generation parameters based on previous performance of those parameters
US9201979B2 (en) 2005-09-14 2015-12-01 Millennial Media, Inc. Syndication of a behavioral profile associated with an availability condition using a monetization platform
US8311888B2 (en) 2005-09-14 2012-11-13 Jumptap, Inc. Revenue models associated with syndication of a behavioral profile using a monetization platform
US8195133B2 (en) 2005-09-14 2012-06-05 Jumptap, Inc. Mobile dynamic advertisement creation and placement
US9058406B2 (en) 2005-09-14 2015-06-16 Millennial Media, Inc. Management of multiple advertising inventories using a monetization platform
US7676394B2 (en) 2005-09-14 2010-03-09 Jumptap, Inc. Dynamic bidding and expected value
US9703892B2 (en) 2005-09-14 2017-07-11 Millennial Media Llc Predictive text completion for a mobile communication facility
US8302030B2 (en) 2005-09-14 2012-10-30 Jumptap, Inc. Management of multiple advertising inventories using a monetization platform
US20070061242A1 (en) * 2005-09-14 2007-03-15 Jorey Ramer Implicit searching for mobile content
US7752209B2 (en) 2005-09-14 2010-07-06 Jumptap, Inc. Presenting sponsored content on a mobile communication facility
US8229914B2 (en) 2005-09-14 2012-07-24 Jumptap, Inc. Mobile content spidering and compatibility determination
US20110313853A1 (en) 2005-09-14 2011-12-22 Jorey Ramer System for targeting advertising content to a plurality of mobile communication facilities
US7912458B2 (en) * 2005-09-14 2011-03-22 Jumptap, Inc. Interaction analysis and prioritization of mobile content
US8989718B2 (en) 2005-09-14 2015-03-24 Millennial Media, Inc. Idle screen advertising
US7660581B2 (en) 2005-09-14 2010-02-09 Jumptap, Inc. Managing sponsored content based on usage history
US8209344B2 (en) 2005-09-14 2012-06-26 Jumptap, Inc. Embedding sponsored content in mobile applications
US8131271B2 (en) 2005-11-05 2012-03-06 Jumptap, Inc. Categorization of a mobile user profile based on browse behavior
US8103545B2 (en) 2005-09-14 2012-01-24 Jumptap, Inc. Managing payment for sponsored content presented to mobile communication facilities
US20110153428A1 (en) * 2005-09-14 2011-06-23 Jorey Ramer Targeted advertising to specified mobile communication facilities
US20110145076A1 (en) * 2005-09-14 2011-06-16 Jorey Ramer Mobile Campaign Creation
US7577665B2 (en) * 2005-09-14 2009-08-18 Jumptap, Inc. User characteristic influenced search results
US8805339B2 (en) 2005-09-14 2014-08-12 Millennial Media, Inc. Categorization of a mobile user profile based on browse and viewing behavior
US8812526B2 (en) 2005-09-14 2014-08-19 Millennial Media, Inc. Mobile content cross-inventory yield optimization
US7769764B2 (en) 2005-09-14 2010-08-03 Jumptap, Inc. Mobile advertisement syndication
US8615719B2 (en) 2005-09-14 2013-12-24 Jumptap, Inc. Managing sponsored content for delivery to mobile communication facilities
US8156128B2 (en) 2005-09-14 2012-04-10 Jumptap, Inc. Contextual mobile content placement on a mobile communication facility
US10592930B2 (en) 2005-09-14 2020-03-17 Millenial Media, LLC Syndication of a behavioral profile using a monetization platform
US8666376B2 (en) 2005-09-14 2014-03-04 Millennial Media Location based mobile shopping affinity program
US8238888B2 (en) 2006-09-13 2012-08-07 Jumptap, Inc. Methods and systems for mobile coupon placement
US8688671B2 (en) 2005-09-14 2014-04-01 Millennial Media Managing sponsored content based on geographic region
US8364521B2 (en) 2005-09-14 2013-01-29 Jumptap, Inc. Rendering targeted advertisement on mobile communication facilities
US8660891B2 (en) 2005-11-01 2014-02-25 Millennial Media Interactive mobile advertisement banners
US8832100B2 (en) 2005-09-14 2014-09-09 Millennial Media, Inc. User transaction history influenced search results
US9076175B2 (en) 2005-09-14 2015-07-07 Millennial Media, Inc. Mobile comparison shopping
US8503995B2 (en) 2005-09-14 2013-08-06 Jumptap, Inc. Mobile dynamic advertisement creation and placement
US9471925B2 (en) 2005-09-14 2016-10-18 Millennial Media Llc Increasing mobile interactivity
US8364540B2 (en) 2005-09-14 2013-01-29 Jumptap, Inc. Contextual targeting of content using a monetization platform
US8509750B2 (en) 2005-11-05 2013-08-13 Jumptap, Inc. System for targeting advertising content to a plurality of mobile communication facilities
US8175585B2 (en) 2005-11-05 2012-05-08 Jumptap, Inc. System for targeting advertising content to a plurality of mobile communication facilities
KR101366805B1 (ko) * 2006-05-30 2014-02-21 삼성전자주식회사 사용자 관심 사항에 기초한 이동 통신 장치의애플리케이션의 런칭 패드 장치 및 구동 방법
WO2008072753A2 (en) * 2006-12-12 2008-06-19 Panasonic Corporation Content information outputting apparatus, content information receiving apparatus, content information outputting method, content information receiving method
KR100964013B1 (ko) * 2007-11-09 2010-06-15 광주과학기술원 사용자 선호도 기반의 데이터 변환 서비스 시스템 및 그방법
CN102783167B (zh) 2010-03-05 2015-10-14 三星电子株式会社 基于文件格式生成和再现自适应流的方法和装置
WO2012033339A2 (en) * 2010-09-07 2012-03-15 Samsung Electronics Co., Ltd. Manifest mechanism in broadcast involved system
US8782519B1 (en) * 2011-10-27 2014-07-15 Symantec Corporation Systems and methods for archiving and displaying lengthy documents based on content priority levels
US20130127920A1 (en) * 2011-11-22 2013-05-23 Sap Portals Israel Ltd. Focusing on Contextually-Relevant Content
US9172999B2 (en) * 2012-08-08 2015-10-27 Verizon Patent And Licensing Inc. Behavioral keyword identification based on thematic channel viewing
US8774596B2 (en) * 2012-12-10 2014-07-08 Futurewei Technologies, Inc. Context driven video prioritization and bookmarking
WO2015083541A1 (ja) * 2013-12-03 2015-06-11 ソニー株式会社 受信装置
US9501808B2 (en) 2014-01-06 2016-11-22 Microsoft Technology Licensing, Llc Division of processing between systems based on business constraints
US9608876B2 (en) 2014-01-06 2017-03-28 Microsoft Technology Licensing, Llc Dynamically adjusting brand and platform interface elements
US9483811B2 (en) 2014-01-06 2016-11-01 Microsoft Technology Licensing, Llc Division of processing between systems based on external factors

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152668A (ja) * 1993-11-26 1995-06-16 Canon Inc 情報処理装置及び通信方法
JPH0946689A (ja) * 1995-07-28 1997-02-14 Hitachi Ltd 映像ソフト紹介システムおよび映像ソフト紹介方法
WO1998015091A1 (en) * 1996-09-30 1998-04-09 Casio Computer Co., Ltd. Information transfer system
JPH1196237A (ja) * 1997-09-22 1999-04-09 Digital Vision Laboratories:Kk ネットワークシステム、データ配信方法、および、配信用データが記録されたコンピュータ読み取り可能な記録媒体
JPH11126205A (ja) * 1997-10-22 1999-05-11 Fujitsu Ltd マルチメディアデータ・プレゼンテーションシステムおよびそれを実現するプログラムを記憶する記憶媒体
JPH11205706A (ja) * 1998-01-07 1999-07-30 Matsushita Electric Ind Co Ltd 番組情報編成装置
JPH11242687A (ja) * 1998-02-26 1999-09-07 Dainippon Screen Mfg Co Ltd 実時間連続データ管理システム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JPH11288424A (ja) * 1998-02-03 1999-10-19 Jisedai Joho Hoso System Kenkyusho:Kk 映像インデックス情報を記録した記録媒体、映像インデックス情報を用いた映像情報管理方法、音声インデックス情報を記録した記録媒体および音声インデックス情報を用いた音声情報管理方法
JPH11288403A (ja) * 1998-04-03 1999-10-19 Toshiba Corp 分散ネットワークコンピューティングシステム、同システムに用いられる情報交換装置、情報交換方法、及び記憶媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
JPH09128405A (ja) 1995-10-31 1997-05-16 Toshiba Corp 文書検索方法及び文書検索装置
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7055166B1 (en) * 1996-10-03 2006-05-30 Gotuit Media Corp. Apparatus and methods for broadcast monitoring
JP3814903B2 (ja) * 1996-12-25 2006-08-30 株式会社日立製作所 映像・データ表示方法及び装置
JPH11134364A (ja) 1997-10-31 1999-05-21 Omron Corp 体系化知識解析方法及び装置並びに分類方法及び装置
US6356902B1 (en) * 1998-07-28 2002-03-12 Matsushita Electric Industrial Co., Ltd. Method and system for storage and retrieval of multimedia objects
JP2000066531A (ja) 1998-08-25 2000-03-03 Fuji Xerox Co Ltd 画像形成装置
US6487566B1 (en) * 1998-10-05 2002-11-26 International Business Machines Corporation Transforming documents using pattern matching and a replacement language
JP3551045B2 (ja) * 1998-11-02 2004-08-04 松下電器産業株式会社 データ送受信装置および方法
JP2001333353A (ja) 2000-03-16 2001-11-30 Matsushita Electric Ind Co Ltd データ処理方法および記録媒体、並びに該データ処理方法をコンピュータに実行させるためのプログラム
US6470378B1 (en) * 1999-03-31 2002-10-22 Intel Corporation Dynamic content customization in a clientserver environment
KR100319157B1 (ko) * 1999-09-22 2002-01-05 구자홍 사용자 프로파일의 복합항목 사용자 선호도 정보 자료구조와 복합항목 사용자 선호도 정보 자료구조를 이용한 멀티미디어 콘텐트 필터링 및 검색 방법
US7882520B2 (en) * 2000-12-20 2011-02-01 Tivo Inc. Broadcast program recording overrun and underrun scheduling system
JP3810268B2 (ja) * 2000-04-07 2006-08-16 シャープ株式会社 オーディオビジュアルシステム
US7334249B1 (en) * 2000-04-26 2008-02-19 Lucent Technologies Inc. Method and apparatus for dynamically altering digital video images
US8302127B2 (en) * 2000-09-25 2012-10-30 Thomson Licensing System and method for personalized TV

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152668A (ja) * 1993-11-26 1995-06-16 Canon Inc 情報処理装置及び通信方法
JPH0946689A (ja) * 1995-07-28 1997-02-14 Hitachi Ltd 映像ソフト紹介システムおよび映像ソフト紹介方法
WO1998015091A1 (en) * 1996-09-30 1998-04-09 Casio Computer Co., Ltd. Information transfer system
JPH1196237A (ja) * 1997-09-22 1999-04-09 Digital Vision Laboratories:Kk ネットワークシステム、データ配信方法、および、配信用データが記録されたコンピュータ読み取り可能な記録媒体
JPH11126205A (ja) * 1997-10-22 1999-05-11 Fujitsu Ltd マルチメディアデータ・プレゼンテーションシステムおよびそれを実現するプログラムを記憶する記憶媒体
JPH11205706A (ja) * 1998-01-07 1999-07-30 Matsushita Electric Ind Co Ltd 番組情報編成装置
JPH11288424A (ja) * 1998-02-03 1999-10-19 Jisedai Joho Hoso System Kenkyusho:Kk 映像インデックス情報を記録した記録媒体、映像インデックス情報を用いた映像情報管理方法、音声インデックス情報を記録した記録媒体および音声インデックス情報を用いた音声情報管理方法
JPH11242687A (ja) * 1998-02-26 1999-09-07 Dainippon Screen Mfg Co Ltd 実時間連続データ管理システム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JPH11288403A (ja) * 1998-04-03 1999-10-19 Toshiba Corp 分散ネットワークコンピューティングシステム、同システムに用いられる情報交換装置、情報交換方法、及び記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1246070A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005530266A (ja) * 2002-06-20 2005-10-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Xml文書の構造化ストリーミング方法及び装置
JP2004234158A (ja) * 2003-01-29 2004-08-19 Sony Corp 情報処理装置、およびコンテンツ管理方法、コンテンツ情報管理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
KR20020060983A (ko) 2002-07-19
JP2011181075A (ja) 2011-09-15
JP4879358B2 (ja) 2012-02-22
US20020184622A1 (en) 2002-12-05
CN1433546A (zh) 2003-07-30
CN100437528C (zh) 2008-11-26
AU1648501A (en) 2001-06-12
EP1246070A1 (en) 2002-10-02
EP1950673A3 (en) 2010-01-20
EP1950673A2 (en) 2008-07-30
JP4741133B2 (ja) 2011-08-03
KR100441704B1 (ko) 2004-07-27
EP1246070A4 (en) 2004-08-18
US8266653B2 (en) 2012-09-11

Similar Documents

Publication Publication Date Title
WO2001040953A1 (fr) Dispositif d&#39;adaptation de donnees, procede d&#39;adaptation de donnees, support de stockage et programme
US9615138B2 (en) Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications
US11863806B2 (en) Systems and methods for correcting errors in caption text
US8381249B2 (en) Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications
JP4650552B2 (ja) 電子機器、コンテンツ推薦方法及びプログラム
KR101895062B1 (ko) 인터랙티브 미디어 안내 어플리케이션들에서 미디어를 획득, 카테고리화 및 전달하기 위한 시스템 및 방법
US8321401B2 (en) User interface with available multimedia content from multiple multimedia websites
CN109074391A (zh) 基于其他媒体资产的内容向用户推荐媒体资产的方法和系统
US20100063878A1 (en) Retrieving metadata
US8875186B2 (en) Apparatus and method of providing a recommended broadcast program
EP3676720A1 (en) System and method for content discovery
CN109997141A (zh) 用于使用双因素认证来控制对媒体资产访问的系统和方法
US20110078174A1 (en) Systems and methods for scheduling recordings using cross-platform data sources
JP2008125022A (ja) ユーザ端末、配信サーバ、その制御プログラムおよび該制御プログラムを記録したコンピュータ読取り可能な記録媒体、コンテンツ案内システムならびに制御方法
EP3480767A1 (en) Systems and methods for improving accuracy in media asset recommendation models
US20220365924A1 (en) Systems and methods for replacing a stored version of media with a version better suited for a user
JP4468789B2 (ja) Bmlコンテンツ提供システム
KR100656516B1 (ko) 셋탑박스를 이용한 멀티미디어 검색 장치 및 그 방법
AU2018241142B2 (en) Systems and Methods for Acquiring, Categorizing and Delivering Media in Interactive Media Guidance Applications
Bywater et al. Scalable and Personalised broadcast service
CN101431652A (zh) 内容自适应装置和内容自适应方法
AU2013203417B9 (en) Systems and Methods for Acquiring, Categorizing and Delivering Media in Interactive Media Guidance Applications
JP2008532409A (ja) Itvアプリケーションにおけるコンテンツに関連するナビゲーションアイコンを提示するためのシステム及び方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000979008

Country of ref document: EP

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2001 541947

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 10130299

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020027007103

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020027007103

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 008188041

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2000979008

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWG Wipo information: grant in national office

Ref document number: 1020027007103

Country of ref document: KR