WO2006123744A1 - コンテンツ表示システム及びコンテンツ表示方法 - Google Patents

コンテンツ表示システム及びコンテンツ表示方法 Download PDF

Info

Publication number
WO2006123744A1
WO2006123744A1 PCT/JP2006/309948 JP2006309948W WO2006123744A1 WO 2006123744 A1 WO2006123744 A1 WO 2006123744A1 JP 2006309948 W JP2006309948 W JP 2006309948W WO 2006123744 A1 WO2006123744 A1 WO 2006123744A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
content
data
display mode
display
Prior art date
Application number
PCT/JP2006/309948
Other languages
English (en)
French (fr)
Inventor
Eiji Kasutani
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US11/920,159 priority Critical patent/US20090025030A1/en
Priority to EP06756353.6A priority patent/EP1883241B1/en
Priority to JP2007516339A priority patent/JPWO2006123744A1/ja
Publication of WO2006123744A1 publication Critical patent/WO2006123744A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25833Management of client data involving client hardware characteristics, e.g. manufacturer, processing or storage capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet

Definitions

  • the present invention relates to a content display system and a content display method for displaying content including video data and accompanying data accompanying the video data on an arbitrary display screen.
  • the present invention also relates to a content authentication system and a content distribution server that provide such content authentication services.
  • video broadcasting services such as data broadcasting and the Internet
  • services are provided that allow users to view data accompanying the video at the same time as watching the video.
  • An example of data accompanying the video is character information.
  • the service provides a form that displays the detailed contents of the youth article and the headline of the youth as text, or the product guide program is viewed by the user.
  • a service is provided in which the price of the product is displayed as text when the product is in use.
  • video is also being viewed by mobile phones, PDAs (Personal Digital Assistants), and notebook personal computers.
  • the environment for viewing images on the device side has been enhanced. For this reason, it has become an important issue to prepare an environment for viewing video so that the video and the data attached to the video can be viewed on various devices with various display screen sizes.
  • Japanese Patent Publication No. 2001-296852 discloses a video display method in which a text information display area is provided adjacent to a video display area and text information is scrolled and displayed in synchronization with the video display. Yes.
  • JP Patent Publication No. 2003-18553 discloses the content of data broadcasting, because the entire contents including data broadcasting images and text are displayed.
  • a data broadcast receiving apparatus is disclosed that displays such text together with video of a normal broadcast program. According to the data broadcast receiving apparatus disclosed in Japanese Patent Laid-Open No.
  • the viewer recognizes the outline of the contents of the data broadcast even if only a part of the contents of the data broadcast is reproduced and displayed. can do.
  • the video display method described in Japanese Patent Laid-Open No. 2001-296852 can be used when the screen resolution is substantially constant. Can be fixedly displayed on the display screen.
  • These techniques can be used, for example, to display video and accompanying data fixedly on a display screen for a television receiver having a substantially constant screen resolution.
  • a new layout is created for each display screen.
  • Japanese Patent Laid-Open No. 2003-32747 discloses that synthesized image data to be displayed is generated by synthesizing both video data and text data.
  • a terminal device for displaying on a display screen is disclosed. According to the terminal device described in Japanese Patent Laid-Open No. 2003-32747, it is possible to more clearly recognize the contents of accompanying screen data such as text in a terminal such as a mobile phone that has a limited display area per screen. It becomes possible. However, this terminal device always superimposes the accompanying data on the video regardless of the size of the display screen. Therefore, the terminal device superimposes the accompanying data in accordance with the size of the display screen, for example, the size of characters or the like.
  • JP-A-6-149968 discloses an image in a document and its image.
  • a document processing apparatus that automatically determines a layout with external data according to the size of a document area is disclosed.
  • JP Patent Publication No. 2003-67100 discloses that a layout for displaying information including a title, text, and an image is dynamically generated according to the display screen, and the generated layout information is included in the generated layout information.
  • a digital content display method for displaying information based on the above is disclosed.
  • the document processing apparatus described in Japanese Patent Laid-Open No. 6-149968 has a time axis, that is, an image whose image changes with time.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-296852
  • Patent Document 2 Japanese Patent Laid-Open No. 2003-18553
  • Patent Document 3 Japanese Patent Laid-Open No. 2003-32747
  • Patent Document 4 JP-A-6-149968
  • Patent Document 5 Japanese Unexamined Patent Publication No. 2003-67100
  • Non-Patent Literature 1 Ullas Gargi, Rangachar Kastun, 3 ⁇ 4usan H. 3 ⁇ 4trayer, Performance Characterization of Video- Shot- Change Detection M ethods ", IEEE Transaction on Circuits and Systems for Video Technology, Vol. 10, No. 1, February 2000
  • Non-Patent Document 2 A. Mohan, C. Papageorgiou, T. Poggio, "Example- Based Object Detection in Images by Components, IEEE Trans, on PAMI, Vol. 23, No. 4, pp. 349- 361, 2001
  • the object of the present invention is to provide content creators' power according to the configuration of the display screen and content without designing the screen configuration for each display screen for individual information such as video data and accompanying data.
  • the object is to provide a content display system capable of displaying video and accompanying data in a layout.
  • Another object of the present invention is to provide a display screen and content configuration without the content creator designing a screen configuration for each display screen for individual information such as video data and accompanying data. It is an object of the present invention to provide a content display method capable of displaying video and accompanying data with a layout according to the above.
  • a content display system that displays content including video data composed of a plurality of video sections and accompanying data accompanying the video data is displayed on the content to be displayed. It has content display mode determining means for determining the display mode when displaying the included video data and accompanying data on the display screen for each video section.
  • a content display system for displaying content including video data composed of a plurality of video sections and accompanying data accompanying the video data. Based on the display screen information indicating the size, the video metadata including the attribute information of the video corresponding to each video section, and the accompanying metadata including the attribute information of each accompanying data corresponding to the video section.
  • Content display mode determining means for determining for each video section the display mode when displaying the video and the accompanying data on the display screen, video converting means for converting the video according to the display mode determined by the content display mode determining unit,
  • the accompanying data conversion unit for converting the accompanying data and the content display mode determination unit for each video section are determined.
  • the display mode and converts the video and associated data conversion means to which a video converting means is converted
  • Content placement means for generating content in which the accompanying data is placed.
  • a content self-communication system for self-confidencing content including video data consisting of a plurality of video sections and accompanying data accompanying the video data is used.
  • the user terminal has content request means for transmitting a content distribution request to a content distribution server via a communication network.
  • the content distribution server determines the display mode for displaying the video data and accompanying data included in the requested content for each video section.
  • content display mode determining means Generated by the content display mode determining means, content placement means for generating the content in which the video data and the accompanying data are arranged in accordance with the display mode determined by the content display mode determination means for each video section, and the content placement means Content distribution means for transmitting the obtained content to the user terminal via the communication network.
  • a content distribution server that distributes content including video data composed of a plurality of video sections and accompanying data accompanying the video data is the content requested to be distributed.
  • Content display mode determining means for determining, for each video section, a display mode when displaying the video data and accompanying data included in the display screen.
  • a content distribution server that distributes content including video data composed of a plurality of video sections and accompanying data accompanying the video data is included in the video data.
  • Content display mode determining means for determining, for each video section, a display mode for displaying the video and the accompanying data on the display screen based on the requirements regarding the display mode of each video and the associated data corresponding to the video.
  • a video conversion means for converting video according to the display mode determined by the content display mode determination means, an accompanying data conversion unit for converting the accompanying data according to the display mode determined by the content display mode determination means, and a video section
  • the video converted by the video conversion unit and the incidental data conversion unit A content arrangement means for generating a content in which a chromatography data is arranged, the content locating means Content distribution means for distributing the generated content to a user terminal.
  • a content display method for displaying content including video data consisting of a plurality of video sections and accompanying data accompanying the video data is a content to be displayed. Determining a display mode for each video section when displaying the video data and accompanying data included in the display screen.
  • a content display method for displaying content including video data consisting of a plurality of video sections and accompanying data accompanying the video data is provided.
  • the display mode when displaying video data and associated data for each video section on the display screen is determined using the content display mode determination step for each video section and the mode determined by the content display mode determination step V, A content display step for displaying video data and associated data corresponding to the video data.
  • the display mode of the content is adaptively determined in accordance with the content of the video and the corresponding associated data. Therefore, according to the determined display mode, content is displayed while dynamically changing the video display unit for displaying video on the display screen and the accompanying data display unit for displaying accompanying data for each video section. be able to. That is, according to the present invention, the display mode of content can be automatically determined for each video section, and video and associated data can be displayed in a layout according to the configuration of the display screen and content. Therefore, even if the content creator does not design a screen configuration for each display screen for each piece of information (that is, video and associated data), the video and the accompanying data are displayed in a layout according to the configuration of the display screen and the content. It can be displayed.
  • the display mode of content is adaptively determined and displayed for each video section according to the content of the video and the accompanying data, the video is more effectively displayed to the user.
  • a content display system that presents data and accompanying data can be realized.
  • a content display system that effectively presents video data and accompanying data to any display screen can be realized if it is configured to adaptively determine the content display mode based on the last display screen. can do.
  • the content display mode is adaptively determined based on the importance balance that is a requirement on the side of viewing the video data and the accompanying data, the user's preference Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data.
  • FIG. 1 is a block diagram showing a configuration of a content display system according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of video data, accompanying data, and metadata stored in a content database.
  • FIG. 3 is a flowchart showing an example of a process in which a content distribution server distributes content in response to a request from a user terminal.
  • FIG. 4A is a diagram showing an example of a layout of a display screen on which a user terminal displays video and accompanying data.
  • FIG. 4B is a diagram showing another example of the layout of the display screen on which the user terminal displays video and associated data.
  • FIG. 5 is a flowchart showing an example of display mode determination processing in which a content display mode determination unit determines the display mode of content.
  • FIG. 6 is a block diagram showing a configuration of a content display system according to a second embodiment of the present invention.
  • FIG. 7 is a flowchart showing an example of processing in which the content display mode determination unit determines the content display mode in the system shown in FIG. 6.
  • FIG. 8 is a block diagram showing a configuration of a content display system according to a third embodiment of the present invention.
  • FIG. 9 is a flowchart showing an example of processing in which the content display mode determination unit determines the content display mode in the system shown in FIG. 8.
  • FIG. 10 is a block diagram showing a configuration of a content display system according to a fourth embodiment of the present invention.
  • FIG. 11 is a flowchart showing an example of processing in which the content display mode determination unit determines the content display mode in the system shown in FIG.
  • FIG. 12 is a block diagram showing a configuration of a content display system according to a fifth embodiment of the present invention.
  • FIG. 13 is a block diagram showing a configuration of a content display system according to a sixth embodiment of the present invention.
  • ⁇ 14 This is a flowchart showing an example of processing in which a content distribution server distributes content in response to a request with user terminal capabilities.
  • Television receiver power is also a diagram showing a display screen that is displayed according to the determined display mode when a distribution of a use program is requested.
  • Cellular phone power-FIG. 16 is a diagram showing a display screen displayed according to the determined display mode when a distribution of a use program is requested.
  • FIG. 1 shows the configuration of the content display system of the first embodiment.
  • This content display system includes a user terminal 1, a content distribution server 2, a content database 3, and a divided pattern storage unit 34.
  • the user terminal 1 and the content distribution server 2 are connected via a communication network 40 such as the Internet.
  • the content display system displays content including video data and predetermined associated data accompanying the video data. At this time, the content display system displays the video and the accompanying data at the same time by arranging them on the display screen in a layout according to the content configuration.
  • the content distribution server 2 distributes the content to the user terminal 1, and the user terminal 1 displays the received content.
  • a content display system has been realized.
  • the user terminal 1 is a terminal used by the user, and more specifically, a personal computer is an information processing terminal such as a mobile phone or a PDA.
  • the user terminal 1 is not limited to the information processing terminal used by these users, but may be another content display terminal including a display unit capable of displaying content.
  • the user terminal 1 may be a television receiver, a terminal equipped with an electric bulletin board, a wall clock, a car navigation terminal, or the like.
  • the power content display system showing one user terminal 1 may include a plurality of user terminals 1.
  • the user terminal 1 has a function of transmitting a content distribution request to the content distribution server 2 via a communication network in accordance with a user operation.
  • the user terminal 1 sends request information 1A for requesting content distribution and display screen information 1B indicating the size (size) of the display screen of the user terminal 1 to the content distribution server. 2 Send to.
  • the user terminal 1 transmits information including an identifier for identifying the content requested for distribution as the request information 1A.
  • the identifier is, for example, a content name, content ID, file name, or title title.
  • the user terminal 1 transmits information including the resolution of the display screen of the user terminal 1 as the display screen information 1B. For example, when content is displayed using a browser or the like, the user terminal 1 transmits information including the resolution of the window portion of the browser that displays the content.
  • the user terminal 1 includes a content display box for displaying the content generated by the content distribution server 2 in accordance with the determined display mode.
  • the content display unit includes the CPU of the user terminal 1 that displays various information on a display unit such as a liquid crystal display unit.
  • the user terminal 1 receives content from the content distribution server 2 via the communication network. Then, the user terminal 1 displays a video on the display unit based on the received content, and displays accompanying data simultaneously with the video.
  • the division pattern accumulating unit 34 accumulates a plurality of division patterns in advance indicating a pattern for dividing the display screen into a video display unit for displaying video and an accompanying data display unit for displaying accompanying data. Specifically, it is realized by a database device such as a magnetic disk device or an optical disk device. Such a divided pattern accumulating unit 34 accumulates a pattern for dividing the display screen into a video display unit and an accompanying data display unit, for example, in an L-shaped or U-shaped shape as a divided pattern. Alternatively, the divided pattern storage unit 34 stores, for example, a pattern for dividing the display screen into the video display unit and the associated data display unit by simply dividing the display screen in the vertical direction or the horizontal direction.
  • the division pattern storage unit 34 divides the display screen into the same shape (for example, L shape), the area ratio of each region, that is, the video display unit and the accompanying data display unit is different. A plurality of division patterns to be divided are accumulated.
  • the content database 3 stores content created by a content creator, and is specifically realized by a database device such as a magnetic disk device or an optical disk device.
  • the content database 3 includes a video data storage unit 31, a video associated data storage unit 32, and a metadata storage unit 33.
  • the video data storage unit 31 stores video data to be displayed on the screen.
  • Video accompanying data The data storage unit 32 stores accompanying data that is information to be displayed together with the video.
  • the metadata storage unit 33 stores metadata used for determining the content display mode.
  • one content is constituted by a combination of the video data stored in the video data storage unit 31 and the accompanying data stored in the video accompanying data storage unit 32.
  • the power indicating one content database 3 Any one or all of the video data storage unit 31, the video associated data storage unit 32, and the metadata storage unit 33 are realized by separate database devices. Also good.
  • FIG. 2 shows an example of video data, accompanying data, and metadata stored in the content database 3.
  • the video data is composed of a plurality of video sections 801, 802, 803, and 804.
  • the video section may be, for example, a shot that is a section continuously captured by one camera, or a scene that is a set of a plurality of shots having a collection of semantic contents, for example. It may be.
  • the video section may be, for example, a section having an arbitrary length specified in advance by a content creator or the like.
  • the content database 3 stores associated data 811, 812, 813, 814 and corresponding metadata 821, 822, 823, 824 corresponding to each video section. .
  • the content database 3 also stores metadata 831, 832, 833, and 834 corresponding to the associated data for each associated data.
  • the content database 3 stores metadata 840 including various information on the entire video data and metadata 850 including various information on the entire accompanying data. Note that metadata 840 and metadata 850 are configured as a single piece of metadata!
  • the accompanying data corresponding to each video segment includes various information to be displayed on the display screen in conjunction with the corresponding video segment, for example, text information.
  • Each accompanying data may be plain text data or may be structured text described in XML (extended markup language).
  • each accompanying data may be hypertext made with HTML (hyper text markup language, BML (broadcast markup language), etc.! / ⁇ .
  • Metadata 840 includes information for the entire video data.
  • the metadata 840 includes video resolution, encoding method, start point, end point, serial number, and the like of each video section.
  • Metadata 850 includes information regarding the entire associated data.
  • the metadata 850 includes information such as the genre and format of the accompanying data.
  • Metadata (video metadata) 821, 822, 823, and 824 includes video attribute information included in each video section.
  • the metadata 821, 822, 823, and 824 include information on a focus area in the video and restrictions on video conversion. Restrictions for video conversion include, for example, enlargement / reduction ratio, upper and lower limits of compression ratio, evaluation function of video value change due to conversion, and the like.
  • Metadata (accompanying metadata) 831, 832, 833, and 834 includes attribute information of the accompanying data corresponding to each video section.
  • the metadata 831, 832, 833, and 834 include information such as the number of characters and the number of items of the accompanying data.
  • Metadata 831, 832, 833, and 834 contain restrictions on accompanying data conversion, and store video section importance information that describes the importance balance of video and accompanying data for each video section. ing.
  • Restrictions for accompanying data conversion include, for example, the importance of each display item, the priority of the display item, and an evaluation function for the change in the accompanying data value due to the conversion.
  • the video section importance information may be automatically generated using a server that may be created and manually assigned by the content producer.
  • define an importance definition function that can automatically generate video segment importance information, and generate it using the important definition function.
  • the content distribution server 2 is a server operated by, for example, a service provider that provides content self-confidence services for various video contents. Specifically, information such as workstations and personal computers is used. Realized by a processing device. As shown in FIG. 1, the content distribution server 2 includes a content display mode determination unit 21, a content conversion unit 22, and a content distribution unit 23.
  • the content display mode determination unit 21 is realized by a CPU and a network interface unit of an information processing device that operates according to a program.
  • the content display mode determination unit 21 has a function of receiving the request information 1A and the display screen information 1B from the user terminal 1 via the communication network. Further, the content display mode determination unit 21 receives (receives) the request information 1A and the display screen information 1B given from the user terminal 1. And a function for determining the display mode of the content requested for distribution based on the metadata stored in the content database 3. In this case, the content display mode determination unit 21 determines a display mode for displaying video data and accompanying data included in the content to be displayed on the display screen for each video section.
  • the content display mode determination unit 21 performs optimal division when the requested video (delivery request) and accompanying data corresponding to the video are displayed on the user terminal 1 for each video section.
  • a pattern is selected (selected) from each divided pattern stored in the divided pattern storage unit 34, and the display mode of the content requested for distribution is determined for each video section based on the selected divided pattern.
  • the content display mode determination unit 21 has a function of generating display mode determination information 21 A indicating the determined display mode and outputting the display mode determination information 21 A to the content conversion unit 22.
  • the content display mode determination unit 21 uses each of the division patterns prepared in the division pattern storage unit 34, and displays the display screen for each video section as a video display unit and an accompanying data display unit. In accordance with the division result, an evaluation value of the entire content composed of the video displayed on the video display unit and the accompanying data displayed on the accompanying data display unit is obtained, and among the divided patterns, When the evaluation value is optimal, for example, the division pattern when the value is maximum is determined for each video section as the division pattern used for dividing the display screen.
  • the display mode determination information 21A generated by the content display mode determination unit 21 includes a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the video conversion parameter is a parameter for converting the video so as to adapt to the display mode determined by the content display mode determination unit 21.
  • the content display mode determination unit 21 generates a video conversion parameter including a video conversion rate.
  • the video conversion rate includes, for example, a video reduction rate and magnification rate.
  • the content display mode determination unit 21 may generate information for specifying the number of bits to be included in the video data to be transmitted to the user terminal 1 and a video conversion parameter including the time resolution conversion rate of the video.
  • the time resolution conversion rate includes, for example, the degree of the bow I of the frame.
  • the accompanying data conversion parameter is a parameter for converting the accompanying data so as to adapt to the display mode determined by the content display mode determining unit 21.
  • content The display mode determination unit 21 selects the amount of data that can be displayed on the accompanying data display unit from the accompanying data according to the determined size of the accompanying data display unit. The amount that can be displayed is expressed, for example, in characters.
  • the content display mode determination unit 21 generates an accompanying data conversion parameter including a list of data that can be displayed on the accompanying data display unit.
  • the content display mode determination unit 21 extracts a title part or text within a predetermined character from text included in the accompanying data according to the accompanying data display unit, and generates an accompanying data conversion parameter.
  • the layout information is information describing an arrangement layout of video and associated data, that is, a division pattern.
  • the content display mode determination unit 21 generates layout information including the shapes and sizes of the video display unit and the accompanying data display unit.
  • the content conversion unit 22 is realized by a CPU of an information processing apparatus that operates according to a program. As shown in FIG. 1, the content conversion unit 22 includes a video data conversion unit 221, an accompanying data conversion unit 222, and a content arrangement unit 223.
  • the video data converter 221 has a function of calling (extracting) the video requested (distributed) from the user terminal 1 from the database 3 based on the request information 1A.
  • the video data conversion unit 221 also has a function of converting the extracted video data using video conversion parameters as necessary. That is, the video data conversion unit 221 converts the video for each video section according to the display mode determined by the content display mode determination unit 21. In this case, for example, the video data converter 221 reduces or enlarges the extracted video according to the conversion rate indicated by the video conversion parameter.
  • the accompanying data conversion unit 222 has a function of calling (extracting) the accompanying data corresponding to the video requested from the user terminal 1 from the database 3 based on the request information 1A.
  • the accompanying data conversion unit 222 also has a function of converting accompanying data using an accompanying data conversion parameter as necessary. That is, the accompanying data conversion unit 222 converts the accompanying data for each video section according to the display mode determined by the content display mode determination unit 21. In this case, for example, the accompanying data conversion unit 222 extracts the data indicated in the list included in the accompanying data conversion parameter, and generates the converted accompanying data.
  • the data shown in the list is, for example, the title part or place in the text. It is a sentence within fixed characters.
  • the content arrangement unit 223 has a function of generating new content in which the video data converted by the video data conversion unit 221 and the accompanying data converted by the accompanying data conversion unit 222 are arranged on the layout according to the layout information. Prepare.
  • the new content generated by the content placement unit 223 using the converted video and the accompanying data is also referred to as converted content.
  • the content arrangement unit 223 arranges the converted video and the accompanying data on the layout according to the shape and size of the video display unit and the accompanying data display unit indicated in the layout information for each video section, and displays the converted content. Generate.
  • the content distribution unit 23 is realized by a CPU and a network interface unit of an information processing apparatus that operates according to a program.
  • the content distribution unit 23 has a function of distributing the converted content to the user terminal 1 via the communication network.
  • the content distribution unit 23 may distribute the converted video data, the converted accompanying data, and the layout information separately instead of distributing the entire converted content.
  • the user terminal 1 arranges and displays the converted video data and the converted accompanying data on the display screen according to the received layout information.
  • the storage device (not shown) of the content distribution server 2 stores various programs for distributing the converted content to the user terminal 1. For example, when the storage device of the content distribution server 2 receives a content distribution request from a user terminal via a communication network and receives a content distribution request from the user terminal, the storage device of the content distribution server 2 is requested to distribute the content.
  • a content distribution program is stored for executing the processing for generating content in which the content is arranged and the processing for transmitting the content in which the video data and the accompanying data are arranged to the user terminal via the communication network. .
  • FIG. 3 shows an example of a process in which the content distribution server distributes content in response to a request from the user terminal.
  • the user terminal 1 If the user has viewed the content! /, The user operates the user terminal 1 to instruct to input, for example, a distribution request for the content to be viewed.
  • the user terminal 1 transmits the request information 1A and the display screen information 1B to the content distribution server 2 via the communication network in step S11 according to the user's operation.
  • the user terminal 1 transmits request information 1A including the content name and content ID specified by the user to the content distribution server 2 via the communication network.
  • the user terminal 1 transmits display screen information 1B including the resolution of the display screen of the user terminal 1 to the content distribution server 2 via the communication network.
  • the content display mode determination unit 21 of the content distribution server 2 receives the request information 1A and the display screen information 1B from the user terminal 1 via the communication network 40. To do. Then, the content display mode determination unit 21 determines the content display mode for each video section in step S12 based on the received request information 1A and display screen information 1B and the metadata stored in the content database 3. . Further, the content display mode determination unit 21 generates display mode determination information 21A including a video conversion parameter, an accompanying data conversion parameter, and layout information for each video section. The content display mode determination unit 21 outputs the generated display mode determination information 21A to the content conversion unit 22.
  • step S13 the video data conversion unit 221 of the content conversion unit 22 extracts the video data of the content requested for distribution from the content database 3 based on the request information 1A, and determines the display mode. Based on the video conversion parameters included in the information 21A, the extracted video data is converted for each video section.
  • step S14 the accompanying data conversion unit 222 of the content conversion unit 22 extracts the accompanying data of the content requested for distribution from the content database 3 based on the request information 1A, and displays the display form. Based on the accompanying data conversion parameters included in the decision information 21A, the extracted accompanying data is converted for each video section.
  • step S15 the content arrangement unit 223 of the content conversion unit 22 arranges the converted video data and accompanying data in the layout for each video section according to the layout information included in the display mode determination information 21A. Generate converted content.
  • step S16 the content distribution unit 23 transmits the converted content generated by the content conversion unit 22 to the user terminal 1 via the communication network.
  • the user terminal 1 When the converted content is generated and transmitted to the user terminal 1 in this way, the user terminal 1 reproduces and displays a video based on the received converted content.
  • the accompanying data corresponding to the video is displayed.
  • 4A and 4B show examples of display screen layouts on which the user terminal 1 displays video and associated data, respectively.
  • 4A shows a case where video and accompanying data are displayed using a division pattern that divides the display screen in the horizontal direction, and FIG. The case where accompanying data is displayed is shown.
  • user terminal 1 displays video and associated data while changing the area ratio between the video display unit and the associated data display unit for each video section.
  • FIG. 5 is a flowchart showing an example of display mode determination processing in which the content display mode determination unit 21 determines the display mode of content.
  • the content display mode determination unit 21 divides the display screen into a video display unit and an accompanying data display unit using each division pattern stored in the division pattern storage unit 34 for each video section. Find the value of content at the time. Then, the content display mode determination unit 21 selects the division pattern having the maximum content value as the division pattern used for the video section.
  • the content display mode determination unit 21 Upon receiving the request information 1A and the display screen information 1B from the user terminal 1, the content display mode determination unit 21 receives the video data of the content requested for distribution and each associated data based on the received request information 1A. Are extracted from the content database 3 and each metadata corresponding to the requested content is extracted from the content database 3 respectively. Further, the content display mode determining unit 21 specifies each video section included in the video data based on the extracted metadata. For example, the content display mode determination unit 21 determines the number of video sections included in the video data and each video according to the start and end points of each video section included in the metadata 840 of the entire video content shown in FIG. The position in the video data of the section is specified. The content display mode determination unit 21 In step S 101, the video section to be displayed is designated based on the result of specifying the video section. First, the content display mode determination unit 21 selects the first video section included in the video data as a processing target for display mode determination.
  • the content display mode determination unit 21 initializes each variable and parameter used for the display mode determination process in step S102.
  • the number k is a variable indicating which division pattern the content display mode determination unit 21 is currently using among the division patterns accumulated by the division pattern accumulation unit 34.
  • V is the content that the content display mode determination unit 21 obtains for each division pattern
  • the content display mode determination unit 21 converts the video in a form optimal for the video display unit.
  • a specific example of this conversion is that the video is reduced to fit the size of the divided video display unit.
  • the content display mode determination unit 21 calculates the value (maximum value) possessed by the video power when the converted video is displayed on the video display unit.
  • the content display mode determination unit 21 obtains the value of the displayed converted video power S using a predetermined evaluation function. For example, in general, the smaller the video is, the more difficult it is to view the video. Therefore, the content display mode determination unit 21 uses the evaluation function to determine the value of the video so that it decreases as the video is reduced.
  • this evaluation function is referred to as an evaluation function for calculating video value.
  • the content display mode determination unit 21 converts the accompanying data corresponding to the video section in a form optimal for the accompanying data display unit.
  • a specific example of this conversion is, for example, extracting data that can be displayed according to the size of the accompanying data display unit.
  • the content display mode determination unit 21 calculates the value (maximum value) possessed by the accompanying data force S when the converted accompanying data is displayed on the accompanying data display unit.
  • the content display mode determination unit 21 calculates the value of the displayed converted data force S using a predetermined evaluation function.
  • this evaluation function is also referred to as an evaluation function for calculating the accompanying data value.
  • the content display mode determination unit 21 has, for example, an attached data power S after conversion using an evaluation function with the number of items of associated data to be displayed, the importance of those items, and the number of pages required for display as variables. Determine value.
  • the content display mode determining unit 21 determines the content V displayed on the display screen, that is, the entire value V of the displayed video and associated data, in step S107. Calculation is performed using a separately determined evaluation function.
  • This evaluation function is hereinafter referred to as a content value calculation evaluation function.
  • the content display mode determination unit 21 obtains the value V of the entire content by using an evaluation function that simply averages the values of both the video and the accompanying data as the simplest method.
  • the content display mode determination unit 21 extracts and extracts each evaluation function that stores the evaluation function in advance.
  • the content value may be obtained using the evaluated function.
  • the content display mode determination unit 21 uses the content value calculation evaluation function used to evaluate the content V to be displayed on the user terminal 1, that is, the entire value V of the video section and the accompanying data. An example is shown.
  • the content display mode determination unit 21 uses any one item or two or more items of the amount of information provided to the user, the value of the information, and the ease of viewing the information as an evaluation criterion, and uses the video and accompanying information. Review both data Deserve.
  • the content display mode determination unit 21 can evaluate the value of the entire content based on the obtained evaluation value.
  • the value of the entire content is the value of the video displayed on the video display unit and the value of the accompanying data displayed on the accompanying data display unit.
  • the value of the entire content can be obtained by adding the value of the video and the value of the accompanying data.
  • the content value calculation evaluation function V (x) is a video value calculation evaluation function g (x) and an accompanying data value calculation evaluation function h (x). Mx)).
  • the content value calculation evaluation function V (x) is obtained by using Equation (1) as the sum of the video value calculation evaluation function g (x) and the accompanying data value calculation evaluation function h (x). Can be represented.
  • evaluation functions of video data and associated data for each evaluation criterion will be shown.
  • an example of an evaluation function when the amount of information provided to users is taken as a scale ie, evaluation criteria
  • evaluation criteria the number of video pixels that can be displayed on the video data display unit and the number of characters that can be displayed on the associated data display unit are evaluated.
  • the video shall be converted so that the video can be displayed as wide as possible on the video display section with horizontal w pixels and vertical V pixels without changing the aspect ratio of the video.
  • the enlargement / reduction ratio b reflects the number of pixels to be displayed, and therefore the evaluation function can be expressed by a function having the enlargement / reduction ratio b as a variable.
  • the video value calculation evaluation function is expressed using Equation (2).
  • Equation (2) x and y indicate the height and width of the original image, respectively.
  • orig orig max and b indicate the maximum value and the minimum value of the allowed enlargement / reduction ratio, respectively.
  • the associated data is displayed so that the resolution can be accommodated in the associated data display section of the horizontal w pixel and the vertical V pixel.
  • Data shall be converted.
  • the accompanying data shall be converted so that it will be within q pages of the accompanying data display section.
  • there are m items that can be displayed in the accompanying data and the items to be displayed are selected so as to be within the middle g page of these items.
  • floor is a function that indicates rounding up of the decimal point.
  • Information value may be used as information value for users or as information value for information providers. It is also the information value for both users and information providers.
  • each person or object that appears in the video section to be evaluated Is assigned an information value.
  • the presence or absence of display of each appearance is respectively determined as C 1, C 2,.
  • the appearance should be selected so that a combination of appearances with the highest information value can be displayed within the range of the video display section on the video display section with the resolution limited to W pixels and V pixels.
  • the evaluation function for calculating the video value is expressed using Equation (4).
  • Equation (4) the set of appearances selected must not protrude from the video display section.
  • the accompanying data there are m items that can be displayed in the accompanying data, the number of characters that can fit in one line!:, The number of lines that fit in one page is s, and the number of characters in each item is t, t, ⁇ ⁇ , T, ⁇ , t (l ⁇ k ⁇ m), and the information value of each item is u (0 ⁇ u ⁇ 1). Also,
  • the presence / absence of display on the accompanying data display section is expressed as a, a, ..., a, ..., a (l ⁇ k ⁇ m)
  • Equation (1) the content value calculation evaluation function V (x) with the information value provided to the user as a scale can be obtained.
  • an image is evaluated based on image quality such as the smoothness of movement and the amount of noise.
  • the video resolution is r
  • the frame rate is f
  • the SZN ratio with the original image is s
  • the amount of motion is m.
  • the video value calculation evaluation function is expressed using Equation (6) as a balance function including these four variable forces. It is possible to select a resolution r and a frame rate f that optimize this balance function, and convert the video according to the selected resolution r and frame rate f.
  • g (w, V) max ⁇ o (r, f, s, m) ⁇ (6)
  • Equation (7) 1 indicates the number of lines required to display all selected items, 1 max indicates the maximum number of lines, and L indicates the number of lines that can be displayed on the screen.
  • an evaluation function when the amount of information provided to the user, the value of the information, and the ease of viewing the information is combined is shown.
  • an evaluation function combining any two or all of the formulas (2), (4), and (6) can be used as the video value calculation evaluation function.
  • an evaluation function combining any two or all of the formulas (3), (5), and (7) can be used as the evaluation function for calculating the accompanying data value.
  • Equation (2) and Equation (4) consider the combination of the appearance material and the scaling factor for each appearance material for a given video display area. Function.
  • the video value calculation evaluation function shown in Equation (8) can be used.
  • Equation (9) the associated data value calculation evaluation function shown in Equation (9) can be used.
  • step S108 the content display mode determination unit 21 determines whether or not the obtained value V of the entire content is greater than the maximum value V of the content value. Calculated computer
  • the display mode determination unit 21 substitutes V ⁇ V V and updates the value of V. Content display
  • the mode determining unit 21 uses the video conversion parameter for realizing the optimal display on the video display unit and the accompanying data conversion parameter for realizing the optimal display on the associated data display unit for the k-th division pattern to be processed. Is generated. Then, in step S109, the content display mode determination unit 21 stores the kth division pattern, the generated video conversion parameter, and the accompanying data conversion parameter together in a storage device such as a memory.
  • V The value of V is updated, and the division pattern, video conversion parameter, and accompanying data conversion parameter are updated.
  • the content display mode determination unit 21 adds 1 to the variable k in step S110. If it is determined in step S108 that the value V of the entire content is not greater than the maximum value V of the content value, the content display mode determination unit 21
  • the content display mode determination unit 21 determines whether or not the value of the variable k is greater than the value power in step S111. If it is determined that the value power of the variable k is greater, the content display mode determination unit 21 determines that the process has been completed for all the divided patterns, and proceeds to the process of step S112 as it is. If it is determined that the value is not greater than the value k of the variable k, the content display mode determination unit 21 returns to step S103 and repeatedly executes the processing from step S103 to step S110. That is, the content display mode determination unit 21 determines that there is an unprocessed division pattern, reads the next division pattern accumulated by the division pattern accumulation unit 34, and determines the content value when the division pattern is used. evaluate
  • step S 110 the processing from step S 103 to step S 110 is repeatedly executed for all the divided patterns stored by the divided pattern storage unit 34.
  • the division pattern, video conversion parameters, and accompanying data conversion parameters when the value of the entire content is maximized are saved.
  • the content display mode determination unit 21 extracts the division pattern, the video conversion parameter, and the accompanying data conversion parameter that are currently stored in the storage device in step S 112. Output. That is, the content display mode determination unit 21 outputs the division pattern, the video conversion parameter, and the accompanying data conversion parameter when the content value V is maximum to the content conversion unit 22. In this case, the content display mode determination unit 21 generates layout information indicating an arrangement layout on the display screen using a division pattern when the content value V is maximized. Then, the content display mode determination unit 21 outputs the display mode determination information 21A including the video conversion parameter, the accompanying data conversion parameter, and the layout information to the content conversion unit 22.
  • the content distribution server 2 adapts the display mode of the content in accordance with the content of the video and the corresponding associated data for each video section included in the video data. To decide.
  • the content distribution server 2 distributes the content converted according to the determined display mode to the user terminal 1.
  • the user terminal 1 displays the video display unit and the accompanying data display unit while dynamically changing for each video section according to the distributed content. That is, according to the present embodiment, the display mode of the content can be automatically determined for each video section, and the video and the accompanying data can be displayed with a layout according to the configuration of the display screen and the content.
  • the content creator does not design the screen configuration for each display screen for each piece of information (that is, video and accompanying data), but can respond to the display screen and content configuration. Images and accompanying data can be displayed in layout. Further, according to the present embodiment, the display mode of the video and the accompanying data can be appropriately determined and displayed for each video section according to the contents of the video and the accompanying data. It is possible to realize a content display system that presents data.
  • the content distribution server 2 adapts the content display mode appropriately based on the display screen of the terminal, which is a requirement on the side of viewing the video data and the accompanying data. To decide. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data on an arbitrary display screen.
  • FIG. 6 shows a content display system according to the second embodiment.
  • the function of the content display mode determination unit 41 included in the content distribution server 4 is the content display mode determination unit shown in the first embodiment. Different from 21 functions.
  • the user terminal 1 In addition to the request information 1A and the display screen information IB, the importance balance information 1C is different from that of the first embodiment in that it is transmitted to the content distribution server 4 via the communication network.
  • the information stored in the content database 3 and the division pattern storage unit 34 is the same as the information stored in the first embodiment, and the function of the user terminal 1 is a request.
  • the content conversion unit of the content distribution server 4 is the same as the function of the user terminal 1 in the first embodiment except that the importance balance information 1C is transmitted.
  • the functions of 22 and the content distribution unit 23 are the same as those functions in the first embodiment.
  • the content display mode determination unit 41 has a function of receiving the request information 1A, the display screen information IB, and the importance balance information 1C from the user terminal 1 via the communication network. Prepare. In this embodiment, the content display mode determination unit 41 uses the importance balance information (also referred to as importance information) 1C to determine the preference of the user or the importance of each video section and the importance of each associated data. Receive information indicating balance.
  • importance information also referred to as importance information
  • the content display mode determination unit 41 distributes based on the metadata information 1A, display screen information IB and content importance information 1C given (received) from the user terminal 1.
  • a function for determining the display mode of the requested content is provided.
  • the content display mode determination unit 41 determines the display mode based on at least one of the display screen information 1B, each metadata such as video metadata and accompanying metadata, and importance balance information 1C. To do.
  • the content display mode determination unit 41 displays the requested video (distribution request) and associated data corresponding to the video on the user terminal 1 for each video section. Determine the display mode. Further, the content display mode determination unit 41 has a function of generating display mode determination information 41A indicating the determined display mode and outputting the display mode determination information 41A to the content conversion unit 22.
  • the content display mode determination unit 41 uses each of the division patterns prepared in the division pattern storage unit 34. For each video section, the display screen is divided into a video display unit and an accompanying data display unit, and after the display screen is divided, the video displayed on the video display unit and the accompanying data display unit are displayed. Obtain an evaluation value for the entire content that is composed of the accompanying data data, taking into account the importance of the content. Then, the content display mode determination unit 41 determines, for each video section, the division pattern when the evaluation value is optimal, for example, the division pattern used for dividing the display screen, when the value is maximum.
  • the display mode determination information 41A includes a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the video conversion parameter is a parameter for converting the video so as to adapt to the determined display mode.
  • the accompanying data conversion parameter is a parameter for converting the accompanying data so as to adapt to the determined display mode.
  • the layout information is information describing the layout of the video and accompanying data, that is, the division pattern. The importance balance between the video data and the accompanying data may be provided in advance from the content producer instead of being provided from the user, that is, received from the user terminal 1.
  • the user If the user has viewed the content! /, The user operates the user terminal 1 to input a distribution request for the content that has been viewed.
  • the user terminal 1 transmits the request information 1A, the display screen information IB, and the importance balance information 1C to the content distribution server 4 via the communication network 40 according to the user's operation.
  • the content display mode determination unit 41 of the content distribution server 4 determines the content based on the received request information 1A, display screen information IB and importance balance information 1C, and metadata stored in the content database 3.
  • the display mode is determined. Note that the processing for generating the converted content by the content conversion unit 22 and the processing for distributing the converted content by the content distribution unit 23 are the same as the processing from step S13 to step S16 shown in FIG. .
  • FIG. 7 shows the content display mode determination unit in the second embodiment. Shows the process for determining the display mode.
  • the content display mode determination unit 41 based on the received request information 1A, the video data of the content requested to be distributed and each associated content of the content requested to be distributed. Extract data from content database 3. Further, the content display mode determination unit 41 extracts each metadata corresponding to the requested content from the content database 3. The content display mode determination unit 41 identifies each video segment included in the video data based on the extracted metadata.
  • step S101a the content display mode determination unit 41 specifies a video section to be displayed based on the result of specifying the video section.
  • n division patterns are prepared in advance, and the division pattern accumulation unit 34 accumulates n division patterns.
  • step S103a the content display mode determination unit 41 reads the kth division pattern from the division pattern accumulation unit 34, and in step S104a, based on the read division pattern, the processing target For the video section, the display screen is divided into a video display part and an accompanying data display part.
  • step S105a the content display mode determination unit 41 converts the video in an optimal form for the video display unit, and the value (maximum value) that the video has when the converted video is displayed on the video display unit. Is calculated using a predetermined evaluation function. Generally, the more the video is reduced, the more the video is viewed, so the content display mode determination unit 41 uses the evaluation function to, for example, set the value of the video to be lower as the video is reduced. Ask.
  • step S106a content display mode determination unit 41 converts the accompanying data corresponding to the video section in a form optimal for the accompanying data display unit, and displays the converted accompanying data on the accompanying data display unit.
  • the value (maximum value) of the accompanying data force S is calculated using a predetermined evaluation function. For example, in general, the smaller the number of items of accompanying data displayed on the display screen, the smaller the amount of information that can be displayed. On the other hand, the number of pages required to display the accompanying data is reduced, making it easier to see the accompanying data. Therefore, the content display mode determination unit 41 displays the number of items of accompanying data to be displayed, the importance level of those items, and the page required for display. Using an evaluation function with a number as a variable, determine the value of the associated data force S after conversion.
  • the content display mode determination unit 41 determines the value V of the entire content (that is, the video and associated data) displayed on the display screen based on the converted video and the accompanying data in advance. Calculation is performed using a predetermined evaluation function. In the present embodiment, the content display mode determination unit 41 calculates the value V of the entire content using an evaluation function weighted based on the content importance level information 1C based on the value of both the video and the accompanying data. In this case, for example, as the simplest method, the content display mode determination unit 41 simply adds the values of both the video and the accompanying data by weighting based on the content importance information 1C.
  • the content value calculation evaluation function V (x) is calculated by using Equation (10) as a weighted sum of the video value calculation evaluation function g (x) and the accompanying data value calculation evaluation function h (X).
  • Equation (10) a weighted sum of the video value calculation evaluation function g (x) and the accompanying data value calculation evaluation function h (X).
  • Equation (10) w represents the importance of the video, and (1 w) represents the importance of the accompanying data.
  • step S 108a the content display mode determination unit 41 determines whether or not the calculated value V of the entire content is greater than the maximum value V of the content value.
  • step S109a the number display mode determination unit 41 substitutes V for V
  • the max max value is updated, and the video conversion parameter that realizes the optimal display on the video display unit and the accompanying data that realizes the optimal display on the accompanying data display unit for the kth division pattern to be processed at present.
  • a conversion parameter is generated, and the kth division pattern, the generated video conversion parameter, and accompanying data conversion parameter are stored together in a storage device such as a memory.
  • V The value of V is updated, and the division pattern, video conversion parameter, and accompanying data conversion parameter are updated.
  • the content display mode determination unit 41 determines whether the variable is a variable in step SI 10a. Add 1 caro to k. If it is determined in step S 108a that the value V of the entire content is not greater than the maximum value V of the content value, the content display mode determination unit 41 sets the step max
  • step S109a Without adding the processing of step S109a, 1 is added to the variable k.
  • the content display mode determination unit 41 determines whether or not it is greater than the value power of the variable k in step S 11 la. If it is determined that the value power of the variable k is greater, the content display mode determination unit 41 determines that the processing has been completed for all the divided patterns, and proceeds directly to the processing of step S112a. If it is determined that the value of the variable k is not greater than 3 ⁇ 4, the content display mode determination unit 41 returns to step S103a, and repeatedly executes the processing from step S103a to step S110a. That is, the content display mode determination unit 41 determines that there is an unprocessed division pattern, reads the next division pattern accumulated by the division pattern accumulation unit 34, and evaluates the content value when using the division pattern. To do.
  • step SI 11a determines in step S112a the division pattern, video conversion parameter, and associated parameters currently stored in the storage device. Extract and output data conversion parameters. That is, the content display mode determination unit 41 outputs the division pattern, the video conversion parameter, and the accompanying data conversion parameter when the content value V is maximum to the content conversion unit 22. In this case, the content display mode determination unit 41 generates layout information indicating an arrangement layout on the display screen using the division pattern when the content value V is maximum, and generates a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the display mode determination information 41A including is output to the content conversion unit 22.
  • the content display mode determination unit 41 repeats the above-described process for each video section included in the video data requested to be distributed, and for all division patterns for each video section.
  • the content value is calculated to determine the layout, and the display mode determination information 41A is output.
  • the content distribution server 4 changes the display mode of content according to the content of the video and the corresponding associated data for each video section included in the video data. Determine adaptively. Further, the content distribution server 4 distributes the content converted according to the determined display mode to the user terminal 1. Then, the user terminal 1 displays the video display unit and the accompanying data display unit while dynamically changing for each video section in accordance with the distributed content. That is, according to the present embodiment, the content display mode can be automatically determined for each video section, and the video and the accompanying data can be displayed in a layout according to the configuration of the display screen and the content. Therefore, even if the content creator does not design a screen configuration for each display screen for each piece of information (that is, video and associated data), the video and associated data are arranged in a layout according to the configuration of the display screen and content. Can be displayed.
  • the display mode of the video and the accompanying data can be adaptively determined and displayed for each video section in accordance with the contents of the video and the accompanying data.
  • a content display system that presents data and accompanying data can be realized.
  • the content distribution server 4 adaptively determines the display mode of the content based on the display screen of the terminal, which is a request condition for viewing the video data and the accompanying data! To do. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data on an arbitrary display screen.
  • the content distribution server 4 adaptively determines the content display mode based on the importance level balance, which is a requirement on the side of viewing the video data and the accompanying data, so according to the present embodiment. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data in accordance with user preferences.
  • FIG. 8 shows the configuration of the content display system of the third embodiment.
  • the content display mode determination unit 51 included in the content distribution server 5 The function is different from the function of the content display mode determination unit 41 shown in the second embodiment. Further, this content display system is different from that of the second embodiment in that it includes a superposed pattern storage unit 35 instead of the divided pattern storage unit 34.
  • the information stored in the content database 3 is the same as the information stored in the content database 3 in the second embodiment
  • the function of the user terminal 1 is the same as that in the second embodiment.
  • the functions of the user terminal 1 are the same, and the functions of the content conversion unit 22 and the content distribution unit 23 of the content distribution server 5 are the same as those functions in the second embodiment.
  • the superimposition pattern accumulating unit 35 accumulates in advance a plurality of superimposition patterns indicating patterns to be displayed by superimposing accompanying data on video data on the display screen.
  • the superimposition pattern accumulating unit 35 is a magnetic disk device. And a database device such as an optical disk device.
  • the superposition pattern accumulation unit 35 accumulates, for example, a pattern that superimposes accompanying data on the top, bottom, left, and right of a video, or a pattern that superimposes accompanying data in vertical writing or horizontal writing. Further, the superimposition pattern accumulating unit 35 accumulates rectangular areas having various areas for superimposing accompanying data as a superimposition pattern.
  • the content display mode determination unit 51 is provided with the function of receiving the request information 1A, the display screen information IB, and the importance balance information 1C from the user terminal 1 via the communication network 40, and the user terminal 1. It also has a function of determining the display mode of the content requested for distribution based on (received) request information 1A, display screen information IB and content importance level information 1C, and metadata. In the present embodiment, the content display mode determination unit 51 displays the requested video (distribution request) and associated data corresponding to the video on the user terminal 1 for each video section. Determine aspects. The content display mode determination unit 51 also has a function of generating display mode determination information 51 A indicating the determined display mode and outputting it to the content conversion unit 22.
  • the content importance level is an importance level balance between video data and accompanying data that the user desires to distribute.
  • the content display mode determination unit 51 superimposes the accompanying data on each video section on the display screen using each of the superposition patterns prepared in the superposition pattern storage unit 35. And the accompanying data like this After superimposing, the evaluation value of the entire content composed of the video displayed on the display screen and the accompanying data card is obtained in consideration of the importance of the content. Then, the content display mode determination unit 51 determines, for each video section, a superposition pattern when the evaluation value is optimal (for example, when the value is maximum) as a superposition pattern used for superposition display of the accompanying data.
  • Display mode determination information 51A includes a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the video conversion parameter is a parameter for converting the video so as to adapt to the determined display mode.
  • the accompanying data conversion parameter is a parameter for converting the accompanying data so as to be adapted to the determined display mode.
  • the layout information is information describing the layout of the video and the accompanying data, that is, the superposition pattern. Note that the importance balance between the video data and the accompanying data may be provided in advance from the content producer instead of being provided by the user, that is, instead of being received from the user terminal 1. .
  • the user If the user has viewed the content! /, The user operates the user terminal 1 to input a distribution request for the content that has been viewed.
  • the user terminal 1 transmits the request information 1A, the display screen information IB, and the importance balance information 1C to the content distribution server 5 via the communication network 40 in accordance with the user's operation.
  • the content display mode determination unit 51 of the content distribution server 5 determines the content based on the received request information 1A, display screen information IB and importance balance information 1C, and metadata stored in the content database 3.
  • the display mode is determined. Note that the processing for generating the converted content by the content conversion unit 22 and the processing for distributing the converted content by the content distribution unit 23 are the same as the processing from step S13 to step S16 shown in FIG. .
  • FIG. 9 shows a process in which the content display mode determination unit determines the content display mode in the third embodiment.
  • the content display mode determination unit 51 based on the received request information 1A, the video data of the content requested to be distributed and each associated content of the content requested to be distributed. Extract data from content database 3. Further, the content display mode determination unit 51 extracts each metadata corresponding to the content requested to be distributed from the content database 3. The content display mode determination unit 51 identifies each video segment included in the video data based on the extracted metadata.
  • the content display mode determination unit 51 specifies a video section to be displayed based on the result of specifying the video section in step SlOlb.
  • n overlapping patterns are prepared in advance, and the overlapping pattern accumulation unit 35 accumulates n overlapping patterns.
  • step S103b the content display mode determination unit 51 reads the kth superposition pattern from the superposition pattern accumulation unit 35, and in step S104b, based on the read superposition pattern, The accompanying data is superimposed on the video for the video section.
  • step S105b the content display mode determination unit 51 converts the accompanying data corresponding to the video section in an optimal form, and has the accompanying data force S when the converted accompanying data is displayed on the accompanying data display unit. Value (maximum value) is calculated using a predetermined evaluation function.
  • the content display mode determination unit 51 uses, for example, the number of items of associated data to be displayed, the importance of those items, and an evaluation function that uses the number of pages required for display as a variable, and has the accompanying data force S after conversion. Determine value.
  • step S106b the content display mode determination unit 51 converts the video in a form optimal for the display screen and displays the value (maximum value) possessed by the image power when the converted video is displayed on the display screen in advance. Calculation is performed using a predetermined evaluation function.
  • the content display mode determination unit 51 uses an evaluation function to obtain a video value that also considers a decrease in value due to the accompanying data being superimposed. For example, when the content display mode determination unit 51 superimposes the accompanying data on a place where the image such as the sky is not disturbed, the content display mode determination unit 51 displays the image so as to increase the value. Seeking image value. On the contrary, the content display mode determination unit 51 obtains the video value so that the value is lowered when the video content is greatly disturbed, for example, when the accompanying data is superimposed on the face of the main character.
  • step S107b the content display mode determination unit 51 preliminarily calculates the value V of the entire content (that is, video and associated data) displayed on the display screen based on the converted video and accompanying data. Calculation is performed using a predetermined evaluation function. In the present embodiment, the content display mode determination unit 51 calculates the value V of the entire content using an evaluation function weighted based on the content importance level information 1C based on the value of both the video and the accompanying data.
  • step S108b the content display mode determination unit 51 determines whether or not the obtained value V of the entire content is greater than the maximum value V of the content value. Calculated computer
  • step S109b the display mode determination unit 51 substitutes V for V and sets the value of V to
  • the video conversion parameter that realizes the optimal display on the video display unit and the accompanying data conversion parameter that realizes the optimal display on the accompanying data display unit for the kth superimposed pattern to be processed at the present time The generated k-th superimposed pattern, the generated video conversion parameter, and accompanying data conversion parameter are stored together in a storage device such as a memory.
  • V The value of V is updated, and the superimposition pattern, video conversion parameter, and accompanying data conversion parameter are updated.
  • the content display mode determination unit 51 adds 1 to the variable k in step SI 10b. If it is determined in step S108b that the value V of the entire content is not greater than the maximum value V of the content value, the content display mode determination unit 51
  • step S109b Without adding the process of step S109b, add 1 to the variable k.
  • the content display mode determination unit 51 determines whether or not the value of the variable k is larger than n in step Sl l lb. If it is determined that the value power of the variable k is greater, the content display mode determination unit 51 determines that the processing has been completed for all the superimposed patterns, and proceeds directly to the processing in step S112b. If it is determined that the value is not greater than the value k of the variable k, the content display mode determination unit 51 returns to step S103b, and from step S 103b to step S Repeat the process up to 110b. That is, the content display mode determination unit 51 determines that there is an unprocessed superimposed pattern, reads the next superimposed pattern stored by the superimposed pattern storage unit 35, and evaluates the content value when the superimposed pattern is used. To do.
  • step S 112b the content display mode determination unit 51 determines in step S 112b the superimposed pattern and video conversion parameter currently stored in the storage device. And the accompanying data conversion parameters are extracted and output. That is, the content display mode determination unit 51 outputs the superimposition pattern, the video conversion parameter, and the accompanying data conversion parameter when the content value V is maximized to the content conversion unit 22. In this case, the content display mode determination unit 51 generates layout information indicating the layout on the display screen using the superposition pattern when the content value V is maximum, and generates the video conversion parameter, the accompanying data conversion parameter, and the layout information. Is output to the content conversion unit 22.
  • the content display mode determination unit 51 repeats the process described above for each video section included in the video data requested to be distributed, and calculates the content value for all superimposed patterns for each video section. To determine the layout and output the display mode determination information 51A.
  • the content distribution server 5 changes the display mode of content in accordance with the content of the video and the corresponding associated data for each video section included in the video data. Determine adaptively. Further, the content distribution server 5 distributes the content converted according to the determined display mode to the user terminal 1. Then, the user terminal 1 displays the video display unit and the accompanying data display unit while dynamically changing for each video section in accordance with the distributed content. That is, according to this embodiment, the computer The display mode of the contents can be automatically determined for each video section, and the video and accompanying data can be displayed in a layout according to the display screen and content configuration. Therefore, even if the content creator does not design a screen configuration for each display screen for each piece of information (that is, video and associated data), the video and associated data are arranged in a layout according to the configuration of the display screen and content. Can be displayed.
  • the display mode of the video and the accompanying data can be adaptively determined and displayed for each video section according to the contents of the video and the accompanying data, so that the video data can be effectively displayed.
  • a content display system that presents data and accompanying data can be realized.
  • the content distribution server 5 adaptively determines the display mode of the content based on the display screen of the terminal, which is a request condition for viewing the video data and the accompanying data! To do. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data on an arbitrary display screen.
  • the content distribution server 5 adaptively determines the display mode of the content based on the importance balance that is a requirement condition on the side of viewing the video data and the accompanying data. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data in accordance with user preferences.
  • FIG. 10 shows the configuration of the content display system of the fourth embodiment.
  • the function of the content display mode determination unit 61 included in the content distribution server 6 is different from the function of the content display mode determination unit 41 shown in the second embodiment.
  • This content display system is different from that of the second embodiment in that it includes a superimposed pattern storage unit 35 in addition to the divided pattern storage unit 34.
  • the information stored in the content database 3 and the division pattern storage unit 34 is the same as the information stored in the second embodiment, and the functions of the user terminal 1 are the same as those in the second embodiment.
  • the functions of the user terminal 1 in this embodiment are the same, and the functions of the content conversion unit 22 and the content distribution unit 23 of the content distribution server 6 are the same as those functions in the second embodiment.
  • the superimposition pattern accumulation unit 35 accumulates a plurality of superimposition patterns in advance indicating a pattern to be displayed by superimposing accompanying data on video data on the display screen.
  • the superimposition pattern accumulation unit 35 accumulates, for example, a pattern that superimposes accompanying data on the top, bottom, left, and right of a video, or a pattern that superimposes accompanying data in vertical writing or horizontal writing.
  • the superimposition pattern accumulation unit 35 accumulates rectangular areas having various areas for superimposing accompanying data as a superposition pattern.
  • the content display mode determination unit 61 is provided with a function of receiving the request information 1A, the display screen information IB, and the importance balance information 1C from the user terminal 1 via the communication network 40, and the user terminal 1. It also has a function of determining the display mode of the content requested for distribution based on (received) request information 1A, display screen information IB and content importance level information 1C, and metadata. In the present embodiment, the content display mode determination unit 61 displays a display when displaying the requested video (distribution request) and associated data corresponding to the video on the user terminal 1 for each video section. Determine aspects. The content display mode determination unit 61 also has a function of generating display mode determination information 61 A indicating the determined display mode and outputting it to the content conversion unit 22.
  • the content importance level is an importance level balance between video data desired to be distributed by the user and accompanying data.
  • the content display mode determination unit 61 uses each of the division patterns prepared in the division pattern storage unit 34 to display a display screen for each video section with the video display unit and associated data. After dividing the display screen and the display screen in this way, the video displayed on the video display unit and the accompanying data power displayed on the accompanying data display unit are evaluated. Content Determined by considering importance. Then, the content display mode determination unit 61 determines the division pattern when the evaluation value is optimal (for example, when the value is maximum) for each video section as the division pattern used for dividing the display screen.
  • the content display mode determination unit 61 further superimposes the accompanying data on each video section on the display screen using each of the superposition patterns prepared in the superposition pattern storage unit 35.
  • an evaluation value of the entire content displayed on the display screen and composed of the video and the accompanying data is obtained in consideration of the importance of the content.
  • the content display mode determination unit 61 determines, for each video section, the superimposition pattern when the evaluation value is optimal (for example, when the value is maximum) as the superimposition pattern used for superimposed display of the accompanying data.
  • the content display mode determination unit 61 determines the optimum division pattern evaluation value and the optimum division pattern by using the division pattern with the optimum evaluation value as the optimum division pattern and the overlapping pattern with the optimum evaluation value as the optimum superposition pattern. Compare the evaluation value of the superimposition pattern and use the pattern of the optimal division pattern and the optimal superimposition pattern that has the best evaluation value (for example, the larger value) for display of video and associated data. Select as a pattern.
  • Display mode determination information 61A includes a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the video conversion parameter is a parameter for converting the video so as to adapt to the determined display mode.
  • the accompanying data conversion parameter is a parameter for converting the accompanying data so as to be adapted to the determined display mode.
  • the layout information is information describing the layout of the video and accompanying data.
  • the arrangement layout here is a division pattern or a superposition pattern. The importance balance between the video data and the accompanying data may be provided in advance from the content producer instead of being provided by the user, that is, received from the user terminal 1.
  • the user operates the user terminal 1 to input a distribution request for the content that has been viewed.
  • the user terminal 1 transmits the request information 1A, the display screen information IB, and the importance balance information 1C to the content distribution server 6 via the communication network 40 in accordance with the user's operation.
  • the content display mode determination unit 61 of the content distribution server 6 determines the content based on the received request information 1A, display screen information IB and importance balance information 1C, and metadata stored in the content database 3.
  • the display mode is determined. Note that the processing for generating the converted content by the content conversion unit 22 and the processing for distributing the converted content by the content distribution unit 23 are the same as the processing from step S13 to step S16 shown in FIG. . Next, an operation in which the content display mode determination unit 61 determines the content display mode will be described.
  • FIG. 11 shows processing in which the content display mode determination unit determines the content display mode in the fourth embodiment.
  • the content display mode determination unit 61 based on the received request information 1A, the video data of the content requested to be distributed and each associated content of the content requested to be distributed. Extract data from content database 3. Further, the content display mode determination unit 61 extracts each metadata corresponding to the requested content from the content database 3. The content display mode determination unit 61 identifies each video segment included in the video data based on the extracted metadata.
  • the content display mode determination unit 61 designates a video section to be displayed based on the result of specifying the video section in step SlOlc. In this embodiment, it is assumed that n division patterns are prepared in advance, and the division pattern accumulation unit 34 accumulates n division patterns.
  • step S103a the content display mode determination unit 61 reads the kth division pattern from the division pattern accumulation unit 34, and in step S104a, based on the read division pattern, The display screen is divided into a video display part and an accompanying data display part for the video section.
  • step S105a the content display mode determination unit 61 converts the video in an optimum form for the video display unit, and displays the value (maximum value) that the video has when the converted video is displayed on the video display unit. ) Is calculated using a predetermined evaluation function. In general, the more the video is reduced, the more the video is viewed.
  • the content display mode determination unit 61 uses the evaluation function to obtain the value of the video so as to decrease as the video is reduced, for example.
  • the content display mode determination unit 61 converts the accompanying data corresponding to the video section in a form optimal for the accompanying data display unit, and displays the converted accompanying data on the accompanying data display unit.
  • the value (maximum value) with the accompanying data force S is calculated using a predetermined evaluation function.
  • the smaller the number of items of accompanying data displayed on the display screen the smaller the amount of information that can be displayed.
  • the number of pages required to display the accompanying data decreases, and the accompanying data becomes easier to see.
  • the content display mode determination unit 61 determines the value of the converted attached data tag S using an evaluation function that uses the number of items of associated data to be displayed, the importance of those items, and the number of pages required for display as variables. To do.
  • step S107a the content display mode determination unit 61 calculates the value V of the entire content (that is, the video and the accompanying data) displayed on the display screen based on the converted video and the accompanying data. Calculation is performed using a predetermined evaluation function.
  • the content display mode determination unit 61 calculates the value V of the entire content using an evaluation function in which the values of both the video and the accompanying data are weighted based on the content importance information 1C. In this case, for example, as the simplest method, the content display mode determination unit 61 simply adds the values of both the video and the accompanying data by weighting based on the content importance information 1C.
  • step S108a the content display mode determination unit 61 determines whether or not the obtained value V of the entire content is greater than the maximum value V of the content value.
  • step S109a the display mode determination unit 61 substitutes V for V and sets the value of V to
  • max max Video conversion parameter that realizes optimal display on the video display unit and associated data conversion parameter generation that realizes optimal display on the associated data display unit for the kth division pattern to be processed at present Then, the kth division pattern, the generated video conversion parameter, and the accompanying data conversion parameter are stored together in a storage device such as a memory.
  • V The value of V is updated, and the division pattern, video conversion parameter, and accompanying data conversion parameter are updated.
  • the content display mode determination unit 61 adds 1 to the variable k in step 110b). If it is determined in step S108a that the value V of the entire content is not greater than the maximum value V of the content value, the content display mode determination unit 61
  • step S109a Without adding the processing of step S109a, 1 is added to the variable k.
  • step Sl lla determines whether or not the value of variable k is greater than the value of variable k in step Sl lla. If it is determined that the value power of the variable k is greater, the content display mode determination unit 61 determines that the processing has been completed for all the divided patterns, Step SI 12a is entered. If it is determined that the value is not greater than the value k of the variable k, the content display mode determination unit 61 returns to step S 103a and repeats the processing from step S 103a to step S 110a. That is, the content display mode determination unit 61 determines that there is an unprocessed division pattern, reads the next division pattern stored by the division pattern storage unit 34, and evaluates the content value when using the division pattern. To do.
  • step SI 11a determines in step SI 11a that the value of variable k is greater than n.
  • step S112a determines in step S112a that the currently stored division pattern, video conversion parameter, and associated parameters are stored in the storage device. Extract and output data conversion parameters. That is, the content display mode determination unit 61 outputs a division pattern, a video conversion parameter, and an accompanying data conversion parameter when the content value V is maximum.
  • step S102b the content display mode determination unit 61 initializes each variable and parameter used when processing each superimposed pattern.
  • W is the content display mode decision.
  • step S103b the content display mode determination unit 61 reads the first superposition pattern from the superposition pattern accumulation unit 35, and in step S104b, based on the read superposition pattern, the video section to be processed In addition, the accompanying data is superimposed on the video. Tatami.
  • step S105b the content display mode determination unit 61 converts the accompanying data corresponding to the video section in an optimal form and displays the value of the accompanying data when the converted accompanying data is displayed on the accompanying data display unit. (Maximum value) is calculated using a predetermined evaluation function.
  • the content display mode determination unit 61 uses, for example, the number of items of accompanying data to be displayed, the importance of those items, and an evaluation function using the number of pages required for display as a variable, and has the accompanying data force S after conversion. Determine value.
  • step S106b the content display mode determination unit 61 converts the video in a form optimal for the display screen and displays the value (maximum value) having video power when the converted video is displayed on the display screen in advance. Calculation is performed using a predetermined evaluation function.
  • the content display mode determination unit 61 uses an evaluation function to obtain a video value that also considers a decrease in value due to the accompanying data being superimposed. For example, the content display mode determination unit 61 obtains the video value so that the value is high when the accompanying data is superimposed and displayed at a location that does not disturb the video such as the sky or a single color background. On the contrary, the content display mode determination unit 61 obtains the video value so that the value is lowered when the video content is greatly disturbed, for example, by superimposing the accompanying data on the face of the main character.
  • the content display mode determination unit 61 preliminarily calculates the value W of the entire content (that is, video and associated data) displayed on the display screen based on the converted video and accompanying data. Calculation is performed using a predetermined evaluation function. In the present embodiment, the content display mode determination unit 61 calculates the value V of the entire content using an evaluation function weighted based on the content importance level information 1C based on the value of both the video and the accompanying data.
  • step S108b the content display mode determination unit 61 determines whether or not the calculated value W of the entire content is greater than the maximum value W of the content value.
  • step S109b the display mode determination unit 61 substitutes W for W
  • the first superimposition pattern to be processed is A video conversion parameter that realizes an appropriate display and an accompanying data conversion parameter that realizes an optimal display in the accompanying data display unit are generated.
  • the first superimposition pattern, the generated video conversion parameter and the accompanying data conversion parameter, are also stored in a storage device such as a memory.
  • the content display mode determination unit 61 adds 1 to the variable 1 in step SI 10b. If it is determined in step S 108b that the value W of the entire content is not greater than the maximum value W of the content value, the content display mode determination unit 61
  • step S109b Without adding the process of step S109b, add 1 to variable 1 as it is.
  • the content display mode determination unit 61 determines whether or not the value of the variable 1 is larger than m in step Sl l lb. If it is determined that the value of variable 1 is greater than m, the content display state determination unit 61 determines that the processing has been completed for all the superimposed patterns, and proceeds directly to the processing of step S112b. If it is determined that the value of variable 1 is not greater than m, the content display mode determination unit 61 returns to step S103b, and the step S103b force repeatedly executes the processing up to step S11Ob. That is, the content display mode determining unit 61 determines that there is an unprocessed superimposed pattern, reads the next superimposed pattern stored by the superimposed pattern storage unit 35, and evaluates the content value when using the superimposed pattern. .
  • step S 112b determines in step S 112b the superimposed pattern and video conversion parameter currently stored in the storage device. And the accompanying data conversion parameters are extracted and output. That is, the content display mode determination unit 61 outputs the overlapping pattern, the video conversion parameter, and the accompanying data conversion parameter when the content value W is maximized.
  • step S112b is compared with the evaluation value W corresponding to the superimposition pattern adopted in step S112b, that is, the optimal superposition pattern.
  • step S113c the content display mode determination unit 61 determines whether or not the evaluation value V is greater than the evaluation value W.
  • the content display mode determination unit determines whether the evaluation value V is determined to be greater than the evaluation value W. If the evaluation value V is determined to be greater than the evaluation value W, the content display mode determination unit
  • step S114c 61 outputs the division pattern, video conversion parameter, and accompanying data conversion parameter when the content value V is maximized to the content conversion unit 22.
  • the content display mode determination unit 61 generates layout information indicating an arrangement layout on the display screen using the division pattern when the content value V is maximized, and includes a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the display mode determination information 61A including “” is output to the content conversion unit 22.
  • step S115c unit 61 outputs the superimposition pattern, video conversion parameter, and accompanying data conversion parameter when content value V is maximum to content conversion unit 22.
  • the content display mode determination unit 61 generates layout information indicating an arrangement layout on the display screen using the superposition pattern when the content value V is maximum, and generates a video conversion parameter, an accompanying data conversion parameter, and layout information.
  • the display state determination information 61A including “” is output to the content conversion unit 22.
  • the content display mode determination unit 61 repeats the process described above for each video section included in the video data requested for distribution. Then, the content display mode determination unit 61 calculates content values for all divided patterns and superimposition patterns for each video section, determines a position outside the layout layer, and outputs display mode determination information 61A.
  • the content distribution server 6 matches the content of the video and the corresponding associated data for each video section included in the video data.
  • the content display mode is adaptively determined.
  • the content distribution server 6 distributes the content converted according to the determined display mode to the user terminal 1.
  • the user terminal 1 displays the video display unit and the accompanying data display unit while dynamically changing for each video section in accordance with the distributed content. That is, according to the present embodiment, the content display mode can be automatically determined for each video section, and the video and the accompanying data can be displayed in a layout according to the configuration of the display screen and the content. Therefore, even if the content creator does not design a screen configuration for each display screen for each piece of information (that is, video and associated data), the video and associated data are arranged in a layout according to the configuration of the display screen and content. Can be displayed.
  • the display mode of the video and the accompanying data can be adaptively determined and displayed for each video section according to the contents of the video and the accompanying data, so that the video data can be effectively displayed.
  • a content display system that presents data and accompanying data can be realized.
  • the content distribution server 6 adaptively determines the display mode of the content based on the display screen of the terminal, which is a request condition for viewing the video data and the accompanying data! To do. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data on an arbitrary display screen.
  • the content distribution server 6 adaptively determines the display mode of the content based on the importance balance that is a requirement condition on the side of viewing the video data and the accompanying data. Therefore, it is possible to realize a content display system that effectively presents video data and accompanying data in accordance with user preferences.
  • the content distribution server converts the content in response to a request from the user terminal 1, and the content distribution server distributes the converted content to the user terminal 1. And then.
  • a content display system configured to receive the content itself requested by the user directly on the terminal and convert and display the content on the user terminal or the user home server will be described.
  • the user terminal is, for example, the Internet The content itself is downloaded via this, and the downloaded content is converted and displayed.
  • the user terminal includes, for example, a database that stores content in advance, and converts and displays the content stored in advance.
  • FIG. 12 shows the configuration of the content display system of the fifth embodiment.
  • the content display system of the present embodiment includes a user terminal 7, an input device 8 such as a keyboard or a mouse, a display unit 9 such as a display device or a liquid crystal display unit, a content database 3 and the like. And a divided pattern accumulating section 34.
  • the content database 3 stores content created by a content producer, and includes a video data storage unit 31, a video associated data storage unit 32, and a metadata storage unit 33.
  • the video data storage unit 31 stores video data to be displayed on the screen.
  • the video accompanying data storage unit 32 stores accompanying data that is information to be displayed together with the video.
  • the metadata accumulating unit 33 stores metadata used for determining the content display mode.
  • the division pattern accumulating unit 34 accumulates a plurality of division patterns in advance indicating a pattern for dividing the display screen into the video display unit and the accompanying data display unit.
  • the user terminal 7 is a terminal used by the user, and more specifically, a personal computer is an information processing terminal such as a mobile phone or a PDA.
  • the user terminal 7 is not limited to the information processing terminal used by these users, but may be another content display terminal including a display unit capable of displaying content.
  • the user terminal 7 may be a television receiver, a terminal equipped with an electric bulletin board, a car navigation terminal, or the like.
  • the user terminal 7 includes a content display mode determination unit 71 and a content conversion unit 72.
  • the content display mode determination unit 71 functions to input the request information 1A and the display screen information 1B from the input device 8 according to the user's operation, and the request given (input) from the input device 8. Using the information 1A and the display screen information 1B, the same processing as the content display mode determination unit 21 in the first embodiment is performed, and the function for determining the content display mode and the determined display mode are shown.
  • the display mode determination information 71A is generated and provided to the content conversion unit 72. As shown in FIG. 12, the content conversion unit 72 includes a video data conversion unit 721, an accompanying data conversion unit 722, and a content arrangement unit 723.
  • the functions of the video data conversion unit 721, the accompanying data conversion unit 722, and the content arrangement unit 723 are the same as those shown in the first embodiment.
  • the content conversion unit 72 instead of the content distribution server distributing the converted content to the user terminal, displays the video and the accompanying data on the content display unit 9 based on the converted content.
  • the storage device (not shown) of the user terminal 7 stores various programs for displaying content including video data and accompanying data.
  • the storage device of the user terminal 7 has a process for determining a display mode when displaying video data and accompanying data included in content on a display screen for each video section on a computer, and for each video section.
  • a content display program for executing processing for generating content in which video data and associated data are arranged and processing for displaying content in which video data and accompanying data are arranged is stored. is doing.
  • the content display mode determination unit 71 may input the importance balance information 1C from the input device 8 in addition to the request information 1A and the display screen information 1B.
  • the content display mode determination unit 71 may determine the content display mode based on the importance balance information 1C in addition to the request information 1A and the display screen information 1B.
  • This content display system may include a superimposed pattern storage unit 35 in addition to the divided pattern storage unit 34.
  • the content display mode determination unit 71 may determine the display mode of the content by using the overlapping pattern stored by the superimposed pattern storage unit 35 in addition to the divided pattern stored by the divided pattern storage unit 34. ,.
  • the content display mode determination unit 71 uses the display mode determination process described in any of the second to fourth embodiments described above, not limited to the process described in the first embodiment. Thus, the display mode of the content may be determined.
  • the content display mode is determined in the user terminal 7 and the content conversion is performed. Is possible.
  • the content distribution server determines the content display mode, and distributes the converted content converted according to the determined display mode to the user terminal.
  • the content distribution server distributes the unconverted content itself to the user terminal, and the user terminal generates and displays the converted content according to the determined display mode.
  • Display The system is configured.
  • FIG. 13 shows the configuration of the content display system of the sixth embodiment.
  • the content display system of the present embodiment is the first implementation in that the user terminal 90 includes the content conversion unit 92 because the content distribution servo 80 includes the content conversion unit.
  • the form is different.
  • the function of the content distribution unit 83 of the content distribution server 80 is different from the function of the content distribution unit 23 shown in the first embodiment.
  • the information stored in the content database 3 and the division pattern storage unit 34 is the same as the information stored in the first embodiment, and the content display of the content distribution server 80 is displayed.
  • the function of the mode determining unit 81 is the same as the function of the content display mode determining unit 21 shown in the first embodiment.
  • the content distribution unit 83 sends the content requested for distribution (that is, video data and accompanying data) from the content database 3 based on the request information 1A.
  • the function of extracting, the extracted content, and the display mode determination information 81A generated by the content display mode determination unit 81 are provided to the user terminal 90 via the communication network 40.
  • the content conversion unit 92 of the user terminal 90 has a function of receiving the display mode determination information 81A and the content from the content distribution server 80 via the communication network 40. As shown in FIG. It includes a data conversion unit 921, an accompanying data conversion unit 922, and a content arrangement unit 923.
  • the video data conversion unit 921 is a video conversion parameter included in the display mode determination information 81A. Is used to convert video data included in the received content.
  • the accompanying data conversion unit 922 has a function of converting the accompanying data included in the received content using the accompanying data conversion parameter included in the display mode determination information 81A.
  • the content arrangement unit 923 arranges the video data converted by the video data conversion unit 921 and the incidental data converted by the accompanying data conversion unit 922 on the layout according to the layout information included in the display mode determination information 81A. It has a function to generate converted content.
  • the content arrangement unit 923 also has a function of displaying video and associated data on a display unit (not shown) such as a liquid crystal display unit based on the converted content.
  • Fig. 14 shows the process in which the content distribution server distributes content in response to a request from the user terminal.
  • the user terminal 90 follows the processing similar to step S11 shown in FIG. 3 and sends the request information 1A and the display screen information 1B to the content distribution server 80 via the communication network 40 in step S21.
  • the content display mode determination unit 81 of the content distribution server 80 determines the content display mode for each video section in step S22 according to the same processing as step S12 shown in FIG.
  • the content distribution unit 83 extracts the video data of the content requested for distribution from the content database 3 in step S23 based on the request information 1A, and distributes the content in step S24.
  • the accompanying data of the requested content is extracted from the content database 3.
  • step S25 the content distribution unit 83 receives the extracted video data and associated data and the display mode determination information 81A generated by the content display mode determination unit 81 via the communication network 40. Send to terminal 90.
  • the content distribution unit 83 distributes the unconverted content itself (that is, video data and accompanying data) and the arrangement conditions of the video and the accompanying data.
  • User terminal 90 receives the content and display mode determination information 81A from content distribution Sano 80 via the communication network. Then, the content conversion unit 92 Based on the received content and display mode determination information 81A, in step S26, the video data and the accompanying data are converted and arranged according to the arrangement condition indicated in the display mode determination information 81A, and the converted content is obtained. Is generated. Then, the content conversion unit 92 displays the video and the accompanying data on the display unit based on the generated converted content.
  • the content display mode determination unit 81 may receive the importance balance information 1C from the user terminal 90 in addition to the request information 1A and the display screen information 1B. In that case, the content display mode determination unit 81 may determine the content display mode based on the importance balance information 1C in addition to the request information 1A and the display screen information 1B.
  • the content display system may include a superimposed pattern storage unit 35 in addition to the division pattern storage unit 34.
  • the content display mode determination unit 81 may determine the display mode of the content using the superimposed pattern stored in the superimposed pattern storage unit 35 in addition to the divided pattern stored in the divided pattern storage unit 34. .
  • the content display mode determination unit 81 is not limited to the process described in the first embodiment, and uses the display mode determination process described in any of the second to fourth embodiments described above.
  • the display mode of the content may be determined.
  • the content display mode determination unit Metadata for each video segment and metadata for accompanying data of each video segment may be generated in real time.
  • the content display mode determination unit includes a metadata generation unit that generates metadata corresponding to the content to be displayed (that is, video metadata and accompanying metadata), and the metadata generation unit generates the metadata generated by the metadata generation unit. Based on this, the display mode of the content to be displayed may be determined.
  • the metadata generation unit is, for example, a server that operates according to a program.
  • the content display mode determination unit can obtain (determine) the resolution of the video from the video data itself as metadata for the entire video data. [0189] Further, the content display mode determination unit can extract a video section in real time as metadata by automatically detecting a video cut change in real time from the video data being played back. In this case, every time a cut is detected, the content display mode determination unit can use the detected cut as the start point of a new shot and the frame before the detected cut as the end point of the previous shot.
  • the cut detection method that can be used here is, for example, column f, Ullas Gargi, Rangacnar Kasturi, 3 ⁇ 4usan H. 3 ⁇ 4trayer, 'Performance Characterization of Video- Shot- Change Detection Methods, IEEE Transaction on Circuits and Systems for Video. There are methods described in Technology, Vol. 10, No. 1, February 2000.
  • the content display mode determination unit can generate attention area information by automatically extracting attention areas such as areas including appearances from the video as metadata for each video section. For example, A. Monan, C. Papageorgiou, T. Poggio, 'Example ⁇ Based Object Detection in Images by Components ", IEEE Trans, on PA MI, Vol. 23, No. 4, pp. 349—361, 2001.
  • the content display mode determination unit can automatically generate metadata for the accompanying data of each video section by counting each display item included in the accompanying data and the number of characters of each item.
  • the accompanying data corresponding to each video section always exists.
  • the accompanying data does not necessarily exist for all video sections. .
  • the video data includes video such as TV commercials between programs, there may be no accompanying data corresponding to the video segment of the TV commercial.
  • the content display mode determination unit may determine the display mode so that only the video corresponding to the video section is displayed without displaying the accompanying data when the accompanying data does not exist for the video section. .
  • a use program including a plurality of topics is prepared as video data, stored in the content database 3 in advance, and the accompanying data includes the title of each use topic and the detailed contents of the topic.
  • the video resolution is stored in advance in the content database 3 as video metadata, and the title of each use topic, the number of characters in the detailed text, and the importance of each topic are stored in the content database 3 in advance as metadata for accompanying data. Accumulated and retained.
  • the content distribution server has a function of displaying the video data requested from the user terminal 1 (distribution request) and the accompanying data in accordance with the display capability of the user terminal.
  • the present inventors conducted an experiment in which content is displayed on a display screen by accessing a content distribution server and requesting a use program using a plurality of terminals such as a television receiver and a mobile phone. It was. In addition, the present inventors conducted experiments for cases where the following three types of importance balance were given as the importance balance between video and accompanying data.
  • FIG. 15 and FIG. 16 are explanatory diagrams showing the results of experiments performed using the content display system.
  • FIG. 15 shows a display screen that is displayed according to the determined display mode when the television receiver power is also requested to distribute a use program.
  • FIG. 16 shows a display screen that is displayed according to the determined display mode when a distribution of a use program is requested from a mobile phone.
  • the display mode of the content is adaptively determined according to the content of the video and the corresponding associated data. Therefore, a content display system that effectively presents video data and accompanying data has been realized.
  • the display mode of the content is adaptively determined based on the display screen of the terminal, which is a requirement on the side of viewing the video data and the accompanying data. Therefore, a content display system that effectively presents video data and accompanying data on an arbitrary display screen has been realized.
  • the display mode of the content is adaptively determined based on the importance balance that is a requirement on the side of viewing the video data and the accompanying data. Therefore, a content display system that effectively presents video data and accompanying data according to the user's preference has been realized.
  • the present invention can be applied to uses such as a content display system for displaying video data and accompanying data on an arbitrary display screen, a content display program for realizing the content display system on a computer, and the like. It also relates to video data such as television broadcasts and Internet broadcasts, and video data such as text information and web information. It can also be applied to applications that efficiently display accompanying data on any display screen such as a mobile phone, personal computer, or PDA.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 複数の映像区間からなる映像データとそれら映像データに付随する付随データとを含むコンテンツを表示するコンテンツ表示システムは、表示対象のコンテンツに含まれる映像データと付随データとを表示画面に表示するときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定部と、映像区間毎に、コンテンツ表示態様決定手段が決定した表示態様に従って映像データと付随データとが配置されたコンテンツを生成するコンテンツ配置部と、を備える。

Description

明 細 書
コンテンツ表示システム及びコンテンツ表示方法
技術分野
[0001] 本発明は、映像データと映像データに付随する付随データとを含むコンテンツを任 意の表示画面に表示するコンテンツ表示システム及びコンテンッ表示方法に関する
。また、本発明は、このようなコンテンツの酉 S信サービスを行うコンテンツ酉 S信システム 及びコンテンッ配信サーバにも関する。 背景技術
[0002] データ放送やインターネットを介した映像配信サービス等においては、利用者が映 像を視聴しながらその映像に付随するデータをその映像と同時に視聴することができ るようにしたサービスが提供されている。映像に付随するデータとしては、例えば、文 字情報が挙げられる。例えば、利用者によって-ユース番組が視聴されている際にそ の-ユース記事の詳細な内容や-ユースの見出し一覧をテキストで表示する形態の サービスや、利用者によって商品案内番組が閲覧されている際に商品の価格ゃ特 徴をテキストで表示する形態のサービスが提供されている。また映像は、テレビジョン 受信機によって視聴されるだけではなぐ携帯電話機や PDA (Personal Digital Asistant)、ノートブック型のパーソナルコンピュータ等によっても視聴されるようにな つてきている。デバイス面においても映像を視聴できる環境が充実してきている。そ のため、映像とその映像に付随されたデータとを様々な表示画面サイズをもつ各種 デバイスで視聴できるように、映像を視聴するための環境を整えることが重要な課題 となってきている。
[0003] 映像とその付随データとを表示する代表的な枠組み (サービス)として、ディジタル 放送におけるデータ放送がある。 日本国特許公開:特開 2001— 296852号公報に は、映像表示領域に隣接してテキスト情報表示領域を設け、映像の表示と同期させ て、テキスト情報をスクロール表示させる映像表示方法が開示されている。 日本国特 許公開:特開 2003— 18553号公報には、データ放送の画像及びテキストを含む内 容全体を表示するのでなぐデータ放送の内容力 テキストのみを抽出し、その抽出 したテキストを通常の放送番組の映像とともに表示するデータ放送受信装置が開示 されている。この特開 2003— 18553号公報に開示されたデータ放送受信装置によ れば、視聴者は、データ放送の内容の一部しか再生表示されていなくても、データ放 送の内容の概略を認識することができる。これら特開 2001— 296852号公報に記載 された映像表示方法ゃ特開 2003— 018553号公報に記載されたデータ放送受信 装置では、画面の解像度がほぼ一定である場合に、映像及び映像の付随データを 固定的に表示画面に表示することができる。これらの技術は、例えば、画面の解像度 がほぼ一定であるテレビジョン受信機向けに、映像及び付随データを固定的に表示 画面に表示させるために用いることができる。し力しながらこれらの技術を用いる場合 には、例えば、テレビジョン受信機以外の端末など、画面の解像度が異なる様々な端 末上で映像と付随データとを表示するためには、表示対象の表示画面毎に表示内 容ゃレイアウトを新たに作成 Z準備しなければならない。
[0004] 日本国特許公開:特開 2003— 32747号公報には、映像データとテキストデータと の双方のデータを合成することにより、表示すべき合成画像データを生成し、その合 成画像データを表示画面に表示する端末装置が開示されている。特開 2003— 327 47号公報に記載された端末装置によれば、携帯電話機など画面あたりの表示領域 が限られている端末において、テキスト等の付随画面データの内容をより明瞭に認識 することが可能となる。しかしながら、この端末装置では、表示画面の大きさにかかわ らず常に付随データを映像に重畳するので、表示画面の大きさに合わせて、付随デ ータを重畳させる形態、例えば、文字の大きさや重畳させる場所等を表示画面毎に 定めなければならない。しかし、一般に、想定される全ての表示画面に対して、映像 等のコンテンツの作成者が予め付随データを重畳させる形態、すなわちレイアウト情 報を準備することは困難である。また、元の映像や付随データに変更があった場合 に、コンテンツの作成者が作成 Z準備したレイアウトを全て更新することは困難である 。従って、特開 2003— 032747号公報に記載された端末装置では、コンテンツの作 成者が利用環境を想定してレイアウト情報を作りこむコストがかかり、作成した各バー ジョンのレイアウト情報を管理するためにかかるコストが高 、ものとなる。
[0005] 日本国特許公開:特開平 6— 149968号公報には、文書中での画像とその画像以 外のデータとのレイアウトを、文書領域の大きさにあわせて自動的に決定する文書処 理装置が開示されている。また、日本国特許公開:特開 2003— 67100号公報には 、タイトル、テキスト及び画像を含む情報を画面に表示させるためのレイアウトを表示 画面にあわせて動的に生成し、生成したレイアウト情報に基づいて情報を表示する ディジタルコンテンツ表示方法が開示されている。しかしながら、特開平 6— 149968 号公報に記載された文書処理装置ゃ特開 2003— 067100号公報に記載されたデ イジタルコンテンツ表示方法では、時間軸を有する、すなわち時間とともに画像が変 化する映像を付随データとともに表示する場合は考慮されて ヽな ヽ。これらの文書処 理装置やディジタルコンテンツ表示方法を映像を表示する場合に適用したとしても、 時間とともに変化する映像の構成に関係なぐ一度決定されたレイアウトを用 、て映 像が表示されることになり、そのため、映像と付随データとが表示画面に適切に配置 されて表示されるとは限らない。
[0006] 以下、本明細書で引用した文献を列挙する。
特許文献 1:特開 2001— 296852号公報
特許文献 2 :特開 2003— 18553号公報
特許文献 3:特開 2003 - 32747号公報
特許文献 4:特開平 6— 149968号公報
特許文献 5 :特開 2003— 67100号公報
非特干文献 1 : Ullas Gargi, Rangachar Kastun, ¾usan H. ¾trayer, Performance Characterization of Video― Shot― Change Detection M ethods", IEEE Transaction on Circuits and Systems for Video Te chnology, Vol. 10, No. 1, February 2000
非特許文献 2 : A. Mohan, C. Papageorgiou, T. Poggio, "Example― Based Object Detection in Images by Components , IEEE Trans, on PAMI, Vol. 23, No. 4, pp. 349— 361, 2001
発明の開示
発明が解決しょうとする課題
[0007] 上述したように、映像データと映像データに付随する付随データとを含むコンテン ッを任意の表示画面に表示する従来のコンテンツ表示システムでは、表示画面上に 映像データ及び付随データを表示させるための画面構成の設計が必要であり、複数 種類の端末の表示画面に対応してそれぞれの画面構成を設計する作業は極めて煩 雑である、という課題がある。
[0008] そこで本発明の目的は、コンテンツ作成者力 映像データ及び付随データなどの 個々の情報に対して表示画面毎に画面構成を設計しなくても、表示画面及びコンテ ンッの構成に応じたレイアウトで映像と付随データとを表示することが可能なコンテン ッ表示システムを提供することにある。
[0009] 本発明の別の目的は、コンテンツ作成者が、映像データ及び付随データなどの個 々の情報に対して表示画面毎に画面構成を設計しなくても、表示画面及びコンテン ッの構成に応じたレイアウトで映像と付随データとを表示することが可能なコンテンツ 表示方法を提供することにある。
課題を解決するための手段
[0010] 本発明の第 1の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを表示するコンテンツ表示システムは 、表示対象のコンテンッに含まれる映像データと付随データとを表示画面に表示す るときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段を有する
[0011] 本発明の第 2の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを表示するコンテンツ表示システムで あって、表示画面の大きさを示す表示画面情報、各映像区間に対応する映像の属 性情報を含む映像メタデータ、及び映像区間に対応する各付随データの属性情報 を含む付随メタデータとに基づ 、て、映像と付随データとを表示画面に表示するとき の表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段と、コンテンツ 表示態様決定手段が決定した表示態様に従って、映像を変換する映像変換手段と 、コンテンツ表示態様決定手段が決定した表示態様に従って、付随データを変換す る付随データ変換手段と、映像区間毎に、コンテンツ表示態様決定手段が決定した 表示態様に従って、映像変換手段が変換した映像と付随データ変換手段が変換し た付随データとが配置されたコンテンツを生成するコンテンツ配置手段と、を有する。
[0012] 本発明の第 3の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを酉己信するコンテンツ酉己信システムは 、利用者端末と、コンテンツを配信するコンテンツ配信サーバと、を有する。このコン テンッ配信システムにおいて、利用者端末は、コンテンツの配信要求を、通信ネット ワークを介してコンテンツ配信サーバに送信するコンテンツ要求手段を有する。コン テンッ配信サーバは、利用者端末からコンテンツの配信要求を受信すると、配信要 求されたコンテンツに含まれる映像データと付随データとを表示画面に表示するとき の表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段と、映像区間毎 に、コンテンツ表示態様決定手段が決定した表示態様に従って映像データと付随デ ータとが配置されたコンテンツを生成するコンテンツ配置手段と、コンテンツ配置手段 が生成したコンテンツを、通信ネットワークを介して利用者端末に送信するコンテンツ 配信手段と、を有する。
[0013] 本発明の第 4の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを配信するコンテンツ配信サーバは、 配信要求されたコンテンツに含まれる映像データと付随データとを表示画面に表示 するときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段を備え る。
[0014] 本発明の第 5の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを配信するコンテンツ配信サーバは、 映像データに含まれる各映像、及び映像に対応する付随データの表示形態に関す る要求条件に基づいて、映像と付随データとを表示画面に表示するときの表示態様 を、映像区間毎に決定するコンテンツ表示態様決定手段と、コンテンツ表示態様決 定手段が決定した表示態様に従って、映像を変換する映像変換手段と、コンテンツ 表示態様決定手段が決定した表示態様に従って、付随データを変換する付随デー タ変換手段と、映像区間毎に、コンテンツ表示態様決定手段が決定した表示態様に 従って、映像変換手段が変換した映像と付随データ変換手段が変換した付随データ とが配置されたコンテンツを生成するコンテンツ配置手段と、コンテンツ配置手段が 生成したコンテンツを、利用者端末に配信するコンテンツ配信手段と、を有する。
[0015] 本発明の第 6の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを表示するコンテンツ表示方法は、表 示対象のコンテンツに含まれる映像データと付随データとを表示画面に表示するとき の表示態様を、映像区間毎に決定するステップを含む。
[0016] 本発明の第 7の様相に従えば、複数の映像区間からなる映像データとその映像デ ータに付随する付随データとを含むコンテンツを表示するコンテンツ表示方法は、表 示画面の大きさを示す表示画面情報、映像データに含まれる各映像区間に対応す る映像の属性情報を含む映像メタデータ、及び映像区間に対応する付随データの 属性情報を含む付随メタデータとに基づいて、各映像区間について映像データと付 随データとを表示画面に表示するときの表示態様を、映像区間毎に決定するコンテ ンッ表示態様決定ステップと、コンテンッ表示態様決定ステップで決定した態様を用 V、て、映像データと映像データに対応する付随データとを表示するコンテンツ表示ス テツプと、を有する。
[0017] 本発明によれば、映像データに含まれる映像区間毎に、映像及び対応する付随デ ータの内容に合わせてコンテンツの表示態様が適応的に決定される。そのため、決 定された表示態様に従って、表示画面上において映像を表示する映像表示部と付 随データを表示する付随データ表示部とを映像区間毎に動的に変化させながら、コ ンテンッを表示することができる。すなわち、本発明によれば、コンテンツの表示態様 を映像区間毎に自動的に決定し、表示画面及びコンテンツの構成に応じたレイアウト で映像と付随データとを表示することができる。従って、コンテンツ作成者が個々の情 報 (すなわち映像及び付随データ)に対して表示画面毎に画面構成を設計しなくても 、表示画面及びコンテンツの構成に応じたレイアウトで映像と付随データとを表示す ることがでさる。
[0018] 本発明によれば、映像及び付随データの内容に応じて、映像区間毎にコンテンツ の表示態様が適応的に決定され表示されるので、利用者に対して、より効果的に映 像データと付随データとを提示するコンテンツ表示システムを実現することができる。 また本発明にお 、て、映像データと付随データとを視聴する側の要求条件である端 末の表示画面に基づいて、コンテンツの表示態様を適応的に決定するように構成す れば、任意の表示画面に対して効果的に映像データと付随データとを提示するコン テンッ表示システムを実現することができる。さらに本発明において、映像データと付 随データとを視聴する側の要求条件である重要度バランスに基づ 、て、コンテンツの 表示態様を適応的に決定するように構成すれば、利用者の嗜好に合わせて効果的 に映像データと付随データとを提示するコンテンツ表示システムを実現することがで きる。
図面の簡単な説明
[図 1]本発明の第 1の実施形態のコンテンッ表示システムの構成を示すブロック図で ある。
[図 2]コンテンツデータベースが蓄積する映像データ、付随データ及びメタデータの 例を示す図である。
[図 3]利用者端末力もの要求に応じて、コンテンツ配信サーバがコンテンツを配信す る処理の一例を示すフローチャートである。
[図 4A]利用者端末が映像及び付随データを表示する表示画面のレイアウトの一例を 示す図である。
[図 4B]利用者端末が映像及び付随データを表示する表示画面のレイアウトの別の例 を示す図である。
[図 5]コンテンツ表示態様決定部がコンテンツの表示態様を決定する表示態様決定 処理の一例を示すフローチャートである。
[図 6]本発明の第 2の実施形態のコンテンツ表示システムの構成を示すブロック図で ある。
[図 7]図 6に示すシステムにおいてコンテンツ表示態様決定部がコンテンツの表示態 様を決定する処理の例を示すフローチャートである。
[図 8]本発明の第 3の実施形態のコンテンツ表示システムの構成を示すブロック図で ある。
[図 9]図 8に示すシステムにおいてコンテンツ表示態様決定部がコンテンツの表示態 様を決定する処理の例を示すフローチャートである。 [図 10]本発明の第 4の実施形態のコンテンツ表示システムの構成を示すブロック図で ある。
[図 11]図 10に示すシステムにおいてコンテンツ表示態様決定部がコンテンツの表示 態様を決定する処理の例を示すフローチャートである。
[図 12]本発明の第 5の実施形態のコンテンツ表示システムの構成を示すブロック図で ある。
[図 13]本発明の第 6の実施形態のコンテンツ表示システムの構成を示すブロック図で ある。
圆 14]利用者端末力もの要求に応じて、コンテンツ配信サーバがコンテンツを配信す る処理の例を示すフローチャートである。
圆 15]テレビジョン受信機力も-ユース番組を配信要求した場合に、決定した表示態 様に従って表示した表示画面を示す図である。
圆 16]携帯電話機力も-ユース番組を配信要求した場合に、決定した表示態様に従 つて表示した表示画面を示す図である。
符号の説明
1, 7, 90 利用者端末
2, 4, 5, 6, 80 コンテンツ配信サーバ
3 コンテンツデータベース
8 入力装置
9 表示部
21, 41, 51, 61, 71, 81 コンテンツ表示態様決定部
22, 72, 92 コンテンツ変換部
23, 83 コンテンツ酉 S信咅
31 映像データ蓄積部
32 映像付随データ蓄積部
33 メタデータ蓄積部
34 分割パターン蓄積部
35 畳パターン蓄積部 40 通信ネットワーク
221, 721, 921 像データ変換部
222, 722, 922 付随データ変換部
223, 723, 923 コンテンツ配置部
発明を実施するための最良の形態
[0021] 第 1の実施形態:
本発明の第 1の実施形態のコンテンツ表示システムについて説明する。図 1は、第 1の実施形態のコンテンツ表示システムの構成を示して 、る。このコンテンツ表示シス テムは、利用者端末 1、コンテンツ配信サーバ 2、コンテンツデータベース 3及び分割 ノ ターン蓄積部 34を含む。利用者端末 1とコンテンツ配信サーバ 2とは、インターネッ ト等の通信ネットワーク 40を介して接続されて 、る。
[0022] コンテンツ表示システムは、映像データ及びその映像データに付随する所定の付 随データとを含むコンテンツを表示する。このときコンテンツ表示システムは、コンテン ッの構成に応じたレイアウトで表示画面に配置して映像及び付随データを同時に表 示する。なお、第 1の実施形態では、図 1に示すように、コンテンツ配信サーバ 2が利 用者端末 1に対してコンテンツを配信し、受信したコンテンツを利用者端末 1が表示 する構成を備えることによって、コンテンツ表示システムが実現されて ヽる。
[0023] 利用者端末 1は、利用者が使用する端末であり、具体的には、パーソナルコンビュ ータゃ携帯電話機、 PDA等の情報処理端末である。なお、利用者端末 1は、これら 利用者が使用する情報処理端末に限らず、コンテンツを表示可能な表示部を備えた 他のコンテンツ表示端末であってもよい。例えば、利用者端末 1は、テレビジョン受信 機や、電光掲示板を搭載した端末、壁掛け時計、カーナビゲーシヨン端末等であつ てもよい。図 1では、 1つの利用者端末 1を示している力 コンテンツ表示システムは、 複数の利用者端末 1を含んで 、てもよ 、。
[0024] 利用者端末 1は、利用者の操作に従って、コンテンツの配信要求を、通信ネットヮ ークを介してコンテンツ配信サーバ 2に送信する機能を備える。本実施の形態では、 利用者端末 1は、コンテンツの配信を要求する旨のリクエスト情報 1Aと、利用者端末 1の表示画面のサイズ (大きさ)を示す表示画面情報 1Bとを、コンテンツ配信サーバ 2 に送信する。例えば、利用者端末 1は、リクエスト情報 1Aとして、配信要求するコンテ ンッを識別するための識別子を含む情報を送信する。識別子は、例えば、コンテンツ 名やコンテンツ ID、ファイル名、タイトルカゝらなる。利用者端末 1は、表示画面情報 1B として、利用者端末 1の表示画面の解像度を含む情報を送信する。なお、例えば、ブ ラウザ等を用いてコンテンツを表示する場合、利用者端末 1は、コンテンツを表示す るブラウザのウィンドウ部分の解像度を含む情報を送信する。
[0025] また、利用者端末 1は、決定した表示態様に従ってコンテンツ配信サーバ 2が生成 したコンテンツを表示するコンテンツ表示咅を備える。コンテンツ表示咅は、 ί列えば、 液晶表示部等の表示部に各種情報を表示させる利用者端末 1の CPUを含んでいる 。本実施形態では、利用者端末 1は、コンテンツ配信サーバ 2から、通信ネットワーク を介してコンテンツを受信する。そして、利用者端末 1は、受信したコンテンツに基づ いて、表示部に映像を表示し、映像と同時に付随データを表示する。
[0026] 分割パターン蓄積部 34は、表示画面を、映像を表示する映像表示部と付随データ を表示する付随データ表示部とに分割するパターンを示した分割パターンを予め複 数蓄積するものであって、具体的には、磁気ディスク装置や光ディスク装置等のデー タベース装置によって実現される。このような分割パターン蓄積部 34は、分割パター ンとして、例えば、 L字型や U字型の形状に、表示画面を映像表示部と付随データ表 示部とに分割するパターンを蓄積する。あるいは、分割パターン蓄積部 34は、例え ば、分割パターンとして、単純に縦方向又は横方向に分割することによって、表示画 面を映像表示部と付随データ表示部とに分割するパターンを蓄積する。この場合、 分割パターン蓄積部 34は、表示画面を同じ形状 (例えば、 L字型)に分割する場合 であっても、各領域すなわち映像表示部と付随データ表示部の面積の割合が異なる ように、分割する複数の分割パターンを蓄積する。
[0027] コンテンツデータベース 3は、コンテンツ製作者によって作成されたコンテンツを蓄 積するものであって、具体的には、磁気ディスク装置や光ディスク装置等のデータべ ース装置によって実現される。図 1に示すように、コンテンツデータベース 3は、映像 データ蓄積部 31、映像付随データ蓄積部 32及びメタデータ蓄積部 33を含む。映像 データ蓄積部 31は、画面に表示されるための映像データを格納する。映像付随デ ータ蓄積部 32は、映像と共に表示されるべき情報である付随データを格納する。メタ データ蓄積部 33は、コンテンツ表示態様の決定に用いられるメタデータを格納する。 なお本実施形態では、映像データ蓄積部 31が蓄積する映像データと、映像付随デ ータ蓄積部 32が蓄積する付随データとの組み合わせによって、 1つのコンテンツが 構成される。図 1では、 1つのコンテンツデータベース 3を示している力 映像データ 蓄積部 31、映像付随データ蓄積部 32及びメタデータ蓄積部 33のうちのいずれか、 又は全てがそれぞれ別々のデータベース装置によって実現されてもよい。
[0028] 図 2は、コンテンツデータベース 3が蓄積する映像データ、付随データ及びメタデー タの例を示している。図 2に示すように、映像データは、複数の映像区間 801, 802, 803, 804から構成される。本実施形態において、映像区間は、例えば、 1台のカメラ で連続的に撮影された区間であるショットであってもよいし、例えば、意味内容のまと まりをもつ複数ショットの集合であるシーンであってもよい。あるいは、映像区間は、例 えば、コンテンツの制作者等により予め指定された任意の長さをもつ区間であっても よい。
[0029] 図 2に示すように、コンテンツデータベース 3は、映像区間毎に、それぞれ対応する 付随データ 811, 812, 813, 814、及びそれぞれ対応するメタデータ 821, 822, 8 23, 824を蓄積する。コンテンツデータベース 3は、付随データについても、それぞ れ対応するメタデータ 831, 832, 833, 834を付随データ毎に蓄積する。さらに、コ ンテンッデータベース 3は、映像データ全体の各種情報を含むメタデータ 840、及び 付随データ全体の各種情報を含むメタデータ 850を蓄積する。なお、メタデータ 840 とメタデータ 850とが 1つのメタデータとして構成されて!、てもよ!/、。
[0030] 各映像区間に対応する付随データは、対応する映像区間と連動させて表示画面に 表示させるべき各種情報、例えばテキスト情報を含んでいる。各付随データは、プレ ーンテキスト形式のデータであってもよぐ XML (extended markup language) で記載された構造ィ匕テキストであってもよい。また、各付随データは、 HTML (hyper text markup languageノゃ BML (broadcast markup language)等で 己 れたハイパーテキストであってもよ!/ヽ。
[0031] メタデータ 840は、映像データ全体に対する情報を含む。例えば、図 2に示すように 、メタデータ 840は、映像の解像度や符号化方式、各映像区間の開始点、終了点及 び通し番号等を含む。メタデータ 850は、付随データ全体に関する情報を含む。例 えば、メタデータ 850は、付随データのジャンルやフォーマット等の情報を含む。メタ データ(映像メタデータ) 821, 822, 823, 824は、それぞれ各映像区間に含まれる 映像の属性情報を含む。例えば、メタデータ 821, 822, 823, 824は、映像中の注 目領域や、映像変換の際の制限事項の情報を含む。映像変換の際の制限事項とし ては、例えば、拡大縮小率や、圧縮率等の上限、下限、変換による映像価値変化の 評価関数等が挙げられる。メタデータ (付随メタデータ) 831, 832, 833, 834は、そ れぞれ映像区間に対応する付随データの属性情報を含む。例えば、メタデータ 831 , 832, 833, 834は、付随データの文字数や項目数等の情報を含む。また、メタデ ータ 831, 832, 833, 834は、付随データ変換の際の制限事項を含み、映像区間 毎に映像及び付随データの重要度バランスが記述された映像区間重要度情報等が 格納されている。付随データ変換の際の制限事項としては、例えば、各表示項目の 重要度や、表示項目の優先順位、変換による付随データ価値変化の評価関数等が 挙げられる。なお、映像区間重要度情報は、コンテンツ製作者が作成し手動で割り当 ててもよぐサーバを用いて自動的に生成してもよい。また、映像区間重要度情報を 自動的に生成できるような重要度定義関数を定めておき、重要定義関数を用いて生 成してちょい。
[0032] コンテンツ配信サーバ 2は、例えば、各種映像コンテンツを酉己信するコンテンツ酉己信 サービスを提供するサービス事業者が運営するサーバであり、具体的には、ワークス テーシヨンやパーソナルコンピュータ等の情報処理装置によって実現される。図 1に 示すように、コンテンツ配信サーバ 2は、コンテンツ表示態様決定部 21と、コンテンツ 変換部 22と、コンテンツ配信部 23とを含む。
[0033] コンテンツ表示態様決定部 21は、具体的には、プログラムに従って動作する情報 処理装置の CPU及びネットワークインタフェース部によって実現される。コンテンツ表 示態様決定部 21は、リクエスト情報 1A及び表示画面情報 1Bを、通信ネットワークを 介して利用者端末 1から受信する機能を備える。また、コンテンツ表示態様決定部 21 は、利用者端末 1から与えられた (受信した)リクエスト情報 1A及び表示画面情報 1B と、コンテンツデータベース 3が蓄積するメタデータとに基づいて、配信要求されたコ ンテンッの表示態様を決定する機能も備える。この場合、コンテンツ表示態様決定部 21は、表示対象のコンテンツに含まれる映像データと付随データとを表示画面に表 示する際の表示態様を、映像区間毎に決定する。この実施形態では、コンテンツ表 示態様決定部 21は、映像区間毎に、リクエスト (配信要求)された映像とその映像に 対応する付随データとを、利用者端末 1で表示したときの最適な分割パターンを、分 割パターン蓄積部 34が蓄積する各分割パターンの中から選定 (選択)し、選択した 分割パターンに基づいて、配信要求されたコンテンツの表示態様を映像区間毎に決 定する。
[0034] さらにコンテンツ表示態様決定部 21は、決定した表示態様を示す表示態様決定情 報 21Aを生成し、コンテンツ変換部 22に出力する機能も備える。具体的には、コンテ ンッ表示態様決定部 21は、分割パターン蓄積部 34に用意された分割パターンのそ れぞれを用いて、映像区間毎に、表示画面を映像表示部と付随データ表示部とに分 割し、分割結果に従って、映像表示部に表示される映像及び付随データ表示部に 表示される付随データとから構成されるコンテンツ全体の評価値を求め、各分割バタ ーンのうち、評価値が最適となる場合、例えば、値が最大となる場合の分割パターン を、表示画面の分割に用いる分割パターンとして映像区間毎に決定する。
[0035] コンテンツ表示態様決定部 21が生成する表示態様決定情報 21Aは、映像変換パ ラメータと、付随データ変換パラメータと、レイアウト情報とを含む。映像変換パラメ一 タは、コンテンツ表示態様決定部 21が決定した表示態様に適応するように映像を変 換するためのパラメータである。例えば、コンテンツ表示態様決定部 21は、映像の変 換率を含む映像変換パラメータを生成する。映像の変換率には、例えば、映像の縮 小率や拡大率が含まれる。コンテンツ表示態様決定部 21は、利用者端末 1に送信す る映像データに含めるビット数を指定する情報や、映像の時間解像度変換率を含む 映像変換パラメータを生成してもよい。ここでの時間解像度変換率は、例えば、フレ 一ムの間弓 Iきの度合等を含む。
[0036] 付随データ変換パラメータは、コンテンツ表示態様決定部 21が決定した表示態様 に適応するように付随データを変換するためのパラメータである。例えば、コンテンツ 表示態様決定部 21は、決定した付随データ表示部のサイズに応じて、付随データの うち付随データ表示部に表示可能な量のデータを選択する。表示可能な量は、例え ば、文字数で表される。そして、コンテンツ表示態様決定部 21は、付随データ表示 部に表示可能なデータの一覧を含む付随データ変換パラメータを生成する。例えば 、コンテンツ表示態様決定部 21は、付随データ表示部に応じて、付随データに含ま れるテキストのうちのタイトル部分や所定文字以内の文章を抽出し、付随データ変換 パラメータを生成する。
[0037] レイアウト情報は、映像と付随データとの配置レイアウトすなわち分割パターンを記 述した情報である。コンテンツ表示態様決定部 21は、映像表示部及び付随データ表 示部の形状及びサイズを含むレイアウト情報を生成する。
[0038] コンテンツ変換部 22は、具体的には、プログラムに従って動作する情報処理装置 の CPUによって実現される。図 1に示すように、コンテンツ変換部 22は、映像データ 変換部 221と、付随データ変換部 222と、コンテンツ配置部 223とを含む。
[0039] 映像データ変換部 221は、リクエスト情報 1Aに基づいて、利用者端末 1からリクェ スト(配信要求)された映像を、データベース 3から呼び出す (抽出する)機能を備える 。映像データ変換部 221は、必要に応じて、映像変換パラメータを用いて、抽出した 映像データを変換する機能も備える。すなわち、映像データ変換部 221は、コンテン ッ表示態様決定部 21が決定した表示態様に従って、映像を映像区間毎に変換する 。この場合、例えば、映像データ変換部 221は、映像変換パラメータに示される変換 率に従って、抽出した映像を縮小又は拡大する。
[0040] 付随データ変換部 222は、リクエスト情報 1Aに基づいて、利用者端末 1からリクェ ストされた映像に対応する付随データを、データベース 3から呼び出す (抽出する)機 能を備える。付随データ変換部 222は、必要に応じて、付随データ変換パラメータを 用いて、付随データを変換する機能も備える。すなわち付随データ変換部 222は、コ ンテンッ表示態様決定部 21が決定した表示態様に従って、付随データを映像区間 毎に変換する。この場合、例えば、付随データ変換部 222は、付随データ変換パラメ ータに含まれる一覧に示されるデータを付随データ力 抽出し、変換後の付随デー タを生成する。一覧に示されるデータは、例えば、テキストのうちのタイトル部分や所 定文字以内の文章である。
[0041] コンテンツ配置部 223は、レイアウト情報に従って、映像データ変換部 221が変換 した映像データと、付随データ変換部 222が変換した付随データとをレイアウト上に 配置した新たなコンテンツを生成する機能を備える。以下、コンテンツ配置部 223が 変換後の映像及び付随データを用いて生成する新たなコンテンツを、変換済コンテ ンッともいう。例えば、コンテンツ配置部 223は、映像区間毎に、レイアウト情報に示さ れる映像表示部及び付随データ表示部の形状及びサイズに従って、変換後の映像 及び付随データをレイァゥト上に配置し、変換済コンテンッを生成する。
[0042] コンテンツ配信部 23は、具体的には、プログラムに従って動作する情報処理装置 の CPU及びネットワークインタフェース部によって実現される。コンテンツ配信部 23 は、利用者端末 1に、通信ネットワークを介して変換済コンテンツを配信する機能を 備える。なお、コンテンツ配信部 23は、変換後のコンテンツ全体を配信する代わりに 、変換後の映像データ、変換後の付随データ及びレイアウト情報を別個に配信しても よい。この場合、利用者端末 1は、受信したレイアウト情報に従って、変換後の映像デ ータ及び変換後の付随データを表示画面上に配置して表示する。
[0043] 本実施形態にぉ 、て、コンテンツ配信サーバ 2の記憶装置(図示せず)は、利用者 端末 1に変換済コンテンツを配信するための各種プログラムを記憶して 、る。例えば 、コンテンツ配信サーバ 2の記憶装置は、コンピュータに、コンテンツの配信要求を、 通信ネットワークを介して利用者端末から受信する処理と、利用者端末からコンテン ッの配信要求を受信すると、配信要求されたコンテンッに含まれる映像データと付随 データとを表示画面に表示する際の表示態様を、映像区間毎に決定する処理と、映 像区間毎に、決定した表示態様に従って、映像データと付随データとを配置したコン テンッを生成する処理と、映像データと付随データとを配置したコンテンツを、通信ネ ットワークを介して利用者端末に送信する処理とを実行させるためのコンテンツ配信 プログラムを記憶している。
[0044] 次に、第 1の実施形態のコンテンツ表示システムの動作について説明する。図 3は 、利用者端末力ゝらの要求に応じて、コンテンツ配信サーバがコンテンツを配信する処 理の一例を示している。 [0045] 利用者は、コンテンツを視聴した!/、場合、利用者端末 1を操作して、例えば、視聴し たいコンテンツの配信要求を入力指示する。利用者端末 1は、利用者の操作に従つ て、ステップ S11において、リクエスト情報 1A及び表示画面情報 1Bを、通信ネットヮ ークを介してコンテンツ配信サーバ 2に送信する。例えば、利用者端末 1は、利用者 によって指定されたコンテンツ名やコンテンツ IDを含むリクエスト情報 1Aを、通信ネ ットワークを介してコンテンツ配信サーバ 2に送信する。また、例えば、利用者端末 1 は、利用者端末 1の表示画面の解像度を含む表示画面情報 1Bを、通信ネットワーク を介してコンテンッ配信サーバ 2に送信する。
[0046] 利用者端末がこれらの情報を送信すると、コンテンツ配信サーバ 2のコンテンツ表 示態様決定部 21は、リクエスト情報 1A及び表示画面情報 1Bを、通信ネットワーク 40 を介して利用者端末 1から受信する。するとコンテンツ表示態様決定部 21は、受信し たリクエスト情報 1A及び表示画面情報 1Bと、コンテンツデータベース 3が蓄積するメ タデータとに基づいて、ステップ S12において、コンテンツの表示態様を映像区間毎 に決定する。またコンテンツ表示態様決定部 21は、映像変換パラメータ、付随データ 変換パラメータ及びレイアウト情報を含む表示態様決定情報 21Aを映像区間毎に生 成する。コンテンツ表示態様決定部 21は、生成した表示態様決定情報 21Aをコンテ ンッ変換部 22に出力する。
[0047] 次にステップ S13において、コンテンツ変換部 22の映像データ変換部 221は、リク ェスト情報 1Aに基づいて、配信要求されたコンテンツの映像データを、コンテンツデ ータベース 3から抽出し、表示態様決定情報 21Aに含まれる映像変換パラメータに 基づ 、て、抽出した映像データを映像区間毎に変換する。
[0048] 次にステップ S 14において、コンテンツ変換部 22の付随データ変換部 222は、リク ェスト情報 1Aに基づいて、配信要求されたコンテンツの付随データを、コンテンツデ ータベース 3から抽出し、表示態様決定情報 21Aに含まれる付随データ変換パラメ ータに基づいて、抽出した付随データを映像区間毎に変換する。
[0049] 次にステップ S15において、コンテンツ変換部 22のコンテンツ配置部 223は、表示 態様決定情報 21Aに含まれるレイアウト情報に従って、変換後の映像データと付随 データとを映像区間毎にレイアウトに配置し、変換済コンテンツを生成する。その後ス テツプ S16において、コンテンツ配信部 23は、コンテンツ変換部 22が生成した変換 済コンテンツを、通信ネットワークを介して利用者端末 1に送信する。
[0050] このようにして変換済コンテンツが生成され、利用者端末 1に送信されると、利用者 端末 1は、受信した変換済コンテンツに基づいて、映像を再生して表示し、映像ととも に、映像に対応する付随データを表示する。図 4A, 4Bは、それぞれ、利用者端末 1 が映像及び付随データを表示する表示画面のレイアウトの例を示して 、る。図 4Aは 、表示画面を横方向に分割する分割パターンを用いて、映像及び付随データを表示 する場合を示し、図 4Bは、表示画面を縦方向に分割する分割パターンを用いて、映 像及び付随データを表示する場合を示している。図 4A, 4Bに示すように、利用者端 末 1は、映像区間毎に、映像表示部と付随データ表示部との面積の割合を変化させ ながら、映像及び付随データを表示する。
[0051] 次に、図 3のステップ S12における、コンテンツ表示態様決定部 21がコンテンツの 表示態様を決定する動作について説明する。図 5は、コンテンツ表示態様決定部 21 がコンテンツの表示態様を決定する表示態様決定処理の一例を示すフローチャート である。本実施形態では、コンテンツ表示態様決定部 21は、映像区間毎に、分割パ ターン蓄積部 34が蓄積する各分割パターンを用いて、表示画面を映像表示部と付 随データ表示部とに分割した時のコンテンツの価値を求める。そして、コンテンツ表 示態様決定部 21は、コンテンツ価値が最大となる分割パターンを、その映像区間に 用いる分割パターンとして選択する。
[0052] 利用者端末 1からリクエスト情報 1A及び表示画面情報 1Bを受信すると、コンテンツ 表示態様決定部 21は、受信したリクエスト情報 1Aに基づいて、配信要求されたコン テンッの映像データと各付随データとをコンテンツデータベース 3から抽出するととも に、配信要求されたコンテンツに対応する各メタデータを、それぞれコンテンツデータ ベース 3から抽出する。また、コンテンツ表示態様決定部 21は、抽出したメタデータ に基づいて、映像データに含まれる各映像区間を特定する。例えば、コンテンツ表示 態様決定部 21は、図 2に示す映像コンテンッ全体のメタデータ 840に含まれる各映 像区間の開始点や終了点に従って、映像データに含まれる映像区間の数や、各映 像区間の映像データ中での位置を特定する。そしてコンテンツ表示態様決定部 21 は、ステップ S 101において、映像区間の特定結果に基づいて、表示対象とする映 像区間を指定する。まず、コンテンツ表示態様決定部 21は、映像データに含まれる 最初の映像区間を、表示態様決定の処理対象として選択する。
[0053] ここでは、分割パターンを予め n個用意しておき、分割パターン蓄積部 34が n個の 分割パターンを蓄積している場合を説明する。処理対象の映像区間を選択すると、 コンテンツ表示態様決定部 21は、ステップ S102において、表示態様決定処理に用 いる各変数やパラメータを初期化する。本実施形態では、コンテンツ表示態様決定 部 21は、所定の変数 kを k= lと初期化し、所定値 V を V =0と初期化する。変
max max
数 kは、コンテンツ表示態様決定部 21が、分割パターン蓄積部 34が蓄積する分割パ ターンのうち、現在何番目の分割パターンを用いて処理を行っているかを示す変数 である。 V は、コンテンツ表示態様決定部 21が分割パターン毎に求めるコンテンツ
max
価値の最大値を示す。
[0054] 次にコンテンツ表示態様決定部 21は、ステップ S103において、分割パターン蓄積 部 34から、 k番目の分割パターンを読み込む。ステップ S102で k= lと設定している ので、コンテンツ表示態様決定部 21は、最初に表示態様決定処理を実行する場合、 まず分割パターン蓄積部 34から 1番目の分割パターンを読み込む。そして、コンテン ッ表示態様決定部 21は、ステップ S104において、読み込んだ分割パターンに基づ いて、処理対象の映像区間に対して、表示画面を映像表示部と付随データ表示部と に分割する。
[0055] また、コンテンツ表示態様決定部 21は、映像表示部に最適な形態で映像を変換す る。この変換の具体例としては、分割後の映像表示部のサイズに合うように映像を縮 小する、というものが挙げられる。そして、コンテンツ表示態様決定部 21は、ステップ S105において、変換後の映像を映像表示部に表示した場合に映像力もつ価値 (最 大価値)を算出する。この場合、コンテンツ表示態様決定部 21は、予め定めた評価 関数を用いて、表示した変換後の映像力 Sもつ価値を求める。例えば、一般に映像を 縮小すればする程映像を視聴しにくくなるので、コンテンツ表示態様決定部 21は、 評価関数を用いて、映像を縮小するに従って低くなるように映像の価値を求める。以 下、ここでの評価関数のことを映像価値算出用評価関数という。 [0056] さらにコンテンツ表示態様決定部 21は、付随データ表示部に最適な形態で、映像 区間に対応する付随データを変換する。この変換の具体例として、例えば、付随デ ータ表示部のサイズに応じて表示可能なデータを抽出する、というものが挙げられる 。そしてコンテンツ表示態様決定部 21は、ステップ S106において、変換後の付随デ ータを付随データ表示部に表示した場合に付随データ力 Sもつ価値 (最大価値)を算 出する。この場合、コンテンツ表示態様決定部 21は、予め定めた評価関数を用いて 、表示した変換後の付随データ力 Sもつ価値を求める。以下、この評価関数を付随デ ータ価値算出用評価関数ともいう。一般に表示画面に表示する付随データの項目数 を減らす程、表示できる情報量が少なくなる反面、付随データの表示に要するぺー ジ数が減り、付随データが見やすくなる。そのため、コンテンツ表示態様決定部 21は 、例えば、表示する付随データの項目数とそれら項目の重要度、及び表示に要する ページ数を変数とする評価関数を用いて、変換後の付随データ力 Sもつ価値を決定す る。
[0057] 次に、コンテンツ表示態様決定部 21は、変換後の映像及び付随データに基づいて 、表示画面に表示したコンテンツすなわち表示した映像及び付随データの全体の価 値 Vを、ステップ S107において、別途予め定めた評価関数を用いて算出する。この 評価関数のことを、以下、コンテンツ価値算出用評価関数という。この場合、コンテン ッ表示態様決定部 21は、例えば、最もシンプルな方法として、単純に映像及び付随 データ双方の価値を平均化する評価関数を用いて、コンテンツ全体の価値 Vを求め る。
[0058] なお、本実施形態では、予め定めた各評価関数を用いる場合を説明するが、コン テンッ表示態様決定部 21は、予め評価関数を記憶する記憶部力 各評価関数を抽 出し、抽出した評価関数を用いてコンテンツ価値を求めてもよい。
[0059] ここで、コンテンツ表示態様決定部 21が、利用者端末 1に表示するコンテンツすな わち映像区間及び付随データの全体の価値 Vを評価するために用いる、コンテンッ 価値算出用評価関数の例を示す。コンテンツ表示態様決定部 21は、利用者に提供 される情報量、情報の持つ価値及び情報の見やすさのうちいずれか 1つの項目又は 2つ以上の項目を、評価基準として用いて、映像及び付随データの双方について評 価する。コンテンツ表示態様決定部 21は、この求めた評価値に基づいて、コンテンツ 全体の価値を評価することができる。例えば、表示画面を面積比 X: (1— X)に分割し た場合におけるコンテンツ全体の価値は、映像表示部に表示された映像の価値と、 付随データ表示部に表示された付随データの価値を変数とする関数として記述でき る。この場合、コンテンツ全体の価値は、映像の価値と付随データの価値とを加算す ることによって得ることができる。すなわち、コンテンツ価値算出用評価関数 V(x)は、 映像価値算出用評価関数 g(x)と、付随データ価値算出用評価関数 h(x)とを変数と する関数 f(g(x), Mx))として表すことができる。また、コンテンツ価値算出用評価関 数 V(x)は、映像価値算出用評価関数 g(x)と、付随データ価値算出用評価関数 h(x )との和として、式(1)を用いて表すことができる。
[0060] V(x)=f(g(x), h(x))=g(x)+h(x) (1)
以下、評価基準毎の映像データ及び付随データの評価関数の例を示す。まず、利 用者に提供される情報量を尺度 (すなわち評価基準)とした場合の評価関数の例を 示す。利用者に提供される情報量を尺度に評価する場合、映像データ表示部に表 示できる映像の画素数、及び付随データ表示部に表示できる文字数が評価対象とな る。映像のアスペクト比を変えることなぐ解像度が横 w画素及び縦 V画素の映像表示 部にできるだけ広く映像を表示できるよう映像を変換するものとする。この場合、映像 の拡大縮小率を bとすると、拡大縮小率 bは、表示される画素数を反映しているので、 拡大縮小率 bを変数とする関数によって評価関数を表現できる。例えば、拡大縮小 率 bそのものを映像の評価値として利用する場合、映像価値算出用評価関数は、式( 2)を用いて表される。
[0061] g(w, v)=b
b=min(bl, b2), bl=w/x and h2=v/ y
orig orig
b = b (b>b )
max max
b = 0 (b<b ) (2)
min
式(2)にお 、て、 x 及び y は、それぞれ原画像の高さ及び幅を示す。また、 b
orig orig max 及び b は、それぞれ許容されている拡大縮小率の最大値及び最小値を示す。
min
[0062] また、解像度が横 w画素及び縦 V画素の付随データ表示部に収まるように付随デ ータを変換するものとする。又は、付随データ表示部の qページ以内に収まるように 付随データを変換するものとする。具体的には、付随データに表示できる項目が m 個あり、これらの項目の中力 gページ以内に収まるように表示する項目を選定するも のとする。付随データ表示部に表示できる項目が m個あり、一行あたりに収まる文字 数を!:、 1ページあたりに収まる行数を s、各項目の文字数をそれぞれ t , t , · · ·, t ,
1 2 k
· · ·, t (l≤k≤m)とする。また、付随データ表示部への表示の有無を、それぞれ a , m 1 a , · · ·, a , · · ·, a (1≤k≤m)とする。ただし、 a = 1は、 k番目の項目を表示すること
2 k m k
を意味し、 a =0は、 k番目の項目を表示しないことを意味する。
k
[0063] 付随データ全てを表示した場合の情報量を 1とすると、付随データ表示部の qぺー ジ以内に収まるように変換された付随データの情報量すなわち付随データ価値算出 用評価関数は、式(3)を用いて表される。
[0064] [数 1]
Figure imgf000023_0001
{ ak- f loor (tk/s )} < g (3) k=1
なお、式(3)において、 floorは、小数点切り上げを示す関数である。式(2)及び式 (3)を、式(1)に代入することにより、利用者に提供される情報量を評価尺度とするコ ンテンッ価値算出用評価関数 V (x)が得られる。
[0065] 次に、情報の持つ価値を尺度 (すなわち評価基準)とした場合の評価関数の例を 示す。利用者に提供される情報の価値を尺度に評価する場合、映像データ表示部 に表示できる映像又は映像領域の価値と、付随データ表示部に表示される項目の 情報価値とを評価対象とする。情報価値は、利用者にとっての情報価値としてもよぐ 情報提供者にとっての情報価値としてもよい。また、利用者及び情報提供者双方にと つての情報価値としてもよ 、。
[0066] まず、映像について、評価の対象となる映像区間に登場する人物や物体それぞれ に情報価値が割り当てられているとする。登場物や映像領域が j個存在し、各登場物 の情報価値を Vとする。また、各登場物の表示の有無を、それぞれ C , C , ···, C ,… j 1 2 k
, c (l≤k≤j)とする。ただし、 c =1は、 k番目の項目を表示することを意味し、 c =0 j k k は、 k番目の項目を表示しな 、ことを意味する。また、解像度が横 W画素及び縦 V画 素の限定された映像表示部に、できるだけ情報価値の高い登場物の組み合わせを 映像表示部の範囲内に表示できるよう登場物を選択するものとする。この場合、映像 価値算出用評価関数は、式 (4)を用いて表される。
[0067] [数 2]
Figure imgf000024_0001
ただし、式 (4)において、選択した登場物の集合は、映像表示部をはみ出てはなら ない。
[0068] 一方、付随データについて、付随データに表示できる項目が m個あり、一行あたり に収まる文字数を!:、 1ページあたりに収まる行数を s、各項目の文字数をそれぞれ t , t , ···, t , ···, t (l≤k≤m)、各項目の情報価値を u (0≤u≤1)とする。また、
2 k m k k
付随データ表示部への表示の有無を、それぞれ a , a , ···, a , ···, a (l≤k≤m)と
1 2 k m
する。ただし、 a =1は、 k番目の項目を表示することを意味し、 a =0は、 k番目の項
k k
目を表示しな 、ことを意味する。
[0069] 付随データ全てを表示した場合の情報量を 1とすると、付随データ表示部の qぺー ジ以内に収まるように変換された付随データの情報価値すなわち付随データ価値算 出用評価関数 h(w, v)は、式(5)を用いて表現できる。
[0070] [数 3]
Figure imgf000025_0001
I {ak-floor(tk/s)}<g
Figure imgf000025_0002
式 (4)及び式 (5)を、式(1)に代入することにより、利用者に提供される情報価値を 尺度とするコンテンツ価値算出用評価関数 V(x)が得られる。
[0071] 次に、情報の見やすさを評価基準とした評価関数の例を示す。利用者に提供され る情報の見やすさを尺度に評価する場合、映像データ表示部に表示される映像がい 力に見やすいか、付随データ表示部に表示される情報がいかに見やすく配置されて いるかを評価対象とする。
[0072] まず、映像について、動きの滑ら力さやノイズの分量等の画質を基準に評価を行う 。映像の解像度を rとし、フレームレートを f、原画像との SZN比を s、動き分量を mと する。この場合、映像価値算出用評価関数は、これら 4つの変数力もなるバランス関 数として、式 (6)を用いて表される。このバランス関数を最適にするような解像度 r及 びフレームレート fを選択し、その選択した解像度 r及びフレームレート fに従って映像 を変換することができる。
[0073] g(w, V) =max{o(r, f, s, m) } (6)
また、付随データについて、付随データを表示するために必要なページ数が少な ければ少な 、程情報が見やすくなるので、必要なページ数に反比例して高 、評価を 割り当てるように設計する。この場合、付随データ価値算出用評価関数は、式 (7)を 用いて表される。
[0074] [数 4]
h(W,V) (7)
Figure imgf000025_0003
式(7)において、 1は、選択した項目全てを表示するために必要な行数を示し、 1 max は最大行数を示し、 Lは画面内に表示できる行数を示す。式 (6)及び式(7)を、式(1 )に代入することにより、利用者に提供される情報の見やすさを尺度とするコンテンツ 価値算出用評価関数 V (x)が得られる。
[0075] さらに、評価基準として、利用者に提供される情報量、情報のもつ価値及び情報の 見やすさを組み合わせた場合の評価関数の例を示す。この場合、例えば、映像価値 算出用評価関数として、式(2) , (4) , (6)のいずれ力 2つ又は全てを組み合わせた 評価関数を利用することができる。また、例えば、付随データ価値算出用評価関数と して、式(3) , (5) , (7)のいずれ力 2つ又は全てを組み合わせた評価関数を利用す ることもできる。例えば、映像データについて、式(2)及び式 (4)を組み合わせて利 用することによって、与えられた映像表示領域に対して、登場物と各登場物について の拡大縮小率との組み合わせを考慮した関数になる。この場合、例えば、式 (8)に示 す映像価値算出用評価関数を用いることができる。
[0076] [数 5]
Figure imgf000026_0001
また、例えば付随データについて、式(5)及び式(7)を組み合わせることによって、 情報のもつ価値と情報の見やすさとのトレードオフを考慮した関数になる。この場合、 例えば、式 (9)に示す付随データ価値算出用評価関数を用いることができる。
[数 6] h(w,v )=
h(
Figure imgf000027_0001
式 (8)及び式 (9)を、式(1)に代入することにより、利用者に提供される情報量、価 値及び見やすさを尺度とするコンテンツ価値算出用評価関数 V (x)を生成することが できる。
[0078] コンテンツ表示態様決定部 21は、ステップ S108において、求めたコンテンツ全体 の価値 Vがコンテンツ価値の最大値 V より大きいか否かを判定する。算出したコン
max
テンッ全体の価値 Vがコンテンツ価値の最大値 V より大きいと判断すると、コンテン
max
ッ表示態様決定部 21は、 V 〖こ Vを代入し、 V の値を更新する。コンテンツ表示
max max
態様決定部 21は、現在の処理対象の k番目の分割パターンについて、映像表示部 での最適な表示を実現する映像変換パラメータ、及び付随データ表示部での最適な 表示を実現する付随データ変換パラメータを生成する。そして、コンテンツ表示態様 決定部 21は、ステップ S109において、 k番目の分割パターンと、生成した映像変換 ノ ラメータ及び付随データ変換パラメータとを、あわせてメモリ等の記憶装置に保存 する。
[0079] V の値を更新し、分割パターン、映像変換パラメータ及び付随データ変換パラメ
max
ータを保存すると、コンテンツ表示態様決定部 21は、ステップ S110において、変数 k に 1加算する。ステップ S 108で、コンテンツ全体の価値 Vがコンテンツ価値の最大値 V より大きくないと判断した場合には、コンテンツ表示態様決定部 21は、ステップ S max
109の処理を実行せずに、そのまま変数 kに 1加算する。 [0080] 次に、コンテンツ表示態様決定部 21は、ステップ S111において、変数 kの値力 よ り大きいか否かを判断する。変数 kの値力 より大きいと判断すると、コンテンツ表示 態様決定部 21は、全ての分割パターンについて処理を完了したと判断し、そのまま ステップ S 112の処理に移行する。変数 kの値カ より大きくないと判断すると、コンテ ンッ表示態様決定部 21は、ステップ S103に戻り、ステップ S 103からステップ S 110 までの処理を繰り返し実行する。すなわち、コンテンツ表示態様決定部 21は、未処 理の分割パターンが存在すると判断し、分割パターン蓄積部 34が蓄積する次の分 割パターンを読み出して、その分割パターンを用いた時のコンテンツ価値を評価する
[0081] 以上のように、分割パターン蓄積部 34が蓄積する全ての分割パターンについて、 ステップ S 103からステップ S 110までの処理が繰り返し実行される。全ての分割パタ ーンにつ 、て繰り返し処理を実行することによって、コンテンツ全体の価値が最大と なる場合の分割パターン、映像変換パラメータ及び付随データ変換パラメータが保 存される。
[0082] 変数 kの値カ より大きいと判断すると、コンテンツ表示態様決定部 21は、ステップ S 112において、記憶装置に現在記憶している分割パターン、映像変換パラメータ及 び付随データ変換パラメータを抽出し出力する。すなわち、コンテンツ表示態様決定 部 21は、コンテンツ価値 Vが最大となる時の分割パターン、映像変換パラメータ及び 付随データ変換パラメータをコンテンツ変換部 22に出力する。この場合、コンテンツ 表示態様決定部 21は、コンテンツ価値 Vが最大となる時の分割パターンを用いた表 示画面上の配置レイアウトを示すレイアウト情報を生成する。そして、コンテンツ表示 態様決定部 21は、映像変換パラメータ、付随データ変換パラメータ及びレイアウト情 報を含む表示態様決定情報 21Aをコンテンツ変換部 22に出力する。
[0083] 以上に示すようにコンテンツ表示態様決定部 21は、ステップ S 101からステップ S1 12までの処理を実行することによって、分割パターンを変えながら、すなわち kを 1ず つインクリメントしながら(k=k+ 1)、全ての分割パターンについてコンテンツ全体の 価値を算出する。そして、コンテンツ表示態様決定部 21は、コンテンツ全体の価値が 最も高い分割パターンを映像区間と付随データとの配置レイアウトとして採用する。 [0084] コンテンツ表示態様決定部 21は、以上に示すプロセスを、配信要求された映像デ ータに含まれる映像区間毎に繰り返す。そして、コンテンツ表示態様決定部 21は、 映像区間毎に、全ての分割パターンについてコンテンツ価値を算出して配置レイァ ゥトを決定し、表示態様決定情報 21Aを出力する。
[0085] 以上のように、本実施形態によれば、コンテンツ配信サーバ 2は、映像データに含 まれる映像区間毎に、映像及び対応する付随データの内容に合わせてコンテンツの 表示態様を適応的に決定する。また、コンテンツ配信サーバ 2は、決定した表示態様 に従って変換したコンテンツを利用者端末 1に配信する。そして、利用者端末 1は、 配信されたコンテンツに従って、映像表示部と付随データ表示部とを映像区間毎に 動的に変化させながら表示する。すなわち本実施形態によれば、コンテンツの表示 態様を映像区間毎に自動的に決定し、表示画面及びコンテンツの構成に応じたレイ アウトで映像と付随データとを表示することができる。従って、本実施形態によれば、 コンテンツ作成者は、個々の情報 (すなわち映像及び付随データ)に対して表示画 面毎に画面構成を設計しなくても、表示画面及びコンテンッの構成に応じたレイァゥ トで映像と付随データとを表示することができる。また、本実施形態によれば、映像及 び付随データの内容に応じて、映像区間毎に映像と付随データとの表示態様を適 応的に決定し表示できるので、効果的に映像データと付随データとを提示するコンテ ンッ表示システムを実現することができる。
[0086] 本実施形態によれば、コンテンツ配信サーバ 2は、映像データと付随データとを視 聴する側の要求条件である端末の表示画面に基づ 、て、コンテンツの表示態様を適 応的に決定する。そのため、任意の表示画面に対して効果的に映像データと付随デ 一タとを提示するコンテンツ表示システムを実現することができる。
[0087] 第 2の実施形態:
次に、本発明の第 2の実施形態のコンテンツ表示システムについて説明する。図 6 は、第 2の実施形態のコンテンツ表示システムを示している。図 6に示すように、第 2 の実施形態のコンテンツ表示システムでは、コンテンツ配信サーバ 4に含まれるコン テンッ表示態様決定部 41の機能が、第 1の実施形態で示したコンテンツ表示態様決 定部 21の機能と異なっている。また第 2の実施形態のシステムは、利用者端末 1が、 リクエスト情報 1A及び表示画面情報 IBに加えて、重要度バランス情報 1Cを、通信 ネットワークを介してコンテンッ配信サーバ 4に送信する点で、第 1の実施形態のもの と異なっている。なお、第 2の実施形態において、コンテンツデータベース 3及び分割 パターン蓄積部 34が蓄積する情報は、第 1の実施形態におけるそれらが蓄積する情 報と同様であり、利用者端末 1の機能は、リクエスト情報 1A及び表示画面情報 1B〖こ 加えて重要度バランス情報 1Cを送信することを除いて、第 1の実施形態における利 用者端末 1の機能と同様であり、コンテンツ配信サーバ 4のコンテンツ変換部 22及び コンテンツ配信部 23の機能は、第 1の実施形態におけるそれらの機能と同様である。
[0088] 第 2の実施形態のシステムにおいて、コンテンツ表示態様決定部 41は、リクエスト 情報 1A、表示画面情報 IB及び重要度バランス情報 1Cを、通信ネットワークを介し て利用者端末 1から受信する機能を備える。本実施形態では、コンテンツ表示態様 決定部 41は、重要度バランス情報 (重要度情報ともいう) 1Cとして、利用者の嗜好又 は各映像区間の重要度と対応する各付随データの重要度とのバランスを示す情報を 受信する。
[0089] また、コンテンツ表示態様決定部 41は、利用者端末 1から与えられた (受信した)リ タエスト情報 1A、表示画面情報 IB及びコンテンツ重要度情報 1Cと、メタデータとに 基づいて、配信要求されたコンテンツの表示態様を決定する機能を備える。この場合 、コンテンツ表示態様決定部 41は、表示画面情報 1B、映像メタデータや付随メタデ ータなどの各メタデータ、及び重要度バランス情報 1Cのうち、少なくとも 1つに基づい て、表示態様を決定する。
[0090] さらに第 2の実施形態では、コンテンツ表示態様決定部 41は、映像区間毎に、リク ェスト (配信要求)された映像とその映像に対応する付随データとを利用者端末 1で 表示するときの表示態様を決定する。また、コンテンツ表示態様決定部 41は、決定し た表示態様を示す表示態様決定情報 41Aを生成し、コンテンツ変換部 22に出力す る機能を備える。
[0091] ここで、コンテンツ重要度とは、利用者が配信を希望する映像データと付随データと の間の重要度バランスである。本実施形態では、具体的には、コンテンツ表示態様 決定部 41は、分割パターン蓄積部 34に用意された分割パターンのそれぞれを用い て、各映像区間に対して表示画面を映像表示部と付随データ表示部とに分割し、表 示画面を分割した上で、映像表示部に表示される映像及び付随データ表示部に表 示される付随データカゝら構成されるコンテンツ全体の評価値を、コンテンツ重要度を 考慮しながら求める。そしてコンテンツ表示態様決定部 41は、評価値が最適となる場 合、例えば、値が最大となる場合の分割パターンを、表示画面の分割に用いる分割 ノ《ターンとして映像区間毎に決定する。
[0092] ここで表示態様決定情報 41Aは、映像変換パラメータと、付随データ変換パラメ一 タと、レイアウト情報とを含む。映像変換パラメータは、決定した表示態様に適応する ように映像を変換するためのパラメータである。付随データ変換パラメータは、決定し た表示態様に適応するように付随データを変換するためのパラメータである。レイァ ゥト情報は、映像と付随データとの配置レイアウトすなわち分割パターンを記述した 情報である。なお、映像データと付随データとの間の重要度バランスは、利用者から 提供される、すなわち利用者端末 1から受信する代わりに、コンテンツの制作者側か ら予め提供されてもよい。
[0093] 次に、第 2の実施形態のコンテンツ表示システムの動作について説明する。まず、 コンテンツ配信サーバ 4が利用者端末 1からの要求に応じてコンテンツを配信する動 作を説明する。
[0094] 利用者は、コンテンツを視聴した!/、場合、利用者端末 1を操作して、視聴した ヽコン テンッの配信要求を入力指示する。利用者端末 1は、利用者の操作に従って、リクェ スト情報 1A、表示画面情報 IB及び重要度バランス情報 1Cを、通信ネットワーク 40 を介してコンテンツ配信サーバ 4に送信する。すると、コンテンツ配信サーバ 4のコン テンッ表示態様決定部 41は、受信したリクエスト情報 1A、表示画面情報 IB及び重 要度バランス情報 1Cと、コンテンツデータベース 3が蓄積するメタデータとに基づい て、コンテンツの表示態様を決定する。なお、コンテンツ変換部 22が変換済コンテン ッを生成する処理、及びコンテンツ配信部 23が変換済コンテンツを配信する処理は 、図 3で示したステップ S 13からステップ S 16までの処理と同様である。
[0095] 次に、コンテンツ表示態様決定部 41がコンテンツの表示態様を決定する動作につ いて説明する。図 7は、第 2の実施形態においてコンテンツ表示態様決定部がコンテ ンッの表示態様を決定する処理を示して ヽる。
[0096] コンテンツ表示態様決定部 41は、第 1の実施形態の場合と同様に、受信したリクェ スト情報 1Aに基づいて、配信要求されたコンテンツの映像データと、配信要求された コンテンツの各付随データとをコンテンツデータベース 3から抽出する。また、コンテ ンッ表示態様決定部 41は、配信要求されたコンテンツに対応する各メタデータを、そ れぞれコンテンツデータベース 3から抽出する。コンテンツ表示態様決定部 41は、抽 出したメタデータに基づ 、て、映像データに含まれる各映像区間を特定する。
[0097] 次にコンテンツ表示態様決定部 41は、ステップ S 101aにおいて、映像区間の特定 結果に基づいて、表示対象とする映像区間を指定する。本実施形態では、予め分割 ノターンを n個用意しておき、分割パターン蓄積部 34が n個の分割パターンを蓄積し ているものとする。コンテンツ表示態様決定部 41は、ステップ S102aにおいて、所定 の変数 kを k= lと初期化し、コンテンツ価値の最大値を V =0と初期化する。
max
[0098] 次にコンテンツ表示態様決定部 41は、ステップ S 103aにおいて、分割パターン蓄 積部 34から、 k番目の分割パターンを読み込み、ステップ S104aにおいて、読み込 んだ分割パターンに基づいて、処理対象の映像区間に対して、表示画面を映像表 示部と付随データ表示部とに分割する。次に、コンテンツ表示態様決定部 41は、ス テツプ S105aにおいて、映像表示部に最適な形で映像を変換し、変換後の映像を 映像表示部に表示した場合に映像がもつ価値 (最大価値)を、予め定めた評価関数 を用いて算出する。一般に映像を縮小すればする程映像を視聴しに《なるので、コ ンテンッ表示態様決定部 41は、評価関数を用いて、例えば、映像を縮小するに従つ て低くなるように映像の価値を求める。
[0099] コンテンツ表示態様決定部 41は、ステップ S106aにおいて、付随データ表示部に 最適な形で映像区間に対応する付随データを変換し、変換後の付随データを付随 データ表示部に表示した場合に付随データ力 Sもつ価値 (最大価値)を、予め定めた 評価関数を用いて算出する。例えば、一般に表示画面に表示する付随データの項 目数を減らす程、表示できる情報量が少なくなる反面、付随データの表示に要する ページ数が減り、付随データが見やすくなる。そのため、コンテンツ表示態様決定部 41は、表示する付随データの項目数とそれら項目の重要度、及び表示に要するぺ 一ジ数を変数とする評価関数を用いて、変換後の付随データ力 Sもつ価値を決定する
[0100] さらにコンテンツ表示態様決定部 41は、ステップ S107aにおいて、変換後の映像 及び付随データに基づ 、て、表示画面に表示したコンテンツ (すなわち映像及び付 随データ)全体の価値 Vを、予め定めた評価関数を用いて算出する。本実施形態で はコンテンツ表示態様決定部 41は、映像及び付随データ双方の価値をコンテンツ 重要度情報 1Cに基づ 、て重み付けした評価関数を用いて、コンテンツ全体の価値 Vを算出する。この場合、コンテンツ表示態様決定部 41は、例えば、最もシンプルな 方法として、単純に映像及び付随データ双方の価値を、コンテンツ重要度情報 1Cに 基づ 、て重み付けして加算する。
[0101] ここで、コンテンツ表示態様決定部 41がコンテンツ全体の価値 Vを評価するために 用いるコンテンツ価値算出用評価関数の例を示す。例えば、コンテンツ価値算出用 評価関数 V (x)は、映像価値算出用評価関数 g (x)と、付随データ価値算出用評価 関数 h (X)との加重和として、式(10)を用いて表すことができる
V(x) =f (g (x) , h (x) , w) =wg (x) + (l -w) h (x) (10)
なお、式(10)において、 wは映像の重要度を示し、(1 w)は付随データの重要 度を示している。
[0102] 次にコンテンツ表示態様決定部 41は、ステップ S 108aにおいて、求めたコンテンツ 全体の価値 Vがコンテンツ価値の最大値 V より大きいか否かを判定する。算出した
max
コンテンツ全体の価値 Vがコンテンツ価値の最大値 V より大きいと判断すると、コン
max
テンッ表示態様決定部 41は、ステップ S109aにおいて、 V に Vを代入し、 V の
max max 値を更新し、現在の処理対象の k番目の分割パターンについて、映像表示部での最 適な表示を実現する映像変換パラメータ、及び付随データ表示部での最適な表示を 実現する付随データ変換パラメータを生成し、 k番目の分割パターンと、生成した映 像変換パラメータ及び付随データ変換パラメータとを、あわせてメモリ等の記憶装置 に保存する。
[0103] V の値を更新し、分割パターン、映像変換パラメータ及び付随データ変換パラメ
max
ータを保存すると、コンテンツ表示態様決定部 41は、ステップ SI 10aにおいて、変数 kに 1カロ算する。ステップ S 108aで、コンテンツ全体の価値 Vがコンテンツ価値の最大 値 V より大きくないと判断した場合には、コンテンツ表示態様決定部 41は、ステツ max
プ S 109aの処理を実行せずに、そのまま変数 kに 1加算する。
[0104] 次にコンテンツ表示態様決定部 41は、ステップ S 11 laにおいて、変数 kの値力 よ り大きいか否かを判断する。変数 kの値力 より大きいと判断すると、コンテンツ表示 態様決定部 41は、全ての分割パターンについて処理を完了したと判断し、そのまま ステップ S 112aの処理に移行する。変数 kの値力 ¾より大きくないと判断すると、コン テンッ表示態様決定部 41は、ステップ S103aに戻り、ステップ S 103aからステップ S 110aまでの処理を繰り返し実行する。すなわち、コンテンツ表示態様決定部 41は、 未処理の分割パターンが存在すると判断し、分割パターン蓄積部 34が蓄積する次 の分割パターンを読み出して、その分割パターンを用いた時のコンテンツ価値を評 価する。
[0105] 一方、ステップ SI 11aにおいて変数 kの値が nより大きいと判断すると、コンテンツ 表示態様決定部 41は、ステップ S112aにおいて、記憶装置に現在記憶している分 割パターン、映像変換パラメータ及び付随データ変換パラメータを抽出し出力する。 すなわち、コンテンツ表示態様決定部 41は、コンテンツ価値 Vが最大となる時の分割 パターン、映像変換パラメータ及び付随データ変換パラメータをコンテンツ変換部 22 に出力する。この場合、コンテンツ表示態様決定部 41は、コンテンツ価値 Vが最大と なる時の分割パターンを用いた表示画面上の配置レイアウトを示すレイアウト情報を 生成し、映像変換パラメータ、付随データ変換パラメータ及びレイアウト情報を含む 表示態様決定情報 41Aをコンテンツ変換部 22に出力する。
[0106] 以上に示すように、コンテンツ表示態様決定部 41は、ステップ S 101aからステップ S 112aまでの処理を実行することによって、分割パターンを変えながら、すなわち kを 1ずつインクリメントしながら (k=k+ 1)、全ての分割パターンについてコンテンツ全 体の価値を算出する。そして、コンテンツ表示態様決定部 41は、コンテンツ全体の価 値が最も高い分割パターンを、映像と付随データとの配置レイアウトとして採用する。
[0107] コンテンツ表示態様決定部 41は、以上に示すプロセスを、配信要求された映像デ ータに含まれる映像区間毎に繰り返し、映像区間毎に、全ての分割パターンについ てコンテンツ価値を算出して配置レイアウトを決定し、表示態様決定情報 41Aを出力 する。
[0108] 以上説明したようにこの第 2の実施形態によれば、コンテンツ配信サーバ 4は、映像 データに含まれる映像区間毎に、映像及び対応する付随データの内容に合わせて コンテンツの表示態様を適応的に決定する。また、コンテンツ配信サーバ 4は、決定 した表示態様に従って変換したコンテンツを利用者端末 1に配信する。そして、利用 者端末 1は、配信されたコンテンツに従って、映像表示部と付随データ表示部とを映 像区間毎に動的に変化させながら表示する。すなわち、本実施形態によれば、コン テンッの表示態様を映像区間毎に自動的に決定し、表示画面及びコンテンツの構 成に応じたレイアウトで映像と付随データとを表示することができる。従って、コンテン ッ作成者が個々の情報 (すなわち映像及び付随データ)に対して表示画面毎に画面 構成を設計しなくても、表示画面及びコンテンツの構成に応じたレイアウトで映像と付 随データとを表示することができる。
[0109] 第 2の実施形態によれば、映像及び付随データの内容に応じて、映像区間毎に映 像と付随データとの表示態様を適応的に決定し表示できるので、効果的に映像デー タと付随データとを提示するコンテンツ表示システムを実現することができる。また、 本実施形態によれば、コンテンツ配信サーバ 4は、映像データと付随データとを視聴 する側の要求条件である端末の表示画面に基づ!、て、コンテンツの表示態様を適応 的に決定する。そのため、任意の表示画面に対して効果的に映像データと付随デー タとを提示するコンテンツ表示システムを実現することができる。さらに、コンテンツ配 信サーバ 4は、映像データと付随データとを視聴する側の要求条件である重要度バ ランスに基づいて、コンテンツの表示態様を適応的に決定するので、本実施形態に よれば、利用者の嗜好に合わせて効果的に映像データと付随データとを提示するコ ンテンッ表示システムを実現することができる。
[0110] 第 3の実施形態:
次に、本発明の第 3の実施形態のコンテンツ表示システムについて説明する。図 8 は、第 3の実施形態のコンテンツ表示システムの構成を示している。このコンテンツ表 示システムでは、コンテンツ配信サーバ 5に含まれるコンテンツ表示態様決定部 51の 機能が、第 2の実施形態で示したコンテンツ表示態様決定部 41の機能と異なって ヽ る。また、このコンテンツ表示システムは、分割パターン蓄積部 34に代えて重畳パタ ーン蓄積部 35を含む点で、第 2の実施形態のものと異なっている。第 3の実施形態 において、コンテンツデータベース 3が蓄積する情報は、第 2の実施形態におけるコ ンテンッデータベース 3が蓄積する情報と同様であり、利用者端末 1の機能は、第 2 の実施形態における利用者端末 1の機能と同様であり、コンテンツ配信サーバ 5のコ ンテンッ変換部 22及びコンテンツ配信部 23の機能は、第 2の実施形態におけるそれ らの機能と同様である。
[0111] 重畳パターン蓄積部 35は、表示画面において付随データを映像データに重畳さ せて表示させるパターンを示した重畳パターンを予め複数蓄積するものであって、具 体的には、磁気ディスク装置や光ディスク装置等のデータベース装置によって実現さ れる。重畳パターン蓄積部 35は、重畳パターンとして、例えば、映像の上下左右に 付随データを重畳させるパターンや、縦書き又は横書きで付随データを重畳させる パターンを蓄積する。さらに重畳パターン蓄積部 35は、重畳パターンとして、付随デ ータを重畳させるための様々な面積の矩形領域を蓄積する。
[0112] コンテンツ表示態様決定部 51は、リクエスト情報 1A、表示画面情報 IB及び重要度 バランス情報 1Cを、通信ネットワーク 40を介して利用者端末 1から受信する機能と、 利用者端末 1から与えられた (受信した)リクエスト情報 1A、表示画面情報 IB及びコ ンテンッ重要度情報 1Cと、メタデータとに基づいて、配信要求されたコンテンツの表 示態様を決定する機能と、を備える。本実施形態では、コンテンツ表示態様決定部 5 1は、映像区間毎に、リクエスト (配信要求)された映像とその映像に対応する付随デ ータとを、利用者端末 1で表示するときの表示態様を決定する。また、コンテンツ表示 態様決定部 51は、決定した表示態様を示す表示態様決定情報 51 Aを生成し、コン テンッ変換部 22に出力する機能も備える。
[0113] ここでコンテンツ重要度とは、利用者が配信を希望する映像データと付随データと の間の重要度バランスである。本実施形態では、具体的には、コンテンツ表示態様 決定部 51は、重畳パターン蓄積部 35に用意された重畳パターンのそれぞれを用い て、表示画面上の各映像区間に対して付随データを重畳し、このように付随データを 重畳した上で、表示画面に表示される映像及び付随データカゝら構成されるコンテン ッ全体の評価値を、コンテンツ重要度を考慮しながら求める。そして、コンテンツ表示 態様決定部 51は、評価値が最適となる場合 (例えば、値が最大となる場合)の重畳 パターンを、付随データの重畳表示に用いる重畳パターンとして映像区間毎に決定 する。
[0114] 表示態様決定情報 51Aは、映像変換パラメータと、付随データ変換パラメータと、 レイアウト情報とを含む。映像変換パラメータは、決定した表示態様に適応するように 映像を変換するためのパラメータである。付随データ変換パラメータは、決定した表 示態様に適応するように付随データを変換するためのパラメータである。レイアウト情 報は、映像と付随データとの配置レイアウトすなわち重畳パターンを記述した情報で ある。なお、映像データと付随データとの間の重要度バランスは、利用者から提供さ れる代わりに、すなわち利用者端末 1から受信する代わりに、コンテンツの制作者側 カゝら予め提供されてもよい。
[0115] 次に、第 3の実施形態のコンテンツ表示システムの動作について説明する。まず、 コンテンツ配信サーノ 5が利用者端末 1からの要求に応じてコンテンツを配信する動 作を説明する。
[0116] 利用者は、コンテンツを視聴した!/、場合、利用者端末 1を操作して、視聴した ヽコン テンッの配信要求を入力指示する。利用者端末 1は、利用者の操作に従って、リクェ スト情報 1A、表示画面情報 IB及び重要度バランス情報 1Cを、通信ネットワーク 40 を介してコンテンツ配信サーバ 5に送信する。すると、コンテンツ配信サーバ 5のコン テンッ表示態様決定部 51は、受信したリクエスト情報 1A、表示画面情報 IB及び重 要度バランス情報 1Cと、コンテンツデータベース 3が蓄積するメタデータとに基づい て、コンテンツの表示態様を決定する。なお、コンテンツ変換部 22が変換済コンテン ッを生成する処理、及びコンテンツ配信部 23が変換済コンテンツを配信する処理は 、図 3で示したステップ S 13からステップ S 16までの処理と同様である。
[0117] 次に、コンテンツ表示態様決定部 51がコンテンツの表示態様を決定する動作につ いて説明する。図 9は、第 3の実施形態においてコンテンツ表示態様決定部がコンテ ンッの表示態様を決定する処理を示して ヽる。 [0118] コンテンツ表示態様決定部 51は、第 1の実施形態の場合と同様に、受信したリクェ スト情報 1Aに基づいて、配信要求されたコンテンツの映像データと、配信要求された コンテンツの各付随データとをコンテンツデータベース 3から抽出する。また、コンテ ンッ表示態様決定部 51は、配信要求されたコンテンツに対応する各メタデータを、そ れぞれコンテンツデータベース 3から抽出する。コンテンツ表示態様決定部 51は、抽 出したメタデータに基づ 、て、映像データに含まれる各映像区間を特定する。
[0119] 次にコンテンツ表示態様決定部 51は、ステップ SlOlbにおいて、映像区間の特定 結果に基づいて、表示対象とする映像区間を指定する。本実施形態では、予め重畳 ノターンを n個用意しておき、重畳パターン蓄積部 35が n個の重畳パターンを蓄積し ているものとする。コンテンツ表示態様決定部 51は、ステップ S102bにおいて、所定 の変数 kを k= lと初期化し、コンテンツ価値の最大値を V =0と初期化する。
max
[0120] 次にコンテンツ表示態様決定部 51は、ステップ S103bにおいて、重畳パターン蓄 積部 35から、 k番目の重畳パターンを読み込み、ステップ S104bにおいて、読み込 んだ重畳パターンに基づいて、処理対象の映像区間に対して、映像に付随データを 重畳する。次にコンテンツ表示態様決定部 51は、ステップ S105bにおいて、映像区 間に対応する付随データを最適な形で変換し、変換後の付随データを付随データ 表示部に表示した場合に付随データ力 Sもつ価値 (最大価値)を、予め定めた評価関 数を用いて算出する。一般に表示画面に表示する付随データの項目数を減らす程、 表示できる情報量が少なくなる反面、付随データの表示に要するページ数が減り、 付随データが見やすくなる。そこでコンテンツ表示態様決定部 51は、例えば、表示 する付随データの項目数とそれら項目の重要度、及び表示に要するページ数を変 数とする評価関数を用いて、変換後の付随データ力 Sもつ価値を決定する。
[0121] コンテンツ表示態様決定部 51は、ステップ S106bにおいて、表示画面に最適な形 で映像を変換し、変換後の映像を表示画面に表示した場合に映像力もつ価値 (最大 価値)を、予め定めた評価関数を用いて算出する。この場合、コンテンツ表示態様決 定部 51は、評価関数を用いて、付随データが重畳されることによる価値の減少も考 慮した映像価値を求める。コンテンツ表示態様決定部 51は、例えば、空等の映像を 邪魔しない箇所に付随データを重畳して表示する場合には、価値が高くなるように映 像価値を求める。逆に、コンテンツ表示態様決定部 51は、例えば、主人公の顔の上 に付随データを重畳表示する等の映像内容を大きく邪魔する場合には、価値が低く なるように映像価値を求める。
[0122] さらにコンテンツ表示態様決定部 51は、ステップ S107bにおいて、変換後の映像 及び付随データに基づ 、て、表示画面に表示したコンテンツ (すなわち映像及び付 随データ)全体の価値 Vを、予め定めた評価関数を用いて算出する。本実施形態で はコンテンツ表示態様決定部 51は、映像及び付随データ双方の価値をコンテンツ 重要度情報 1Cに基づ 、て重み付けした評価関数を用いて、コンテンツ全体の価値 Vを算出する。
[0123] コンテンツ表示態様決定部 51は、ステップ S108bにおいて、求めたコンテンツ全体 の価値 Vがコンテンツ価値の最大値 V より大きいか否かを判定する。算出したコン
max
テンッ全体の価値 Vがコンテンツ価値の最大値 V より大きいと判断すると、コンテン
max
ッ表示態様決定部 51は、ステップ S 109bにおいて、 V に Vを代入し、 V の値を
max max 更新し、現在の処理対象の k番目の重畳パターンについて、映像表示部での最適な 表示を実現する映像変換パラメータ、及び付随データ表示部での最適な表示を実現 する付随データ変換パラメータを生成し、 k番目の重畳パターンと、生成した映像変 換パラメータ及び付随データ変換パラメータとを、あわせてメモリ等の記憶装置に保 存する。
[0124] V の値を更新し、重畳パターン、映像変換パラメータ及び付随データ変換パラメ
max
ータを保存すると、コンテンツ表示態様決定部 51は、ステップ SI 10bにおいて、変数 kに 1カロ算する。ステップ S 108bで、コンテンツ全体の価値 Vがコンテンツ価値の最大 値 V より大きくないと判断した場合には、コンテンツ表示態様決定部 51は、ステツ max
プ S 109bの処理を実行せずに、そのまま変数 kに 1加算する。
[0125] 次にコンテンツ表示態様決定部 51は、ステップ Sl l lbにおいて、変数 kの値が nよ り大きいか否かを判断する。変数 kの値力 より大きいと判断すると、コンテンツ表示 態様決定部 51は、全ての重畳パターンについて処理を完了したと判断し、そのまま ステップ S 112bの処理に移行する。変数 kの値カ より大きくないと判断すると、コン テンッ表示態様決定部 51は、ステップ S103bに戻り、ステップ S 103bからステップ S 110bまでの処理を繰り返し実行する。すなわち、コンテンツ表示態様決定部 51は、 未処理の重畳パターンが存在すると判断し、重畳パターン蓄積部 35が蓄積する次 の重畳パターンを読み出して、その重畳パターンを用いた時のコンテンツ価値を評 価する。
[0126] 一方、ステップ SI l ibにおいて変数 kの値が nより大きいと判断すると、コンテンツ 表示態様決定部 51は、ステップ S 112bにおいて、記憶装置に現在記憶している重 畳パターン、映像変換パラメータ及び付随データ変換パラメータを抽出し出力する。 すなわち、コンテンツ表示態様決定部 51は、コンテンツ価値 Vが最大となる時の重畳 パターン、映像変換パラメータ及び付随データ変換パラメータをコンテンツ変換部 22 に出力する。この場合、コンテンツ表示態様決定部 51は、コンテンツ価値 Vが最大と なる時の重畳パターンを用いた表示画面上の配置レイアウトを示すレイアウト情報を 生成し、映像変換パラメータ、付随データ変換パラメータ及びレイアウト情報を含む 表示態様決定情報 51Aをコンテンツ変換部 22に出力する。
[0127] 以上に示すように、コンテンツ表示態様決定部 51は、ステップ S 101bからステップ S112bまでの処理を実行することによって、重畳パターンを変えながら、すなわち kを 1ずつインクリメントしながら(k=k+ 1)、全ての重畳パターンにつ 、てコンテンツ全 体の価値を算出する。そして、コンテンツ表示態様決定部 51は、コンテンツ全体の価 値が最も高 、重畳パターンを、映像と付随データとの配置レイアウトとして採用する。
[0128] コンテンツ表示態様決定部 51は、以上に示すプロセスを、配信要求された映像デ ータに含まれる映像区間毎に繰り返し、映像区間毎に、全ての重畳パターンについ てコンテンツ価値を算出して配置レイアウトを決定し、表示態様決定情報 51 Aを出力 する。
[0129] 以上説明したようにこの第 3の実施形態によれば、コンテンツ配信サーバ 5は、映像 データに含まれる映像区間毎に、映像及び対応する付随データの内容に合わせて コンテンツの表示態様を適応的に決定する。また、コンテンツ配信サーバ 5は、決定 した表示態様に従って変換したコンテンツを利用者端末 1に配信する。そして、利用 者端末 1は、配信されたコンテンツに従って、映像表示部と付随データ表示部とを映 像区間毎に動的に変化させながら表示する。すなわち、本実施形態によれば、コン テンッの表示態様を映像区間毎に自動的に決定し、表示画面及びコンテンツの構 成に応じたレイアウトで映像と付随データとを表示することができる。従って、コンテン ッ作成者が個々の情報 (すなわち映像及び付随データ)に対して表示画面毎に画面 構成を設計しなくても、表示画面及びコンテンツの構成に応じたレイアウトで映像と付 随データとを表示することができる。
[0130] 第 3の実施形態によれば、映像及び付随データの内容に応じて、映像区間毎に映 像と付随データとの表示態様を適応的に決定し表示できるので、効果的に映像デー タと付随データとを提示するコンテンツ表示システムを実現することができる。また、 本実施形態によれば、コンテンツ配信サーバ 5は、映像データと付随データとを視聴 する側の要求条件である端末の表示画面に基づ!、て、コンテンツの表示態様を適応 的に決定する。そのため、任意の表示画面に対して効果的に映像データと付随デー タとを提示するコンテンツ表示システムを実現することができる。さらに、本実施形態 によれば、コンテンツ配信サーバ 5は、映像データと付随データとを視聴する側の要 求条件である重要度バランスに基づいて、コンテンツの表示態様を適応的に決定す るので、利用者の嗜好に合わせて効果的に映像データと付随データとを提示するコ ンテンッ表示システムを実現することができる。
[0131] 第 4の実施形態:
次に、本発明の第 4の実施形態のコンテンツ表示システムについて説明する。図 1 0は、第 4の実施形態のコンテンツ表示システムの構成を示している。このコンテンツ 表示システムでは、コンテンツ配信サーバ 6に含まれるコンテンツ表示態様決定部 61 の機能が、第 2の実施形態で示したコンテンツ表示態様決定部 41の機能と異なって いる。また、このコンテンツ表示システムは、分割パターン蓄積部 34にカ卩えて、重畳 パターン蓄積部 35を含む点で、第 2の実施形態のものと異なっている。第 4の実施形 態において、コンテンツデータベース 3及び分割パターン蓄積部 34が蓄積する情報 は、第 2の実施形態におけるそれらが蓄積する情報と同様であり、利用者端末 1の機 能は、第 2の実施形態における利用者端末 1の機能と同様であり、コンテンツ配信サ ーバ 6のコンテンツ変換部 22及びコンテンツ配信部 23の機能は、第 2の実施形態に おけるそれらの機能と同様である。 [0132] 重畳パターン蓄積部 35は、表示画面において付随データを映像データに重畳さ せて表示させるパターンを示した重畳パターンを予め複数蓄積する。重畳パターン 蓄積部 35は、重畳パターンとして、例えば、映像の上下左右に付随データを重畳さ せるパターンや、縦書き又は横書きで付随データを重畳させるパターンを蓄積する。 さらに重畳パターン蓄積部 35は、重畳パターンとして、付随データを重畳させるため の様々な面積の矩形領域を蓄積する。
[0133] コンテンツ表示態様決定部 61は、リクエスト情報 1A、表示画面情報 IB及び重要度 バランス情報 1Cを、通信ネットワーク 40を介して利用者端末 1から受信する機能と、 利用者端末 1から与えられた (受信した)リクエスト情報 1A、表示画面情報 IB及びコ ンテンッ重要度情報 1Cと、メタデータとに基づいて、配信要求されたコンテンツの表 示態様を決定する機能と、を備える。本実施形態では、コンテンツ表示態様決定部 6 1は、映像区間毎に、リクエスト (配信要求)された映像とその映像に対応する付随デ ータとを、利用者端末 1で表示するときの表示態様を決定する。また、コンテンツ表示 態様決定部 61は、決定した表示態様を示す表示態様決定情報 61 Aを生成し、コン テンッ変換部 22に出力する機能も備える。
[0134] ここでコンテンツ重要度とは、利用者が配信を希望する映像データと付随データと の間の重要度バランスである。本実施形態では、具体的には、コンテンツ表示態様 決定部 61は、分割パターン蓄積部 34に用意された分割パターンのそれぞれを用い て、各映像区間に対して表示画面を映像表示部と付随データ表示部とに分割し、こ のように表示画面を分割した上で、映像表示部に表示される映像及び付随データ表 示部に表示される付随データ力 構成されるコンテンツ全体の評価値を、コンテンツ 重要度を考慮しながら求める。そして、コンテンツ表示態様決定部 61は、評価値が 最適となる場合 (例えば、値が最大となる場合)の分割パターンを、表示画面の分割 に用いる分割パターンとして映像区間毎に決定する。本実施形態では、さらにコンテ ンッ表示態様決定部 61は、重畳パターン蓄積部 35に用意された重畳パターンのそ れぞれを用いて、表示画面上の各映像区間に対して付随データを重畳し、このよう に付随データを重畳した上で、表示画面に表示されて 、る映像及び付随データから 構成されるコンテンツ全体の評価値を、コンテンツ重要度を考慮しながら求める。そし てコンテンツ表示態様決定部 61は、評価値が最適となる場合 (例えば、値が最大と なる場合)の重畳パターンを、付随データの重畳表示に用いる重畳パターンとして映 像区間毎に決定する。
[0135] 評価値が最適となる分割パターンを最適分割パターンとし、評価値が最適となる重 畳パターンをを最適重畳パターンとして、コンテンツ表示態様決定部 61は、最適分 割パターンの評価値と最適重畳パターンの評価値とを比較し、最適分割パターン及 び最適重畳パターンのうち評価値が最適となる方 (例えば、値が大きい方)のパター ンを、映像及び付随データの表示に用 、るパターンとして選択する。
[0136] 表示態様決定情報 61Aは、映像変換パラメータと、付随データ変換パラメータと、 レイアウト情報とを含む。映像変換パラメータは、決定した表示態様に適応するように 映像を変換するためのパラメータである。付随データ変換パラメータは、決定した表 示態様に適応するように付随データを変換するためのパラメータである。レイアウト情 報は、映像と付随データとの配置レイアウトを記述した情報である。ここでの配置レイ アウトは、分割パターン又は重畳パターンである。なお、映像データと付随データとの 間の重要度バランスは、利用者力 提供される代わりに、すなわち利用者端末 1から 受信する代わりに、コンテンツの制作者側から予め提供されてもよい。
[0137] 次に、第 4の実施形態のコンテンツ表示システムの動作について説明する。まず、 コンテンツ配信サーノ 6が利用者端末 1からの要求に応じてコンテンツを配信する動 作を説明する。
[0138] 利用者は、コンテンツを視聴した!/、場合、利用者端末 1を操作して、視聴した ヽコン テンッの配信要求を入力指示する。利用者端末 1は、利用者の操作に従って、リクェ スト情報 1A、表示画面情報 IB及び重要度バランス情報 1Cを、通信ネットワーク 40 を介してコンテンツ配信サーバ 6に送信する。すると、コンテンツ配信サーバ 6のコン テンッ表示態様決定部 61は、受信したリクエスト情報 1A、表示画面情報 IB及び重 要度バランス情報 1Cと、コンテンツデータベース 3が蓄積するメタデータとに基づい て、コンテンツの表示態様を決定する。なお、コンテンツ変換部 22が変換済コンテン ッを生成する処理、及びコンテンツ配信部 23が変換済コンテンツを配信する処理は 、図 3で示したステップ S 13からステップ S 16までの処理と同様である。 [0139] 次に、コンテンツ表示態様決定部 61がコンテンツの表示態様を決定する動作につ いて説明する。図 11は、第 4の実施形態においてコンテンツ表示態様決定部がコン テンッの表示態様を決定する処理を示して \ヽる。
[0140] コンテンツ表示態様決定部 61は、第 1の実施形態の場合と同様に、受信したリクェ スト情報 1Aに基づいて、配信要求されたコンテンツの映像データと、配信要求された コンテンツの各付随データとをコンテンツデータベース 3から抽出する。また、コンテ ンッ表示態様決定部 61は、配信要求されたコンテンツに対応する各メタデータを、そ れぞれコンテンツデータベース 3から抽出する。コンテンツ表示態様決定部 61は、抽 出したメタデータに基づ 、て、映像データに含まれる各映像区間を特定する。
[0141] 次にコンテンツ表示態様決定部 61は、ステップ SlOlcにおいて、映像区間の特定 結果に基づいて、表示対象とする映像区間を指定する。本実施形態では、予め分割 ノターンを n個用意しておき、分割パターン蓄積部 34が n個の分割パターンを蓄積し ているものとする。コンテンツ表示態様決定部 61は、ステップ S102aにおいて、所定 の変数 kを k= lと初期化し、コンテンツ価値の最大値を V =0と初期化する。
max
[0142] 次にコンテンツ表示態様決定部 61は、ステップ S103aにおいて、分割パターン蓄 積部 34から、 k番目の分割パターンを読み込み、ステップ S104aにおいて、読み込 んだ分割パターンに基づいて、処理対象の映像区間に対して、表示画面を映像表 示部と付随データ表示部とに分割する。次にコンテンツ表示態様決定部 61は、ステ ップ S105aにおいて、映像表示部に最適な形で映像を変換し、変換後の映像を映 像表示部に表示した場合に映像がもつ価値 (最大価値)を、予め定めた評価関数を 用いて算出する。一般に映像を縮小すればする程映像を視聴しに《なるので、コン テンッ表示態様決定部 61は、評価関数を用いて、例えば、映像を縮小するに従って 低くなるように映像の価値を求める。同様にコンテンツ表示態様決定部 61は、ステツ プ S106aにおいて、付随データ表示部に最適な形で映像区間に対応する付随デー タを変換し、変換後の付随データを付随データ表示部に表示した場合に付随データ 力 Sもつ価値 (最大価値)を、予め定めた評価関数を用いて算出する。一般に表示画 面に表示する付随データの項目数を減らす程、表示できる情報量が少なくなる反面 、付随データの表示に要するページ数が減り、付随データが見やすくなる。そこでコ ンテンッ表示態様決定部 61は、表示する付随データの項目数とそれら項目の重要 度、及び表示に要するページ数を変数とする評価関数を用いて、変換後の付随デ 一タカ Sもつ価値を決定する。
[0143] 次にコンテンツ表示態様決定部 61は、ステップ S107aにおいて、変換後の映像及 び付随データに基づ 、て、表示画面に表示したコンテンツ (すなわち映像及び付随 データ)全体の価値 Vを、予め定めた評価関数を用いて算出する。本実施形態では 、コンテンツ表示態様決定部 61は、映像及び付随データ双方の価値をコンテンツ重 要度情報 1Cに基づ ヽて重み付けした評価関数を用いて、コンテンツ全体の価値 V を算出する。この場合、コンテンツ表示態様決定部 61は、例えば、最もシンプルな方 法として、単純に映像及び付随データ双方の価値を、コンテンツ重要度情報 1Cに基 づ 、て重み付けして加算する。
[0144] コンテンツ表示態様決定部 61は、ステップ S108a〖こおいて、求めたコンテンツ全体 の価値 Vがコンテンツ価値の最大値 V より大きいか否かを判定する。算出したコン
max
テンッ全体の価値 Vがコンテンツ価値の最大値 V より大きいと判断すると、コンテン
max
ッ表示態様決定部 61は、ステップ S109aにおいて、 V に Vを代入し、 V の値を
max max 更新し、現在の処理対象の k番目の分割パターンについて、映像表示部での最適な 表示を実現する映像変換パラメータ、及び付随データ表示部での最適な表示を実現 する付随データ変換パラメータ生成し、 k番目の分割パターンと、生成した映像変換 ノ ラメータ及び付随データ変換パラメータとを、あわせてメモリ等の記憶装置に保存 する。
[0145] V の値を更新し、分割パターン、映像変換パラメータ及び付随データ変換パラメ
max
ータを保存すると、コンテンツ表示態様決定部 61は、ステップ 110bにおいて、変数 k に 1加算する)。ステップ S108aで、コンテンツ全体の価値 Vがコンテンツ価値の最大 値 V より大きくないと判断した場合には、コンテンツ表示態様決定部 61は、ステツ max
プ S 109aの処理を実行せずに、そのまま変数 kに 1加算する。
[0146] 次にコンテンツ表示態様決定部 61は、ステップ Sl l laにおいて、変数 kの値力 よ り大きいか否かを判断する。変数 kの値力 より大きいと判断すると、コンテンツ表示 態様決定部 61は、全ての分割パターンについて処理を完了したと判断し、そのまま ステップ SI 12aの処理に移行する。変数 kの値力 ¾より大きくないと判断すると、コン テンッ表示態様決定部 61は、ステップ S 103aに戻り、ステップ S 103aからステップ S 110aまでの処理を繰り返し実行する。すなわち、コンテンツ表示態様決定部 61は、 未処理の分割パターンが存在すると判断し、分割パターン蓄積部 34が蓄積する次 の分割パターンを読み出して、その分割パターンを用いた時のコンテンツ価値を評 価する。
[0147] 一方、ステップ SI 11aにおいて変数 kの値が nより大きいと判断すると、コンテンツ 表示態様決定部 61は、ステップ S112aにおいて、記憶装置に現在記憶している分 割パターン、映像変換パラメータ及び付随データ変換パラメータを抽出し出力する。 すなわち、コンテンツ表示態様決定部 61は、コンテンツ価値 Vが最大となる時の分割 パターン、映像変換パラメータ及び付随データ変換パラメータを出力する。
[0148] 以上に示したように、コンテンツ表示態様決定部 61は、ステップ S 102aからステツ プ SI 12aまでの処理を実行することによって、分割パターンを変えながら、すなわち kを 1ずつインクリメントさせながら(k=k+ 1)、全ての分割パターンにつ!/、てコンテン ッ全体の価値を算出する。そして、コンテンツ表示態様決定部 61は、コンテンツ全体 の価値が最も高 、分割パターンを、映像と付随データとの配置レイアウトとして採用 する。
[0149] また本実施形態では、予め重畳パターンを m個用意しておき、重畳パターン蓄積 部 35が n個の重畳パターンを蓄積して 、るものとする。コンテンツ表示態様決定部 6 1は、ステップ S102bにおいて、各重畳パターンについて処理を行う際に用いる各変 数やパラメータを初期化する。本実施形態では、所定の変数 1を 1= 1と初期化し、所 定値 W を W =0と初期化する。なお、変数 1は、コンテンツ表示態様決定部 61が max max
、重畳パターン蓄積部 35が蓄積する重畳パターンのうち、現在何番目の重畳パター ンを用いて処理を行って 、るかを示す変数である。 W は、コンテンツ表示態様決
max
定部 61が重畳パターン毎に求めるコンテンツ価値の最大値を示す。
[0150] 次にコンテンツ表示態様決定部 61は、ステップ S103bにおいて、重畳パターン蓄 積部 35から、 1番目の重畳パターンを読み込み、ステップ S104bにおいて、読み込ん だ重畳パターンに基づいて、処理対象の映像区間に対して、映像に付随データを重 畳する。次にコンテンツ表示態様決定部 61は、ステップ S105bにおいて、映像区間 に対応する付随データを最適な形で変換し、変換後の付随データを付随データ表 示部に表示した場合に付随データがもつ価値 (最大価値)を、予め定めた評価関数 を用いて算出する。一般に表示画面に表示する付随データの項目数を減らす程、表 示できる情報量が少なくなる反面、付随データの表示に要するページ数が減り、付 随データが見やすくなる。そこでコンテンツ表示態様決定部 61は、例えば、表示する 付随データの項目数とそれら項目の重要度、及び表示に要するページ数を変数とす る評価関数を用いて、変換後の付随データ力 Sもつ価値を決定する。
[0151] コンテンツ表示態様決定部 61は、ステップ S106bにおいて、表示画面に最適な形 で映像を変換し、変換後の映像を表示画面に表示した場合に映像力もつ価値 (最大 価値)を、予め定めた評価関数を用いて算出する。この場合、コンテンツ表示態様決 定部 61は、評価関数を用いて、付随データが重畳されることによる価値の減少も考 慮した映像価値を求める。コンテンツ表示態様決定部 61は、例えば、空や単一色の 背景等の映像を邪魔しない箇所に付随データを重畳して表示する場合には、価値 が高くなるように映像価値を求める。逆に、コンテンツ表示態様決定部 61は、例えば 、主人公の顔の上に付随データを重畳表示する等の映像内容を大きく邪魔する場 合には、価値が低くなるように映像価値を求める。
[0152] さらにコンテンツ表示態様決定部 61は、ステップ S107bにおいて、変換後の映像 及び付随データに基づ 、て、表示画面に表示したコンテンツ (すなわち映像及び付 随データ)全体の価値 Wを、予め定めた評価関数を用いて算出する。本実施形態で はコンテンツ表示態様決定部 61は、映像及び付随データ双方の価値をコンテンツ 重要度情報 1Cに基づ 、て重み付けした評価関数を用いて、コンテンツ全体の価値 Vを算出する。
[0153] コンテンツ表示態様決定部 61は、ステップ S108bにおいて、求めたコンテンツ全体 の価値 Wがコンテンツ価値の最大値 W より大きいか否かを判定する。算出したコン
max
テンッ全体の価値 Wがコンテンツ価値の最大値 W より大きいと判断すると、コンテ
max
ンッ表示態様決定部 61は、ステップ S 109bにおいて、 W に Wを代入し、 W の
max max 値を更新し、現在の処理対象の 1番目の重畳パターンについて、映像表示部での最 適な表示を実現する映像変換パラメータ、及び付随データ表示部での最適な表示を 実現する付随データ変換パラメータを生成し、 1番目の重畳パターンと、生成した映 像変換パラメータ及び付随データ変換パラメータとを、あわせてメモリ等の記憶装置 に保存する。
[0154] W の値を更新し、重畳パターン、映像変換パラメータ及び付随データ変換パラメ
max
ータを保存すると、コンテンツ表示態様決定部 61は、ステップ SI 10bにおいて、変数 1に 1加算する。ステップ S 108bで、コンテンツ全体の価値 Wがコンテンツ価値の最大 値 W より大きくないと判断した場合には、コンテンツ表示態様決定部 61は、ステツ max
プ S 109bの処理を実行せずに、そのまま変数 1に 1加算する。
[0155] 次にコンテンツ表示態様決定部 61は、ステップ Sl l lbにおいて、変数 1の値が m り大きいか否かを判断する。変数 1の値が mより大きいと判断すると、コンテンツ表示態 様決定部 61は、全ての重畳パターンについて処理を完了したと判断し、そのままス テツプ S 112bの処理に移行する。変数 1の値が mより大きくないと判断すると、コンテ ンッ表示態様決定部 61は、ステップ S 103bに戻り、ステップ S 103b力もステップ S 11 Obまでの処理を繰り返し実行する。すなわち、コンテンツ表示態様決定部 61は、未 処理の重畳パターンが存在すると判断し、重畳パターン蓄積部 35が蓄積する次の 重畳パターンを読み出して、その重畳パターンを用いた時のコンテンツ価値を評価 する。
[0156] 一方、ステップ Sl l lbにおいて変数 1の値が mより大きいと判断すると、コンテンツ 表示態様決定部 61は、ステップ S 112bにおいて、記憶装置に現在記憶している重 畳パターン、映像変換パラメータ及び付随データ変換パラメータを抽出し出力する。 すなわち、コンテンツ表示態様決定部 61は、コンテンツ価値 Wが最大となる時の重 畳パターン、映像変換パラメータ及び付随データ変換パラメータを出力する。
[0157] 以上に示すように、コンテンツ表示態様決定部 61は、ステップ S 102bからステップ S112bまでの処理を実行することによって、重畳パターンを変えながら、すなわち kを 1ずつインクリメントしながら(1=1+ 1)、全ての重畳パターンについてコンテンツ全体 の価値を算出する。そして、コンテンツ表示態様決定部 61は、コンテンツ全体の価値 が最も高 、重畳パターンを、映像と付随データとの配置レイアウトとして採用する。 [0158] このようにして、映像と付随データとの配置レイアウトとして採用されるべき分割パタ ーン及び重畳パターンが定まると、コンテンツ表示態様決定部 61は、ステップ S112 aにおいて採用した分割パターンすなわち最適分割パターンに対応する評価値 V
max と、ステップ S 112bにお 、て採用した重畳パターンすなわち最適重畳パターンに対 応する評価値 W とを比較し、最適分割パターン及び最適重畳パターンのうち、より
max
高い評価値をもつ方のパターンを、映像及び付随データの表示に用いるパターンと して最終的に採用する。具体的には本実施形態では、ステップ S113cにおいて、コ ンテンッ表示態様決定部 61は、評価値 V が評価値 W より大きいか否かを判断
max max
する。評価値 V が評価値 W より大きいと判断すると、コンテンツ表示態様決定部
max max
61は、ステップ S114cにおいて、コンテンツ価値 Vが最大となる時の分割パターン、 映像変換パラメータ及び付随データ変換パラメータをコンテンツ変換部 22に出力す る。この場合、コンテンツ表示態様決定部 61は、コンテンツ価値 Vが最大となる時の 分割パターンを用いた表示画面上の配置レイアウトを示すレイアウト情報を生成し、 映像変換パラメータ、付随データ変換パラメータ及びレイアウト情報を含む表示態様 決定情報 61Aをコンテンツ変換部 22に出力する。一方、ステップ S 113cにおいて評 価値 V が評価値 W より大きくないと判断した場合には、コンテンツ表示態様決定 max max
部 61は、ステップ S115cにおいて、コンテンツ価値 Vが最大となる時の重畳パターン 、映像変換パラメータ及び付随データ変換パラメータをコンテンツ変換部 22に出力 する。この場合、コンテンツ表示態様決定部 61は、コンテンツ価値 Vが最大となる時 の重畳パターンを用いた表示画面上の配置レイアウトを示すレイアウト情報を生成し 、映像変換パラメータ、付随データ変換パラメータ及びレイアウト情報を含む表示態 様決定情報 61Aをコンテンツ変換部 22に出力する。
[0159] コンテンツ表示態様決定部 61は、以上に示したプロセスを、配信要求された映像 データに含まれる映像区間毎に繰り返す。そして、コンテンツ表示態様決定部 61は 、映像区間毎に、全ての分割パターン及び重畳パターンについてコンテンツ価値を 算出して配置レイァ外を決定し、表示態様決定情報 61Aを出力する。
[0160] 以上説明したようにこの第 4の実施形態によれば、コンテンツ配信サーバ 6は、映像 データに含まれる映像区間毎に、映像及び対応する付随データの内容に合わせて コンテンツの表示態様を適応的に決定する。また、コンテンツ配信サーバ 6は、決定 した表示態様に従って変換したコンテンツを利用者端末 1に配信する。そして、利用 者端末 1は、配信されたコンテンツに従って、映像表示部と付随データ表示部とを映 像区間毎に動的に変化させながら表示する。すなわち、本実施形態によれば、コン テンッの表示態様を映像区間毎に自動的に決定し、表示画面及びコンテンツの構 成に応じたレイアウトで映像と付随データとを表示することができる。従って、コンテン ッ作成者が個々の情報 (すなわち映像及び付随データ)に対して表示画面毎に画面 構成を設計しなくても、表示画面及びコンテンツの構成に応じたレイアウトで映像と付 随データとを表示することができる。
[0161] 第 4の実施形態によれば、映像及び付随データの内容に応じて、映像区間毎に映 像と付随データとの表示態様を適応的に決定し表示できるので、効果的に映像デー タと付随データとを提示するコンテンツ表示システムを実現することができる。また、 本実施形態によれば、コンテンツ配信サーバ 6は、映像データと付随データとを視聴 する側の要求条件である端末の表示画面に基づ!、て、コンテンツの表示態様を適応 的に決定する。そのため、任意の表示画面に対して効果的に映像データと付随デー タとを提示するコンテンツ表示システムを実現することができる。さらに、本実施形態 によれば、コンテンツ配信サーバ 6は、映像データと付随データとを視聴する側の要 求条件である重要度バランスに基づいて、コンテンツの表示態様を適応的に決定す るので、利用者の嗜好に合わせて効果的に映像データと付随データとを提示するコ ンテンッ表示システムを実現することができる。
[0162] 第 5の実施形態:
次に、本発明の第 5の実施形態のコンテンツ表示システムについて説明する。上述 の第 1乃至第 4の実施形態のコンテンツ表示システムでは、利用者端末 1からのリク ェストに応じてコンテンツ配信サーバがコンテンツを変換し、コンテンツ配信サーバが 変換済コンテンツを利用者端末 1に配信して 、た。これに対し第 5の実施形態では、 利用者がリクエストしたコンテンツそのものを端末で直接受け取って、利用者端末や 利用者ホームサーバでコンテンツを変換し表示するように構成したコンテンツ表示シ ステムを説明する。本実施形態において、利用者端末は、例えば、インターネットを 介してコンテンツそのものをダウンロードし、ダウンロードしたコンテンツを変換して表 示する。あるいは利用者端末は、例えば、予めコンテンツを蓄積するデータベースを 備え、予め蓄積するコンテンツを変換して表示する。図 12は、第 5の実施形態のコン テンッ表示システムの構成を示して 、る。
[0163] 図 12に示すように、本実施形態のコンテンツ表示システムは、利用者端末 7、キー ボードやマウス等の入力装置 8、ディスプレイ装置や液晶表示部等の表示部 9、コン テンッデータベース 3及び分割パターン蓄積部 34を含んでいる。
[0164] コンテンツデータベース 3は、コンテンツ製作者によって作成されたコンテンツを蓄 積するものであって、映像データ蓄積部 31、映像付随データ蓄積部 32及びメタデー タ蓄積部 33を含む。映像データ蓄積部 31は、画面に表示されるための映像データ を格納する。映像付随データ蓄積部 32は、映像と共に表示されるべき情報である付 随データを格納する。メタデータ蓄積部 33は、コンテンツ表示態様の決定に用いら れるメタデータを格納する。
[0165] 分割パターン蓄積部 34は、表示画面を映像表示部と付随データ表示部とに分割 するパターンを示した、分割パターンを予め複数蓄積する。
[0166] 利用者端末 7は、利用者が使用する端末であり、具体的には、パーソナルコンビュ ータゃ携帯電話機、 PDA等の情報処理端末である。なお、利用者端末 7は、これら 利用者が使用する情報処理端末に限らず、コンテンツを表示可能な表示部を備えた 他のコンテンツ表示端末であってもよい。例えば、利用者端末 7は、テレビジョン受信 機や、電光掲示板を搭載した端末、カーナビゲーシヨン端末等であってもよい。図 12 に示すように、利用者端末 7は、コンテンツ表示態様決定部 71と、コンテンツ変換部 72とを含む。
[0167] コンテンツ表示態様決定部 71は、利用者の操作に従って、リクエスト情報 1A及び 表示画面情報 1Bを、入力装置 8から入力する機能と、入力装置 8から与えられた (入 力された)リクエスト情報 1A及び表示画面情報 1Bを用いて、第 1の実施形態におけ るコンテンツ表示態様決定部 21と同様の処理を行って、コンテンッの表示態様を決 定する機能と、決定した表示態様を示す表示態様決定情報 71Aを生成し、コンテン ッ変換部 72に出力する機能を備える。 [0168] 図 12に示すように、コンテンツ変換部 72は、映像データ変換部 721と、付随データ 変換部 722と、コンテンツ配置部 723とを含む。映像データ変換部 721、付随データ 変換部 722及びコンテンツ配置部 723の機能は、第 1の実施形態で示したそれらの 機能と同様である。本実施形態では、変換済コンテンツをコンテンツ配信サーバが利 用者端末に配信する代わりに、コンテンツ変換部 72が変換済コンテンツに基づいて 映像及び付随データをコンテンツ表示部 9に表示させる。
[0169] 第 5の実施形態において、利用者端末 7の記憶装置(図示せず)は、映像データ及 び付随データを含むコンテンツを表示するための各種プログラムを記憶して 、る。例 えば、利用者端末 7の記憶装置は、コンピュータに、映像区間毎に、コンテンツに含 まれる映像データと付随データとを表示画面に表示するときの表示態様を決定する 処理と、映像区間毎に、決定した表示態様に従って、映像データと付随データとを配 置したコンテンツを生成する処理と、映像データと付随データとを配置したコンテンツ を表示する処理とを実行させるためのコンテンツ表示プログラムを記憶している。
[0170] このコンテンツ表示システムにおいて、コンテンツ表示態様決定部 71は、リクエスト 情報 1A及び表示画面情報 1Bに加えて、重要度バランス情報 1Cを入力装置 8から 入力するものであってよぐこの場合、コンテンツ表示態様決定部 71は、リクエスト情 報 1A及び表示画面情報 1Bにカ卩えて、重要度バランス情報 1Cに基づいて、コンテン ッの表示態様を決定してもよ ヽ。
[0171] このコンテンツ表示システムは、分割パターン蓄積部 34にカ卩えて、重畳パターン蓄 積部 35を含んでもよい。その場合、コンテンツ表示態様決定部 71は、分割パターン 蓄積部 34が蓄積する分割パターンに加えて、重畳パターン蓄積部 35が蓄積する重 畳パターンを用いて、コンテンツの表示態様を決定してもよ 、。
[0172] さらにコンテンツ表示態様決定部 71は、第 1の実施形態で示した処理に限らず、上 述の第 2乃至第 4の実施形態のうちのいずれかに示した表示態様決定処理を用いて 、コンテンツの表示態様を決定してもよい。
[0173] この第 5の実施形態によれば、第 1乃至第 4の実施形態のうちのいずれかの処理を 用いて、利用者端末 7内でコンテンツ表示態様を決定し、コンテンツ変換を行うことが できる。 [0174] 第 6の実施形態:
次に、本発明の第 5の実施形態のコンテンツ表示システムについて説明する。上述 の第 1乃至第 4の実施形態のコンテンツ表示システムでは、コンテンツ配信サーバが コンテンツの表示態様を決定し、決定した表示態様に従って変換した変換済コンテ ンッを利用者端末に配信していた。これに対し第 5の実施形態では、コンテンツ配信 サーバが未変換のコンテンツそのものを利用者端末に配信し、利用者端末が、決定 された表示態様に従って変換済コンテンツを生成し表示するように、コンテンツ表示 システムが構成されている。図 13は、第 6の実施形態のコンテンツ表示システムの構 成を示している。
[0175] 図 13に示すように、本実施形態のコンテンツ表示システムは、コンテンツ配信サー ノ 80がコンテンツ変換部を備えるのでなぐ利用者端末 90がコンテンツ変換部 92を 備える点で、第 1の実施形態のものと異なっている。また、本実施形態では、コンテン ッ配信サーバ 80のコンテンツ配信部 83の機能は、第 1の実施形態で示したコンテン ッ配信部 23の機能と異なっている。なお、この第 6の実施形態において、コンテンツ データベース 3及び分割パターン蓄積部 34が蓄積する情報は、第 1の実施形態に おけるそれらが蓄積する情報と同様であり、コンテンツ配信サーバ 80のコンテンツ表 示態様決定部 81の機能は、第 1の実施形態で示したコンテンツ表示態様決定部 21 の機能と同様である。
[0176] コンテンツ配信部 83は、コンテンツ表示態様決定部 81がコンテンツの表示態様を 決定すると、リクエスト情報 1Aに基づいて、配信要求されたコンテンツ (すなわち映像 データ及び付随データ)を、コンテンツデータベース 3から抽出する機能と、抽出した コンテンツと、コンテンッ表示態様決定部 81が生成した表示態様決定情報 81 Aとを 、通信ネットワーク 40を介して利用者端末 90に送信する機能を備える。
[0177] 利用者端末 90のコンテンツ変換部 92は、表示態様決定情報 81 A及びコンテンツ を、通信ネットワーク 40を介して、コンテンツ配信サーバ 80から受信する機能を備え 、図 13に示すように、映像データ変換部 921と、付随データ変換部 922と、コンテン ッ配置部 923とを含んで!/、る。
[0178] 映像データ変換部 921は、表示態様決定情報 81Aに含まれる映像変換パラメータ を用いて、受信したコンテンツに含まれる映像データを変換する機能を備える。付随 データ変換部 922は、表示態様決定情報 81 Aに含まれる付随データ変換パラメータ を用いて、受信したコンテンツに含まれる付随データを変換する機能を備える。コン テンッ配置部 923は、表示態様決定情報 81Aに含まれるレイアウト情報に従って、映 像データ変換部 921が変換した映像データと、付随データ変換部 922が変換した付 随データとをレイアウト上に配置した変換済コンテンツを生成する機能を備えている。 また、コンテンツ配置部 923は、変換済コンテンツに基づいて、液晶表示部等の表示 部(図示せず)に映像及び付随データを表示させる機能も備える。
[0179] 次に、第 6の実施形態のコンテンツ表示システムの動作について説明する。図 14 は、利用者端末からの要求に応じて、コンテンツ配信サーバがコンテンツを配信する 処理を示している。
[0180] まず、利用者端末 90は、図 3に示したステップ S11と同様の処理に従って、ステツ プ S21において、リクエスト情報 1A及び表示画面情報 1Bを、通信ネットワーク 40を 介してコンテンツ配信サーバ 80に送信する。コンテンツ配信サーバ 80のコンテンツ 表示態様決定部 81は、図 3に示したステップ S12と同様の処理に従って、ステップ S 22において、コンテンツの表示態様を映像区間毎に決定する。
[0181] コンテンツの表示態様を決定すると、コンテンツ配信部 83は、リクエスト情報 1Aに 基づいて、ステップ S23において、配信要求されたコンテンツの映像データをコンテ ンッデータベース 3から抽出し、ステップ S24において、配信要求されたコンテンツの 付随データを、コンテンツデータベース 3から抽出する。
[0182] 次にコンテンツ配信部 83は、ステップ S25において、抽出した映像データ及び付 随データと、コンテンツ表示態様決定部 81が生成した表示態様決定情報 81Aとを、 通信ネットワーク 40を介して利用者端末 90に送信する。言 、換えればコンテンツ配 信部 83は、変換済コンテンツを配信する代わりに、未変換のコンテンツそのもの(す なわち映像データ及び付随データ)と、映像及び付随データの配置条件とを配信す る。
[0183] 利用者端末 90は、それらのコンテンツ及び表示態様決定情報 81 Aを、通信ネット ワークを介してコンテンツ配信サーノ 80から受信する。すると、コンテンツ変換部 92 は、受信したコンテンツ及び表示態様決定情報 81 Aに基づいて、ステップ S26にお いて、映像データ及び付随データを、表示態様決定情報 81 Aに示される配置条件 に従って変換し配置して、変換済コンテンツを生成する。そして、コンテンツ変換部 9 2は、生成した変換済コンテンツに基づいて、表示部に映像及び付随データを表示 させる。
[0184] 本実施形態においてコンテンツ表示態様決定部 81は、リクエスト情報 1A及び表示 画面情報 1Bに加えて、重要度バランス情報 1Cを利用者端末 90から受信してもよい 。その場合、コンテンツ表示態様決定部 81は、リクエスト情報 1 A及び表示画面情報 1Bに加えて、重要度バランス情報 1Cに基づいて、コンテンツの表示態様を決定して ちょい。
[0185] コンテンツ表示システムは、分割パターン蓄積部 34にカ卩えて、重畳パターン蓄積部 35を含んでもよい。その場合、コンテンツ表示態様決定部 81は、分割パターン蓄積 部 34が蓄積する分割パターンに加えて、重畳パターン蓄積部 35が蓄積する重畳パ ターンを用いて、コンテンツの表示態様を決定してもよい。
[0186] さらにコンテンツ表示態様決定部 81は、第 1の実施形態で示した処理に限らず、上 述の第 2乃至第 4の実施形態のうちのいずれかに示した表示態様決定処理を用いて
、コンテンツの表示態様を決定してもよい。
[0187] 以上説明した第 1乃至第 6の実施形態では、表示態様決定処理の際にコンテンツ データベースからメタデータを抽出する場合を説明したが、これらの実施形態におい てコンテンツ表示態様決定部は、各映像区間に対するメタデータ、及び各映像区間 の付随データに対するメタデータを、リアルタイムに生成してもよい。例えば、コンテン ッ表示態様決定部は、表示対象のコンテンツに対応するメタデータ (すなわち映像メ タデータや付随メタデータ)を生成するメタデータ生成部を備え、そのメタデータ生成 部が生成したメタデータに基づいて、表示対象のコンテンツの表示態様を決定するよ うにしてもよい。メタデータ生成部は、例えば、プログラムに従って動作するサーバの
CPUによって構成される。
[0188] 例えばコンテンツ表示態様決定部は、映像データ全体に対するメタデータとして、 映像の解像度を映像データそのものから取得する(求める)ことができる。 [0189] また、コンテンツ表示態様決定部は、再生中の映像データから実時間で映像のカツ ト変わりを自動検出することにより、メタデータとして、映像区間をリアルタイムに抽出 することができる。この場合、コンテンツ表示態様決定部は、カットを検出する度に、 検出したカットを新たなショットの開始点に、その検出したカットの前のフレームを前の ショットの終了点として用いることができる。ここで用いることができるカット検出方法と し一しは、 f列 ば、 Ullas Gargi, Rangacnar Kasturi, ¾usan H. ¾trayer, 'Performance Characterization of Video― Shot― Change Detection Methods , IEEE Transaction on Circuits and Systems for Video Technology, Vol. 10, No. 1, February 2000に記載されている手法が ある。
[0190] あるいはコンテンツ表示態様決定部は、各映像区間に対するメタデータとして、映 像中から登場物を含む領域等の注目領域を自動的に抽出することによって、注目領 域情報を生成できる。ここで用いることができる注目領域の抽出方法としては、例え は、 A. Monan, C. Papageorgiou, T. Poggio, 'Example― Based O bject Detection in Images by Components", IEEE Trans, on PA MI, Vol. 23, No. 4, pp. 349— 361, 2001に記載されているもの力ある。
[0191] またコンテンツ表示態様決定部は、各映像区間の付随データに対するメタデータを 、付随データに含まれる各表示項目及び各項目の文字数をカウントすることによって 、自動的に生成することができる。
[0192] 上述の第 1乃至第 6の実施形態では、各映像区間に対応する付随データが必ず存 在するものとして説明を行った力 全ての映像区間に対して付随データが存在すると は限らない。例えば、映像データが番組間のテレビコマーシャル等の映像を含む場 合、テレビコマーシャルの映像区間に対応する付随データが存在しない場合もありう る。コンテンツ表示態様決定部は、映像区間に対して付随データが存在しない場合 には、付随データを表示せずに、その映像区間に対応する映像のみを表示するよう に表示態様を決定すればょ 、。
実施例
[0193] 以下、具体的な実施例を用いて、本発明に基づくコンテンツ表示システムの動作を 説明する。ここでは、上述したコンテンツ表示システムにおいて、複数のトピックを含 む-ユース番組が映像データとして用意され、予めコンテンツデータベース 3に蓄積 され、付随データとして、各-ユーストピックのタイトルとトピックの詳細な内容を示す テキストとが用意されて予めコンテンツデータベース 3に蓄積されている。映像用メタ データとして映像の解像度が予めコンテンツデータベース 3に蓄積され、付随データ 用メタデータとして各-ユーストピックのタイトルと、詳細テキストの文字数及び各トピッ クの重要度とが、予めコンテンツデータベース 3に蓄積され保持されている。コンテン ッ配信サーバは、利用者端末 1からリクエスト (配信要求)された映像データと付随デ ータとを、利用者端末の表示能力にあわせて表示する機能を備えて 、る。
[0194] 本発明者らは、テレビジョン受信機や携帯電話機などの複数の端末を用いて、コン テンッ配信サーバにアクセスし-ユース番組をリクエストすることによってコンテンツを 表示画面に表示させる実験を行った。また、本発明者らは、映像と付随データとの重 要度バランスとして、以下に示す 3種類の重要度バランスを与えた場合について、そ れぞれ実験を行った。
[0195] 1)まず、映像と付随データとの重要度が常に均等になるように、実験を行った。
[0196] 2)利用者が-ユースのトピックに興味がある場合を想定し、トピック表示中には映像 の重要度が高くなるようにし、アナゥンサが写っている映像区間に対して映像の重要 度が低くなるように、実験を行った。
[0197] 3)利用者が特定のアナゥンサのファンである場合を想定し、そのアナゥンサが写つ ている映像区間の映像の重要度が高くなるようにし、ニュースのトピックを文字で素早 く理解したい場合を想定して、トピック表示中には付随データの重要度が高くなるよう に、実験を行った。
[0198] 図 15及び図 16は、コンテンツ表示システムを用いて行った実験結果を示す説明図 である。図 15は、テレビジョン受信機力も-ユース番組を配信要求した場合に、決定 した表示態様に従って表示した表示画面を示している。図 16は、携帯電話機から- ユース番組を配信要求した場合に、決定した表示態様に従って表示した表示画面を 示している。
[0199] 図 15に示すように、実験の結果、表示画面の解像度 720 X 480画素であるテレビ ジョン受信機力 -ユース番組をリクエストすると、表示画面の左右に映像と付随デー タとが配置されて表示された。また、詳細テキストの長さとトピックの重要度とに応じて 、付随データの表示範囲が映像区間毎に変動した。
[0200] 図 16に示すように、表示画面の解像度 240 X 320画素である携帯電話機力もリク ェストすると、縦方向(図示上下)に映像と付随データとが配置されて表示された。ま た、詳細テキストの長さが短い場合を除いてタイトルのみが表示された。さらに、利用 者が与えた重要度バランスに従って、シーン(映像区間)毎に、よりクロースアップさ れるメディア(映像又は付随データ)が適応的に変化して表示された。
[0201] この実施例では、番組の実況掲示板が数多く用意され、コンテンツデータベースに 蓄積されている。番組映像と掲示板の内容とを同時に表示する場合には、番組の各 シーンに対する掲示板の書きこみ分量にあわせて、番組と書きこみとの表示バランス を最適に調整しながら表示することができる。
[0202] 以上説明したようにこの実施例では、映像データに含まれる映像区間毎に、映像及 び対応する付随データの内容に合わせてコンテンツの表示態様が適応的に決定さ れる。そのため、効果的に映像データと付随データとを提示するコンテンツ表示シス テムが実現されている。また、この実施例では、映像データと付随データとを視聴す る側の要求条件である端末の表示画面に基づ 、て、コンテンツの表示態様が適応的 に決定される。そのため、任意の表示画面に対して効果的に映像データと付随デー タとを提示するコンテンツ表示システムが実現されている。さらにこの実施例では、映 像データと付随データとを視聴する側の要求条件である重要度バランスに基づいて 、コンテンツの表示態様が適応的に決定される。そのため、利用者の嗜好に合わせ て効果的に映像データと付随データとを提示するコンテンツ表示システムが実現され ている。
産業上の利用可能性
[0203] 本発明は、映像データと付随データとを任意の表示画面に表示するコンテンツ表 示システムや、コンテンツ表示システムをコンピュータで実現するためのコンテンツ表 示プログラム等の用途に適用できる。また、テレビジョン放送やインターネット放送等 の映像データと、例えばテキスト情報やウェブ情報などのその映像データに関連する 付随データとを、携帯電話機やパーソナルコンピュータ、 PDA等任意の表示画面に 効率的に表示する用途にも適用可能である。

Claims

請求の範囲
[1] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンッを表示するコンテンッ表示システムであって、
表示対象のコンテンッに含まれる映像データと付随データとを表示画面に表示す るときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段を有する コンテンッ表示システム。
[2] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンッを表示するコンテンッ表示システムであって、
表示対象のコンテンッに含まれる映像データと付随データとを表示画面に表示す るときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段と、 前記映像区間毎に、前記コンテンツ表示態様決定手段が決定した表示態様に従 つて前記映像データと前記付随データとが配置されたコンテンツを生成するコンテン ッ配置手段と、
有するコンテンッ表示システム。
[3] 前記コンテンツ配置手段が生成したコンテンツを表示するコンテンツ表示手段を有 する請求項 2に記載のシステム。
[4] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンッを表示するコンテンッ表示システムであって、
表示画面の大きさを示す表示画面情報、各映像区間に対応する映像の属性情報 を含む映像メタデータ、及び前記映像区間に対応する各付随データの属性情報を 含む付随メタデータとに基づ 、て、前記映像と前記付随データとを前記表示画面に 表示するときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段と 前記コンテンツ表示態様決定手段が決定した表示態様に従って、前記映像を変換 する映像変換手段と、
前記コンテンツ表示態様決定手段が決定した表示態様に従って、前記付随データ を変換する付随データ変換手段と、
前記映像区間毎に、前記コンテンツ表示態様決定手段が決定した表示態様に従 つて、前記映像変換手段が変換した映像と前記付随データ変換手段が変換した付 随データとが配置されたコンテンツを生成するコンテンツ配置手段と、
を有するコンテンツ表示システム。
[5] 前記コンテンツ配置手段が生成した前記コンテンツを表示するコンテンツ表示手段 をさらに備える、請求項 4に記載のシステム。
[6] 前記コンテンツ表示態様決定手段は、前記表示画面情報、前記各映像メタデータ
、及び前記各付随メタデータに加えて、利用者の嗜好又は各映像区間の重要度と対 応する各付随データの重要度とのバランスを示す重要度情報のうち、少なくとも 1つ に基づ!/、て、前記表示態様を決定する請求項 4または 5に記載のシステム。
[7] 前記コンテンツ表示態様決定手段は、
表示対象のコンテンッに対応する映像メタデータ及び付随メタデータを生成するメ タデータ生成手段を含み、
前記メタデータ生成手段が生成した映像メタデータ及び付随メタデータに基づいて
、前記表示対象のコンテンツの表示態様を決定する、請求項 4乃至 6のいずれか 1項 に記載のシステム。
[8] 前記コンテンツ表示態様決定手段は、
前記各映像区間に対して、表示画面を、コンテンツに含まれる映像を表示する映像 表示部と、前記コンテンツに含まれる付随データを表示する付随データ表示部とに 分割し、
前記映像表示部に表示する映像及び前記付随データ表示部に表示する付随デー タカ 構成されるコンテンツの評価値が最適となるように分割の態様を決定することに よって、表示対象のコンテンツの表示態様を決定する
請求項 4乃至 7の!、ずれ力 1項に記載のシステム。
[9] 前記表示画面を前記映像表示部と前記付随データ表示部とに分割するパターンを 示す分割パターンを予め複数蓄積する分割パターン蓄積手段を備え、
前記コンテンツ表示態様決定手段は、
前記映像区間毎に、前記分割パターン蓄積手段が蓄積する各分割パターンを用 V、て、前記表示画面を前記映像表示部と前記付随データ表示部とに分割し、 前記映像区間毎に、前記表示対象のコンテンツを前記映像表示部と前記付随デ ータ表示部とに分割して表示した場合の前記コンテンツの評価値を求め、
前記映像区間毎に、前記分割パターン蓄積手段が蓄積する各分割パターンのうち 、求めた評価値が最大となる場合の分割パターンを、前記表示対象のコンテンツの 表示に用いる分割パターンとして決定する、請求項 8に記載のシステム。
[10] 前記コンテンツ表示態様決定手段は、
前記各映像区間に対して、映像に対応する付随データを映像に重畳し、 前記各映像区間に対して、前記付随データを映像に重畳して表示した場合に、表 示する映像及び付随データカゝら構成されるコンテンツの評価値が最適となるように重 畳の態様を決定することによって、前記表示対象のコンテンツの表示態様を決定す る、請求項 4乃至 7のいずれ力 1項に記載のシステム。
[11] 前記付随データを映像に重畳して表示するパターンを示す重畳パターンを予め複 数蓄積する重畳パターン蓄積手段を備え、
前記コンテンツ表示態様決定手段は、
前記映像区間毎に、前記重畳パターン蓄積手段が蓄積する各重畳パターンを用 いて、前記付随データを映像に重畳させ、
前記映像区間毎に、前記表示対象のコンテンツに基づいて、前記付随データを映 像に重畳して表示した場合の前記コンテンツの評価値を求め、
前記映像区間毎に、前記重畳パターン蓄積手段が蓄積する各重畳パターンのうち 、求めた評価値が最大となる場合の重畳パターンを、表示対象のコンテンツの表示 に用 、る重畳パターンとして決定する、請求項 10に記載のシステム。
[12] 前記コンテンツ表示態様決定手段は、
前記各映像区間に対して、前記表示画面を、前記コンテンツに含まれる映像を表 示する映像表示部と、前記コンテンツに含まれる付随データを表示する付随データ 表示部とに分割し、
前記各映像区間に対して、映像に対応する前記付随データを当該映像に重畳し、 前記各映像区間に対して、映像及び付随データを分割して表示する態様を用いて 表示対象のコンテンツを表示した場合の前記コンテンツの評価値と、前記付随デー タを映像に重畳させる態様を用いて前記コンテンツを表示した場合の前記コンテンツ の評価値とに基づいて、評価値が最適となる方の態様を選択することによって、表示 対象のコンテンツの表示方法を決定する、請求項 4乃至 7のいずれか 1項に記載の システム。
[13] 前記表示画面を映像表示部と付随データ表示部とに分割するパターンを示す分割 パターンを予め複数蓄積する分割パターン蓄積手段と、
前記付随データを映像に重畳して表示するパターンを示す重畳パターンを予め複 数蓄積する重畳パターン蓄積手段と、
を備え、
前記コンテンツ表示態様決定手段は、
前記映像区間毎に、前記分割パターン蓄積手段が蓄積する各分割パターンを用 V、て、前記表示画面を前記映像表示部と前記付随データ表示部とに分割し、 前記映像区間毎に、前記表示対象のコンテンツを前記映像表示部と前記付随デ ータ表示部とに分割して表示した場合の前記コンテンツの第 1の評価値を求め、 前記映像区間毎に、前記分割パターン蓄積手段が蓄積する各分割パターンのうち 、求めた第 1の評価値が最大となる場合の分割パターンを選択し、
前記映像区間毎に、前記重畳パターン蓄積手段が蓄積する各重畳パターンを用 いて、前記付随データを映像に重畳させ、
前記映像区間毎に、前記表示対象のコンテンツに基づいて、前記付随データを映 像に重畳して表示した場合の前記コンテンツの第 2の評価値を求め、
前記映像区間毎に、前記重畳パターン蓄積手段が蓄積する各重畳パターンのうち 、求めた第 2の評価値が最大となる場合の重畳パターンを選択し、
映像区間毎に、選択した前記分割パターンと前記重畳パターンとのうち、評価値が 最大となる方のパターンを選択することによって、表示対象のコンテンツの表示態様 を決定する、請求項 12に記載のコンテンッ表示システム。
[14] 前記コンテンツ表示態様決定手段は、
前記映像区間毎に、前記映像表示部に表示する映像を評価するための第 1の評 価関数、前記付随データ表示部に表示する付随データを評価するための第 2の所 評価関数、及び各映像と前記映像に対応する付随データとの間の重要度のバランス を示す第 3の評価関数を用いて、前記表示対象のコンテンツの評価値を求め、 求めた評価値が最適になるように、各映像区間に対する表示画面の分割の態様を 決定する、請求項 8、 9、 12及び 13のいずれか 1項に記載のシステム。
[15] 前記コンテンツ表示態様決定手段は、
前記映像区間毎に、映像に重畳して表示する付随データを評価するための第 1の 評価関数、表示する映像を評価するための第 2の評価関数、及び各映像と前記映像 に対応する付随データとの間の重要度のバランスを示す第 3の評価関数を用いて、 前記表示対象のコンテンツの評価値を求め、
求めた評価値が最適になるように、付随データを映像の重畳させる態様を映像区 間毎に決定する、請求項 10乃至 13のいずれか 1項に記載のシステム。
[16] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンッを酉己信するコンテンッ酉己信システムであって、
利用者端末と、
コンテンツを酉己信するコンテンツ酉己信サーノと、
を有し、
前記利用者端末は、コンテンツの配信要求を、通信ネットワークを介して前記コンテ ンッ配信サーバに送信するコンテンツ要求手段を有し、
前記コンテンツ配信サーバは、
前記利用者端末カゝらコンテンツの配信要求を受信すると、配信要求されたコンテン ッに含まれる映像データと付随データとを表示画面に表示するときの表示態様を、映 像区間毎に決定するコンテンツ表示態様決定手段と、
前記映像区間毎に、前記コンテンツ表示態様決定手段が決定した表示態様に従 つて前記映像データと前記付随データとが配置されたコンテンツを生成するコンテン ッ配置手段と、
前記コンテンツ配置手段が生成したコンテンツを、前記通信ネットワークを介して前 記利用者端末に送信するコンテンツ配信手段と、
を有する、コンテンツ酉己信システム。
[17] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンツを配信するコンテンツ配信サーバであって、
配信要求されたコンテンッに含まれる映像データと付随データとを表示画面に表示 するときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段を備え る、コンテンツ配信サーバ。
[18] 前記コンテンツ表示態様決定手段が決定した表示態様を示す表示態様決定情報 を生成する決定情報生成手段と、
配信要求されたコンテンツ、及び前記決定情報生成手段が生成した表示態様決定 情報を、前記通信ネットワークを介して前記利用者端末に送信するコンテンツ配信手 段と、
を備える請求項 17に記載のサーバ。
[19] 前記コンテンツ表示態様決定手段が決定した表示態様に従って前記映像区間毎 に前記映像データと前記付随データとが配置されたコンテンツを生成するコンテンツ 配置手段を備える、請求項 17に記載のサーバ。
[20] 前記コンテンツ配置手段が生成したコンテンツを、前記通信ネットワークを介して前 記利用者端末に送信するコンテンツ配信手段を備える、請求項 19に記載のサ一ノ^
[21] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンツを配信するコンテンツ配信サーバであって、
前記映像データに含まれる各映像、及び前記映像に対応する付随データの表示 形態に関する要求条件に基づいて、前記映像と前記付随データとを前記表示画面 に表示するときの表示態様を、映像区間毎に決定するコンテンツ表示態様決定手段 と、
前記コンテンツ表示態様決定手段が決定した表示態様に従って、前記映像を変換 する映像変換手段と、
前記コンテンツ表示態様決定手段が決定した表示態様に従って、前記付随データ を変換する付随データ変換手段と、
前記映像区間毎に、前記コンテンツ表示態様決定手段が決定した表示態様に従 つて、前記映像変換手段が変換した映像と前記付随データ変換手段が変換した付 随データとが配置されたコンテンツを生成するコンテンツ配置手段と、 前記コンテンツ配置手段が生成したコンテンツを、利用者端末に配信するコンテン ッ配信手段と、
を有するコンテンツ配信サーバ。
[22] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンッを表示するコンテンッ表示方法であって、
表示対象のコンテンッに含まれる映像データと付随データとを表示画面に表示す るときの表示態様を、映像区間毎に決定するステップを含むコンテンツ表示方法。
[23] 前記映像区間毎に、決定した表示態様に従って映像データと付随データとが配置 されたコンテンツを生成するステップを含む、請求項 22に記載の方法。
[24] 決定した表示態様に従って、前記生成したコンテンツを表示するステップを含む請 求項 23に記載の方法。
[25] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンッを表示するコンテンッ表示方法であって、
表示画面の大きさを示す表示画面情報、前記映像データに含まれる各映像区間に 対応する映像の属性情報を含む映像メタデータ、及び前記映像区間に対応する付 随データの属性情報を含む付随メタデータとに基づいて、前記各映像区間について 前記映像データと前記付随データとを表示画面に表示するときの表示態様を、前記 映像区間毎に決定するコンテンツ表示態様決定ステップと、
前記コンテンツ表示態様決定ステップで決定した態様を用いて、前記映像データと 前記映像データに対応する付随データとを表示するコンテンツ表示ステップと、 を有するコンテンツ表示方法。
[26] 前記映像データに含まれる各映像、及び前記映像に対応する前記付随データの 表示形態に関する要求条件として、少なくとも表示画面の大きさ、各映像区間の映像 の内容、及び前記映像区間に対応する各付随データの内容の条件のいずれか 1つ またはそれらの組み合わせに基づ 、て、前記表示態様を決定する請求項 25に記載 の方法。
[27] 前記コンテンツ表示態様決定ステップで、表示画面情報、各映像メタデータ、及び 付随メタデータに加えて、利用者の嗜好又は各映像区間の重要度と対応する各付 随データの重要度とのバランスを示す重要度情報のうち、少なくとも 1つに基づいて、 前記表示態様を決定する請求項 25に記載の方法。
[28] 前記コンテンツ表示態様決定ステップは、
前記各映像区間に対して、表示画面を、コンテンツに含まれる映像を表示する映像 表示部と、前記コンテンツに含まれる付随データを表示する付随データ表示部とに 分割するステップと、
前記映像表示部に表示する映像及び前記付随データ表示部に表示する付随デー タカ 構成されるコンテンツの所定の評価値が最適となるように分割の態様を決定す ることによって、前記表示態様を決定するステップと、
を有する、請求項 25乃至 27のいずれか 1項に記載の方法。
[29] コンテンツ表示態様決定ステップは、
前記各映像区間に対して、映像に対応する付随データを当該映像に重畳するステ ップと、
前記各映像区間に対して、前記付随データを前記映像に重畳して表示した場合に 、表示する映像及び付随データから構成されるコンテンツの評価値が最適となるよう に重畳の態様を決定することによって、前記表示態様を決定するステップと、 を有する請求項 25乃至 27のいずれ力 1項に記載の方法。
[30] 前記コンテンツ表示態様決定ステップは、
前記各映像区間に対して、表示画面を、コンテンツに含まれる映像を表示する映像 表示部と、前記コンテンツに含まれる付随データを表示する付随データ表示部とに 分割するステップと、
前記各映像区間に対して、前記映像に対応する付随データを当該映像に重畳す るステップと、
前記各映像区間に対して、映像及び付随データを分割して表示する態様を用いて 前記表示対象のコンテンツを表示する場合の前記コンテンッの第 1の評価値と、付 随データを映像に重畳させる態様を用いて前記コンテンツを表示した場合の前記コ ンテンッの第 2の評価値とに基づいて、評価値が最適となる方の態様を選択すること によって、前記表示態様を決定するステップと、
を有する、請求項 25乃至 27のいずれか 1項に記載の方法。
[31] 前記コンテンツ表示態様決定ステップは、
前記映像区間毎に、前記映像表示部に表示する映像を評価するための第 1の評 価関数、前記付随データ表示部に表示する付随データを評価するための第 2の評 価関数、及び各映像と前記映像に対応する付随データとの間の重要度のバランスを 示す第 3の評価関数を用いて、表示対象のコンテンツの評価値を求めるステップと、 求めた評価値が最適になるように、前記各映像区間に対する表示画面の分割の態 様を決定するステップと、
を有する、請求項 28または 30に記載の方法。
[32] 前記コンテンツ表示態様決定ステップは、
前記映像区間毎に、前記映像に重畳して表示する付随データを評価するための第 1の評価関数、表示する映像を評価するための第 2の評価関数、及び各映像と前記 映像に対応する付随データとの間の重要度のバランスを示す第 3の評価関数を用い て、表示対象のコンテンツの評価値を求めるステップと、
求めた評価値が最適になるように、付随データを映像の重畳させる態様を前記映 像区間毎に決定するステップと、
を有する、請求項 29または 30に記載の方法。
[33] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンツを表示するためのコンテンツ表示プログラムであって、
コンピュータに、
前記映像区間毎に、コンテンツに含まれる映像データと付随データとを表示画面に 表示するときの表示態様を決定する処理と、
前記映像区間毎に、決定した表示態様に従って、前記映像データと前記付随デー タとが配置されたコンテンツを生成する処理と、
前記映像データと前記付随データとが配置されたコンテンツを表示する処理と、 を実行させるコンテンツ表示プログラム。
[34] 複数の映像区間からなる映像データと当該映像データに付随する付随データとを 含むコンテンツを配信するためのコンテンツ配信プログラムであって、
コンピュータに、
コンテンツの配信要求を、通信ネットワークを介して利用者端末から受信する処理と 前記利用者端末カゝらコンテンツの配信要求を受信すると、配信要求されたコンテン ッに含まれる映像データと付随データとを表示画面に表示するときの表示態様を、前 記映像区間毎に決定する処理と、
前記映像区間毎に、決定した表示態様に従って前記映像データと前記付随データ とが配置されたコンテンツを生成する処理と、
前記映像データと前記付随データとが配置されたコンテンツを、前記通信ネットヮ ークを介して前記利用者端末に送信する処理と、
を実行させるコンテンツ酉 S信プログラム。
PCT/JP2006/309948 2005-05-18 2006-05-18 コンテンツ表示システム及びコンテンツ表示方法 WO2006123744A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/920,159 US20090025030A1 (en) 2005-05-18 2006-05-18 Contents display system and contents display method
EP06756353.6A EP1883241B1 (en) 2005-05-18 2006-05-18 Content display system and content display method
JP2007516339A JPWO2006123744A1 (ja) 2005-05-18 2006-05-18 コンテンツ表示システム及びコンテンツ表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005145547 2005-05-18
JP2005-145547 2005-05-18

Publications (1)

Publication Number Publication Date
WO2006123744A1 true WO2006123744A1 (ja) 2006-11-23

Family

ID=37431316

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/309948 WO2006123744A1 (ja) 2005-05-18 2006-05-18 コンテンツ表示システム及びコンテンツ表示方法

Country Status (6)

Country Link
US (1) US20090025030A1 (ja)
EP (1) EP1883241B1 (ja)
JP (1) JPWO2006123744A1 (ja)
KR (1) KR20070121049A (ja)
CN (1) CN101223782A (ja)
WO (1) WO2006123744A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131328A (ja) * 2006-11-21 2008-06-05 Sharp Corp コンテンツ表示装置、およびコンテンツ表示装置の制御方法
JP2009194452A (ja) * 2008-02-12 2009-08-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2010116457A1 (ja) * 2009-03-30 2010-10-14 Necディスプレイソリューションズ株式会社 映像表示装置および映像処理方法
US8316395B2 (en) 2007-01-05 2012-11-20 Sony Corporation Information processing apparatus and method, and program
JP2014174899A (ja) * 2013-03-12 2014-09-22 Kddi Corp Guiプログラム自動変更装置、自動変更方法及び自動変更プログラム
JP2018088291A (ja) * 2012-06-06 2018-06-07 グーグル エルエルシー デジタルコンテンツを再生しながらコンテキストをブラウズするためのモバイルユーザインターフェース
JP2021018772A (ja) * 2019-07-24 2021-02-15 株式会社エヌ・ティ・ティ・データ 予測装置、学習装置、予測方法、及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084535A2 (en) * 2003-03-14 2004-09-30 Starz Encore Group Llc Video aspect ratio manipulation
JP5193026B2 (ja) * 2006-03-07 2013-05-08 日本電気株式会社 動画像配信システムおよび変換装置
KR100801993B1 (ko) * 2007-03-12 2008-02-12 김기연 멀티화면 콘텐츠 구현방법 및 구현 시스템
JP5121367B2 (ja) * 2007-09-25 2013-01-16 株式会社東芝 映像を出力する装置、方法およびシステム
JP2009260818A (ja) * 2008-04-18 2009-11-05 Nec Corp サーバ装置とコンテンツ配信方法とプログラム
JP4675995B2 (ja) * 2008-08-28 2011-04-27 株式会社東芝 表示処理装置、プログラムおよび表示処理方法
JP5388631B2 (ja) * 2009-03-03 2014-01-15 株式会社東芝 コンテンツ提示装置、及び方法
JP4852119B2 (ja) * 2009-03-25 2012-01-11 株式会社東芝 データ表示装置、データ表示方法、データ表示プログラム
JP5415225B2 (ja) * 2009-10-15 2014-02-12 ソニー株式会社 動画提供装置、動画提供方法およびプログラム
US9237366B2 (en) 2010-04-16 2016-01-12 Google Technology Holdings LLC Method and apparatus for distribution of 3D television program materials
US8599316B2 (en) * 2010-05-25 2013-12-03 Intellectual Ventures Fund 83 Llc Method for determining key video frames
JP2012235380A (ja) * 2011-05-06 2012-11-29 Sony Corp 受信装置及び方法、並びにプログラム
JP6073664B2 (ja) * 2012-12-07 2017-02-01 株式会社東芝 コンテンツ再生装置及びコンテンツ再生プログラム
KR102176399B1 (ko) * 2014-05-28 2020-11-09 삼성전자주식회사 디스플레이장치, 디스플레이장치의 제어방법 및 서버
KR20160044902A (ko) * 2014-10-16 2016-04-26 삼성전자주식회사 방송 콘텐트와 관련한 부가 정보 제공 방법 및 이를 구현하는 전자 장치
CN109905668B (zh) * 2019-02-19 2021-08-13 视联动力信息技术股份有限公司 一种摄像头画面部分的方法以及装置
CN114520917B (zh) * 2020-11-19 2024-02-23 腾讯科技(深圳)有限公司 视频编码方法、装置、终端设备以及存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149968A (ja) 1992-11-06 1994-05-31 Ricoh Co Ltd 文書処理装置
US6023714A (en) 1997-04-24 2000-02-08 Microsoft Corporation Method and system for dynamically adapting the layout of a document to an output device
JP2001296852A (ja) 2000-04-11 2001-10-26 Nippon Hoso Kyokai <Nhk> 映像表示方法
JP2002032747A (ja) 2000-07-18 2002-01-31 Kddi Corp 車両検出方法
JP2002351781A (ja) * 2001-05-30 2002-12-06 Fujitsu Ltd 画面表示用ページレイアウトを利用したコンテンツ生成装置
JP2003018553A (ja) 2001-06-29 2003-01-17 Sanyo Electric Co Ltd データ放送受信装置
JP2003032747A (ja) 2001-07-17 2003-01-31 Mitsubishi Electric Corp 端末装置および端末装置用プログラム
JP2003067100A (ja) 2001-08-28 2003-03-07 Nippon Telegr & Teleph Corp <Ntt> ディジタルコンテンツ表示方法及び装置及びディジタルコンテンツ表示プログラム及びディジタルコンテンツ表示プログラムを格納した記憶媒体
JP2003085087A (ja) * 2001-08-29 2003-03-20 Internatl Business Mach Corp <Ibm> トランスコーディングシステム、コンテンツ変換方法、アノテーションデータを格納した記録媒体及びアノテーション管理装置
EP1347645A1 (en) 2000-12-01 2003-09-24 Ginganet Corporation Video terminal, video terminal communicating system, and videoconference system
JP2003304473A (ja) * 2002-04-12 2003-10-24 Mitsubishi Electric Corp 映像コンテンツ送出装置およびその方法、映像コンテンツ蓄積装置、映像コンテンツ再生装置およびその方法、メタデータ生成装置、映像コンテンツ管理運用方法
WO2004008768A1 (en) 2002-07-16 2004-01-22 Electronics And Telecommunications Research Institute Apparatus and method for adapting 2d and 3d stereoscopic video signal
JP2004110427A (ja) * 2002-09-18 2004-04-08 Hitachi Software Eng Co Ltd Webコンテンツ変換方法及びシステム
US20040073925A1 (en) 2002-09-27 2004-04-15 Nec Corporation Content delivery server with format conversion function

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6240555B1 (en) * 1996-03-29 2001-05-29 Microsoft Corporation Interactive entertainment system for presenting supplemental interactive content together with continuous video programs
JPH10232916A (ja) * 1997-02-19 1998-09-02 Canon Inc 画像編集装置及び方法並びにプログラムを記録した媒体
US6959449B1 (en) * 1998-06-08 2005-10-25 Sony Corporation System and method for simultaneously accessing video data and internet page data
US6754905B2 (en) * 1998-07-23 2004-06-22 Diva Systems Corporation Data structure and methods for providing an interactive program guide
JP4167777B2 (ja) * 1999-07-19 2008-10-22 三菱電機株式会社 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体
US20010030667A1 (en) * 2000-04-10 2001-10-18 Kelts Brett R. Interactive display interface for information objects
US20020040375A1 (en) * 2000-04-27 2002-04-04 Simon Richard A. Method of organizing digital images on a page
JP4672856B2 (ja) * 2000-12-01 2011-04-20 キヤノン株式会社 マルチ画面表示装置及びマルチ画面表示方法
AU2002247046B2 (en) * 2001-02-02 2006-10-05 Opentv, Inc. A method and apparatus for reformatting of content fir display on interactive television
US7555199B2 (en) * 2003-01-16 2009-06-30 Panasonic Corporation Recording apparatus, OSD controlling method, program, and recording medium
JP2004326682A (ja) * 2003-04-28 2004-11-18 Tdk Corp コンテンツ配信方法及びコンテンツ配信システム
JP5059282B2 (ja) * 2003-10-14 2012-10-24 ソニー株式会社 情報提供システム,情報提供サーバ,ユーザ端末装置,コンテンツ表示装置,コンピュータプログラム,およびコンテンツ表示方法
JP4125249B2 (ja) * 2004-01-30 2008-07-30 キヤノン株式会社 情報処理方法及び情報処理装置及びコンピュータ読み取り可能なプログラム
US20050188403A1 (en) * 2004-02-23 2005-08-25 Kotzin Michael D. System and method for presenting and editing customized media streams to a content providing device
US7616264B1 (en) * 2004-12-06 2009-11-10 Pixelworks, Inc. Cropped and scaled picture-in-picture system and method

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149968A (ja) 1992-11-06 1994-05-31 Ricoh Co Ltd 文書処理装置
US6023714A (en) 1997-04-24 2000-02-08 Microsoft Corporation Method and system for dynamically adapting the layout of a document to an output device
JP2001296852A (ja) 2000-04-11 2001-10-26 Nippon Hoso Kyokai <Nhk> 映像表示方法
JP2002032747A (ja) 2000-07-18 2002-01-31 Kddi Corp 車両検出方法
EP1347645A1 (en) 2000-12-01 2003-09-24 Ginganet Corporation Video terminal, video terminal communicating system, and videoconference system
JP2002351781A (ja) * 2001-05-30 2002-12-06 Fujitsu Ltd 画面表示用ページレイアウトを利用したコンテンツ生成装置
JP2003018553A (ja) 2001-06-29 2003-01-17 Sanyo Electric Co Ltd データ放送受信装置
JP2003032747A (ja) 2001-07-17 2003-01-31 Mitsubishi Electric Corp 端末装置および端末装置用プログラム
JP2003067100A (ja) 2001-08-28 2003-03-07 Nippon Telegr & Teleph Corp <Ntt> ディジタルコンテンツ表示方法及び装置及びディジタルコンテンツ表示プログラム及びディジタルコンテンツ表示プログラムを格納した記憶媒体
JP2003085087A (ja) * 2001-08-29 2003-03-20 Internatl Business Mach Corp <Ibm> トランスコーディングシステム、コンテンツ変換方法、アノテーションデータを格納した記録媒体及びアノテーション管理装置
JP2003304473A (ja) * 2002-04-12 2003-10-24 Mitsubishi Electric Corp 映像コンテンツ送出装置およびその方法、映像コンテンツ蓄積装置、映像コンテンツ再生装置およびその方法、メタデータ生成装置、映像コンテンツ管理運用方法
WO2004008768A1 (en) 2002-07-16 2004-01-22 Electronics And Telecommunications Research Institute Apparatus and method for adapting 2d and 3d stereoscopic video signal
JP2004110427A (ja) * 2002-09-18 2004-04-08 Hitachi Software Eng Co Ltd Webコンテンツ変換方法及びシステム
US20040073925A1 (en) 2002-09-27 2004-04-15 Nec Corporation Content delivery server with format conversion function

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KASUTANI E. ET AL: "Nin'i Gamen Size ni Taisuru Eizo Kanren Joho Teiji Balance no Saitekika Optimizing Oresentation Balance of Video and its Related Information to Any Screen Size", FIT 2005 (DAI 4 KAI FORUM ON INFORMATION TECHNOLOGY), IPPAN KOEN RONBUNSHU, vol. 2, 22 August 2005 (2005-08-22), pages 47 - 48, XP003006962 *
ULLAS GARGI; RANGACHAR KASTURI; SUSAN H. STRAYER: "Performance Characterization of Video-Shot-Change Detection Methods", IEEE TRANSACTION ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 10, no. 1, February 2000 (2000-02-01)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131328A (ja) * 2006-11-21 2008-06-05 Sharp Corp コンテンツ表示装置、およびコンテンツ表示装置の制御方法
US8316395B2 (en) 2007-01-05 2012-11-20 Sony Corporation Information processing apparatus and method, and program
JP2009194452A (ja) * 2008-02-12 2009-08-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
US8243199B2 (en) 2008-02-12 2012-08-14 Sony Corporation Apparatus, method and program for enabling content displayed on a display screen to be switched
WO2010116457A1 (ja) * 2009-03-30 2010-10-14 Necディスプレイソリューションズ株式会社 映像表示装置および映像処理方法
JPWO2010116457A1 (ja) * 2009-03-30 2012-10-11 Necディスプレイソリューションズ株式会社 映像表示装置および映像処理方法
JP2018088291A (ja) * 2012-06-06 2018-06-07 グーグル エルエルシー デジタルコンテンツを再生しながらコンテキストをブラウズするためのモバイルユーザインターフェース
JP2014174899A (ja) * 2013-03-12 2014-09-22 Kddi Corp Guiプログラム自動変更装置、自動変更方法及び自動変更プログラム
JP2021018772A (ja) * 2019-07-24 2021-02-15 株式会社エヌ・ティ・ティ・データ 予測装置、学習装置、予測方法、及びプログラム
JP7262335B2 (ja) 2019-07-24 2023-04-21 株式会社エヌ・ティ・ティ・データ 予測装置、学習装置、予測方法、及びプログラム

Also Published As

Publication number Publication date
CN101223782A (zh) 2008-07-16
JPWO2006123744A1 (ja) 2008-12-25
EP1883241A1 (en) 2008-01-30
EP1883241B1 (en) 2016-01-13
EP1883241A4 (en) 2012-03-21
US20090025030A1 (en) 2009-01-22
KR20070121049A (ko) 2007-12-26

Similar Documents

Publication Publication Date Title
WO2006123744A1 (ja) コンテンツ表示システム及びコンテンツ表示方法
USRE47577E1 (en) Method for providing widgets and TV using the same
TW518890B (en) System and method for automatic content enhancement of multimedia output device
RU2606585C2 (ru) Преобразование контента для не требующих вмешательства развлечений
US20080209493A1 (en) Contents Browsing Apparatus And Method
US20100162303A1 (en) System and method for selecting an object in a video data stream
US10820045B2 (en) Method and system for video stream personalization
WO2001058150A2 (en) Displaying complementary content sources in a web-based tv system
CN103988519A (zh) 为媒体浏览器创建封面艺术
JP4769032B2 (ja) 画面変更方法、画面生成装置、プログラム、及び記録媒体
US20050066366A1 (en) Receiving apparatus, method for displaying in conjunction with television program, and printing control method
US20100036812A1 (en) Method and apparatus for generating and providing relevant information related to multimedia content
KR20160068405A (ko) 디스플레이 장치, 그의 채널 리스트 디스플레이 방법, 서버 및 그의 제어 방법
JP2009005260A (ja) コンテンツ視聴装置
KR101366087B1 (ko) 개인용 방송 콘텐츠 서비스를 제공하는 서버 및 방법 및개인용 방송 콘텐츠를 생성하는 사용자 단말 장치 및 방법
US8797460B2 (en) Reception apparatus, reception method, and program
JP5852867B2 (ja) オンデマンド表示システム,オンデマンドコントローラ,オンデマンドコントロールセンタ
JP2011160150A (ja) 映像表示制御装置及び映像表示制御方法
KR100788701B1 (ko) 방송 프로그램 저장 장치 및 방법
JP2005333402A (ja) 情報提供システム、情報提供方法および情報提供プログラム
CN113542885B (zh) 显示设备、服务器及媒资搜索的处理方法
JP2011009978A (ja) 画面構成装置
Cody et al. Open-standards rich media mobile platform & rapid service creation tool
KR20070027380A (ko) 텔레비젼 기반 전자 신문 서비스 시스템
Cody et al. Open-standards rich media mobile platform & rapid deployment service creation tool

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680026336.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007516339

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006756353

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11920159

Country of ref document: US

Ref document number: 1020077026149

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006756353

Country of ref document: EP