WO2011049016A1 - 映像出力装置、映像出力方法およびプログラム - Google Patents

映像出力装置、映像出力方法およびプログラム Download PDF

Info

Publication number
WO2011049016A1
WO2011049016A1 PCT/JP2010/068143 JP2010068143W WO2011049016A1 WO 2011049016 A1 WO2011049016 A1 WO 2011049016A1 JP 2010068143 W JP2010068143 W JP 2010068143W WO 2011049016 A1 WO2011049016 A1 WO 2011049016A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
execution
unit
sub
application
Prior art date
Application number
PCT/JP2010/068143
Other languages
English (en)
French (fr)
Inventor
繁幸 岩田
木山 次郎
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/502,500 priority Critical patent/US20120207443A1/en
Priority to EP10824865.9A priority patent/EP2493189A4/en
Priority to CN201080046947.6A priority patent/CN102577424B/zh
Publication of WO2011049016A1 publication Critical patent/WO2011049016A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/14Electronic books and readers

Definitions

  • the present invention relates to a video output device, a video output method, and a program.
  • This application claims priority based on Japanese Patent Application No. 2009-240538 filed in Japan on October 19, 2009, the contents of which are incorporated herein by reference.
  • sub-applications which are applications that output video and are executed simultaneously with the main content of the video output device, and video output devices such as digital broadcast reception / display devices that can use the service
  • the sub-application is sometimes called a widget, and specific examples of services that provide the widget include Appcast (registered trademark) and Yahoo! (registered trademark) widget.
  • the widgets provided by these services can provide users with functions such as news readers, weather forecasts, stock price checks, program guides, and chats. It can be used in broadcast reception / display devices.
  • the external input video refers to video input from an external device (DVD player, hard disk recorder, etc.) connected to the digital broadcast receiving / display device via an HDMI (High-Definition Multimedia Interface) cable or the like. Point to.
  • the widgets are displayed in a line below or next to the main content.
  • the display mode of the video output device there is a problem that it is difficult to see the widget or the content.
  • there is a method of selecting meta information to be displayed on the display screen based on information provided by the content provider and displaying the meta information according to the display form of the display screen for example, Patent Documents).
  • the related art is related to meta information displayed on the display screen, and may be displayed in a display form different from the display form desired by the user in a video output device that can use a sub-application such as a widget.
  • a sub-application such as a widget.
  • the digital broadcast receiving / display device needs to select widgets to be displayed.
  • the widget that displays the time information desired by the user cannot be determined from the program's meta information such as the program provider and contents,
  • the conventional technique has a problem that it is not displayed on the display screen.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a video output device, a video output method, and a program that output the video of the main content and the sub application in a display form closer to the user's request. There is.
  • the present invention has been made to solve the above-described problems, and one aspect of the present invention is a content execution unit that executes one or more contents and generates information related to the execution of the contents.
  • a sub-application that is an application that is executed simultaneously with the content, executes one or more sub-applications, and generates information related to the execution of the sub-application, and the sub-application execution unit
  • the strength of the association between the sub-application being executed at the content and the content being executed at the content execution unit is determined based on at least one of the information related to the execution of the sub-application and the information related to the execution of the content
  • the content determination unit and the content based on the strength of the relationship
  • a display form determining unit that determines a display form with the sub application; a video combining unit that combines the video of the content and the video of the sub application based on the display form determined by the display form determining unit; and the combining And a video output unit that outputs a video signal.
  • the association determination unit may include at least one of information related to execution of the sub application and information related to execution of the content. Based on the information provided by the provider of the running sub-application and the information provided by the provider of the running content, the strength of the relationship between the running sub-application and the running content is determined.
  • the above-described video output device including a plurality of the video synthesis units and a plurality of the video output units, wherein the display form determination unit is Based on the strength, the display mode of the content and the sub-application to be output from each of the video output units is determined, and each of the video composition units is configured to display the corresponding video output unit among the determined display modes. According to the display form, the content video and the sub-application video are combined.
  • the above-described video output device wherein information relating to execution of the sub application, information relating to execution of the content, information provided by a provider of the sub application, the content
  • An execution unit generation information storage unit that holds a history of information provided by the provider, and the association determination unit indicates the strength of the association between the sub application being executed and the content being executed. Judgment is made based on information held in the generation information storage unit.
  • the display form determination unit is configured to use a sub-application based on information related to execution of the sub-application in addition to the related strength.
  • the display form of is determined.
  • the relevance determination unit is provided in the sub application execution unit. The strength of the association between the sub-application being executed and the content mainly displayed among the plurality of contents being executed by the content execution unit is determined.
  • the above-described video output device information relating to execution of the sub application, information relating to execution of the content, information provided by a provider of the sub application,
  • An execution unit generation information storage unit that retains a history of information provided by a content provider is provided, and the association determination unit is executing in the sub application execution unit and the content execution unit. Is determined based on information held in the execution unit generation information storage unit.
  • a video output method in a video output device that executes content and a sub-application that is an application that is executed simultaneously with the content, and outputs an execution result video signal.
  • the strength of the relationship with the content is at least one of the information related to the execution of the sub application and the information related to the execution of the content.
  • a third process of determining based on the above a fourth process in which the video output device determines a display form of the content and the sub-application based on the strength of the relationship, and the video output device Based on the display form determined in the fourth step, a fifth step of synthesizing the content video and the sub-application video, and the video output device outputs a signal of the synthesized video.
  • a video output method comprising:
  • a computer of a video output apparatus including a content execution unit that executes one or more contents and generates information related to the execution of the contents is executed simultaneously with the contents.
  • a sub-application that is an application to be executed, a sub-application that executes one or more sub-applications and generates information related to the execution of the sub-application, and a sub-application that is being executed by the sub-application execution unit
  • an association determination unit that determines the strength of the association with the content being executed by the content execution unit based on at least one of the information related to the execution of the sub-application and the information related to the execution of the content, Based on the strength of the content and the secondary application
  • a display form determining unit for determining a display form with the video, a video composition unit for synthesizing the video of the content and the video of the sub application based on the display form determined by the display form determining unit, and a signal of the synthesized video Is a program that operates as a video output unit that outputs.
  • the strength of the relationship between the sub application being executed and the content being executed is determined based on at least one of the information related to the execution of the sub application and the information related to the execution of the content, and the relationship Since the display form of the content and the sub application is determined based on the strength of the content, the video of the main content and the sub application can be output in a display form closer to the user's request.
  • FIG. 1 is a schematic block diagram showing a configuration of a widget and content providing system 100 according to an embodiment of the present invention.
  • a widget and content providing system 100 includes a provider 101, a digital broadcast receiving device 102, a video display audio output device 103, and an external input device 104.
  • Examples of the provider 101 include, but are not limited to, a widget distribution server 101a, a television broadcasting station 101b, an Internet service provider 101c, and a movie company 101d.
  • the provider 101 provides content or a sub-application widget to the digital broadcast receiving apparatus 102 through an IP (Internet Protocol) network, broadcast radio waves, or the like.
  • the sub application is an application that is executed simultaneously with the content and outputs a video.
  • the digital broadcast receiving device 102 which is a video output device in the present embodiment executes the received widget and content, and outputs the video signal and audio signal of the execution result to the video display audio output device 103.
  • the provider 101 can also provide content to the external input device 104 through the IP network, broadcast radio waves, and the recording medium 104a.
  • the content is executed by the external input device 104, and the video signal and audio signal of the execution result are output to the digital broadcast receiving device 102.
  • the digital broadcast receiving apparatus 102 synthesizes the received video signal and audio signal with the execution result of the widget and the content and outputs it to the video display audio output apparatus 103.
  • Two or more video display audio output devices 103 can be connected to the digital broadcast receiving device 102, and separate video signals, audio signals, or the same video signals and audio signals are sent to the respective video display audio output devices 103. Can be output.
  • the video display audio output device 103 includes a device for displaying video such as a liquid crystal display and a device for outputting audio such as a speaker.
  • the video display audio output device 103 is based on the video signal and audio signal input from the digital broadcast receiving device 102.
  • the external input device 103d is a set-top box that receives IP (Internet Protocol) broadcast or cable television, a recording media player that reproduces content recorded on a DVD or a memory card, and the like.
  • the audio signal is output to the digital broadcast receiving apparatus 102.
  • FIG. 2 is a schematic block diagram showing a configuration of the digital broadcast receiving apparatus 102 according to the present embodiment.
  • the digital broadcast receiving apparatus 102 includes a user operation receiving unit 201, a widget distribution server communication unit 202, a widget executing unit 203, a content receiving unit 204, a content executing unit 205, and display control.
  • Unit 206 video synthesis unit 207, video output unit 208, audio synthesis unit 209, audio output unit 210, display form determination unit 211, and association determination unit 212.
  • the digital broadcast receiving apparatus 102 has been described as outputting a video signal and an audio signal to the video display audio output apparatus 103.
  • the digital broadcast reception apparatus 102 includes the video display audio output apparatus 103. Or a digital television receiver.
  • the user operation reception unit 201 is a reception unit for a remote control signal from a remote controller (not shown), and receives various commands from the user such as widget download and execution, and notifies each unit in the digital broadcast receiving apparatus 102. .
  • the widget distribution server communication unit 202 communicates with the widget distribution server 101a in accordance with an instruction from the user operation reception unit 201, and downloads the widget to the digital broadcast receiving apparatus 102.
  • the widget distribution server 101a and the widget distribution server communication unit 202 communicate via the Internet or the like.
  • the widget execution unit 203 executes the downloaded widget and generates information related to the execution of the widget.
  • the information related to the execution of the widget includes the execution start time of the widget, the executor of the widget, and the details will be described later.
  • the widget execution unit 203 can execute a plurality of widgets simultaneously.
  • the content receiving unit 204 communicates with the broadcasting station 101b, the Internet service provider 101c, and the external input device 102d in accordance with an instruction from the user operation receiving unit 201, and performs a television broadcast program, an IP broadcast program, a recorded program, Receives content such as a movie recorded on a DVD.
  • the content execution unit 205 executes the received content and generates information related to the execution of the content.
  • the content execution information includes the content execution start time, the content executor, and the like. Details will be described later. If the content is multiplexed and encoded, the content execution unit 205 separates and decodes the content and executes it. Further, the content execution unit 205 may be configured to execute a plurality of contents at the same time.
  • the widget execution unit 203 can instruct the content reception unit 204 to receive content, and the content execution unit 205 to instruct execution and termination of content. Further, the content execution unit 205 can instruct the widget delivery server communication unit 202 to download the widget and to instruct the widget execution unit 203 to execute and end the widget.
  • the video composition unit 207 synthesizes the video of the widget and content executed by the widget execution unit 203 and the content execution unit 205 in accordance with control by the display control unit 206.
  • the video output unit 208 outputs the video signal of the video synthesized by the video synthesis unit 207 to the video display audio output device 103.
  • the voice synthesis unit 209 synthesizes the voice of the widget and content executed by the widget execution unit 203 and the content decoding and execution unit 205.
  • the audio output unit 210 outputs the audio signal of the audio synthesized by the audio synthesis unit 209 to the video display audio output device 103.
  • the association determination unit 212 includes information related to the execution of the widget generated by the widget execution unit 203, the content of the widget being executed by the widget execution unit 203, and the strength of the association between the content being executed by the content execution unit and the content. Judgment is made based on at least one of the information related to the execution of the content generated by the execution unit 205. Information generated by the widget execution unit 203 and the content execution unit 205 will be described later. A method for determining the strength of association between the widget and the content in the association determination unit 212 will be described later.
  • the display form determination unit 211 acquires the strength of association between the widget and the content determined by the relation determination unit 212, and determines the display form of the content and the widget based on the acquired strength.
  • the display control unit 206 controls the video composition unit 207 and the video output unit 208 based on the display mode determined by the display mode determination unit 211, and adjusts the content and the execution result video of the widget.
  • the video composition unit 207 composites the content and widget execution results, and the video output unit 208 outputs the composition results.
  • FIG. 3 is a schematic block diagram showing a configuration of a digital broadcast receiving apparatus 102a which is a modified example of the digital broadcast receiving apparatus 102.
  • the digital broadcast receiving apparatus 102a may include two or more video synthesizing units 207 and two or more video output units 208.
  • the digital broadcast receiving apparatus 102a shown in FIG. 3 includes a first video synthesis unit 207a, a second video synthesis unit 207b, a first video output unit 208a, and a second video output unit 208b.
  • the first video composition unit 207a synthesizes the images of the widget execution unit 203, the first content execution unit 205a, and the second content execution unit 205b.
  • the second video composition unit 207b synthesizes the images of the widget execution unit 203, the first content execution unit 205a, and the second content execution unit 205b.
  • the digital broadcast receiving apparatus 102a shown in FIG. 3 includes a first video output unit 208a and a second video output unit 208b.
  • the first video output unit 208a outputs the video signal of the video synthesized by the first video synthesis unit 207a
  • the second video output unit 208b outputs the video signal of the video synthesized by the first video synthesis unit 207b.
  • Execution part generation information DB (Data Base; database) 213
  • the digital broadcast receiving apparatus 102a may include an execution unit generation information DB 213.
  • the digital broadcast receiving apparatus 102a illustrated in FIG. 3 includes an execution unit generation information DB 213, and acquires information on execution of widgets or content generated by the widget execution unit 203, the first content execution unit 205a, and the second content execution unit 205b. ,accumulate. Details of the information acquired and accumulated by the execution unit generation information DB 213 will be described later.
  • the digital broadcast receiving apparatus 102a may include two or more content receiving units 204 and two content executing units 205. .
  • the digital broadcast receiving apparatus 102a shown in FIG. 3 includes a first content receiving unit 204a and a second content receiving unit 204b.
  • the first content receiving unit 204a and the second content receiving unit 204b can receive different contents.
  • the first content receiving unit 204a can receive digital terrestrial broadcasts transmitted from the broadcasting station 101b.
  • the second content receiving unit 204b can receive information output from the external input device 104.
  • the digital broadcast receiving apparatus 102a shown in FIG. 3 includes a first content execution unit 205a and a second content execution unit 405b.
  • the first content execution unit 205a executes the content received by the first content reception unit 204a
  • the second content execution unit 205b executes the content received by the second content execution unit 204b.
  • the widget execution unit 203 that extracts information provided by the widget provider may extract information provided to the widget by the widget provider. Information given to the widget will be described later.
  • the content execution unit 205 that extracts information provided by the content provider may extract information provided to the content by the content provider. Information given to the content will be described later.
  • FIG. 4 is a flowchart for explaining broadcast program display and widget execution processing by the digital broadcast receiving device 102.
  • the remote controller that has detected the pressing of the channel button by the user transmits a remote control signal instructing the display of the channel of the pressed channel button
  • the user operation receiving unit 201 that has received the remote control signal receives the content execution unit 205 and the content
  • the receiving unit 204 is notified of a program display instruction according to the received remote control signal (S1). Receiving this notification, the content receiving unit 204 starts receiving the program (S2), and the content executing unit 205 decodes the received program (S3).
  • the content execution unit 205 notifies the display control unit 206 of a display update instruction (S4).
  • the display control unit 206 requests an optimal display form from the display form determination unit 211 (S5; widget content display method acquisition request).
  • the display form determination unit 211 requested for the display form requests the association determination unit 212 for the strength of association between the widget being executed and the content to be displayed (S6).
  • the association determination unit 212 requests the widget execution unit 203 for information generated by the widget execution unit 203 (S7; execution unit generation information acquisition request).
  • the widget execution unit 203 notifies the association determination unit 212 that the widget is not executed (S8).
  • the relationship determining unit 212 notifies the display form determining unit 211 that the strength of the relationship between the widget and the content cannot be determined because the widget is not executed (S9).
  • the display form determination unit 211 determines the display form from the current content display form by a conventional method. Therefore, the display form determination unit 211 acquires the current display form from the display control unit 206 (S10; display form mode acquisition). The display form determination unit 211 notifies the display control unit 206 of the determined display form based on the acquired display form (S11).
  • a display form of content there are a full screen mode in which one content is displayed in full screen, a two-screen mode in which two content are simultaneously displayed, and the like.
  • the display control unit 206 instructs the video composition unit 207 to display a display form (12: display form setting). Further, the display control unit 206 instructs the video output unit 208 to output a video such as a video output destination (S13: output method setting).
  • the widget distribution server communication unit 202 has already downloaded a plurality of widgets.
  • the remote controller that detects a button operation for selecting one widget from among the downloaded widgets transmits a remote control signal corresponding to the button operation
  • the user operation reception unit 201 that has received the remote control signal executes the widget execution
  • the unit 203 is commanded to execute the widget selected by the button operation (S14).
  • the widget execution unit 203 starts executing the widget (S15).
  • the widget execution unit 203 commands the display control unit 206 to update the display (S16).
  • the display control unit 206 requests an optimal display form from the display form determination unit 211 (S17; widget content display method acquisition request).
  • the display form determination unit 211 requests the association determination unit 212 for the strength of association between the widget and the content (S18).
  • the association determination unit 212 acquires information generated by the widget execution unit 203 from the widget execution unit 203 (S19; execution unit generation information acquisition request).
  • the content execution unit 205 acquires the generation information from the content execution unit 205 (S20; execution unit generation information acquisition request).
  • the relationship determination unit 212 determines the strength of the relationship between the content and the widget from the information generated by the acquired widget execution unit 203 and the information generated by the content execution unit 205 and notifies the display form determination unit 211 of the strength. (S21).
  • the display form determination unit 211 determines an optimal display form from the strength of association notified from the relation determination unit 212 and notifies the display control unit 206 of it (S22).
  • the display control unit 206 instructs the video composition unit 207 to display a display form (S23; display form setting).
  • the display control unit 206 instructs the video output unit 208 about the video output destination (S24; output method setting).
  • sequence S16 and after the sequence for updating the display form when the widget is executed when only the content is executed is shown.
  • the widget execution unit 203 generates the following information regarding the widget being executed; the module that instructs the download / execution / end of the widget, the interaction with the content, the execution start / end time, the execution time, and the display start time / end time , Display time, number of operations.
  • the content execution unit 205 generates, for example, the following information for the program being decoded; program mode (normal mode / data broadcast mode), status (active / inactive), program The module that instructed execution / termination, display start / end time, and display time.
  • provider-provided information given to the widget by the widget provider will be described.
  • Examples of provider-provided information related to the widget include the creator of the widget, name, content, and contact information.
  • provider provision information related to the widget is received by the widget distribution server communication unit 202 from the widget distribution server 101a, and is acquired by the widget execution unit 203.
  • the provider-provided information related to the widget may be obtained by other methods such as receiving from a server for provider-provided information distribution.
  • the provider-provided information provided by the content provider is broadcast station name, broadcast time, title, genre, performer, content, target age, video data specification, audio data specification, subtitle data specification, copy control There are specifications. For example, in the case of terrestrial digital broadcasting, these pieces of information are included in SI / PSI (Service Information / Program Specific Information).
  • SI / PSI Service Information / Program Specific Information
  • the provider-provided information related to the content is received by the content receiving unit 204 from the broadcasting station 101b or the Internet service provider 101c, and is acquired by the content executing unit 205.
  • the execution unit generation information DB 213 extracts information generated by the widget execution unit 203, information generated by the content execution unit 205, information extracted by the widget execution unit 203, provider information provided by the widget provider, content extraction unit 205, and content.
  • the provider information provided by the provider is accumulated.
  • the association determination unit 212 can know from the information stored in the execution unit generation information DB 213 which content the widget currently being executed by the widget execution unit 203 has been executed with, for example, in the past, The strength of the relation between the widget and the content is judged from the information.
  • the association determination unit 212 determines the strength of the association between the widget being executed by the widget execution unit 203 and the content being executed by the content execution unit 205, and includes at least one of information related to the execution of the widget and information related to the execution of the content. Based on one, the determination is made using a related determination rule described later.
  • the strength of the relation between the widget and the content is indicated by a numerical value, for example.
  • the larger the numerical value the stronger the relation between the widget and the content.
  • the relationship determination unit 212 can determine a plurality of contents and widgets or a relationship between a plurality of widgets and the contents at a time. In this case, the plurality of contents or a widget or content among the plurality of widgets You may show the strength of the relation with.
  • the relevance determination rule is information held by the relevance determination unit 212 and used to determine the strength of relevance between the widget and the content.
  • 5A and 5B are diagrams illustrating three examples of the relation determination rule according to the present embodiment. As a result, the strength of association that the user can satisfy is calculated.
  • the relation determination rule in the present embodiment includes a relation calculation formula F1 shown in FIG. 5A and an element value calculation formula F2 shown in FIG. 5B.
  • the relational calculation formula F1 is an expression for calculating the strength of association between the widget and the content
  • the element value calculation formula F2 is an expression for calculating the value of each element used in the relational calculation formula F1.
  • the element value calculation formula F2 includes an element name F2a, an expression F2b, a variable F2c, and a weighting F2d.
  • the element name F2a is a name uniquely given to each element.
  • Expression F2a is an expression or a conditional expression for calculating the value of each element.
  • the variable F2c is a variable used for the expression F2a.
  • the weighting F2d indicates the weighting of each element, and is a value to be multiplied with the result calculated by the expression F2a.
  • the relation determination unit 213 uses the widget being executed by the widget execution unit 203 and the content being executed by the content execution unit 205.
  • a relation determination rule when determining the strength of relation based on at least one of information related to widget execution and information related to content execution will be described.
  • the related calculation formula F1c is an example of a related determination rule in the case of determining based on information related to content execution.
  • the association determination unit 213 determines whether each widget being executed by the widget execution unit 203 and the content execution unit 205 The strength of the relation with the content that is mainly displayed among the plurality of contents being executed is determined.
  • the mainly displayed content indicates, for example, active content selected by the user from among the content displayed in the two-screen mode.
  • the relationship calculation formula F1c is a relationship determination rule that determines that the relationship between the widget and the content is strong when the content being executed is executed by the widget being executed. As a result, it is possible to calculate the strength of association that the user can be more satisfied with.
  • the element name of the element value calculation formula F2e is C1
  • the value of the element C1 is calculated from the expression F2b, the variable F2c, and the weighting F2d of the element value calculation expression F2e.
  • the element C1 is calculated using two variables: the running widget W and the content performer Ce.
  • the expression F2b of the element C1 1 is calculated if the variables W and Ce are equal, and 0 is calculated if the variables W and Ce are not equal.
  • the value calculated by the expression F2b of the element C1 is further multiplied by the weighting F2d, that is, 80, and the result becomes the value of the element C1.
  • the content executor Ce is information related to the execution of the content.
  • the strength of the relation between the widget and the content is calculated by the formula F1b of the relation calculation formula F1c.
  • the strength of the relation is the value of the element C1 described above. A larger value means stronger association, and a smaller value means weaker association.
  • the relationship determination unit 213 relates the relationship between the widget being executed by the widget execution unit 203 and the content being executed by the content execution unit 205.
  • the strength is also used by the information provided by the provider of the running content and the information provided by the provider of the running widget You may judge.
  • the relational calculation formula F1d is an example in the case of determining the strength of relation using information related to content execution, information provided by the content provider, and information provided by the widget provider.
  • the relational calculation formula F1d is element C1 + element C2, and in addition to the above-described element C1, when the creator of the content being executed and the creator of the widget are the same, it is determined that the relation between the widget and the content is strong. It is a related calculation formula. As a result, it is possible to calculate the strength of association that the user can be more satisfied with. First, the contents of the element value calculation formula F2f of the element C2 used in the related calculation formula F1d will be described.
  • the element name of the element value calculation formula F2f is C2, and the value of the element C2 is calculated from the formula F2b, the variable F2c, and the weighting F2d of the element value calculation formula F2f.
  • the element C2 is calculated using two variables, that is, a widget creator Wa that is information provided by the widget provider and a content creator Ca that is information provided by the content provider.
  • the widget creation, the information Wa provided by the content provider, and the content creator Ca are extracted from the widget execution unit 203 and the content execution unit 205, respectively.
  • F2b of the element C2 1 is calculated if the variables Wa and Ca are equal, and 0 is calculated if the variables Wa and Ca are not equal.
  • the value calculated by the expression F2b of the element C2 is further multiplied by the weighting F2d, that is, 100, and the result becomes the value of the element C2.
  • the strength of the relation between the widget and the content is calculated by the formula F1b of the relation calculation formula F1d.
  • the strength of the relation is a value obtained by adding the value of C1 and the value of C2.
  • a larger value means stronger association, and a smaller value means weaker association.
  • the association determination unit 213 is the strength of the relationship between the widget being executed by the widget execution unit 203 and the content being executed by the content execution unit 205 May be determined based on information held in the execution unit generation information DB 213.
  • the related calculation formula F1e is an example in the case where the strength of the relationship is determined using information held in the execution unit generation information DB 213.
  • the related calculation formula F1e is a related determination formula for determining that the relationship between the content being executed and the widget being executed is strong when the display time of the widget in the genre of the content being executed is long in addition to the element C1. As a result, it is possible to calculate the strength of association that the user can be more satisfied with.
  • the element name of the element value calculation formula F2g is C3, and the value of the element C3 is calculated from the expression F2b, the variable F2c, and the weighting F2d of the element value calculation expression F2g.
  • Element C3 is calculated using the display time Tw of the widget in the genre Cj of one variable content.
  • the genre Cj of the content is extracted by the content execution unit 205 and accumulated in the execution unit generation information DB 213.
  • the display time of the widget during the content execution of the genre Cj is extracted by the widget execution unit 203 and stored in the execution unit generation information DB 213.
  • the strength of the relation between the widget and the content is calculated by the formula F1b of the relation calculation formula F1e.
  • the strength of the relation is a value obtained by adding the value of C1 and the value of C3. A larger value means stronger association, and a smaller value means weaker association.
  • FIG. 6 is a flowchart for explaining the association determination process of the association determination unit 212 according to the present embodiment.
  • the association determination unit 212 acquires a widget name and a content name for determining the strength of association (Sa1).
  • the association determination unit 212 refers to the association determination rule illustrated in FIGS. 5A and 5B (Sa2).
  • 5A and 5B show the three related calculation formulas F1c, F1d, and F1e as the related determination rules. However, at least one of these may be provided.
  • it is determined which of the related calculation formulas is used, for example, by designation by the user.
  • association determination unit 212 acquires a variable indicated in the association determination rule (Sa3).
  • association determination unit 212 calculates the strength of association between the widget and the content based on the calculation formula indicated in the association determination rule (Sa4), and ends the process.
  • the display form determination part 211 concerning this Embodiment is demonstrated.
  • the display form determination unit 211 determines the display form for displaying the content and the sub application based on the strength of the relation acquired from the relation determination unit 212.
  • the display form determination unit 211 uses the display form determination rule held by the display form determination unit 211 when determining the display form.
  • the display form determination unit 211 may determine the display form based on information related to the execution of the widget, in addition to the strength of the relation acquired from the relation determination unit 212. Thereby, it is possible to determine a display mode that the user is more satisfied with.
  • FIG. 7 is a first example of the display mode determination rule according to this embodiment.
  • the display form determination rule is information held by the display form determination unit 211 and used when determining the display method of the widget and the content.
  • the display form determination rule R1 which is the first example shown in FIG. 7 includes a conditional expression R12 and a display form R11 under each condition.
  • the display schematic diagram R13 and description R14 are provided to supplement the description of the display format determination rule R1 according to the present embodiment.
  • Conditional expression R12 includes IDR 12a, variable R12b, and expression R12c.
  • the IDR 12a is a number uniquely given to each condition.
  • Expression R12c is a conditional expression for determining the optimum display form, and variable R12b is a variable used in expression R12c.
  • the display form R11 is information indicating the display form of the widget and content, and includes an element name R11a, an output destination R11b, coordinates R11c, and a size R11d.
  • the display form determination rule R1 is an example when the display form of the widget is determined based on the strength of the relation acquired from the relation determination unit 212. As shown in the display schematic diagram R13, the display form determination rule R1 selects widgets that are strongly related to active content in the two-screen output mode in which main active content and inactive content are simultaneously executed. The rules are arranged from the left.
  • the conditional expression R12 of the display form determination rule R1 in FIG. 7 includes three conditions when the value of the IDR 12a is “0”, “1”, and “2”.
  • the variable R12b is a ranking of the strength of association between the active content and the widget acquired from the association determination unit 212.
  • Formula R12c evaluates which of the first, second and third ranks of the related strength of each widget. That is, when the value of IDR 12a is “0”, the display form of the widget with the first rank is defined, and when “1”, the display form of the widget with the second rank is defined. "Defines the display form of the widget with the third rank.
  • the display form R11 indicates the arrangement position and output destination of the widgets that satisfy each condition, and includes an element name R11a, an output destination R11b, coordinates R11c, and a size R11d.
  • the element name R11a is an ID uniquely given to the widget to be displayed. As shown in FIG. 7, here, the element name of the widget having the first rank is W1, the element name of the widget having the second rank is W2, and the element name of the widget having the third rank Is W3.
  • the output destination R11b indicates a display device that outputs each element.
  • all of the elements W1, W2, and W3 are output to the main display unit of the video display audio output device 103.
  • a coordinate R11c indicates the arrangement of each element on the display device.
  • the upper left of the display unit is the origin (0, 0)
  • the x axis is the right direction
  • the y axis is the lower direction.
  • the elements W1, W2, and W3 are sequentially arranged at (x1, y1), (x2, y1), and (x3, y1).
  • the elements W1, W2, and W3 are arranged in order from the left.
  • the size R11d indicates the size of each element on the display device.
  • the elements W1, W2, and W3 are all displayed with the same width w1 and height h1.
  • FIG. 8 is a second example of the display mode determination rule according to the present embodiment.
  • the display determination rule R2 as the second example shown in FIG. 8 is an example in the case where the display form of the content is determined based on the relation strength acquired from the relation determination unit 212.
  • the display form determination rule R2 is related to the active widget being executed by the user in the two-screen output mode in which main active content and inactive content are simultaneously executed. It is a rule to select and activate strong content. According to the display form rule R2, it is possible to realize a display form that satisfies the user by setting the content that is strongly related to the active widget each time as the main content.
  • the conditional expression R22 of the display form determination rule R2 in FIG. 8 includes three conditions when the value of the IDR 22a is “0”, “1”, and “2”.
  • the variable R22b is a ranking of the strength of association between the active widget and the content acquired from the association determination unit 212.
  • Formula R22c evaluates whether the ranking of the strength of relation of each content is first or second. That is, when the value of the IDR 22a is “0”, the display form of the content ranked first is defined, and when the value is “1”, the display form of the content ranked second is defined.
  • the display information R21 of the display form determination rule R2 in FIG. 8 indicates the content arrangement position and output destination in each condition, and is composed of an element name R21a, an output destination R21b, coordinates R21c, and a size R21d.
  • the element name R21a is an ID uniquely given to the content to be displayed.
  • the output destination R21b indicates a display device that outputs each element. In the display form determination rule R2, both the elements C1 and C2 are output to the main display unit of the video display audio output device 103.
  • the coordinate R21c indicates the arrangement of each element on the display device.
  • the upper left corner of the television is the origin (0, 0)
  • the right axis is the x axis
  • the lower direction is the y axis
  • C1 is the main content arrangement position (x1, y1)
  • the size R24d indicates the size of each element on the display device.
  • the element C1 is displayed with the width w1, the height h1, and the C2 with the width w2 and the height h2.
  • FIG. 9 shows a third example of the display form determination rule according to this embodiment.
  • the display determination rule R3, which is a third example, is an example in the case where the display mode of content is determined based on information related to the execution of the widget generated by the widget execution unit 203 in addition to the related strength.
  • the display form determination rule R3 is a display of contents and widgets output from each of a plurality of video output units (first video output unit 208, second video output unit 208b). It is a rule that determines the form.
  • the display form determination rule R3 is a first display device that is connected to the first video output unit 208a and displays the active widget on the main display unit of the main video display audio output device 103 that displays content. is there. Further, the inactive widget is a second display device connected to the second video output unit 208b, which is a sub-display unit of the video display audio output device 103, or a video display audio different from the first display device. This is a rule for displaying on the output device 103, for example, the display unit of the remote controller, in order of strong association with the content. Display form rule R3 displays only the active widget being operated by the user together with the content on the first display device, and displays the other widgets on the second display device so that the content can be easily viewed.
  • the first video composition unit 207a and the second video composition unit 207b display the corresponding video output units (first video output unit 208a and second video output unit 208b) among the determined display modes. According to the form, the content video and the widget video are combined.
  • the conditional expression R32 of the display form determination rule R3 in FIG. 9 is composed of four conditions: the value of the IDR 32a is “0”, “1”, “2”, and “3”. Is done.
  • the variable R33b whose IDR 32a is “0” is the state of the widget acquired from the widget execution unit 203 and is an active state indicating that the user is operating or an inactive state indicating other states. Indicates whether there is
  • the variable R33b with IDR 32a of “1”, “2”, and “3” is the rank of the strength of association between the active content acquired from the association determination unit 212 and the widget.
  • conditional expression R32c whose IDR 32a is “0” evaluates whether the widget state is an active state or an inactive state.
  • Conditional expressions R32c whose IDRs 32a are “1”, “2”, and “3” respectively evaluate whether each of the widgets has a strength ranking of “1”, “2”, or “3”. To do. That is, when the value of IDR 32a is “0”, the display form of the active widget is defined. When “1”, the display form of the widget having the first rank is defined, and when “2”, The display form of the widget having the second rank is defined. In the case of “3”, the display form of the widget having the third rank is defined.
  • the display form R31 of the display form determination rule R3 in FIG. 9 indicates the arrangement position and output destination of the widget in each condition, and is composed of an element name R31a, an output destination R31b, coordinates R31c, and a size R31d.
  • the element name R31a is an ID uniquely given to the widget to be displayed.
  • the output destination R31b indicates a display device that outputs each element.
  • the element W1 is output to the main display unit, and W2, W3, and W4 are output to the sub display unit.
  • a coordinate R31c indicates the arrangement of each element on the display device.
  • the upper left corner of the main display portion is the origin (0, 0)
  • the right axis is the x axis
  • the lower axis is the y axis
  • W1 is arranged at (x1, y1).
  • W2, W3, and W4 have an origin (0, 0) at the upper left of the sub display unit, an x axis in the right direction, and a y axis in the lower direction, respectively (x2, y2), (x2, y3) from above , (X2, y4).
  • the size R34d indicates the size of each element on the display device.
  • the element W1 is displayed with the width w1 and the height h1
  • the elements W2, W3, and W4 are displayed with the width w2 and the height h2.
  • FIG. 10 is a flowchart for explaining display form determination processing of the display form determination unit 211 according to the present embodiment.
  • the display form determination unit 211 refers to the display form determination rule (Sb2).
  • the display form determination unit 211 acquires the value of the variable described in the display form determination rule from the association determination unit 212 (Sb2).
  • the display form determination unit 211 may acquire the value of the variable not only from the association determination unit 212 but also from the widget execution unit 203.
  • the display form determination unit 211 evaluates the conditional expression described in the display form determination rule, determines the display form of the content and the widget (Sb3), and ends the process.
  • the digital broadcast receiving apparatus 102 determines the strength of the association between the widget being executed and the content being executed based on at least one of the information related to the execution of the widget and the information related to the execution of the content. Based on the strength of the relationship, the display mode of the content and the widget is determined. For example, when the content is switched, a widget having a strong relationship with the content is preferentially arranged on the screen. The main content and the widget video can be output in a display mode closer to the user's request.
  • the digital broadcast receiving apparatus 102 in addition to at least one of the information related to the execution of the widget and the information related to the execution of the content, the information provided by the provider of the widget being executed and the content being executed Based on the information provided by the provider, the strength of the relationship is determined, and the display form of the content and the widget is determined based on the strength of the relationship. For example, when the content is switched, a plurality of widgets Among them, the main content and the video of the widget can be output in a display form closer to the user's request, such as the creator, which is information provided by the provider, placing the widget that matches the content preferentially on the screen.
  • the digital broadcast receiving apparatus 102a outputs the main content and the widget video in a display format that is closer to the user's wishes, regardless of whether there are a plurality of video output destinations or a plurality of contents being executed. be able to.
  • the digital broadcast receiving apparatus 102a is configured such that the information related to the execution of the widget held by the execution unit generation information DB 213, the information related to the execution of the content, the information provided by the widget provider, and the information provided by the content provider.
  • the information related to the execution of the widget held by the execution unit generation information DB 213 the information related to the execution of the content
  • the information provided by the widget provider the information provided by the content provider.
  • a long-running widget that has been executed together with the running content based on the execution history of the running content and the running widget. It is possible to output the video of the main content and the widget in a display form closer to the user's request, such as placing them on the screen with priority.
  • the digital broadcast receiving apparatus 102 determines the display form of the widget based on the information related to the execution of the widget in addition to the strength of the association.
  • the widget is active as the information related to the execution of the widget.
  • the active content is displayed as it is, such as displaying the active widget as it is.
  • widget images can be output.
  • a program for realizing the function of the unit 212 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system included in the video output device 102 or the video output device 102a and executed. By doing so, you may process each part. In addition, all or some of these processes may be performed by dedicated hardware.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
  • a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
  • DESCRIPTION OF SYMBOLS 100 ... Content provision system 101 ... Provider 101a ... Widget delivery server 101b ... Broadcasting station 101c ... Internet service provider 101d ... Movie company 102, 102a ... Digital broadcast receiver 104 ... External input device 104a ... Recording medium 201 ... User operation receiving part 202 ... Widget distribution server communication unit 203 ... Widget execution unit 204 ... Content reception unit 204a ... First content reception unit 204b ... Second content reception unit 205 ... Content execution unit 205a ... First content execution unit 205b ... Second Content execution unit 206 ... display control unit 207 ... video synthesis unit 207a ... first video synthesis unit 207b ...
  • second video synthesis unit 208 ... video output unit 208a ... first video output unit 208b ... second video Power unit 209 ... speech synthesizer 210 ... sound output unit 211 ... display type determining unit 212 ... Related determination unit 213 ... execution unit generates information DB

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 コンテンツを実行し、コンテンツの実行に関する情報を生成するコンテンツ実行部と、コンテンツと同時に実行されるアプリケーションである副アプリケーションを実行し、副アプリケーションの実行に関する情報を生成する副アプリケーション部と、副アプリケーション実行部にて実行中の副アプリケーションと、コンテンツ実行部にて実行中のコンテンツとの関連の強さを、副アプリケーションの実行に関する情報とコンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する関連判断部と、関連の強さに基づき、コンテンツと副アプリケーションとの表示形態を決定する表示形態決定部とを備える、映像出力装置。

Description

映像出力装置、映像出力方法およびプログラム
 本発明は、映像出力装置、映像出力方法およびプログラムに関する。
 本願は、2009年10月19日に、日本に出願された特願2009-240538号に基づき優先権を主張し、その内容をここに援用する。
近年、映像を出力し、かつ映像出力装置の主コンテンツと同時に実行するアプリケーションである、副アプリケーションを提供するサービスとそれを利用可能なデジタル放送受信・表示装置などの映像出力装置が増えている。副アプリケーションはウィジェットと呼ばれることがあり、ウィジェットを提供するサービスとして具体的にはアプリキャスト(登録商標)、Yahoo!(登録商標)ウィジェットなどが挙げられる。また、これらサービスで提供されるウィジェットは利用者にニュースリーダ、天気予報、株価チェック、番組表、チャットなどの機能を提供可能であり、デジタルテレビジョン放送や、外部入力映像を主コンテンツとするデジタル放送受信・表示装置で利用可能である。なお、ここで、外部入力映像とは、デジタル放送受信・表示装置に、HDMI(High-Difinition Multimedia Interface)ケーブルなどで接続された外部機器(DVDプレーヤ、ハードディスクレコーダなど)から入力された映像のことを指す。
 ウィジェットが利用可能なデジタル放送受信・表示装置では、ウィジェットは主コンテンツの受信・表示と一緒に、複数、同時動作させることが可能であるが、従来のデジタル放送受信・表示装置では、画面に一度に表示できるウィジェットの数には限りがあるため、利用したいウィジェットが画面に表示されていない場合にはウィジェットの表示領域をスクロールするなど視聴しているコンテンツにあわせて表示するウィジェットをユーザが自ら変更する手間がかかる課題があった。
 また、従来の映像出力装置ではウィジェットは一列に主コンテンツの下側、もしくは横に並べて表示されるが、映像出力装置の表示モードによってはウィジェット若しくはコンテンツが見づらくなる課題があった。
 これらの課題を解決するために、コンテンツ提供者が提供する情報に基づき表示画面に表示するメタ情報を選別し、表示画面の表示形態に応じてメタ情報を表示する方法がある(例えば、特許文献1)。
特開2005-327121号公報
しかしながら、従来技術は表示画面に表示するメタ情報に関するものであり、ウィジェットなどの副アプリケーションが利用可能な映像出力装置において、ユーザが希望する表示形態とは異なる表示形態で表示されることがあるという問題がある。
 例えば、あるユーザがデジタル放送受信・表示装置で番組視聴中に時間情報を表示するウィジェットを実行していたとする。その後、ユーザが追加で表示画面に表示可能な数以上のウィジェットを実行した場合、デジタル放送受信・表示装置は表示するウィジェットの選別を行う必要があるが、従来技術はコンテンツプロバイダが提供するメタ情報から表示画面に表示する情報の選別を行うため、ユーザが望む、時間情報を表示するウィジェットは、番組の提供者、内容など番組提供者が提供する番組のメタ情報からは関連を判断できないため、従来技術では表示画面に表示されないという問題がある。
 本発明は、このような事情に鑑みてなされたもので、その目的は、ユーザの希望により近い表示形態で主コンテンツと副アプリケーションの映像を出力する映像出力装置、映像出力方法およびプログラムを提供することにある。
(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、1つまたは2つ以上のコンテンツを実行し、前記コンテンツの実行に関する情報を生成するコンテンツ実行部と、コンテンツと同時に実行されるアプリケーションである副アプリケーションであって、1つまたは2つ以上の副アプリケーションを実行し、前記副アプリケーションの実行に関する情報を生成する副アプリケーション部と、前記副アプリケーション実行部にて実行中の副アプリケーションと、前記コンテンツ実行部にて実行中のコンテンツとの関連の強さを、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する関連判断部と、前記関連の強さに基づき、前記コンテンツと前記副アプリケーションとの表示形態を決定する表示形態決定部と、前記表示形態決定部が決定した表示形態に基づき、前記コンテンツの映像と前記副アプリケーションの映像とを合成する映像合成部と、前記合成した映像の信号を出力する映像出力部とを備える映像出力装置である。
(2)また、本発明の他の態様は、上述の映像出力装置であって、前記関連判断部は、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに加え、実行中の副アプリケーションの提供者が提供する情報と実行中のコンテンツの提供者が提供する情報とに基づき、実行中の副アプリケーションと実行中のコンテンツの関連の強さを判断する。
(3)また、本発明の他の態様は、上述の映像出力装置であって、複数の前記映像合成部と、複数の前記映像出力部とを備え、前記表示形態決定部は、前記関連の強さに基づき、前記映像出力部各々から出力する前記コンテンツと前記副アプリケーションとの表示形態を決定し、前記映像合成部の各々は、前記決定した表示形態のうち、対応する前記映像出力部の表示形態に従い、前記コンテンツの映像と前記副アプリケーションの映像とを合成する。
(4)また、本発明の他の態様は、上述の映像出力装置であって、前記副アプリケーションの実行に関する情報、前記コンテンツの実行に関する情報、前記副アプリケーションの提供者が提供する情報、前記コンテンツの提供者が提供する情報の履歴を保持する実行部生成情報記憶部を備え、前記関連判断部は、前記実行中の副アプリケーションと前記実行中のコンテンツとの関連の強さを、前記実行部生成情報記憶部が保持する情報に基づき判断する。
(5)また、本発明の他の態様は、上述の映像出力装置であって、前記表示形態決定部は、前記関連の強さに加えて、前記副アプリケーションの実行に関する情報に基づき、副アプリケーションの表示形態を決定する。
(6)また、本発明の他の態様は、上述の映像出力装置であって、前記関連判断部は、前記コンテンツ実行部が複数のコンテンツを実行しているときは、前記副アプリケーション実行部にて実行中の副アプリケーションと、前記コンテンツ実行部にて実行中の複数のコンテンツのうち主として表示されるコンテンツとの関連の強さを判断する。
(7)また、本発明の他の態様は、上述の映像出力装置であって、前記副アプリケーションの実行に関する情報と、前記コンテンツの実行に関する情報と、副アプリケーションの提供者が提供する情報と、コンテンツの提供者が提供する情報との履歴を保持する実行部生成情報記憶部を備え、前記関連判断部は、前記副アプリケーション実行部にて実行中の副アプリケーションと前記コンテンツ実行部にて実行中のコンテンツとの関連の強さを、前記実行部生成情報記憶部に保持されている情報に基づき判断する。
(8)また、本発明の他の態様は、コンテンツと、前記コンテンツと同時に実行されるアプリケーションである副アプリケーションとを実行し、実行結果の映像の信号を出力する映像出力装置における映像出力方法であって、前記映像出力装置が、1つまたは2つ以上のコンテンツを実行し、前記コンテンツの実行に関する情報を生成する第1の過程と、前記映像出力装置が、1つまたは2つ以上の副アプリケーションを実行し、前記副アプリケーションの実行に関する情報を生成する第2の過程と、前記映像出力装置が、前記第2の過程にて実行中の副アプリケーションと、前記第1の過程にて実行中のコンテンツとの関連の強さを、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する第3の過程と、前記映像出力装置が、前記関連の強さに基づき、前記コンテンツと前記副アプリケーションとの表示形態を決定する第4の過程と、前記映像出力装置が、前記第4の過程にて決定した表示形態に基づき、前記コンテンツの映像と前記副アプリケーションの映像とを合成する第5の過程と、前記映像出力装置が、前記合成した映像の信号を出力する第6の過程とを有する映像出力方法である。
(9)また、本発明の他の態様は、1つまたは2つ以上のコンテンツを実行し、前記コンテンツの実行に関する情報を生成するコンテンツ実行部を備える映像出力装置のコンピュータを、コンテンツと同時に実行されるアプリケーションである副アプリケーションであって、1つまたは2つ以上の副アプリケーションを実行し、前記副アプリケーションの実行に関する情報を生成する副アプリケーション部、前記副アプリケーション実行部にて実行中の副アプリケーションと、前記コンテンツ実行部にて実行中のコンテンツとの関連の強さを、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する関連判断部、前記関連の強さに基づき、前記コンテンツと前記副アプリケーションとの表示形態を決定する表示形態決定部、前記表示形態決定部が決定した表示形態に基づき、前記コンテンツの映像と前記副アプリケーションの映像とを合成する映像合成部、前記合成した映像の信号を出力する映像出力部として動作させるプログラムである。
 この発明によれば、実行中の副アプリケーションと、実行中のコンテンツとの関連の強さを、副アプリケーションの実行に関する情報とコンテンツの実行に関する情報とのうち少なくとも1つに基づき判断し、その関連の強さに基づき、コンテンツと副アプリケーションとの表示形態を決定するので、ユーザの希望により近い表示形態で主コンテンツと副アプリケーションの映像を出力することができる。
この発明の一実施形態によるウィジェット及びコンテンツ提供システム100の構成を示す概略ブロック図である。 同実施の形態にかかるデジタル放送受信装置102の構成を示す概略ブロック図である。 同実施の形態にかかるデジタル放送受信装置102の変形例であるデジタル放送受信装置102aの構成を示す概略ブロック図である。 同実施の形態にかかるデジタル放送受信装置102による放送番組の表示およびウィジェットの実行処理を説明するフローチャートである。 同実施の形態にかかる関連判断ルールのうち、関連計算式の3つの例を示す図である。 同実施の形態にかかる関連判断ルールのうち、要素値計算式の3つの例を示す図である。 同実施の形態にかかる関連判断部212の関連判断処理を説明するフローチャートである。 同実施の形態にかかる表示形態判断ルールの第1の例である。 同実施の形態にかかる表示形態判断ルールの第2の例である。 同実施の形態にかかる表示形態判断ルールの第3の例である。 同実施の形態にかかる表示形態決定部211の表示形態決定処理を説明するフローチャートである。
◆システム構成図
 以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の一実施形態によるウィジェット及びコンテンツ提供システム100の構成を示す概略ブロック図である。図1に示すように、本実施の形態にかかるウィジェット及びコンテンツ提供システム100は、プロバイダ101、デジタル放送受信装置102、映像表示音声出力装置103、外部入力機器104を備える。
 プロバイダ101としては、ウィジェット配信サーバ101a、テレビジョン放送局101b、インターネットサービスプロバイダ101c、映画会社101dがあるが、これらに限定されない。
 プロバイダ101はIP(Internet Protocol)ネットワーク、放送電波などを通じてデジタル放送受信装置102に対してコンテンツや副アプリケーションであるウィジェットを提供する。ここで、副アプリケーションとは、コンテンツと同時に実行されて、映像を出力するアプリケーションである。本実施形態における映像出力装置であるデジタル放送受信装置102は、受信したウィジェットやコンテンツを実行し、その実行結果の映像信号、音声信号を映像表示音声出力装置103に出力する。
 プロバイダ101はIPネットワーク、放送電波、記録メディア104aを通じて、外部入力装置104に対してコンテンツを提供することも可能である。この場合、コンテンツは外部入力装置104で実行され、その実行結果の映像信号、音声信号がデジタル放送受信装置102に出力される。デジタル放送受信装置102は、受信した映像信号、音声信号を、ウィジェット及びコンテンツの実行結果と合成し、映像表示音声出力装置103に出力する。デジタル放送受信装置102には2つ以上の映像表示音声出力装置103が接続可能であり、別々の映像信号、音声信号若しくは同一の映像信号、音声信号を、それぞれの映像表示音声出力装置103に対して出力することが可能である。
 映像表示音声出力装置103は、液晶ディスプレイなどの映像を表示するためのデバイスと、スピーカなどの音声を出力するためのデバイスを備え、デジタル放送受信装置102から入力された映像信号、音声信号に基づき、映像の表示と、音声の出力とを行う。外部入力機器103dは、IP(Internet Protocol)放送やケーブルテレビを受信するセットトップボックス、DVDやメモリカードに記録されたコンテンツを再生する記録メディア再生機などであり、コンテンツの再生結果である映像信号、音声信号をデジタル放送受信装置102に出力する。
◆デジタル放送受信装置構成図
 図2は、本実施の形態にかかるデジタル放送受信装置102の構成を示す概略ブロック図である。図2に示すように、本実施の形態にかかるデジタル放送受信装置102は、ユーザ操作受信部201、ウィジェット配信サーバ通信部202、ウィジェット実行部203、コンテンツ受信部204、コンテンツ実行部205、表示制御部206、映像合成部207、映像出力部208、音声合成部209、音声出力部210、表示形態決定部211、関連判断部212を備える。なお、本実施形態において、デジタル放送受信装置102は、映像信号および音声信号を、映像表示音声出力装置103に出力するとして説明したが、デジタル放送受信装置102が、映像表示音声出力装置103を備えている、デジタルテレビジョン受像機であってもよい。
 ユーザ操作受信部201は、リモートコントローラ(不図示)からのリモコン信号の受信部などであり、ウィジェットダウンロード、実行などユーザからのさまざまな命令を受信し、デジタル放送受信装置102内の各部に通知する。ウィジェット配信サーバ通信部202は、ユーザ操作受信部201からの指示に従い、ウィジェット配信サーバ101aと通信を行い、ウィジェットをデジタル放送受信装置102にダウンロードする。ウィジェット配信サーバ101aとウィジェット配信サーバ通信部202はインターネットなどを介して通信を行う。ウィジェット実行部203はダウンロードされたウィジェットを実行し、ウィジェットの実行に関する情報を生成する。このウィジェットの実行に関する情報にはウィジェットの実行開始時刻、ウィジェットの実行者などが含まれるが、詳細については、後述する。なお、ウィジェット実行部203は複数のウィジェットを同時に実行することが可能である。
 コンテンツ受信部204は、ユーザ操作受信部201からの指示に従い、放送局101b、インターネットサービスプロバイダ101c、外部入力機器102dと通信を行い、テレビジョン放送の番組、IP放送の番組、録画された番組、DVDに記録された映画などのコンテンツを受信する。コンテンツ実行部205は受信したコンテンツを実行し、コンテンツの実行に関する情報を生成する。このコンテンツの実行に関する情報にはコンテンツの実行開始時刻、コンテンツの実行者などが含まれるが、詳細については、後述する。コンテンツ実行部205はコンテンツが多重化、エンコードされている場合には、コンテンツを分離、デコードしてから実行する。また、コンテンツ実行部205は、複数のコンテンツを同時に実行することができるようにしてもよい。なお、ウィジェット実行部203はコンテンツ受信部204に対してコンテンツの受信、コンテンツ実行部205に対してコンテンツの実行、終了を指示することが可能である。また、コンテンツ実行部205はウィジェット配信サーバ通信部202に対して、ウィジェットのダウンロード、ウィジェット実行部203にウィジェットの実行、終了を指示することが可能である。
 映像合成部207は、表示制御部206による制御に従い、ウィジェット実行部203、コンテンツ実行部205で実行されたウィジェット、コンテンツの映像を合成する。映像出力部208は映像合成部207で合成された映像の映像信号を映像表示音声出力装置103に出力する。音声合成部209はウィジェット実行部203、コンテンツデコード及び実行部205で実行されたウィジェット、コンテンツの音声を合成する。音声出力部210は音声合成部209で合成された音声の音声信号を映像表示音声出力装置103に出力する。
 関連判断部212は、ウィジェット実行部203にて実行中のウィジェットと、前記コンテンツ実行部に実行中のコンテンツとの関連の強さを、ウィジェット実行部203が生成するウィジェットの実行に関する情報と、コンテンツ実行部205が生成するコンテンツの実行に関する情報とのうち、少なくとも1つに基づき判断する。ウィジェット実行部203、コンテンツ実行部205が生成する情報については後述する。また、関連判断部212のウィジェットとコンテンツの関連の強さの判断方法については後述する。表示形態決定部211は関連判断部212が判断したウィジェットとコンテンツの関連の強さを取得し、それに基づきコンテンツとウィジェットとの表示形態を決定する。表示形態決定部211の表示形態の判断方法については後述する。
 表示制御部206は、表示形態決定部211が決定した表示形態に基づき、映像合成部207、映像出力部208を制御し、コンテンツ、ウィジェットの実行結果の映像を調整する。映像合成部207はコンテンツ、ウィジェットの実行結果の映像合成し、映像出力部208は合成結果を出力する。
◇デジタル放送受信装置の変形例
図3は、デジタル放送受信装置102の変形例であるデジタル放送受信装置102aの構成を示す概略ブロック図である。
◎映像合成部、映像出力部が2つ以上
図3に示すようにデジタル放送受信装置102aは、映像合成部207および映像出力部208を2つ以上備えてもよい。図3に示すデジタル放送受信装置102aは第1の映像合成部207aと第2の映像合成部207bと第1の映像出力部208aと第2の映像出力部208bとを備える。
 第1の映像合成部207aは、ウィジェット実行部203、第1のコンテンツ実行部205a、第2のコンテンツ実行部205bの映像を合成する。第2の映像合成部207bも同様に、ウィジェット実行部203、第1のコンテンツ実行部205a、第2のコンテンツ実行部205bの映像を合成する。また、図3に示すデジタル放送受信装置102aは、第1の映像出力部208aと第2の映像出力部208bを備える。第1の映像出力部208aは第1の映像合成部207aの合成した映像の映像信号を出力し、第2の映像出力部208bは第1の映像合成部207bの合成した映像の映像信号を出力する。
◎実行部生成情報DB(Data Base;データベース)213
図3に示すようにデジタル放送受信装置102aは実行部生成情報DB213を備えてもよい。図3に示すデジタル放送受信装置102aは実行部生成情報DB213を備え、ウィジェット実行部203、第1のコンテンツ実行部205a、第2のコンテンツ実行部205bが生成するウィジェット又はコンテンツの実行に関する情報を取得、蓄積する。実行部生成情報DB213が取得、蓄積する情報の詳細については後述する。
◎コンテンツ受信部204、コンテンツ実行部205が2つ以上
図3に示すように本実施の形態にかかるデジタル放送受信装置102aは、コンテンツ受信部204およびコンテンツ実行部205を2つ以上備えてもよい。図3に示すデジタル放送受信装置102aは、第1のコンテンツ受信部204aと第2のコンテンツ受信部204bを備える。第1のコンテンツ受信部204aと第2のコンテンツ受信部204bは、それぞれ別々のコンテンツを受信することが可能であり、例えば第1のコンテンツ受信部204aでは放送局101bから送出される地上デジタル放送を受信し、第2のコンテンツ受信部204bでは外部入力機器104から出力される情報を受信することが可能である。
 また、図3に示すデジタル放送受信装置102aは、第1のコンテンツ実行部205aと第2のコンテンツ実行部405bを備える。第1のコンテンツ実行部205aは、第1のコンテンツ受信部204aで受信したコンテンツを実行し、第2のコンテンツ実行部205bは、第2のコンテンツ実行部204bで受信したコンテンツを実行する。
◎ウィジェット提供者が提供する情報を抽出する
ウィジェット実行部203が、ウィジェット提供者によってウィジェットに付与される情報を抽出するようにしてもよい。ウィジェットに付与される情報については後述する。
◎コンテンツ提供者が提供する情報を抽出する
コンテンツ実行部205が、コンテンツ提供者によってコンテンツに付与される情報を抽出するようにしてもよい。コンテンツに付与される情報については後述する。
◆デジタル放送受信装置102の放送番組実行フロー
図4は、デジタル放送受信装置102による放送番組の表示およびウィジェットの実行処理を説明するフローチャートである。まず、デジタル放送受信装置102が放送番組を実行する場合のシーケンスについて説明する。ユーザによるチャンネルボタンの押下を検出したリモートコントローラが、押下されたチャンネルボタンのチャンネルの表示を指示するリモコン信号を送信すると、そのリモコン信号を受信したユーザ操作受信部201は、コンテンツ実行部205およびコンテンツ受信部204に対して、受信したリモコン信号に応じた番組表示の指示を通知する(S1)。この通知を受けたコンテンツ受信部204は、番組の受信を開始し(S2)、コンテンツ実行部205は、受信した番組をデコードする(S3)。
 次にコンテンツ実行部205は、表示制御部206に表示更新の指示を通知する(S4)。表示制御部206は、表示形態決定部211に対して最適な表示形態を要求する(S5;ウィジェットコンテンツ表示方法取得要求)。表示形態を要求された表示形態決定部211は、関連判断部212に対して、実行中のウィジェットと、表示対象のコンテンツの関連の強さを要求する(S6)。関連判断部212は、ウィジェット実行部203に対してウィジェット実行部203が生成する情報を要求する(S7;実行部生成情報取得要求)。ここではウィジェットは実行されていないので、ウィジェット実行部203は関連判断部212に対して、ウィジェットが実行されていないことを通知する(S8)。次に関連判断部212は、表示形態決定部211に対して、ウィジェットが実行されていないため、ウィジェットとコンテンツの関連の強さを判断することができないことを通知する(S9)。
 次に表示形態決定部211は、関連の強さを判断できないことを通知されると、現在のコンテンツの表示形態から、従来の方法で表示形態を決定する。そのために表示形態決定部211は表示制御部206から現在の表示形態を取得する(S10;表示形態モード取得)。表示形態決定部211は、取得した表示形態に基づき、決定した表示形態を表示制御部206に通知する(S11)。コンテンツの表示形態としては1つのコンテンツをフルスクリーンで表示するフルスクリーンモードや2つのコンテンツを同時に表示する2画面モードなどがある。従来の表示形態の決定方法では、例えば、現在の表示形態がフルスクリーンモードであるときは、シーケンスS3でデコードを開始した番組をフルスクリーンで表示する表示形態とし、現在の表示形態が2画面モードであるときは、2つのコンテンツのうち、アクティブなコンテンツをシーケンスS3でデコードを開始した番組と入れ替えて表示する表示形態とする。次に表示制御部206は、映像合成部207に表示形態を指示する(12;表示形態設定)。また、表示制御部206は、映像出力部208に映像出力先など映像の出力方法を指示する(S13;出力方法設定)。
 次に、続けてデジタル放送受信装置102がウィジェットを実行する場合のシーケンスを説明する。ここでは、ウィジェット配信サーバ通信部202により、複数のウィジェットが予めダウンロードされている状態であるとする。ダウンロードされているウィジェットの中からウィジェットを1つ選択するボタン操作を検出したリモートコントローラが、該ボタン操作に応じたリモコン信号を送信すると、そのリモコン信号を受信したユーザ操作受信部201は、ウィジェット実行部203に対して、ボタン操作で選択されたウィジェットの実行を命ずる(S14)。ウィジェット実行部203は、ウィジェットの実行を開始する(S15)。
 次にウィジェット実行部203は、表示制御部206に表示更新を命ずる(S16)。表示制御部206は、表示形態決定部211に対して最適な表示形態を要求する(S17;ウィジェットコンテンツ表示方法取得要求)。表示形態決定部211は、関連判断部212に対して、ウィジェットとコンテンツの関連の強さを要求する(S18)。関連判断部212は、ウィジェット実行部203からウィジェット実行部203が生成する情報を取得する(S19;実行部生成情報取得要求)。次に関連判断部212はコンテンツ実行部205に対してコンテンツ実行部205が生成情報を取得する(S20;実行部生成情報取得要求)。
 次に関連判断部212は、取得したウィジェット実行部203が生成する情報とコンテンツ実行部205が生成する情報とから、コンテンツとウィジェットの関連の強さを判断し、表示形態決定部211に通知する(S21)。表示形態決定部211は、関連判断部212から通知された関連の強さから最適な表示形態を決定し、表示制御部206に通知する(S22)。表示制御部206は、映像合成部207に表示形態を指示する(S23;表示形態設定)。また、表示制御部206は、映像出力部208に映像出力先を指示する(S24;出力方法設定)。
 シーケンスS16以降では、コンテンツのみが実行されているときに、ウィジェットを実行した場合の表示形態を更新するシーケンスを示したが、再度ウィジェットを実行した場合や、表示するコンテンツを変更した場合、コンテンツの表示形態(フルスクリーンモード、2画面モードなど)を変更した場合、アクティブなコンテンツを変更した場合、アクティブなウィジェットを変更した場合などにも、シーケンスS16以降と同様にして、コンテンツとウィジェットとの表示形態を決定する。
◆ウィジェット実行部203が生成する情報
本実施の形態にかかるウィジェット実行部203が生成するウィジェットの実行に関する情報を説明する。ウィジェット実行部203は実行中のウィジェットに関して、次の情報を生成する;ウィジェットのダウンロード/実行/終了を指示したモジュール、コンテンツとのインタラクション、実行開始/終了時刻、実行時間、表示開始時刻/終了時刻、表示時間、操作回数。
◆コンテンツ実行部205が生成する情報
本実施の形態にかかるコンテンツ実行部205が生成するコンテンツの実行に関する情報を説明する。コンテンツ実行部205はコンテンツが地上デジタル放送番組であれば、デコード中の番組に例えば、次の情報を生成する;番組のモード(通常モード/データ放送モード)、状態(アクティブ/非アクティブ)、番組の実行/終了を指示したモジュール、表示開始/終了時刻、表示時間。
◆ウィジェット提供者が提供する情報
ウィジェット提供者によってウィジェットに付与されるプロバイダ提供情報について説明する。ウィジェットに関するプロバイダ提供情報としては、例えば、ウィジェットの作成者、名称、内容、問い合わせ先などがある。なお、本実施形態において、このウィジェットに関するプロバイダ提供情報は、ウィジェット配信サーバ通信部202がウィジェット配信サーバ101aから受信し、ウィジェット実行部203が取得する。また、このウィジェットに関するプロバイダ提供情報は、プロバイダ提供情報配信用のサーバから受信するなど、その他の方法で取得するようにしてもよい。
◆コンテンツ実行者が提供する情報
コンテンツ提供者が提供するプロバイダ提供情報について説明する。
コンテンツに関するプロバイダ提供情報としては、たとえば、コンテンツが放送番組であれば放送局名、放送時間、タイトル、ジャンル、出演者、内容、対象年齢、映像データ仕様、音声データ仕様、字幕データ仕様、コピー制御仕様などがある。これらの情報は、例えば地上デジタル放送であれば、SI/PSI(Service Information/Program Specific Information)に含まれている。なお、このコンテンツに関するプロバイダ提供情報は、コンテンツ受信部204が放送局101bやインターネットサービスプロバイダ101cからコンテンツ受信部204が受信し、コンテンツ実行部205が取得する。
◆実行部生成情報DB213が蓄積する情報
本実施の形態にかかる実行部生成情報DB213が蓄積する情報を説明する。
実行部生成情報DB213はウィジェット実行部203が生成する情報、コンテンツ実行部205が生成する情報、ウィジェット実行部203が抽出し、ウィジェット提供者が提供するプロバイダ情報、コンテンツ実行部205が抽出し、コンテンツ提供者が提供するプロバイダ情報を蓄積する。このことにより、関連判断部212は実行部生成情報DB213が蓄積する情報から、例えばウィジェット実行部203で現在実行中のウィジェットが、過去にどのコンテンツと一緒に実行されていたかを知ることができ、その情報からウィジェットとコンテンツの関連の強さを判断する。
◆関連判断部212
本実施の形態にかかる関連判断部212について説明する。関連判断部212は、ウィジェット実行部203にて実行中のウィジェットと、コンテンツ実行部205にて実行中のコンテンツとの関連の強さを、ウィジェットの実行に関する情報とコンテンツの実行に関する情報のうち少なくとも1つに基づき、後述する関連判断ルールを用いて判断する。
 ウィジェットとコンテンツの関連の強さは例えば数値で示され、数値が大きいほどウィジェットとコンテンツの関連が強い。また、関連判断部212は複数のコンテンツとウィジェット若しくは複数のウィジェットとコンテンツとの関連を一度に判断することが可能であり、その場合には複数のコンテンツ若しくは複数のウィジェットの中でのウィジェット若しくはコンテンツとの関連の強さを順位で示してもよい。
<関連判断ルール>
次に、関連判断ルールについて説明する。関連判断ルールとは関連判断部212が保持し、ウィジェットとコンテンツの関連の強さを判断するために使用する情報である。図5Aおよび図5Bは、本実施の形態にかかる関連判断ルールの3つの例を示す図である。これにより、ユーザが満足できる関連の強さを算出する。本実施形態における関連判断ルールは、図5Aに示す関連計算式F1と、図5Bに示す要素値計算式F2から構成される。関連計算式F1はウィジェットとコンテンツの関連の強さを計算するための式であり、要素値計算式F2は関連計算式F1に使用される各要素の値を計算するための式である。
 要素値計算式F2は、要素名F2a、式F2b、変数F2c、重み付けF2dから構成される。要素名F2aは各要素に対して一意に与えられる名前である。式F2aは各要素の値を計算するための式若しくは条件式である。変数F2cは式F2aに使用される変数である。重み付けF2dは各要素の重み付けを示すものであり、式F2aで算出された結果に対して乗算される値である。
◇コンテンツ実行部が生成する情報を使う場合
図5A、図5Bを参照しながら、関連判断部213がウィジェット実行部203にて実行中のウィジェットと、コンテンツ実行部205にて実行中のコンテンツとの関連の強さをウィジェットの実行に関する情報とコンテンツの実行に関する情報のうち少なくとも1つに基づき判断する場合の、関連判断ルールについて説明する。関連計算式F1cはコンテンツの実行に関する情報に基づき判断する場合の関連判断ルールの例である。なお、2画面モードの場合など、コンテンツ実行部205が複数のコンテンツを実行しているときは、関連判断部213は、ウィジェット実行部203にて実行中のウィジェット各々と、コンテンツ実行部205にて実行中の複数のコンテンツのうち主として表示されるコンテンツとの関連の強さを判断する。ここで、主として表示されるコンテンツとは、例えば、2画面モードにて表示されているコンテンツのうち、ユーザにより選択されているアクティブなコンテンツを指す。
 関連計算式F1cは実行中のコンテンツが実行中のウィジェットによって実行されている場合に、ウィジェットとコンテンツの関連が強い、と判断する関連判断ルールである。これにより、ユーザがより満足できる関連の強さを算出することができる。まず、関連計算式F1cの要素C1を算出する要素値計算式F2eの内容について説明する。要素値計算式F2eの要素名はC1であり、要素C1の値は、要素値計算式F2eの式F2b、変数F2c、重み付けF2dから計算される。要素C1は、2つの変数、すなわち実行中のウィジェットWとコンテンツ実行者Ceとを使用して計算される。要素C1の式F2bによれば、変数WとCeが等しければ1、変数WとCeが等しくなければ0と計算する。要素C1の式F2bによって計算された値には、さらに重み付けF2d、すなわち80を乗算され、その結果が要素C1の値となる。なお、ここでは、コンテンツ実行者Ceが、コンテンツの実行に関する情報である。
次に、関連計算式F1cについて説明する。
ウィジェットとコンテンツの関連の強さは関連計算式F1cの式F1bによって算出される。関連計算式F1cの式F1bによれば、関連の強さは上述の要素C1の値となる。なお、値が大きいほど、関連が強いことを意味し、小さいほど、関連が弱いことを意味する。
◇コンテンツ提供者が提供する情報とウィジェット提供者が提供する情報を使う場合
関連判断部213はウィジェット実行部203にて実行中のウィジェットと、コンテンツ実行部205にて実行中のコンテンツとの関連の強さを、ウィジェットの実行に関する情報とコンテンツの実行に関する情報とのうち少なくとも1つに加え、実行中のコンテンツの提供者が提供する情報と実行中のウィジェットの提供者が提供する情報も使って判断してもよい。関連計算式F1dはコンテンツの実行に関する情報とコンテンツ提供者が提供する情報とウィジェット提供者が提供する情報を使って関連の強さを判断する場合の例である。
 関連計算式F1dは、要素C1+要素C2であり、上述の要素C1に加え、実行中のコンテンツの作成者とウィジェットの作成者が同じである場合に、ウィジェットとコンテンツの関連が強い、と判断する関連計算式である。これにより、ユーザがより満足できる関連の強さを算出することができる。まず、関連計算式F1dに用いられる要素C2の要素値計算式F2fの内容について説明する。
 要素値計算式F2fの要素名はC2であり、要素C2の値は、要素値計算式F2fの式F2b、変数F2c、重み付けF2dから計算される。要素C2は、2つの変数、すなわちウィジェット提供者が提供する情報であるウィジェット作成者Waと、コンテンツ提供者が提供する情報であるコンテンツ作成者Caを使って計算される。ウィジェット作成とコンテンツ提供者が提供する情報Wa、コンテンツ作成者Caはそれぞれウィジェット実行部203とコンテンツ実行部205から抽出される。要素C2の式F2bによれば、変数WaとCaが等しければ1、変数WaとCaが等しくなければ0と計算する。要素C2の式F2bによって計算された値には、さらに重み付けF2d、すなわち100を乗算され、その結果が要素C2の値となる。
次に、関連計算式F1dについて説明する。
ウィジェットとコンテンツの関連の強さは関連計算式F1dの式F1bによって算出される。関連計算式F1dの式F1bによれば、関連の強さは上述のC1の値と上述のC2の値を加算した値となる。なお、値が大きいほど、関連が強いことを意味し、小さいほど、関連が弱いことを意味する。
◇実行部生成情報DB213に保持されている情報に基づき判断する場合
関連判断部213はウィジェット実行部203にて実行中のウィジェットと、コンテンツ実行部205にて実行中のコンテンツとの関連の強さを実行部生成情報DB213に保持されている情報に基づき判断してもよい。関連計算式F1eは、実行部生成情報DB213に保持されている情報を使って関連の強さを判断する場合の例である。
 関連計算式F1eは前記要素C1に加え、実行中のコンテンツのジャンルにおけるウィジェットの表示時間が長い場合に、実行中のコンテンツと実行中のウィジェットの関連が強いと判断する関連判断式である。これにより、ユーザがより満足できる関連の強さを算出することができる。まず、関連計算式F1eの要素値計算式F2gの内容について説明する。要素値計算式F2gの要素名はC3であり、要素C3の値は、要素値計算式F2gの式F2b、変数F2c、重み付けF2dから計算される。
 要素C3は1つの変数コンテンツのジャンルCjにおけるウィジェットの表示時間Twを使って計算される。コンテンツのジャンルCjはコンテンツ実行部205により抽出され、実行部生成情報DB213に蓄積され、ジャンルCjのコンテンツ実行中のウィジェットの表示時間はウィジェット実行部203により抽出され、実行部生成情報DB213に蓄積される。要素C3の式F2eによれば、ジャンルCjにおけるウィジェットの表示時間Twの値がそのまま計算結果となり、さらに重み付けF2d、すなわち20を乗算され、その結果が要素C3の値となる。
次に、関連計算式F1eについて説明する。
ウィジェットとコンテンツの関連の強さは関連計算式F1eの式F1bによって算出される。関連計算式F1eの式F2bによれば、関連の強さは上述のC1の値と上述のC3の値を加算した値となる。なお、値が大きいほど、関連が強いことを意味し、小さいほど、関連が弱いことを意味する。
<関連判断フローチャート>
 図6は、本実施の形態にかかる関連判断部212の関連判断処理を説明するフローチャートである。関連判断部212は、関連の強さを判断するウィジェット名とコンテンツ名を取得する(Sa1)。次に、関連判断部212は、図5A、図5Bに示す関連判断ルールを参照する(Sa2)。なお、図5A、図5Bには関連判断ルールとして3つの関連計算式F1c、F1d、F1eを示したが、これらのうち、少なくとも1つを備えていれば良い。なお、複数備えているときは、例えば、ユーザによる指定などにより、いずれの関連計算式を用いるかを決定する。 次に、関連判断部212は関連判断ルールに示されている変数を取得する(Sa3)。次に、関連判断部212は関連判断ルールに示されている計算式に基づき、ウィジェットとコンテンツの関連の強さを算出し(Sa4)、処理を終了する。
◆表示形態決定部211
本実施の形態にかかる表示形態決定部211について説明する。
表示形態決定部211は、関連判断部212から取得した関連の強さに基づき、コンテンツと副アプリケーションとを表示する際の表示形態を決定する。表示形態決定部211は、表示形態を決定する際に、表示形態決定部211が保持する表示形態判断ルールを用いる。なお、表示形態決定部211は、関連判断部212から取得した関連の強さに加えて、ウィジェットの実行に関する情報に基づき、表示形態を決定してもよい。これにより、ユーザがより満足できる表示形態を判断することができる。
◆表示形態判断ルール
図7は、本実施の形態にかかる表示形態判断ルールの第1の例である。表示形態判断ルールとは表示形態決定部211が保持し、ウィジェット及びコンテンツの表示方法を判断する際に使用する情報である。図7に示す第1の例である表示形態判断ルールR1は、条件式R12とそれぞれの条件における表示形態R11から構成される。表示概略図R13、説明R14は本実施の形態にかかる表示形態判断ルールR1の説明を補足するためのものである。
条件式R12はIDR12a、変数R12b、式R12cから構成される。IDR12aは各条件に一意に与えられる番号である。式R12cは最適な表示形態を判断するための条件式であり、変数R12bは式R12cに使用される変数である。表示形態R11はウィジェット及びコンテンツの表示形態を示す情報であり、要素名R11a、出力先R11b、座標R11c、サイズR11dから構成される。
◇関連の強さに基づき、ウィジェットの表示形態を決定する場合
図7を参照しながら、関連判断部212から取得した関連の強さに基づき、ウィジェットの表示形態を決定する場合ついて説明する。表示形態判断ルールR1は、関連判断部212から取得した関連の強さに基づき、ウィジェットの表示形態を決定する場合の例である。表示形態判断ルールR1は、表示概略図R13にあるように、主となるアクティブなコンテンツと非アクティブなコンテンツを同時に実行する2画面出力モードにて、アクティブなコンテンツと関連の強いウィジェットを選別し、左から並べるルールである。表示形態判断ルールR1により、実行中のウィジェット数が画面に表示できるウィジェット数を超える場合にも、アクティブなコンテンツとの関連の強さから表示するウィジェットを選別することで、ユーザに最適なウィジェットを提示することが可能となる。
まず、表示形態判断ルールR1の条件式R12について説明する。
図7の表示形態判断ルールR1の条件式R12はIDR12aの値が「0」の場合と、「1」の場合と、「2」の場合の3つの条件から構成される。変数R12bは関連判断部212から取得したアクティブなコンテンツとウィジェットとの関連の強さの順位である。式R12cはウィジェット各々の関連の強さの順位が1位、2位、3位のうちいずれであるかを評価する。すなわち、IDR12aの値が「0」の場合は、順位が1位であるウィジェットの表示形態を定義し、「1」の場合は、順位が2位であるウィジェットの表示形態を定義し、「2」の場合は、順位が3位であるウィジェットの表示形態を定義する。
次に、表示形態判断ルールR1の表示形態R11について説明する。
表示形態R11は各条件を満たすウィジェットの配置位置、出力先を示すものであり、要素名R11a、出力先R11b、座標R11c、サイズR11dから構成される。要素名R11aは表示するウィジェットに一意に与えられるIDである。図7に示すように、ここでは、順位が1位であるウィジェットの要素名はW1であり、順位が2位であるウィジェットの要素名はW2であり、順位が3位であるウィジェットの要素名はW3である。
 出力先R11bは各要素を出力する表示装置を示す。表示形態判断ルールR1では、要素W1、W2、W3はいずれも映像表示音声出力装置103の主表示部に出力される。座標R11cは各要素の表示装置上の配置を示す。表示形態判断ルールR1では、表示部の左上を原点(0,0)とし、右方向にx軸、下方向にy軸をとる。表示形態判断ルールR1では、要素W1、W2、W3は、順に(x1、y1)、(x2、y1)、(x3、y1)に配置する。なお、ここで、x1<x2<x3である。すなわち、要素W1、W2、W3は、左から順に配置される。サイズR11dは各要素の表示装置上のサイズを示す。表示形態判断ルールR1では、要素W1、W2、W3はすべて同じ、幅w1、高さh1で表示する。
◇関連の強さに基づき、コンテンツの表示形態を決定する場合
図8は、本実施の形態にかかる表示形態判断ルールの第2の例である。図8に示す第2の例である表示判断ルールR2は関連判断部212から取得した関連の強さに基づき、コンテンツの表示形態を決定する場合の例である。表示形態判断ルールR2は表示概略図R23にあるように、主となるアクティブなコンテンツと非アクティブなコンテンツを同時に実行する2画面出力モードにて、利用者が実行中のアクティブなウィジェットとの関連の強いコンテンツを選別、アクティブにするルールである。表示形態ルールR2により、都度アクティブなウィジェットと関連の強いコンテンツを主コンテンツとすることで、ユーザが満足する表示形態を実現することが可能となる。
 まず、表示形態判断ルールR2の条件式R22について説明する。
図8の表示形態判断ルールR2の条件式R22はIDR22aの値が「0」の場合と、「1」の場合と、「2」の場合の3つの条件から構成される。変数R22bは関連判断部212から取得したアクティブなウィジェットとコンテンツとの関連の強さの順位である。式R22cは、コンテンツ各々の関連の強さの順位が1位、2位のうちいずれであるかを評価する。すなわち、IDR22aの値が「0」の場合は、順位が1位であるコンテンツの表示形態を定義し、「1」の場合は、順位が2位であるコンテンツの表示形態を定義する。
次に、表示形態判断ルールR2の表示形態R21について説明する。
図8の表示形態判断ルールR2の表示情報R21は各条件におけるコンテンツの配置位置、出力先を示すものであり、要素名R21a、出力先R21b、座標R21c、サイズR21dから構成される。要素名R21aは表示するコンテンツに一意に与えられるIDである。出力先R21bは各要素を出力する表示装置を示す。表示形態判断ルールR2では、要素C1、C2いずれも映像表示音声出力装置103の主表示部に出力される。
 座標R21cは各要素の表示装置上の配置を示す。表示形態判断ルールR2では、テレビの左上を原点(0,0)とし、右方向にx軸、下方向にy軸をとり、C1を主コンテンツの配置位置である(x1、y1)に、C2を副コンテンツの配置位置である(x2、y2)に配置することを示す。サイズR24dは各要素の表示装置上のサイズを示す。表示形態判断ルールR2では、要素C1を幅w1、高さh1、C2を幅w2、高さh2で表示する。なお、ここでは、x1<x2、y1<y2、w1>w2、h1>h2である。
◇ウィジェットの実行に関する情報に基づき、表示形態を決定する場合
図9は、本実施の形態にかかる表示形態判断ルールの第3の例である。第3の例である表示判断ルールR3は、関連の強さに加えて、ウィジェット実行部203が生成する、ウィジェットの実行に関する情報に基づき、コンテンツの表示形態を決定する場合の例である。また、表示形態判断ルールR3は、表示概略図R33にあるように、複数の映像出力部(第1の映像出力部208、第2の映像出力部208b)各々から出力するコンテンツとウィジェットとの表示形態を決定するルールである。
 表示形態判断ルールR3は、アクティブなウィジェットを第1の映像出力部208aに接続された第1の表示装置であり、コンテンツを表示する主たる映像表示音声出力装置103の主表示部に表示させるルールである。また、非アクティブなウィジェットを第2の映像出力部208bに接続された第2の表示装置である、映像表示音声出力装置103の副表示部、あるいは、第1の表示装置とは異なる映像表示音声出力装置103、例えば、リモートコントローラの表示部に、コンテンツと関連の強い順に表示させるルールである。表示形態ルールR3により、利用者が操作中のアクティブなウィジェットだけを第1の表示装置にコンテンツとともに表示し、コンテンツが見やすいよう、それ以外のウィジェットを第2の表示装置に表示する、ユーザが満足する表示形態を実現することが可能となる。なお、第1の映像合成部207aおよび第2の映像合成部207bは、決定した表示形態のうち、対応する映像出力部(第1の映像出力部208a、第2の映像出力部208b)の表示形態に従い、コンテンツの映像とウィジェットの映像とを合成する。
まず、表示形態判断ルールR3の条件式R32について説明する。
図9の表示形態判断ルールR3の条件式R32はIDR32aの値が「0」の場合と、「1」の場合と、「2」の場合と、「3」の場合との4つの条件から構成される。IDR32aが「0」の変数R33bは、ウィジェット実行部203から取得した、ウィジェットの状態であり、ユーザが操作中であることを示すアクティブな状態であるか、それ以外の状態を示す非アクティブな状態があるかを示す。IDR32aが「1」、「2」、「3」の変数R33bは、関連判断部212から取得したアクティブなコンテンツとウィジェットとの関連の強さの順位である。
 IDR32aが「0」の条件式R32cは、ウィジェットの状態がアクティブな状態であるか、非アクティブな状態であるかを評価する。IDR32aが「1」、「2」、「3」の条件式R32cは、それぞれ、ウィジェット各々の関連の強さの順位が「1」、「2」、「3」のうちいずれであるかを評価する。すなわち、IDR32aの値が「0」の場合は、アクティブなウィジェットの表示形態を定義し、「1」の場合は、順位が1位であるウィジェットの表示形態を定義し、「2」の場合は、順位が2位であるウィジェットの表示形態を定義し、「3」の場合は、順位が3位であるウィジェットの表示形態を定義する。
 次に、表示形態判断ルールR3の表示形態R31について説明する。
図9の表示形態判断ルールR3の表示形態R31は各条件におけるウィジェットの配置位置、出力先を示すものであり、要素名R31a、出力先R31b、座標R31c、サイズR31dから構成される。要素名R31aは表示するウィジェットに一意に与えられるIDである。
 出力先R31bは各要素を出力する表示装置を示す。表示形態判断ルールR3では、要素W1は主表示部に出力され、W2、W3、W4は副表示部に出力される。座標R31cは各要素の表示装置上の配置を示す。表示形態判断ルールR3では、主表示部の左上を原点(0,0)とし、右方向にx軸、下方向にy軸をとり、W1を(x1、y1)に配置する。また、W2、W3、W4は副表示部の左上を原点(0,0)とし、右方向にx軸、下方向にy軸をとり、それぞれ上から(x2、y2)、(x2、y3)、(x2、y4)に配置する。なお、ここではy2<y3<y4である。サイズR34dは各要素の表示装置上のサイズを示す。表示形態判断ルールR3では、要素W1を幅w1、高さh1、要素W2、W3、W4を幅w2、高さh2で表示する。
◆表示形態決定部211フロー
 図10は、本実施の形態にかかる表示形態決定部211の表示形態決定処理を説明するフローチャートである。まず、表示形態決定部211は、表示形態判断ルールを参照する(Sb2)。次に、表示形態決定部211は、表示形態判断ルールに記載されている変数の値を関連判断部212から取得する(Sb2)。表示形態決定部211は、変数の値を、関連判断部212からだけでなく、ウィジェット実行部203からも取得するようにしてもよい。次に表示形態決定部211は、表示形態判断ルールに記載されている条件式を評価し、コンテンツとウィジェットの表示形態を決定し(Sb3)、処理を終了する。
 このように、デジタル放送受信装置102は、実行中のウィジェットと、実行中のコンテンツとの関連の強さを、ウィジェットの実行に関する情報とコンテンツの実行に関する情報とのうち少なくとも1つに基づき判断し、その関連の強さに基づき、コンテンツとウィジェットとの表示形態を決定するので、例えば、コンテンツを切り替えたときに複数あるウィジェットのうちコンテンツと関連の強いウィジェットを優先して画面に配置するなど、ユーザの希望により近い表示形態で主コンテンツとウィジェットの映像を出力することができる。
 また、このように、デジタル放送受信装置102は、ウィジェットの実行に関する情報とコンテンツの実行に関する情報とのうち少なくとも1つに加え、実行中のウィジェットの提供者が提供する情報と実行中のコンテンツの提供者が提供する情報とに基づき、関連の強さを判断し、その関連の強さに基づき、コンテンツとウィジェットとの表示形態を決定するので、例えば、コンテンツを切り替えたときに複数あるウィジェットのうち、提供者が提供する情報である作成者がコンテンツと一致するウィジェットを優先して画面に配置するなど、ユーザの希望により近い表示形態で主コンテンツとウィジェットの映像を出力することができる。
 また、このように、デジタル放送受信装置102aは、複数の映像出力先があっても、複数のコンテンツを実行していても、ユーザの希望により近い表示形態で主コンテンツとウィジェットの映像を出力することができる。
 また、このように、デジタル放送受信装置102aは、実行部生成情報DB213が保持するウィジェットの実行に関する情報、コンテンツの実行に関する情報、ウィジェットの提供者が提供する情報、コンテンツの提供者が提供する情報の履歴に基づき、関連の強さを判断できるので、例えば、実行中のコンテンツと、実行中のウィジェットとが実行された履歴に基づき、実行中のコンテンツと一緒に実行されていた時間の長いウィジェットを優先して画面に配置するなど、ユーザの希望により近い表示形態で主コンテンツとウィジェットの映像を出力することができる。
 また、このように、デジタル放送受信装置102は、関連の強さに加えて、ウィジェットの実行に関する情報に基づき、ウィジェットの表示形態を決定するので、ウィジェットの実行に関する情報として、例えば、ウィジェットがアクティブであるか否かを示す情報を用いることで、コンテンツが切り替わって、ウィジェットとコンテンツの関連が弱くなっても、アクティブであるウィジェットは、そのまま表示するなど、ユーザの希望により近い表示形態で主コンテンツとウィジェットの映像を出力することができる。これにより、あるユーザがメモ帳機能を持つウィジェットに文字情報を入力しているときに、デジタル放送受信装置102の表示形態が変更になった場合、文字情報入力中のウィジェットの配置が変更になり、ユーザが続けて文字情報を入力することが難しくなるといった問題が起きるのを防ぐことができる。
 また、図2におけるウィジェット実行部203、コンテンツ実行部205、表示制御部206、映像合成部207、音声合成部209、表示形態決定部211、関連判断部212、および図3におけるウィジェット実行部203、第1のコンテンツ実行部205a、第2のコンテンツ実行部205b、表示制御部206、第1の映像合成部207a、第2の映像合成部207b、音声合成部209、表示形態決定部211、関連判断部212の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムを、映像出力装置102または映像出力装置102aが備えるコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。また、これらの各部の全て、あるいは、一部の処理を、専用のハードウェアにより行なってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 100…コンテンツ提供システム
 101…プロバイダ
 101a…ウィジェット配信サーバ
 101b…放送局
 101c…インターネットサービスプロバイダ
 101d…映画会社
 102、102a…デジタル放送受信装置
 104…外部入力機器
 104a…記録メディア
 201…ユーザ操作受信部
 202…ウィジェット配信サーバ通信部
 203…ウィジェット実行部
 204…コンテンツ受信部
 204a…第1のコンテンツ受信部
 204b…第2のコンテンツ受信部
 205…コンテンツ実行部
 205a…第1のコンテンツ実行部
 205b…第2のコンテンツ実行部
 206…表示制御部
 207…映像合成部
 207a…第1の映像合成部
 207b…第2の映像合成部
 208…映像出力部
 208a…第1の映像出力部
 208b…第2の映像出力部
 209…音声合成部
 210…音声出力部
 211…表示形態決定部
 212…関連判断部
 213…実行部生成情報DB

Claims (9)

  1.  1つまたは2つ以上のコンテンツを実行し、前記コンテンツの実行に関する情報を生成するコンテンツ実行部と、
     コンテンツと同時に実行されるアプリケーションである副アプリケーションであって、1つまたは2つ以上の副アプリケーションを実行し、前記副アプリケーションの実行に関する情報を生成する副アプリケーション部と、
     前記副アプリケーション実行部にて実行中の副アプリケーションと、前記コンテンツ実行部にて実行中のコンテンツとの関連の強さを、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する関連判断部と、
     前記関連の強さに基づき、前記コンテンツと前記副アプリケーションとの表示形態を決定する表示形態決定部と、
     前記表示形態決定部が決定した表示形態に基づき、前記コンテンツの映像と前記副アプリケーションの映像とを合成する映像合成部と、
     前記合成した映像の信号を出力する映像出力部と
     を備える、映像出力装置。
  2.  前記関連判断部は、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに加え、実行中の副アプリケーションの提供者が提供する情報と実行中のコンテンツの提供者が提供する情報とに基づき、実行中の副アプリケーションと実行中のコンテンツの関連の強さを判断する、
     請求項1に記載の映像出力装置。
  3.  複数の前記映像合成部と、複数の前記映像出力部とを備え、
     前記表示形態決定部は、前記関連の強さに基づき、前記映像出力部各々から出力する前記コンテンツと前記副アプリケーションとの表示形態を決定し、
     前記映像合成部の各々は、前記決定した表示形態のうち、対応する前記映像出力部の表示形態に従い、前記コンテンツの映像と前記副アプリケーションの映像とを合成する、
     請求項1に記載の映像出力装置。
  4.  前記副アプリケーションの実行に関する情報、前記コンテンツの実行に関する情報、前記副アプリケーションの提供者が提供する情報、前記コンテンツの提供者が提供する情報の履歴を保持する実行部生成情報記憶部を備え、
     前記関連判断部は、前記実行中の副アプリケーションと前記実行中のコンテンツとの関連の強さを、前記実行部生成情報記憶部が保持する情報に基づき判断する、
     請求項1に記載の映像出力装置。
  5.  前記表示形態決定部は、前記関連の強さに加えて、前記副アプリケーションの実行に関する情報に基づき、副アプリケーションの表示形態を決定する、
     請求項1に記載の映像出力装置。
  6.  前記関連判断部は、前記コンテンツ実行部が複数のコンテンツを実行しているときは、前記副アプリケーション実行部にて実行中の副アプリケーションと、前記コンテンツ実行部にて実行中の複数のコンテンツのうち主として表示されるコンテンツとの関連の強さを判断する、
     請求項1に記載の映像出力装置。
  7.  前記副アプリケーションの実行に関する情報と、前記コンテンツの実行に関する情報と、副アプリケーションの提供者が提供する情報と、コンテンツの提供者が提供する情報との履歴を保持する実行部生成情報記憶部を備え、
     前記関連判断部は、前記副アプリケーション実行部にて実行中の副アプリケーションと前記コンテンツ実行部にて実行中のコンテンツとの関連の強さを、前記実行部生成情報記憶部に保持されている情報に基づき判断する、
     請求項6に記載の映像出力装置。
  8.  コンテンツと、前記コンテンツと同時に実行されるアプリケーションである副アプリケーションとを実行し、実行結果の映像の信号を出力する映像出力装置における映像出力方法であって、
     前記映像出力装置が、1つまたは2つ以上のコンテンツを実行し、前記コンテンツの実行に関する情報を生成する第1の過程と、
     前記映像出力装置が、1つまたは2つ以上の副アプリケーションを実行し、前記副アプリケーションの実行に関する情報を生成する第2の過程と、
     前記映像出力装置が、前記第2の過程にて実行中の副アプリケーションと、前記第1の過程にて実行中のコンテンツとの関連の強さを、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する第3の過程と、
     前記映像出力装置が、前記関連の強さに基づき、前記コンテンツと前記副アプリケーションとの表示形態を決定する第4の過程と、
     前記映像出力装置が、前記第4の過程にて決定した表示形態に基づき、前記コンテンツの映像と前記副アプリケーションの映像とを合成する第5の過程と、
     前記映像出力装置が、前記合成した映像の信号を出力する第6の過程と
     を有する、映像出力方法。
  9.  1つまたは2つ以上のコンテンツを実行し、前記コンテンツの実行に関する情報を生成するコンテンツ実行部を備える映像出力装置のコンピュータを、
     コンテンツと同時に実行されるアプリケーションである副アプリケーションであって、1つまたは2つ以上の副アプリケーションを実行し、前記副アプリケーションの実行に関する情報を生成する副アプリケーション部、
     前記副アプリケーション実行部にて実行中の副アプリケーションと、前記コンテンツ実行部にて実行中のコンテンツとの関連の強さを、前記副アプリケーションの実行に関する情報と前記コンテンツの実行に関する情報とのうち少なくとも1つに基づき判断する関連判断部、
     前記関連の強さに基づき、前記コンテンツと前記副アプリケーションとの表示形態を決定する表示形態決定部、
     前記表示形態決定部が決定した表示形態に基づき、前記コンテンツの映像と前記副アプリケーションの映像とを合成する映像合成部、
     前記合成した映像の信号を出力する映像出力部
     として動作させるプログラム。
PCT/JP2010/068143 2009-10-19 2010-10-15 映像出力装置、映像出力方法およびプログラム WO2011049016A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/502,500 US20120207443A1 (en) 2009-10-19 2010-10-15 Video outputting apparatus, video outputting method, and program
EP10824865.9A EP2493189A4 (en) 2009-10-19 2010-10-15 VIDEO OUTPUT DEVICE, VIDEO OUTPUT METHOD AND PROGRAM THEREFOR
CN201080046947.6A CN102577424B (zh) 2009-10-19 2010-10-15 影像输出装置、影像输出方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-240538 2009-10-19
JP2009240538A JP5495424B2 (ja) 2009-10-19 2009-10-19 映像出力装置、映像出力方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2011049016A1 true WO2011049016A1 (ja) 2011-04-28

Family

ID=43900242

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068143 WO2011049016A1 (ja) 2009-10-19 2010-10-15 映像出力装置、映像出力方法およびプログラム

Country Status (5)

Country Link
US (1) US20120207443A1 (ja)
EP (1) EP2493189A4 (ja)
JP (1) JP5495424B2 (ja)
CN (1) CN102577424B (ja)
WO (1) WO2011049016A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081762A (zh) * 2012-01-31 2014-10-01 夏普株式会社 提示控制装置、提示控制方法、提示系统、提示控制程序、记录介质以及元数据

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866895B2 (en) * 2012-12-20 2018-01-09 Echostar Technologies Llc Personalized standby and transition screens
EP2779151B1 (en) * 2013-03-11 2018-05-16 Renesas Electronics Europe Limited Video output checker

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282647A (ja) * 2003-03-18 2004-10-07 Sony Corp 電子機器装置及び表示画面レイアウト方法
JP2005327121A (ja) 2004-05-14 2005-11-24 Sony Corp 利用者端末,画面データ生成方法,およびコンピュータプログラム
JP2006253984A (ja) * 2005-03-10 2006-09-21 Casio Comput Co Ltd 画像表示制御装置及びプログラム
JP2006279692A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 放送受信機及びこの放送受信機の制御方法
JP2008305242A (ja) * 2007-06-08 2008-12-18 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、および、記録媒体
JP2009159367A (ja) * 2007-12-27 2009-07-16 Mitsubishi Electric Corp 画面生成装置および画面レイアウト共有システム
JP2009240538A (ja) 2008-03-31 2009-10-22 Konica Minolta Medical & Graphic Inc 放射線画像生成システム及び放射線画像生成プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175386A (ja) * 1999-12-21 2001-06-29 Fujitsu Ltd 表示装置及び表示方法並びに記憶媒体
CN1306804C (zh) * 2002-02-21 2007-03-21 松下电器产业株式会社 录像再生装置
JP4144883B2 (ja) * 2004-08-06 2008-09-03 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US8095887B2 (en) * 2005-08-05 2012-01-10 Samsung Electronics Co., Ltd. Apparatus for providing multiple screens and method of dynamically configuring multiple screens
KR100813731B1 (ko) * 2005-11-30 2008-03-13 엘지전자 주식회사 영상표시기기의 부가정보 디스플레이 장치 및 방법
US20100086283A1 (en) * 2008-09-15 2010-04-08 Kumar Ramachandran Systems and methods for updating video content with linked tagging information
US8347228B1 (en) * 2009-06-08 2013-01-01 Sprint Communications Company L.P. User interface screen presentation prioritization

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282647A (ja) * 2003-03-18 2004-10-07 Sony Corp 電子機器装置及び表示画面レイアウト方法
JP2005327121A (ja) 2004-05-14 2005-11-24 Sony Corp 利用者端末,画面データ生成方法,およびコンピュータプログラム
JP2006253984A (ja) * 2005-03-10 2006-09-21 Casio Comput Co Ltd 画像表示制御装置及びプログラム
JP2006279692A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 放送受信機及びこの放送受信機の制御方法
JP2008305242A (ja) * 2007-06-08 2008-12-18 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、および、記録媒体
JP2009159367A (ja) * 2007-12-27 2009-07-16 Mitsubishi Electric Corp 画面生成装置および画面レイアウト共有システム
JP2009240538A (ja) 2008-03-31 2009-10-22 Konica Minolta Medical & Graphic Inc 放射線画像生成システム及び放射線画像生成プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2493189A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081762A (zh) * 2012-01-31 2014-10-01 夏普株式会社 提示控制装置、提示控制方法、提示系统、提示控制程序、记录介质以及元数据

Also Published As

Publication number Publication date
CN102577424B (zh) 2014-12-10
EP2493189A1 (en) 2012-08-29
JP2011087245A (ja) 2011-04-28
CN102577424A (zh) 2012-07-11
JP5495424B2 (ja) 2014-05-21
EP2493189A4 (en) 2014-08-20
US20120207443A1 (en) 2012-08-16

Similar Documents

Publication Publication Date Title
JP4859219B2 (ja) 映像出力装置及びその制御方法
KR101010378B1 (ko) 텔레비전 수신 장치
JP4655534B2 (ja) 端末装置およびデータ処理方法、プログラム並びに記録媒体
US20100165200A1 (en) Display control device, display control method and display control program
WO2006123744A1 (ja) コンテンツ表示システム及びコンテンツ表示方法
EP2611165A1 (en) Image processing apparatus and control method thereof
US20090119712A1 (en) Method for providing multimedia content list and sub-list, and broadcast receiving apparatus using the same
JP5495424B2 (ja) 映像出力装置、映像出力方法およびプログラム
JP2008061000A (ja) 放送受信装置、放送受信装置の制御方法、及び、プログラム
JP5824545B2 (ja) 表示装置、表示方法、及びプログラム
EP2017781A1 (en) Method for providing stock information and broadcast receiving apparatus using the same
JP2008028785A (ja) テレビジョン受信装置
JP2013026700A (ja) 映像コンテンツ選択装置及び映像コンテンツ選択方法
JP4991064B2 (ja) 放送プログラムと共にマルチメディア情報を表示する方法及び装置
JPWO2011016335A1 (ja) コンテンツ通知装置、通知方法、プログラム
WO2005071952A1 (ja) 放送受信端末及び放送装置
US8538235B2 (en) Reproducing device, reproducing method, program and recording medium
KR20070058814A (ko) 컨텐츠 네비게이션 방법 및 이를 수행하는 영상처리장치
JP2008085940A (ja) テレビジョン受像機
JP2004336179A (ja) 放送受信端末、並びに、放送受信端末の操作キー制御方法及び操作キー制御プログラム
WO2014103390A1 (ja) 表示装置
JP4721950B2 (ja) テレビジョン放送受信機
JP4992913B2 (ja) 番組表印刷装置及び番組表印刷装置を用いた番組表印刷方法
JP2004032650A (ja) 情報受信装置
JP2004312507A (ja) 情報受信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080046947.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10824865

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13502500

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2010824865

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010824865

Country of ref document: EP