WO2016047287A1 - 画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム - Google Patents

画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム Download PDF

Info

Publication number
WO2016047287A1
WO2016047287A1 PCT/JP2015/072350 JP2015072350W WO2016047287A1 WO 2016047287 A1 WO2016047287 A1 WO 2016047287A1 JP 2015072350 W JP2015072350 W JP 2015072350W WO 2016047287 A1 WO2016047287 A1 WO 2016047287A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
content
display control
image
signal conversion
Prior art date
Application number
PCT/JP2015/072350
Other languages
English (en)
French (fr)
Inventor
義治 出葉
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016550020A priority Critical patent/JP6711275B2/ja
Priority to EP15844266.5A priority patent/EP3200184A4/en
Priority to US15/510,727 priority patent/US10021338B2/en
Priority to CN201580049310.5A priority patent/CN107077824B/zh
Publication of WO2016047287A1 publication Critical patent/WO2016047287A1/ja
Priority to US16/000,527 priority patent/US10939064B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Definitions

  • the present disclosure relates to an image display control device, a transmission device, an image display control method, and a program. More specifically, for example, an image display control device, a transmission device, and image display control for controlling the brightness and color of an output image in units of programs or scenes in accordance with the brightness and color of ambient light in a viewing environment such as a television.
  • the present invention relates to a method and a program.
  • Patent Document 1 Japanese Patent Laid-Open No. 2005-236520 discloses a configuration for performing brightness control of an output image in accordance with a sensor detection value.
  • the configuration disclosed in the prior art so far has only performed uniform brightness control on all contents (programs) displayed on the television. Specifically, when the viewing environment is bright, uniform control is performed such that the brightness of the output image of the television is set higher, and when the viewing environment is dark, the brightness of the output image is set lower.
  • the conventional image output control for a display device such as a television uniformly controls the output image of the display device according to the viewing environment.
  • the output control is not performed in units of programs or scenes.
  • TV programs and scenes that make up a program include various images. Even when watching TV under the same brightness and the same color light source, the optimal image can be obtained by performing different display controls depending on the program or scene. Output can be performed.
  • the image control algorithm can generate an adjusted image optimal for the display scene by using different algorithms depending on the display scene as well as the brightness of the ambient light and the ambient light color in the viewing environment. That is, by changing the control mode according to the display image, it is possible to perform optimal control according to the scene of the output image.
  • the present disclosure relates to an image display control device, a transmission device, and an image display control method capable of changing a control mode of an output signal according to a viewing environment of a display device such as a television in units of programs or scenes, and The purpose is to provide a program.
  • the first aspect of the present disclosure is: A data processing unit that executes control of an image signal output to the display unit;
  • the data processing unit It is a configuration for generating an output image signal by executing a display control application corresponding to the content displayed on the display unit,
  • a sensor detection signal is input from a sensor that acquires ambient light information around the display unit, Applying the sensor detection signal to generate an output image signal by a signal conversion process that applies a signal conversion algorithm that is different in content units, scenes that constitute the content, or frame units, to the original input image signal of the content It is in the image display control device.
  • the second aspect of the present disclosure is: A data processing unit for transmitting content to be displayed on the display unit and a display control application corresponding to the content via the communication unit;
  • the display control application is: Signal conversion by applying a signal conversion algorithm for different content units, scenes that make up the content, or frame units to the original input image signal of the content by applying a sensor detection signal that acquires ambient light information around the display
  • the transmission apparatus is an application that records a program for generating an output image signal by processing.
  • the third aspect of the present disclosure is: An image display control method executed in the image display control device,
  • the image display control device includes a data processing unit that executes control of an image signal output to the display unit,
  • the data processing unit Execute a display control application corresponding to the content to be displayed on the display unit, and execute a process of generating an output image signal;
  • a sensor detection signal is input from a sensor that acquires ambient light information around the display unit, Applying the sensor detection signal to generate an output image signal by a signal conversion process that applies a signal conversion algorithm that is different in content units, scenes that constitute the content, or frame units, to the original input image signal of the content
  • the fourth aspect of the present disclosure is: A program for executing output image signal generation processing in an image display control device,
  • the program is a display control application corresponding to content to be displayed on a display unit, Signal conversion by applying a signal conversion algorithm with different content units, scenes that make up the content, or frame units to the original input image signal of the content by applying sensor detection signals that are ambient light information around the display unit
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for generating an output image by performing signal conversion processing according to ambient light in units of content, scenes, or frames are realized.
  • it has a data processing unit that executes control of the image signal output to the display unit, and the data processing unit executes a display control application corresponding to the content displayed on the display unit to generate an output image signal.
  • the data processing unit inputs a sensor detection signal from a sensor that acquires ambient light information around the display unit, and applies the sensor detection signal to configure a content unit or content for the original input image signal of the content
  • An output image signal is generated by signal conversion processing to which a signal conversion algorithm with different scene or frame units is applied.
  • FIG. 1 shows a television 30 that is an example of an image display control device, a broadcasting station 11 that is a transmission device that transmits content (programs) to the television 30, a content server 12, and an application program (hereinafter, referred to as an application program executable on the television 30).
  • the application server 20 is shown as a transmission device that provides an application).
  • the broadcast station 11 and the content server 12 provide content such as broadcast programs to be output to the television 30.
  • the broadcast station 11 performs broadcast transmission of content via broadcast waves.
  • the content server 12 performs unicast distribution or multicast distribution of content via a network such as the Internet.
  • FLUTE Fe Delivery over Uni-directional Transport
  • FLUTE was developed mainly for use in asynchronous file transfer, but has been expanded to be applied to broadcast streaming and has a configuration applicable to broadcast-type data distribution via broadcast waves. Protocol.
  • the broadcast station 11 and the content server 12 can transmit not only content such as broadcast programs but also various metadata and application files to the television 30.
  • the application server 20 also provides an application to be executed on the television 30 via the Internet.
  • the television 30 can acquire an application executed on the television 30 from any of the broadcast station 11, the content server 12, and the application server 20.
  • an image control application for performing image control processing corresponding to a content (program) for one of the applications acquired by the television 30 from the broadcast station 11, the content server 12, or the application server 20 and executed on the television 30. Program).
  • the television 30 includes, for example, Android (registered trademark) as an OS (Operation System), and can execute various applications that operate on the Android (registered trademark) OS.
  • the image control application received from the broadcast station 11, the content server 12, or the application server 20 is an application that runs on the Android (registered trademark) OS.
  • the television 30 has an ambient light sensor 31.
  • the ambient light sensor 31 is an optical sensor that acquires brightness in the viewing environment of the television 30 and color information (hue) of ambient light.
  • the detection value acquired by the ambient light sensor 31 includes the following values.
  • Luminance information (Y) Color difference information (U, V) These values are acquired by the ambient light sensor 31.
  • Luminance (Y) is so-called brightness, and is a value indicating the brightness of the viewing environment of the television 30.
  • the color difference (U) is one of index values indicating the blue color intensity.
  • the color difference (V) is one of index values indicating red (Red) color intensity.
  • a processing example using a YUV signal that is, the environment light sensor 31 acquires each value of YUV as a detection value, and an output to the television 30 is performed by an image control application executed on the television 30.
  • An embodiment for controlling each value of YUV of the signal will be described.
  • the processing of the present disclosure is not limited to the YUV signal, and can be performed using various signal systems such as a YCbCr signal and an RGB signal. That is, the ambient light sensor 31 acquires each value of YCbCr corresponding to ambient light or each value of RGB as a detection value, and depending on the image control application executed on the television 30, each value of YCbCr of the output signal to the television 30 or A configuration for controlling each value of RGB can also be realized.
  • the signal system of the detection value of the ambient light sensor 31 is different from the signal system of the output signal, for example, the detection value of the ambient light sensor 31 is YUV, and the output signal to the television 30 is processed by RGB or the like.
  • the signal systems are different, it is possible to perform control by executing a signal conversion process using a known signal conversion formula.
  • FIG. 2 is a diagram illustrating an image display example in which the television 30 that has acquired the detection value of the ambient light sensor 31 displays an output image signal generated by executing the image control application on the display unit.
  • FIG. 2 shows an image display example under two different ambient lights.
  • (A) is an output image example when the ambient light is dark and the color of the ambient light is blue.
  • (b) is an example of an output image when the ambient light is bright and the ambient light color is red.
  • FIGS. 2A and 2B are image display examples when these different sensor detection values are obtained from the ambient light sensor 31.
  • FIG. The image displayed on the television 30 is a scene showing an underwater image, and an output signal to the television 30 is adjusted according to the ambient light and the scene.
  • the images displayed on the respective televisions are adjusted to settings with different brightness and hue.
  • This adjustment process of the output signal is performed according to an image control application executed on the television 30.
  • the image control application is set in correspondence with, for example, content (program). That is, output control according to an image control application specific to each content (program) is executed.
  • the content-specific image control application includes a program that executes brightness and hue control according to ambient light in units of scenes or frames included in the content.
  • the output signal is generated by converting the original image signal so that the blue color of the output image signal is emphasized according to the detected value (YUV) of the ambient light detected by the ambient light sensor 31.
  • An original image signal set in advance for content (program) transmitted from the broadcast station 11 or the content server 12, Input image signal (YUV) in.
  • Input image signal Yin, Uin, Vin
  • Sensor detection signal Ysns, Usns, Vsns
  • Output image signal Yout, Uout, Vout, The above description.
  • the image display control device of the present disclosure receives content such as a broadcast program from the broadcast station 11 or the content server 12 illustrated in FIG. Furthermore, a content-corresponding image control application is received from either the broadcast station 11, the content server 12, or the application server 20 shown in FIG. 1, and the display control of the content is performed by applying the received image control application. In this case, brightness control and hue control are executed.
  • the output signal is controlled according to the ambient light and the scene in the content.
  • the flowchart illustrated in FIG. 3 is a flowchart illustrating a processing sequence executed by the image display control device of the present disclosure, for example, the television 30 illustrated in FIG.
  • the image display control apparatus executes processing according to the flow shown in FIG. 3 in a data processing unit having a processor (CPU or the like) having a program execution function according to an image control application or other program stored in the storage unit.
  • a processor CPU or the like
  • FIG. 3 the process of each step of the flow shown in FIG. 3 will be described in sequence.
  • the image display control apparatus for example, the television 30
  • the image display control apparatus has received an image control application corresponding to content (program) in advance and stored in the storage unit before the start of the flow shown in FIG.
  • Step S101 the data processing unit of the image display control apparatus acquires content-corresponding metadata that is data attached to content such as a broadcast program received from the broadcast station 11 or the content server 12 shown in FIG. Furthermore, based on the application designation information recorded in the acquired metadata, the image control application corresponding to the content is selected and activated.
  • the image control application is set for each content unit such as each program.
  • the image display control device (for example, the television 30) acquires an image control application corresponding to each content from the broadcast station 11, the content server 12, or the application server 20 in advance and stores it in the storage unit.
  • a plurality of image control applications corresponding to a plurality of contents are stored in the storage unit of the image display control device (for example, the television 30). Therefore, it is necessary to select an image control application corresponding to the content received from the broadcast station 11 or the content server 12. For this selection process, metadata recording information transmitted together with or in advance of the content received from the broadcast station 11 or the content server 12 is used.
  • FIG. 4 An example of content-compatible metadata is shown in FIG. As shown in FIG. 4, the content-corresponding metadata records an identifier (ID) of the image control application corresponding to the content.
  • the data processing unit of the image display control device (for example, the television 30) can display content to be displayed from a plurality of image control applications stored in the storage unit based on the identifier (ID) of the image control application recorded in the metadata.
  • the image control application corresponding to is selected.
  • An ID is set for each image control application stored in the storage unit, and an application having the same ID as the identifier (ID) of the image control application set in the content-corresponding metadata is selected and started. .
  • Step S102 the data processing unit of the image display control apparatus inputs a sensor detection signal (environment light information) of the environment light sensor 31 in step S102.
  • the detection signal (environment light information) acquired by the environment light sensor 31 is configured by the following values, for example.
  • Luminance information (Y) Color difference information (U, V) These values are acquired by the ambient light sensor 31 and input to the data processing unit.
  • step S103 the data processing unit of the image display control device applies the content-corresponding image control application selected in step S101, and calculates an output image signal according to the sensor detection signal (ambient light information). .
  • output signals (Yout, Uout, Vout) adjusted according to the adjustment processing mode (signal conversion algorithm) set in units specified in the image control application, such as content (program) units, scene units, frame units, etc. Is calculated.
  • step S104 the data processing unit of the image display control apparatus outputs the output image signal generated in step S103 to the display unit.
  • the output signal adjustment process corresponding to the ambient light is performed in units of contents, scenes, or frames, and the adjusted image signal is displayed. Will be.
  • the image control application is an application program set for each content unit such as an individual program.
  • the image display control device (for example, the television 30) acquires an image control application corresponding to each content from the broadcast station 11, the content server 12, or the application server 20 in advance and stores it in the storage unit.
  • FIG. 5 one configuration example of an image control application executed by the image display control apparatus will be described.
  • Scene identifier Playback time
  • Applicable signal conversion algorithm ID identifier
  • the image control application corresponding to the content records the reproduction time information of the scene and the signal conversion algorithm applied to the scene for each scene included in the content.
  • an algorithm ID is shown instead of the algorithm.
  • the reproduction time is information defining the time information (begin) at which the scene starts and the time information (end) at which it ends. Note that an image frame identifier may be recorded instead of the reproduction time.
  • the signal conversion algorithm applied to each scene is From the input image signal (YUV) in, Output image signal (YUV) out, This is a signal conversion algorithm applied to calculate.
  • This signal conversion algorithm is an algorithm for calculating the output image signal (YUV) out in consideration of the sensor detection signal (YUV) sns. A specific example of the signal conversion algorithm will be described later.
  • the flowchart shown in FIG. 6 is a flowchart for explaining one sequence example of processing for calculating an output image signal (YUV) out by applying an image control application in the image display control apparatus (television 30). This corresponds to the detailed sequence of the processing executed in steps S102 to S103 in the flow of FIG. 3 described above. Details of processing in each step of the flow shown in FIG. 6 will be described. Note that at the start of the flow shown in FIG. 6, it is assumed that the processing in step S101 of the flow of FIG.
  • Step S202 In step S ⁇ b> 202, the data processing unit of the image display control apparatus (television 30) inputs the sensor detection signal (YUV) sns detected by the sensor from the ambient light sensor 31.
  • the sensor detection signal YUV
  • Step S203 the data processing unit of the image display control apparatus (television 30) sets parameters to be applied to the signal conversion algorithm corresponding to the selected scene based on the sensor detection signal (YUV) sns acquired in step S202. decide.
  • the parameter determination processing algorithm (for example, the function F) is recorded in the image control application together with the signal conversion algorithm. Specific examples will be described later.
  • Step S204 the data processing unit of the image display control apparatus (television 30) sets the conversion parameter determined in step S203 to the signal conversion algorithm corresponding to the scene selected in step S201, and the input image signal ( The output image signal (YUV) out is calculated from YUV) in.
  • a signal conversion algorithm applied to (Scene 1) that is, an original input image signal (YUV) in of image data of received content is converted, and an output image signal (YUV) out to be output to the display unit of the television 30 is calculated.
  • a to f are parameters determined based on the sensor detection signal (YUV) sns.
  • the entry at the right end of the table of FIG. 7 indicates “parameters determined based on the sensor detection signal (YUV) sns”. These parameters are calculated by applying a predetermined algorithm, for example, a function to the sensor detection signal (YUV) sns.
  • the data processing unit of the image display control device calculates the parameters a to f by applying the functions F 11 to F 16 in step S203 in the flow of FIG. 7 described above.
  • the parameters a to f and the input image signal (YUV) in are set in the signal conversion algorithm to calculate the output image signal (YUV) out.
  • the signal conversion algorithm is changed, for example, in scene units, frame units, or content units.
  • FIG. 7 shows a signal conversion algorithm corresponding to another (scene 2) and parameter entries.
  • a signal conversion algorithm applied to (scene 2) that is, an original input image signal (YUV) in of image data of received content is converted, and an output image signal (YUV) out to be output to the display unit of the television 30 is calculated.
  • the data processing unit of the image display control device applies the above functions F 21 to F 26 in step S203 in the flow of FIG. 7 described above.
  • Parameters a to f are calculated.
  • the parameters a to f and the input image signal (YUV) in are set in the signal conversion algorithm to calculate the output image signal (YUV) out.
  • the signal conversion algorithm applied to each scene included in the content and the parameter determined according to the sensor detection value are recorded.
  • the image display control apparatus calculates an output image signal (YUV) out by sequentially changing a signal conversion algorithm and parameters applied to each scene. By such processing, an image signal adjusted according to the scene and ambient light is output.
  • the unit for changing the signal conversion algorithm and parameters is set as a scene unit.
  • these conversion units may be various units such as a frame unit and a content (program) unit. It can be a unit.
  • FIG. 8 shows an image control application configuration example (2).
  • Scene identifier Playback time
  • Applicable signal conversion algorithm ID identifier
  • the example shown in FIG. 8 is different from the example shown in FIG. [Applied signal conversion algorithm ID (identifier)]
  • An algorithm corresponding to each of the Y, U, and V signals can be set.
  • YUV is a setting for selectively applying a different signal conversion algorithm depending on each signal.
  • FIG. 9 and 10 show four examples of signal conversion algorithms applied to the Y signal.
  • the horizontal axis indicates the original image signal of the content, that is, the luminance signal Yin in the input image signal (YUV) in, and the vertical axis indicates signal conversion.
  • An output image signal Yout generated by the processing is shown.
  • the dotted line shown in the figure is a line indicating the correspondence between the input luminance value and the output luminance value when one luminance value whose luminance Ysns detected by the ambient light sensor 31 is higher than the standard luminance value is measured. .
  • the dotted line indicating the correspondence between the input luminance value and the output luminance value moves further upward, and when it is lower, it moves downward.
  • the signal conversion process using the signal conversion algorithm 1 is performed.
  • the correspondence relationship between the input and output values moves from the solid line shown in FIG. That is, the luminance signal Yin of the input image signal is converted into an output luminance signal Yout having a luminance value lower than the input value.
  • the change amount of the luminance value is set to be larger as the input luminance value is higher.
  • the one-dot chain line shown in the figure is a line indicating the correspondence between the input luminance value and the output luminance value when one luminance value whose luminance Ysns detected by the ambient light sensor 31 is lower than the standard luminance value is measured. is there.
  • the one-dot chain line indicating the correspondence relationship between the input brightness value and the output brightness value moves further downward, and when it is higher, it moves upward.
  • the horizontal axis indicates the original image signal of the content, that is, the luminance signal Yin in the input image signal (YUV) in
  • the vertical axis indicates signal conversion.
  • An output image signal Yout generated by the processing is shown.
  • the curved dotted line shown in the figure indicates the correspondence between the input luminance value and the output luminance value when one luminance value whose luminance Ysns detected by the ambient light sensor 31 is higher than the standard luminance value is measured. Is a line. When the luminance Ysns detected by the ambient light sensor 31 is higher, the dotted line indicating the correspondence between the input luminance value and the output luminance value moves further upward, and when it is lower, it moves downward.
  • the luminance Ysns detected by the ambient light sensor 31 is lower than the standard luminance value assumed by the content creator, that is, when the ambient light is dark, by signal conversion processing using the signal conversion algorithm 2,
  • the correspondence relationship of the input / output values moves from the solid line shown in FIG. 9B to the one-dot chain line side of the downward curved shape. That is, the luminance signal Yin of the input image signal is converted into an output luminance signal Yout having a luminance value lower than the input value.
  • the change amount of the luminance value is set to be larger as the input luminance value is higher.
  • the one-dot chain line of the curved shape shown in the figure shows the correspondence between the input luminance value and the output luminance value when one luminance value whose luminance Ysns detected by the ambient light sensor 31 is lower than the standard luminance value is measured. It is a line to show.
  • the one-dot chain line indicating the correspondence relationship between the input brightness value and the output brightness value moves further downward, and when it is higher, it moves upward.
  • Solid line setting when the luminance Ysns detected by the ambient light sensor 31 is a standard luminance value assumed by the content producer
  • Curved dotted line setting when the luminance Ysns detected by the ambient light sensor 31 is higher (brighter) than the standard luminance value assumed by the content producer
  • Curved shape alternate long and short dash line setting when the luminance Ysns detected by the ambient light sensor 31 is lower (darker) than the standard luminance value assumed by the content producer
  • the image display control device executes signal conversion processing by applying one of the four signal conversion algorithms shown in FIGS. 9 and 10 according to the scenes that constitute the content, for example, and outputs the image signal.
  • the luminance value (Yout) is calculated.
  • 9 and 10 show four setting examples of the luminance signal conversion algorithm, these are some examples of the signal conversion algorithm, and various other conversion processes can be applied.
  • 9 and 10 are examples of conversion algorithms for the luminance signal (Y). Also for the color difference signals (U, V), a conversion algorithm corresponding to each signal is defined and applied in the image control program.
  • FIGS. 11 and 12 show examples of signal conversion algorithms applied to the color difference signal U.
  • Solid line setting when the color difference signal value Usns detected by the ambient light sensor 31 is a standard color difference signal value assumed by the content producer
  • Curved dotted line setting when the color difference signal value Usns detected by the ambient light sensor 31 is higher than the standard color difference signal value assumed by the content producer
  • Curved shape alternate long and short dash line setting when the color difference signal value Usns detected by the ambient light sensor 31 is lower than the standard color difference signal value assumed by the content producer
  • the image display control device (television 30), for example, executes signal conversion processing by applying one of the four signal conversion algorithms shown in FIGS. 11 and 12 according to the scenes that make up the content, and outputs image signals.
  • the color difference signal value (Uout) is calculated.
  • 11 and 12 show four setting examples of the luminance signal conversion algorithm, these are some examples of the signal conversion algorithm, and various other conversion processes can be applied.
  • Solid line setting when the color difference signal value Vsns detected by the ambient light sensor 31 is a standard color difference signal value assumed by the content producer
  • Curved dotted line setting when the color difference signal value Vsns detected by the ambient light sensor 31 is higher than the standard color difference signal value assumed by the content producer
  • Curved one-dot chain line setting when the color difference signal value Vsns detected by the ambient light sensor 31 is lower than the standard color difference signal value assumed by the content producer
  • the image display control device executes signal conversion processing by applying one of the four signal conversion algorithms shown in FIGS. 13 and 14 according to the scenes constituting the content, and outputs the output image signal.
  • the color difference signal value (Vout) is calculated.
  • FIG. 13 and FIG. 14 show examples of setting four luminance signal conversion algorithms, these are some examples of signal conversion algorithms, and various other conversion processes can be applied.
  • FIG. 15 the YUV values of the output image signal are directly controlled.
  • the present invention is not limited to such output signal control.
  • the following output signal adjustment processing may be performed. Good.
  • a different white balance adjustment process is executed depending on the scene and ambient light.
  • B A different gamma correction process is executed depending on the scene and ambient light.
  • C A different color temperature adjustment process is executed according to the scene and ambient light.
  • the image control application shown in FIG. The example of a structure of the application which "a performs the white balance adjustment process which changes according to a scene and ambient light" is shown.
  • FIG. Scene identifier, Playback time, Applicable signal conversion algorithm ID (identifier) The correspondence between these three data is shown. These correspondences are the same as those in the image control application (1) described above with reference to FIG. However, the entry shown in the image control application (3) shown in FIG. "Applicable signal conversion algorithm ID (identifier)" Is set as white balance (WB) adjustment processing algorithm designation information.
  • WB white balance
  • the image control application has a configuration in which a white balance (WB) adjustment processing algorithm or designation information thereof is recorded as a reproduction time of these scenes and a signal conversion algorithm to be applied according to the scene classification.
  • the playback time defines time information (begin) at which a scene starts and time information (end) at which it ends. Note that an image frame identifier may be recorded instead of the reproduction time.
  • the signal conversion algorithm applied to each scene is a white balance adjustment processing algorithm.
  • This white balance adjustment processing algorithm has different settings depending on the scene.
  • the parameter applied to the white balance adjustment processing algorithm is determined according to the sensor detection value acquired by the ambient light sensor 31.
  • a scene-corresponding white balance adjustment processing algorithm and a parameter determination algorithm (for example, function F) applied to each white balance adjustment processing algorithm are recorded in the content-corresponding image control application.
  • the image display control device selects a white balance adjustment processing algorithm corresponding to a scene when executing display processing of each scene, and sets parameters applied to the selected white balance adjustment processing algorithm corresponding to the scene to a sensor. Calculate based on the detected value. Further, the calculated parameter is applied to a scene-corresponding white balance adjustment processing algorithm to execute white balance adjustment of the output image to generate and display an output image.
  • FIG. 16 an image control application “(b) executing a different gamma correction process depending on the scene and ambient light” will be described.
  • the image control application shown in FIG. The configuration example of the application “(b) executing gamma correction processing that differs depending on the scene and ambient light” is shown.
  • FIG. Scene identifier, Playback time, Applicable signal conversion algorithm ID (identifier) The correspondence between these three data is shown. These correspondences are the same as those in the image control application (1) described above with reference to FIG. However, the entry shown in the image control application (3) shown in FIG. "Applicable signal conversion algorithm ID (identifier)" Is set as gamma correction processing algorithm designation information.
  • the image control application has a configuration in which a gamma correction processing algorithm or its designation information is recorded as a signal conversion algorithm to be applied to the playback time of these scenes according to the scene classification.
  • the playback time defines time information (begin) at which a scene starts and time information (end) at which it ends. Note that an image frame identifier may be recorded instead of the reproduction time.
  • the signal conversion algorithm applied to each scene is a gamma correction processing algorithm.
  • This gamma correction processing algorithm has different settings depending on the scene.
  • the parameter applied to the gamma correction processing algorithm is determined according to the sensor detection value acquired by the ambient light sensor 31.
  • the scene-corresponding gamma correction processing algorithm and the parameter determination algorithm (for example, function F) applied to each gamma correction processing algorithm are recorded in the content-corresponding image control application.
  • the image display control device selects a gamma correction processing algorithm corresponding to a scene when executing display processing of each scene, and sets a parameter applied to the selected gamma correction processing algorithm corresponding to the scene as a sensor detection value. Calculate based on Further, the calculated parameter is applied to a scene-corresponding gamma correction processing algorithm to execute a gamma correction process of the output image to generate an output image and execute a display process.
  • FIG. 17 An image control application “(c) executing different color temperature adjustment processing depending on the scene and ambient light” will be described.
  • the image control application shown in FIG. An example of the configuration of an application “(b) executing different color temperature adjustment processing depending on the scene and ambient light” is shown.
  • the image control application has a configuration in which a color temperature adjustment processing algorithm or a designation information thereof is recorded as a signal conversion algorithm to be applied to the reproduction time of these scenes according to the scene classification.
  • the playback time defines time information (begin) at which a scene starts and time information (end) at which it ends. Note that an image frame identifier may be recorded instead of the reproduction time.
  • the signal conversion algorithm applied to each scene is a color temperature adjustment processing algorithm.
  • This color temperature adjustment processing algorithm has different settings depending on the scene.
  • the parameter applied to the color temperature adjustment processing algorithm is determined according to the sensor detection value acquired by the ambient light sensor 31.
  • the color temperature adjustment processing algorithm corresponding to the scene and the parameter determination algorithm (for example, function F) applied to each color temperature adjustment processing algorithm are recorded in the image control application corresponding to the content.
  • the image display control device selects a color temperature adjustment processing algorithm corresponding to the scene when executing the display processing of each scene, and sets parameters applied to the selected color temperature adjustment processing algorithm corresponding to the scene to the sensor. Calculate based on the detected value. Further, the calculated parameter is applied to the color temperature adjustment processing algorithm corresponding to the scene, the color temperature adjustment processing of the output image is executed, the output image is generated, and the display processing is executed.
  • FIG. 18 illustrates a configuration example of the server 150 that is a transmission device such as the content server 12 or the application server 20, and the image display control device 170.
  • the server 150 includes a data processing unit 151, a communication unit 152, and a storage unit 153.
  • the image display control device 170 includes a data processing unit 171, a communication unit 172, a storage unit 173, an input unit 174, an output unit 175, and a sensor 176.
  • the data processing unit 151 of the server 150 executes various types of data processing for generating and transmitting content such as a program or an image control application corresponding to the content. For example, generation of content configuration data, generation of metadata corresponding to content, generation of an image control application file corresponding to content, and transmission control of these generation data are performed.
  • the communication unit 152 performs transmission processing of the content, metadata, and image control application generated by the data processing unit 151.
  • the storage unit 153 stores content to be transmitted, metadata, an image control application, and the like. Furthermore, the storage unit 153 is used as a work area for data processing executed by the data processing unit 151, and is also used as a storage area for various parameters.
  • the image display control device 170 includes a data processing unit 171, a communication unit 172, a storage unit 173, an input unit 174, an output unit 175, and a sensor 176.
  • the communication unit 172 receives data transmitted from a broadcasting station or a server, for example, content such as a program, metadata, an image control application, and the like.
  • the data processing unit 171 executes received content output control and the like. Specifically, the image control application is executed, and the output image is controlled based on the ambient light information detected by the sensor 176.
  • a user instruction command such as a content designation command is input via the input unit 174.
  • the content is output to an output unit 175 such as a display unit or a speaker.
  • the storage unit 173 stores received content, metadata, an image control application file, and the like. Further, the storage unit 173 is used as a work area for data processing executed by the data processing unit 171 and is also used as a storage area for various parameters.
  • the sensor 176 detects the brightness and hue information of the environmental light, for example, each value of YUV of the environmental light.
  • FIG. 19 shows a hardware configuration example of a communication device applicable as the image display control device 170.
  • the image display control device can be configured by a television 30 as shown in FIG. However, it is necessary to have a data processing unit including a CPU or the like that can execute an application program. Note that the image display control device may not include a display unit such as a television.
  • a device that can output an image signal to a connection display device specifically, an information processing device such as a disk playback device, a server device, or a PC may be used.
  • FIG. 19 shows one hardware configuration example of an image display control device having a function for executing the above-described embodiment.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • a RAM Random Access Memory
  • FIG. 19 shows one hardware configuration example of an image display control device having a function for executing the above-described embodiment.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • a RAM Random Access Memory
  • the CPU 201 is connected to an input / output interface 205 via a bus 204.
  • the input / output interface 205 is connected to an input unit 206 including various switches, a keyboard, a mouse, and a microphone, and an output unit 207 including a display and a speaker. Yes.
  • the CPU 201 executes various processes in response to a command input from the input unit 206, and outputs a processing result to the output unit 207, for example.
  • a storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk and stores programs executed by the CPU 201 and various data.
  • the communication unit 209 functions as a data communication transmission / reception unit and a broadcast wave transmission / reception unit via a network such as the Internet or a local area network, and communicates with an external device.
  • the sensor 210 corresponds to the ambient light sensor 31 provided in the television 30 shown in FIG. The lightness and hue of the ambient light, for example, each value of YUV is acquired.
  • the drive 221 connected to the input / output interface 205 drives a removable medium 222 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • a removable medium 222 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the technology disclosed in this specification can take the following configurations. (1) having a data processing unit for controlling the image signal output to the display unit;
  • the data processing unit It is a configuration for generating an output image signal by executing a display control application corresponding to the content displayed on the display unit,
  • a sensor detection signal is input from a sensor that acquires ambient light information around the display unit, Applying the sensor detection signal to generate an output image signal by a signal conversion process that applies a signal conversion algorithm that is different in content units, scenes that constitute the content, or frame units, to the original input image signal of the content Image display control device.
  • the display control application has a configuration in which a signal conversion algorithm in units of content or scenes constituting content or frames is recorded.
  • the data processing unit The image display control device according to (1), wherein a signal conversion process to which a different signal conversion algorithm is applied is executed for each image specified in the display control application.
  • the data processing unit For at least one of a luminance signal and a color difference signal included in the input image signal of the content original, The image display control according to (1) or (2), wherein a luminance signal or a color difference signal constituting the output image signal is generated by executing different signal conversion processes in units of content, scenes constituting the content, or frames. apparatus.
  • An output image signal is generated by executing at least one of different white balance adjustment processing, gamma correction processing, or color temperature adjustment processing in units of content, scenes constituting the content, or units of frames (1).
  • the image display control device according to any one of (3) to (3).
  • the display control application It is an application that defines the playback time information of content and the signal conversion algorithm applied to the image signal corresponding to each playback time,
  • the data processing unit 5 The image display control device according to any one of (1) to (4), wherein an output image signal is generated by sequentially selecting and applying a signal conversion algorithm defined with respect to a content reproduction time from the display control application.
  • the signal conversion algorithm is an algorithm whose conversion mode is changed according to the sensor detection signal
  • the data processing unit The image display control device according to any one of (1) to (5), wherein different output image signals are generated according to ambient light by different signal conversion processes according to the sensor detection signals.
  • the data processing unit Calculating a parameter based on the sensor detection signal;
  • the image display control device according to any one of (1) to (6), wherein the calculated parameter is applied to the signal conversion algorithm to generate different output image signals according to ambient light.
  • the sensor detection signal includes a luminance signal and a color difference signal
  • the data processing unit Calculating a parameter based on a luminance signal and a color difference signal included in the sensor detection signal;
  • the image display control device according to any one of (1) to (7), wherein the calculated parameter is applied to the signal conversion algorithm to generate different output image signals according to ambient light.
  • the display control application is: Signal conversion by applying a signal conversion algorithm for different content units, scenes that make up the content, or frame units to the original input image signal of the content by applying a sensor detection signal that acquires ambient light information around the display
  • a transmission apparatus which is an application that records a program for generating an output image signal by processing.
  • the display control application is: For at least one of a luminance signal and a color difference signal included in the input image signal of the content original,
  • the display control application For the input image signal of the content original, Records a program that generates an output image signal by executing at least one of different white balance adjustment processing, gamma correction processing, or color temperature adjustment processing in units of content, scenes that make up the content, or in units of frames (9) or (10) is a transmitting device.
  • the image display control device includes a data processing unit that executes control of an image signal output to the display unit, The data processing unit Execute a display control application corresponding to the content to be displayed on the display unit, and execute a process of generating an output image signal;
  • a sensor detection signal is input from a sensor that acquires ambient light information around the display unit, Applying the sensor detection signal to generate an output image signal by a signal conversion process that applies a signal conversion algorithm that is different in content units, scenes that constitute the content, or frame units, to the original input image signal of the content Image display control method.
  • a program for executing output image signal generation processing in the image display control device is a display control application corresponding to content to be displayed on a display unit, Signal conversion by applying a signal conversion algorithm with different content units, scenes that make up the content, or frame units to the original input image signal of the content by applying sensor detection signals that are ambient light information around the display unit A program that generates an output image signal by processing.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for generating an output image by performing signal conversion processing according to ambient light in units of content, scenes, or frames Is realized.
  • it has a data processing unit that executes control of the image signal output to the display unit, and the data processing unit executes a display control application corresponding to the content displayed on the display unit to generate an output image signal.
  • the data processing unit inputs a sensor detection signal from a sensor that acquires ambient light information around the display unit, and applies the sensor detection signal to configure a content unit or content for the original input image signal of the content
  • An output image signal is generated by signal conversion processing to which a signal conversion algorithm with different scene or frame units is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Receiver Circuits (AREA)

Abstract

コンテンツ単位、またはシーン、あるいはフレーム単位で環境光に応じて信号変換処理を実行して出力画像を生成する装置、および方法を提供する。表示部に出力する画像信号の制御を実行するデータ処理部を有し、データ処理部は、表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する。データ処理部は、表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、センサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する。

Description

画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム
 本開示は、画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラムに関する。さらに詳細には、例えばテレビ等の視聴環境における明るさや環境光の色に応じて、番組単位、あるいはシーン単位に出力画像の明るさや色を制御する画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラムに関する。
 テレビに備えられた光センサや照度センサにより、テレビの視聴環境の明るさを検出し、検出値に応じてテレビの出力画像の輝度を変更する構成は従来から知られている。例えば、特許文献1(特開2005-236520号公報)は、センサ検出値に応じて出力画像の輝度制御を行う構成を開示している。
 しかし、これまでの従来技術に開示された構成は、テレビに表示される全てのコンテンツ(番組)に対して一律の輝度制御を行うものに過ぎなかった。
 具体的には、視聴環境が明るければ、テレビの出力画像の輝度を高めに設定し、視聴環境が暗い場合は、出力画像の輝度を低めに設定するといった一律の制御を行うものであった。
特開2005-236520号公報
 上述したように、従来のテレビ等の表示装置に対する画像出力制御は、視聴環境に応じて一律に表示装置の出力画像を画一的に制御してしまう。
 例えば、番組単位や、シーン単位の出力制御を行う構成ではない。
 テレビ番組や、番組を構成するシーンには様々な画像が含まれ、同じ明るさや同じ色の光源下でテレビを見る場合でも、番組やシーンに応じて異なる表示制御を行うことで、最適な画像出力を行うことが可能となる。
 例えば、深海の濃い青を強調した画像を出力するためには、青を強調した画像を出力する青色強調用の制御アルゴリズムを適用して出力信号を調整することが有効である。
 一方、夕日が沈む画像を表示する場合に赤い色を強調するためには、やはり視聴環境に応じて決定した赤色強調用の制御アルゴリズムに従って出力色を制御することが必要である。
 画像制御アルゴリズムは、視聴環境における環境光の明るさや環境光色のみならず、表示シーンに応じて異なるアルゴリズムとすることで、表示シーンに最適な調整画像を生成することが可能である。
 すなわち、表示画像に応じて制御態様を変更することで、出力画像のシーンに応じた最適な制御が可能となる。
 本開示は、テレビ等の表示装置の視聴環境に応じた出力信号の制御態様を番組単位、あるいはシーン単位で変更することを可能とした画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 表示部に出力する画像信号の制御を実行するデータ処理部を有し、
 前記データ処理部は、
 前記表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する構成であり、
 前記表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、
 前記センサ検出信号を適用して前記コンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する画像表示制御装置にある。
 さらに、本開示の第2の側面は、
 表示部に表示するコンテンツと、該コンテンツに対応する表示制御アプリケーションを、通信部を介して送信するデータ処理部を有し、
 前記表示制御アプリケーションは、
 表示部周囲の環境光情報を取得するセンサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理によって出力画像信号を生成させるプログラムを記録したアプリケーションである送信装置にある。
 さらに、本開示の第3の側面は、
 画像表示制御装置において実行する画像表示制御方法であり、
 前記画像表示制御装置は、表示部に出力する画像信号の制御を実行するデータ処理部を有し、
 前記データ処理部は、
 前記表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する処理を実行し、
 前記出力画像信号の生成処理において、
 前記表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、
 前記センサ検出信号を適用して前記コンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する画像表示制御方法にある。
 さらに、本開示の第4の側面は、
 画像表示制御装置において出力画像信号生成処理を実行させるプログラムであり、
 前記プログラムは、表示部に表示するコンテンツ対応の表示制御アプリケーションであり、
 表示部の周囲の環境光情報であるセンサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成するプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、コンテンツ単位、またはシーン、あるいはフレーム単位で環境光に応じて信号変換処理を実行して出力画像を生成する装置、および方法が実現される。
 具体的には、表示部に出力する画像信号の制御を実行するデータ処理部を有し、データ処理部は、表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する。データ処理部は、表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、センサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する。
 本構成により、コンテンツ単位、またはシーン、あるいはフレーム単位で環境光に応じて信号変換処理を実行して出力画像を生成する装置、および方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の処理を実行する通信システムの一構成例について説明する図である。 画像表示制御装置の実行する処理の一例について説明する図である。 画像表示制御装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 コンテンツ対応メタデータに基づく画像制御アプリーションの選択処理例について説明する図である。 画像制御アプリーションの構成例について説明する図である。 画像制御アプリーションを用いた画像制御処理のシーケンスについて説明するフローチャートを示す図である。 画像制御アプリーションに規定されたシーン対応の信号変換アルゴリズムと、アルゴリズムに適用するパラメータの例について説明する図である。 画像制御アプリーションの構成例について説明する図である。 信号変換アルゴリズムの例について説明する図である。 信号変換アルゴリズムの例について説明する図である。 信号変換アルゴリズムの例について説明する図である。 信号変換アルゴリズムの例について説明する図である。 信号変換アルゴリズムの例について説明する図である。 信号変換アルゴリズムの例について説明する図である。 画像制御アプリーションの構成例について説明する図である。 画像制御アプリーションの構成例について説明する図である。 画像制御アプリーションの構成例について説明する図である。 サーバおよび画像表示制御装置の構成例について説明する図である。 画像表示制御装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の画像表示制御装置の実行する処理の概要について
 2.本開示の画像表示制御装置の実行する処理のシーケンスについて
 3.本開示の画像表示制御装置の適用する画像制御アプリケーションの例について
 4.その他の画像制御アプリケーションの例について
 5.装置の構成例について
 6.本開示の構成のまとめ
  [1.本開示の画像表示制御装置の実行する処理の概要について]
 まず、図1以下を参照して本開示の画像表示制御装置の実行する処理の概要について説明する。
 図1は、画像表示制御装置の一例であるテレビ30と、テレビ30にコンテンツ(番組)を送信する送信装置である放送局11、コンテンツサーバ12、さらに、テレビ30において実行可能なアプリケーションプログラム(以下、アプリケーションと呼ぶ)を提供する送信装置であるアプリケーションサーバ20を示している。
 放送局11や、コンテンツサーバ12は、テレビ30に出力する放送番組等のコンテンツを提供する。
 放送局11は、放送波を介したコンテンツのブロードキャスト送信を行う。コンテンツサーバ12は、インターネット等のネットワークを介して、コンテンツのユニキャスト配信、あるいはマルチキャスト配信等を行う。
 なお、これらのコンテンツ配信に適用する通信プロトコルとしては、例えばFLUTE(File Delivery over Uni-directional Transport)が適用可能である。
 FLUTEは、主に非同期型のファイル転送に利用するために開発されたが、ブロードキャストストリーミングにも適用するための拡張が行われ、放送波を介したブロードキャスト型のデータ配信にも適用可能な構成を持つプロトコルである。
 FLUTEプロトコルを利用したデータ配信により、放送局11や、コンテンツサーバ12は、放送番組等のコンテンツの送信のみならず、様々なメタデータや、アプリケーションファイルをテレビ30に対して送信することができる。
 なお、アプリケーションサーバ20も、インターネットを介してテレビ30において実行するアプリケーションを提供する。
 図1に示すように、テレビ30は、テレビ30において実行するアプリケーションを、放送局11、コンテンツサーバ12、アプリケーションサーバ20のいずれからでも取得することができる。
 なお、テレビ30が放送局11、またはコンテンツサーバ12、またはアプリケーションサーバ20から取得し、テレビ30において実行するアプリケーションの1つに、コンテンツ(番組)対応の画像制御処理を行なうための画像制御アプリケーション(プログラム)が含まれる。
 テレビ30は、例えばOS(Operation System)としてAndroid(登録商標)を搭載しており、Android(登録商標)OS上で動作する様々なアプリケーションを実行することができる。
 放送局11、またはコンテンツサーバ12、またはアプリケーションサーバ20から受信する画像制御アプリケーションは、Android(登録商標)OS上で動作するアプリケーションである。
 テレビ30は、環境光センサ31を有している。環境光センサ31は、テレビ30の視聴環境における明るさや、環境光の色情報(色相)を取得する光学センサである。
 以下に説明する実施例では、環境光センサ31が取得する検出値は、以下の各値を含むものとする。
 輝度情報(Y)
 色差情報(U,V)
 これらの値が、環境光センサ31によって取得される。
 輝度(Y)は、いわゆる明るさであり、テレビ30の視聴環境の明るさを示す値である。環境光センサ31の検出する輝度(Y)の値が大きいほど、視聴環境が明るく、検出輝度(Y)の値が小さいほど、視聴環境が暗いことを示す。
 色差(U)は、青色(Blue)系の色強度を示す指標値の1つである。環境光センサ31の検出する色差(U)の値が大きいほど、視聴環境における環境光色の青色強度が強く、検出色差(U)の値が小さいほど、環境光色の青色強度が弱いことを示す。
 色差(V)は、赤色(Red)系の色強度を示す指標値の1つである。環境光センサ31の検出する色差(V)の値が大きいほど、視聴環境における環境光色の赤色強度が強く、検出色差(V)の値が小さいほど、環境光色の赤色強度が弱いことを示す。
 なお、以下に説明する実施例では、YUV信号を用いた処理例、すなわち、環境光センサ31がYUVの各値を検出値として取得し、テレビ30において実行する画像制御アプリケーションによって、テレビ30に対する出力信号のYUVの各値を制御する実施例について説明する。
 ただし、この実施例は一例であり、本開示の処理は、YUV信号に限らず、例えばYCbCr信号や、RGB信号等、様々な信号系を用いて処理を行なうことが可能である。
 すなわち、環境光センサ31が環境光に対応するYCbCrの各値、またはRGBの各値を検出値として取得し、テレビ30において実行する画像制御アプリケーションによって、テレビ30に対する出力信号のYCbCr各値、またはRGBの各値を制御する構成も実現可能である。
 また、環境光センサ31の検出値の信号系と、出力信号の信号系が異なる場合、例えば、環境光センサ31の検出値がYUVであり、テレビ30に対する出力信号がRGB等、それぞれの処理する信号系が異なる場合は、既知の信号変換式を適用して信号変換処理を実行して制御を行うことが可能である。
 次に、本開示の画像表示制御装置、例えば図1に示すテレビ30が実行する画像表示制御の具体例について図2を参照して説明する。
 図2は、環境光センサ31の検出値を取得したテレビ30が、画像制御アプリケーションを実行して生成した出力画像信号を表示部に表示した画像表示例を示す図である。
 図2には2つの異なる環境光の下での画像表示例を示している。
 (a)は環境光が暗く、環境光の色が青色系である場合の出力画像例である。上述したYUV値で説明すると、
 輝度(Y)=低
 色差(U)=高
 色差(V)=低、
 環境光がこれらのYUV設定である場合の画像表示例である。
 一方、(b)は環境光が明るく、環境光の色が赤色系である場合の出力画像例である。上記のYUV値で説明すると、
 輝度(Y)=高
 色差(U)=低
 色差(V)=高、
 環境光がこれらのYUV設定である場合の画像表示例である。
 図2(a),(b)は、これらの異なるセンサ検出値が環境光センサ31から得られた場合の画像表示例である。
 テレビ30に表示された画像は水中の画像を示すシーンであり、環境光とシーンに応じてテレビ30に対する出力信号が調整される。
 図2(a),(b)の2つの異なる環境において、それぞれのテレビに表示される画像は、その明るさや色相が異なる設定に調整される。
 この出力信号の調整処理は、テレビ30において実行される画像制御アプリケーションに従って行われる。
 画像制御アプリケーションは、例えばコンテンツ(番組)に対応して設定される。すなわち、各コンテンツ(番組)固有の画像制御アプリケーションに従った出力制御が実行される。
 コンテンツ固有の画像制御アプリケーションを適用することで、各コンテンツ(番組)の制作者(オーサー)の意図を反映した出力信号制御が可能となる。
 コンテンツ固有の画像制御アプリケーションには、コンテンツに含まれるシーン単位、あるいはフレーム単位で、環境光に応じて輝度や色相制御を実行するプログラムが含まれる。
 例えば図2に示すように水中の画像シーンに対しては、例えば水中の青い色を強調するような出力信号の調整を、環境光に応じて実行する。
 具体的には、環境光センサ31の検出した環境光の検出値(YUV)に応じて、出力画像信号の青色が強調されるようにオリジナルの画像信号を変換して出力信号を生成する。
 なお、以下の説明においては、
 放送局11や、コンテンツサーバ12から送信されるコンテンツ(番組)に予め設定されたオリジナルの画像信号を、
 入力画像信号=(YUV)inと記載する。
 また、環境光センサ31の検出した環境光の検出値を、
 センサ検出信号=(YUV)snsと記載する。
 さらに、コンテンツ対応の画像制御アプリケーションを適用して生成された調整後の画像信号、すなわちテレビ30に出力する画像の画像信号を、
 出力画像信号=(YUV)outと記載する。
 なお、YUV個別の信号については、
 入力画像信号=Yin,Uin,Vin、
 センサ検出信号=Ysns,Usns,Vsns、
 出力画像信号=Yout,Uout,Vout、
 以上の記載とする。
  [2.本開示の画像表示制御装置の実行する処理のシーケンスについて]
 次に、本開示の画像表示制御装置の実行する処理のシーケンスについて説明する。
 本開示の画像表示制御装置、例えば図1に示すテレビ30は、図1に示す放送局11、またはコンテンツサーバ12から放送番組等のコンテンツを受信する。
 さらに、図1に示す放送局11、またはコンテンツサーバ12、またはアプリケーションサーバ20のいずれかから、コンテンツ対応の画像制御アプリケーションを受信し、受信した画像制御アプリケーションを適用してコンテンツの表示制御、具体的には輝度制御や色相制御を実行する。
 コンテンツ対応の画像制御アプリケーションを実行することで、図2を参照して説明したように、環境光およびコンテンツ内のシーン等に応じた出力信号の制御を実行する。
 図3に示すフローチャートは、本開示の画像表示制御装置、例えば図1に示すテレビ30の実行する処理シーケンスを説明するフローチャートである。
 画像表示制御装置は、プログラム実行機能を有するプロセッサ(CPU等)を有するデータ処理部において、記憶部に格納した画像制御アプリケーションやその他のプログラムに従って図3に示すフローに従った処理を実行する。
 以下、図3に示すフローの各ステップの処理について順次、説明する。
 なお、画像表示制御装置(例えばテレビ30)は、図3に示すフローの開始前に、予めコンテンツ(番組)対応の画像制御アプリケーションを受信し、記憶部に格納しているものとする。
  (ステップS101)
 画像表示制御装置のデータ処理部は、まず、ステップS101において、図1に示す放送局11、あるいはコンテンツサーバ12から受信する放送番組等のコンテンツの付属データであるコンテンツ対応メタデータを取得する。
 さらに、取得したメタデータに記録されたアプリ指定情報に基づいて、コンテンツ対応の画像制御アプリケーションを選択して起動する。
 前述したように、画像制御アプリケーションは、各番組等、各コンテンツ単位に設定される。
 画像表示制御装置(例えばテレビ30)は、各コンテンツに対応する画像制御アプリケーションを、予め放送局11、あるいはコンテンツサーバ12、またはアプリケーションサーバ20から取得し、記憶部に格納する。
 すなわち、画像表示制御装置(例えばテレビ30)の記憶部には、複数のコンテンツに対応する複数の画像制御アプリケーションが格納されている。
 従って、放送局11、あるいはコンテンツサーバ12から受信するコンテンツに対応した画像制御アプリケーションを選択する処理が必要となる。
 この選択処理のために、放送局11、あるいはコンテンツサーバ12から受信するコンテンツに併せて、あるいは先行して送信されるメタデータの記録情報を利用する。
 コンテンツ対応のメタデータの例を図4に示す。
 図4に示すようにコンテンツ対応のメタデータには、コンテンツに対応する画像制御アプリケーションの識別子(ID)が記録されている。
 画像表示制御装置(例えばテレビ30)のデータ処理部は、メタデータに記録された画像制御アプリケーションの識別子(ID)に基づいて、記憶部に格納済みの複数の画像制御アプリケーションから、表示予定のコンテンツに対応する画像制御アプリケーションを選択する。
 記憶部に格納された画像制御アプリケーションの各々にはIDが設定されており、コンテンツ対応のメタデータに設定された画像制御アプリケーションの識別子(ID)と同一のIDを持つアプリケーションを選択して起動する。
  (ステップS102)
 次に、画像表示制御装置のデータ処理部は、ステップS102において環境光センサ31のセンサ検出信号(環境光情報)を入力する。
 前述したように、環境光センサ31が取得する検出信号(環境光情報)は、例えば以下の各値によって構成される。
 輝度情報(Y)
 色差情報(U,V)
 これらの値が、環境光センサ31によって取得されデータ処理部に入力される。
  (ステップS103)
 次に、画像表示制御装置のデータ処理部は、ステップS103において、ステップS101で選択したコンテンツ対応の画像制御アプリケーションを適用して、センサ検出信号(環境光情報)に応じて出力画像信号を算出する。
 例えばコンテンツ(番組)単位、あるいはシーン単位、フレーム単位等、画像制御アプリケーションに規定された単位で設定された調整処理態様(信号変換アルゴリズム)に応じて調整された出力信号(Yout,Uout,Vout)を算出する。
 放送局11、あるいはコンテンツサーバ12から受信するコンテンツには、オリジナルの画像信号、すなわち、
 入力画像信号=(YUV)in
 が記録されている。
 画像表示制御装置のデータ処理部は、この入力画像信号=(YUV)inを、、画像制御アプリケーションに規定された信号変換アルゴリズムに従って変換して、
 出力画像信号=(YUV)out
 を生成する。
 この変換処理に際して、環境光センサ31の検出した検出値、すなわち、
 センサ検出信号=(YUV)sns
 このセンサ検出信号を考慮し、センサ検出値を利用した処理を実行する。
 なお、画像制御アプリケーションの具体例と具体的な処理例については後述する。
  (ステップS104)
 次に、画像表示制御装置のデータ処理部は、ステップS104において、ステップS103で生成した出力画像信号を表示部に出力する。
 これらの処理により、例えば先に図2を参照して説明したように、コンテンツ単位、またはシーン単位、あるいはフレーム単位で環境光に応じた出力信号調整処理が施され、調整後の画像信号が表示されることになる。
  [3.本開示の画像表示制御装置の適用する画像制御アプリケーションの例について]
 次に、画像表示制御装置が実行する画像制御アプリケーションの具体例について説明する。
 前述したように、画像制御アプリケーションは、個々の番組等、各コンテンツ単位に設定されるアプリケーションプログラムである。
 画像表示制御装置(例えばテレビ30)は、各コンテンツに対応する画像制御アプリケーションを予め放送局11、あるいはコンテンツサーバ12、またはアプリケーションサーバ20から取得し、記憶部に格納している。
 図5を参照して、画像表示制御装置が実行する画像制御アプリケーションの1つの構成例について説明する。
 図5には、
 シーン識別子、
 再生時間、
 適用する信号変換アルゴリズムID(識別子)
 これらの3つのデータの対応関係を示している。
 コンテンツ対応の画像制御アプリケーションは、例えばこの図5に示すように、コンテンツに含まれる各シーンについて、そのシーンの再生時間情報と、そのシーンに適用する信号変換アルゴリズムを記録している。なお、図には、アルゴリズムの代わりにアルゴリズムIDを示している。
 コンテンツ対応の画像制御アプリケーションは、例えば、
 (シーン1)=水中のシーン、
 (シーン2)=夕日が沈むシーン、
 このようなシーンの区分に応じて、これらのシーンの再生時間と適用する信号変換アルゴリズムを記録している。
 再生時間は、シーンの始まる時間情報(begin)と終了する時間情報(end)の規定情報である。
 なお、再生時間の代わりに画像フレーム識別子を記録する構成としてもよい。
 各シーンに適用する信号変換アルゴリズムは、
 入力画像信号(YUV)inから、
 出力画像信号(YUV)out、
 を算出するために適用する信号変換アルゴリズムである。
 なお、この信号変換アルゴリズムは、センサ検出信号(YUV)snsを考慮して出力画像信号(YUV)outを算出するアルゴリズムである。
 信号変換アルゴリズムの具体例については後述する。
 図6に示すフローチャートは、画像表示制御装置(テレビ30)において画像制御アプリケーションを適用して出力画像信号(YUV)outを算出する処理の1つのシーケンス例を説明するフローチャートである。
 先に説明した図3のフローのステップS102~S103において実行する処理の詳細シーケンスに相当する。
 図6に示すフローの各ステップの処理の詳細について説明する。
 なお、図6に示すフローの開始時点では、図3のフローのステップS101の処理、すなわちコンテンツ対応の画像制御アプリケーションの選択と、起動が実行済みであるとする。
 (ステップS201)
 まず、画像表示制御装置(テレビ30)のデータ処理部は、ステップS201において、起動したコンテンツ対応の画像制御アプリケーションから、表示予定のシーンに対応して規定された信号変換アルゴリズムを選択する。
 図5に示す設定の画像制御アプリケーションを適用する場合について説明する。
 (シーン1)を表示する場合、(シーン1)対応のID=001の信号変換アルゴリズムを選択する。
  (ステップS202)
 ステップS202において、画像表示制御装置(テレビ30)のデータ処理部は、環境光センサ31から、センサの検出したセンサ検出信号(YUV)snsを入力する。
  (ステップS203)
 次に、画像表示制御装置(テレビ30)のデータ処理部は、ステップS203において、選択したシーン対応の信号変換アルゴリズムに適用するパラメータを、ステップS202で取得したセンサ検出信号(YUV)snsに基づいて決定する。
 なお、このパラメータ決定処理のアルゴリズム(例えば関数F)は、画像制御アプリケーションに信号変換アルゴリズムとともに記録されている。
 具体例については後述する。
  (ステップS204)
 次に、画像表示制御装置(テレビ30)のデータ処理部は、ステップS204において、ステップS201で選択したシーン対応の信号変換アルゴリズムに、ステップS203で決定した変換パラメータを設定して、入力画像信号(YUV)inから、出力画像信号(YUV)outを算出する。
 シーンに対応する信号変換アルゴリズムの具体例と、信号変換アルゴリズムに適用するパラメータの例について図7を参照して説明する。
 図7には、
 シーン識別子、
 シーン対応の信号変換アルゴリズム、
 センサ検出信号(YUV)snsに基づいて決定するパラメータ
 これらの3つのデータの対応例を示している。
 (シーン1)に適用する信号変換アルゴリズム、すなわち、受信コンテンツの画像データのオリジナルの入力画像信号(YUV)inを変換して、テレビ30の表示部に出力する出力画像信号(YUV)outを算出する信号変換アルゴリズムは以下のアルゴリズムである。
 Yout=a×(Yin)+b
 Uout=c×(Uin)+d
 Vout=e×(Vin)+f
 上記アルゴリズム中のa~fは、センサ検出信号(YUV)snsに基づいて決定するパラメータである。
 図7の表の右端部のエントリには、「センサ検出信号(YUV)snsに基づいて決定するパラメータ」を示している。
 これらのパラメータは、センサ検出信号(YUV)snsに所定のアルゴリズム、例えば関数を適用して算出される。
 具体的には、例えば、以下の関数適用処理によってパラメータa~fを算出する。
 a=F11(Ysns)
 b=F12(Ysns)
 c=F13(Usns)
 d=F14(Usns)
 e=F15(Vsns)
 f=F16(Vsns)
 なお、これらの関数F11~F16は、画像制御アプリケーションに信号変換アルゴリズムとともに記録されている。
 画像表示制御装置(テレビ30)のデータ処理部は、先に説明した図7のフローにおけるステップS203において、上記の関数F11~F16を適用してパラメータa~fを算出する。
 さらに、ステップS204において、算出したパラメータa~fを、信号変換アルゴリズムに設定して出力画像信号(YUV)outを算出する。
 すなわち、
 Yout=a×(Yin)+b
 Uout=c×(Uin)+d
 Vout=e×(Vin)+f
 上記信号変換アルゴリズムにパラメータa~fと、入力画像信号(YUV)inを設定して出力画像信号(YUV)outを算出する。
 なお、信号変換アルゴリズムは、例えば、シーン単位、あるいはフレーム単位、あるいはコンテンツ単位で変更される。
 図7には、もう1つの(シーン2)に対応する信号変換アルゴリズムと、パラメータのエントリを示している。
 (シーン2)に適用する信号変換アルゴリズム、すなわち、受信コンテンツの画像データのオリジナルの入力画像信号(YUV)inを変換して、テレビ30の表示部に出力する出力画像信号(YUV)outを算出する信号変換アルゴリズムは以下のアルゴリズムである。
 Yout=a×(Yin)+b
 Uout=c×(Uin)+d(Vin)
 Vout=e×(Vin)+f(Uin)
 上記アルゴリズム中のa~fは、センサ検出信号(YUV)snsに基づいて決定するパラメータである。
 図7の表の右端部のエントリに示すように、これらのパラメータは、以下の関数適用処理によって算出する。
 a=F21(Ysns)
 b=F22(Ysns)
 c=F23(Usns)
 d=F24(Vsns)
 e=F25(Vsns)
 f=F26(Usns)
 なお、これらの関数F21~F26は、画像制御アプリケーションに信号変換アルゴリズムとともに記録されている。
 画像表示制御装置(テレビ30)のデータ処理部は、(シーン2)の画像表示を行う場合、先に説明した図7のフローにおけるステップS203において、上記の関数F21~F26を適用してパラメータa~fを算出する。
 さらに、ステップS204において、算出したパラメータa~fを、信号変換アルゴリズムに設定して出力画像信号(YUV)outを算出する。
 すなわち、
 Yout=a×(Yin)+b
 Uout=c×(Uin)+d(Vin)
 Vout=e×(Vin)+f(Uin)
 上記信号変換アルゴリズムにパラメータa~fと、入力画像信号(YUV)inを設定して出力画像信号(YUV)outを算出する。
 このように、コンテンツ対応の画像制御アプリケーションには、コンテンツに含まれるシーン毎に適用する信号変換アルゴリズムと、センサ検出値に応じて決定するパラメータが記録されている。
 画像表示制御装置は、シーン毎に適用する信号変換アルゴリズムとパラメータを逐次、変更して出力画像信号(YUV)outを算出する。
 このような処理によって、シーン、および環境光に応じて調整された画像信号が出力される。
 なお、図を参照して説明した例では、信号変換アルゴリズムとパラメータを変更する単位をシーン単位として設定して説明したが、これらの変換単位は、フレーム単位、コンテンツ(番組)単位等、様々な単位とすることが可能である。
  [4.その他の画像制御アプリケーションの例について]
 図5~図7を参照して、1つの画像制御アプリケーションの構成とその適用例について説明した。
 しかし、画像制御アプリケーションは、図5~図7を参照して説明した構成に限らず、様々な構成が可能である。
 以下、複数の画像制御アプリケーションの例について説明する。
 図8には、画像制御アプリケーション構成例(2)を示している。
 図8には、
 シーン識別子、
 再生時間、
 適用する信号変換アルゴリズムID(識別子)
 これらの3つのデータの対応関係を示している。
 図8に示す例は、先に説明した図5に示す例と異なり、
 [適用する信号変換アルゴリズムID(識別子)]を、
 Y,U,Vの各信号対応のアルゴリズムを設定可能な構成としている。
 YUV、それぞれの信号に応じて異なる信号変換アルゴリズムを選択適用する設定である。
 図9以下を参照して、YUV各信号に適用する信号変換アルゴリズムの例について説明する。
 図9、および図10には、Y信号に適用する信号変換アルゴリズムの4つの例を示している。
 図9(a)アルゴリズム1(アルゴリズムID=001)に示すグラフは、横軸が、コンテンツのオリジナルの画像信号、すなわち入力画像信号(YUV)in中の輝度信号Yinを示し、縦軸に信号変換処理によって生成する出力画像信号Youtを示している。
 グラフ中の実線は、
 入力輝度信号Yin=出力輝度信号Yout
 すなわち、信号変換アルゴリズムの適用によって生成される出力輝度信号Youtが入力輝度信号Yinに一致する設定であり、受信コンテンツに予め設定された画素値(入力値)が変更されずにそのまま出力される場合の例である。
 環境光センサ31によって検出される輝度Ysnsが、コンテンツ製作者の想定する標準的な輝度値である場合の設定に相当する。
 環境光センサ31によって検出される輝度Ysnsがコンテンツ製作者の想定する標準的な輝度値よりも高い場合、すなわち、環境光が明るい場合は、信号変換アルゴリズム1を適用した信号変換処理によって、入出力値の対応関係は、図9(a)に示す実線から、上方向の点線側に移動する。
 すなわち、入力画像信号の輝度信号Yinは、入力値よりも高い輝度値を持つ出力輝度信号Youtに変換される。
 輝度値の変化量は、入力輝度値が低い値であるほど、大きく設定される。
 なお、図に示す点線は、環境光センサ31によって検出される輝度Ysnsが標準輝度値より高いある1つの輝度値が計測された場合の入力輝度値と出力輝度値の対応関係を示す線である。
 環境光センサ31によって検出される輝度Ysnsが、さらに高い場合は、入力輝度値と出力輝度値の対応関係を示す点線は、さらに上側に移動し、低い場合は下側に移動する。
 一方、環境光センサ31によって検出される輝度Ysnsがコンテンツ製作者の想定する標準的な輝度値よりも低い場合、すなわち、環境光が暗い場合は、信号変換アルゴリズム1を適用した信号変換処理によって、入出力値の対応関係は、図9(a)に示す実線から、下方向の一点鎖線側に移動する。
 すなわち、入力画像信号の輝度信号Yinは、入力値よりも低い輝度値を持つ出力輝度信号Youtに変換される。
 輝度値の変化量は、入力輝度値が高い値であるほど、大きく設定される。
 なお、図に示す一転鎖線は、環境光センサ31によって検出される輝度Ysnsが標準輝度値より低いある1つの輝度値が計測された場合の入力輝度値と出力輝度値の対応関係を示す線である。
 環境光センサ31によって検出される輝度Ysnsが、さらに低い場合は、入力輝度値と出力輝度値の対応関係を示す一転鎖線は、さらに下側に移動し、高い場合は上側に移動する。
 図9(b)アルゴリズム2(アルゴリズムID=002)に示すグラフも、横軸が、コンテンツのオリジナルの画像信号、すなわち入力画像信号(YUV)in中の輝度信号Yinを示し、縦軸に信号変換処理によって生成する出力画像信号Youtを示している。
 グラフ中の実線は、
 入力輝度信号Yin=出力輝度信号Yout
 すなわち、信号変換アルゴリズムの適用によって生成される出力輝度信号Youtが入力輝度信号Yinに一致する設定であり、受信コンテンツに予め設定された画素値(入力値)が変更されずにそのまま出力される場合の例である。
 環境光センサ31によって検出される輝度Ysnsが、コンテンツ製作者の想定する標準的な輝度値である場合の設定に相当する。
 環境光センサ31によって検出される輝度Ysnsがコンテンツ製作者の想定する標準的な輝度値よりも高い場合、すなわち、環境光が明るい場合は、信号変換アルゴリズム2を適用した信号変換処理によって、入出力値の対応関係は、図9(b)に示す実線から、上方向の湾曲形状の点線側に移動する。
 すなわち、入力画像信号の輝度信号Yinは、入力値よりも高い輝度値を持つ出力輝度信号Youtに変換される。
 輝度値の変化量は、入力輝度値が低い値であるほど、大きく設定される。
 なお、図に示す湾曲形状の点線は、環境光センサ31によって検出される輝度Ysnsが標準輝度値より高いある1つの輝度値が計測された場合の入力輝度値と出力輝度値の対応関係を示す線である。
 環境光センサ31によって検出される輝度Ysnsが、さらに高い場合は、入力輝度値と出力輝度値の対応関係を示す点線は、さらに上側に移動し、低い場合は下側に移動する。
 一方、環境光センサ31によって検出される輝度Ysnsがコンテンツ製作者の想定する標準的な輝度値よりも低い場合、すなわち、環境光が暗い場合は、信号変換アルゴリズム2を適用した信号変換処理によって、入出力値の対応関係は、図9(b)に示す実線から、下方向の湾曲形状の一点鎖線側に移動する。
 すなわち、入力画像信号の輝度信号Yinは、入力値よりも低い輝度値を持つ出力輝度信号Youtに変換される。
 輝度値の変化量は、入力輝度値が高い値であるほど、大きく設定される。
 なお、図に示す湾曲形状の一転鎖線は、環境光センサ31によって検出される輝度Ysnsが標準輝度値より低いある1つの輝度値が計測された場合の入力輝度値と出力輝度値の対応関係を示す線である。
 環境光センサ31によって検出される輝度Ysnsが、さらに低い場合は、入力輝度値と出力輝度値の対応関係を示す一転鎖線は、さらに下側に移動し、高い場合は上側に移動する。
 図10には、
 (c)アルゴリズム3(アルゴリズムID=003)
 (d)アルゴリズム4(アルゴリズムID=004)
 による輝度信号変換例を示している。
 それぞれのグラフにおいて実線、湾曲形状の点線、湾曲形状の一点鎖線は、それぞれ以下の設定における入力輝度値Yinと、出力輝度値Youtの対応関係を示している。
 実線=環境光センサ31によって検出される輝度Ysnsが、コンテンツ製作者の想定する標準的な輝度値である場合の設定、
 湾曲形状の点線=環境光センサ31によって検出される輝度Ysnsが、コンテンツ製作者の想定する標準的な輝度値より高い(明るい)場合の設定、
 湾曲形状の一点鎖線=環境光センサ31によって検出される輝度Ysnsが、コンテンツ製作者の想定する標準的な輝度値より低い(暗い)場合の設定、
 画像表示制御装置(テレビ30)は、例えば、コンテンツを構成するシーンに応じて、図9、図10に示す4つの信号変換アルゴリズのいずれかを適用して信号変換処理を実行し、出力画像信号の輝度値(Yout)を算出する。
 なお、図9、図10には4つの輝度信号変換アルゴリズムの設定例を示したが、これらは信号変換アルゴリズムの一部の例であり、この他にも様々な変換処理が適用可能である。
 図9、図10は、輝度信号(Y)についての変換アルゴリズムの例であるが、
 色差信号(U,V)についても、各信号対応の変換アルゴリズムが画像制御プログラムに規定され適用される。
 図11、図12には、色差信号Uに対して適用する信号変換アルゴリズムの例を示している。
 図11、図12には、
 (a)アルゴリズム1(アルゴリズムID=001)
 (b)アルゴリズム2(アルゴリズムID=002)
 (c)アルゴリズム3(アルゴリズムID=003)
 (d)アルゴリズム4(アルゴリズムID=004)
 による色差信号Uの変換例を示している。
 それぞれのグラフにおいて実線、湾曲形状の点線、湾曲形状の一点鎖線は、それぞれ以下の設定における入力色差信号値Uinと、出力色差信号値Uoutの対応関係を示している。
 実線=環境光センサ31によって検出される色差信号値Usnsが、コンテンツ製作者の想定する標準的な色差信号値である場合の設定、
 湾曲形状の点線=環境光センサ31によって検出される色差信号値Usnsが、コンテンツ製作者の想定する標準的な色差信号値より高い場合の設定、
 湾曲形状の一点鎖線=環境光センサ31によって検出される色差信号値Usnsが、コンテンツ製作者の想定する標準的な色差信号値より低い場合の設定、
 画像表示制御装置(テレビ30)は、例えば、コンテンツを構成するシーンに応じて、図11、図12に示す4つの信号変換アルゴリズのいずれかを適用して信号変換処理を実行し、出力画像信号の色差信号値(Uout)を算出する。
 なお、図11、図12には4つの輝度信号変換アルゴリズムの設定例を示したが、これらは信号変換アルゴリズムの一部の例であり、この他にも様々な変換処理が適用可能である。
 図13、図14には、色差信号Vに対して適用する信号変換アルゴリズムの例を示している。
 図13、図14には、
 (a)アルゴリズム1(アルゴリズムID=001)
 (b)アルゴリズム2(アルゴリズムID=002)
 (c)アルゴリズム3(アルゴリズムID=003)
 (d)アルゴリズム4(アルゴリズムID=004)
 による色差信号Uの変換例を示している。
 それぞれのグラフにおいて実線、湾曲形状の点線、湾曲形状の一点鎖線は、それぞれ以下の設定における入力色差信号値Vinと、出力色差信号値Voutの対応関係を示している。
 実線=環境光センサ31によって検出される色差信号値Vsnsが、コンテンツ製作者の想定する標準的な色差信号値である場合の設定、
 湾曲形状の点線=環境光センサ31によって検出される色差信号値Vsnsが、コンテンツ製作者の想定する標準的な色差信号値より高い場合の設定、
 湾曲形状の一点鎖線=環境光センサ31によって検出される色差信号値Vsnsが、コンテンツ製作者の想定する標準的な色差信号値より低い場合の設定、
 画像表示制御装置(テレビ30)は、例えば、コンテンツを構成するシーンに応じて、図13、図14に示す4つの信号変換アルゴリズのいずれかを適用して信号変換処理を実行し、出力画像信号の色差信号値(Vout)を算出する。
 なお、図13、図14には4つの輝度信号変換アルゴリズムの設定例を示したが、これらは信号変換アルゴリズムの一部の例であり、この他にも様々な変換処理が適用可能である。
 さらに、その他の画像制御アプリケーションの構成例について、図15、図16、図17を参照して説明する。
 上述した実施例では、出力画像信号のYUVの各値を、直接制御する構成としていたが、このような出力信号の制御に限らず、例えば、以下のような出力信号調整処理を行なう構成としてもよい。
 (a)シーンおよび環境光に応じて異なるホワイトバランス調整処理を実行する。
 (b)シーンおよび環境光に応じて異なるガンマ補正処理を実行する。
 (c)シーンおよび環境光に応じて異なる色温度調整処理を実行する。
 図15に示す画像制御アプリケーションは、
 「(a)シーンおよび環境光に応じて異なるホワイトバランス調整処理を実行する」アプリケーションの構成例を示している。
 図15には、
 シーン識別子、
 再生時間、
 適用する信号変換アルゴリズムID(識別子)
 これらの3つのデータの対応関係を示している。
 これにらの対応関係は先に図5を参照して説明した画像制御アプリケーション(1)と同様である。
 ただし、図15に示す画像制御アプリケーション(3)に示すエントリ、
 「適用する信号変換アルゴリズムID(識別子)」
 は、ホワイトバランス(WB)調整処理アルゴリズム指定情報として設定されている。
 すなわち、画像制御アプリケーションは、シーンの区分に応じて、これらのシーンの再生時間と適用する信号変換アルゴリズムとしてホワイトバランス(WB)調整処理アルゴリズム、またはその指定情報を記録した構成を有する。
 再生時間は、シーンの始まる時間情報(begin)と終了する時間情報(end)を規定している。
 なお、再生時間の代わりに画像フレーム識別子を記録する構成としてもよい。
 本例において、各シーンに適用する信号変換アルゴリズムは、ホワイトバランス調整処理アルゴリズムである。
 このホワイトバランス調整処理アルゴリズムがシーンに応じて異なる設定になる。
 また、ホワイトバランス調整処理アルゴリズムに適用するパラメータは、環境光センサ31の取得したセンサ検出値に応じて決定する。
 シーン対応のホワイトバランス調整処理アルゴリズムと、各ホワイトバランス調整処理アルゴリズムに適用するパラメータの決定アルゴリズム(例えば関数F)が、コンテンツ対応の画像制御アプリケーションに記録されている。
 画像表示制御装置(テレビ30)は、各シーンの表示処理を実行する際に、シーン対応のホワイトバランス調整処理アルゴリズムを選択し、選択したシーン対応のホワイトバランス調整処理アルゴリズムに適用するパラメータを、センサ検出値に基づいて算出する。
 さらに、算出したパラメータをシーン対応のホワイトバランス調整処理アルゴリズムに適用して出力画像のホワイトバランス調整を実行して出力画像を生成して表示する。
 このような処理を行なうことで、シーン、および環境光に応じて異なるホワイトバランス調整が実行され、コンテンツ製作者の意図に添ったホワイトバランス調整のなされた画像を表示することが可能となる。
 次に、図16を参照して、「(b)シーンおよび環境光に応じて異なるガンマ補正処理を実行する」画像制御アプリケーションについて説明する。
 図16に示す画像制御アプリケーションは、
 「(b)シーンおよび環境光に応じて異なるガンマ補正処理を実行する」アプリケーションの構成例を示している。
 図16には、
 シーン識別子、
 再生時間、
 適用する信号変換アルゴリズムID(識別子)
 これらの3つのデータの対応関係を示している。
 これにらの対応関係は先に図5を参照して説明した画像制御アプリケーション(1)と同様である。
 ただし、図16に示す画像制御アプリケーション(3)に示すエントリ、
 「適用する信号変換アルゴリズムID(識別子)」
 は、ガンマ補正処理アルゴリズム指定情報として設定されている。
 すなわち、画像制御アプリケーションは、シーンの区分に応じて、これらのシーンの再生時間と適用する信号変換アルゴリズムとしてガンマ補正処理アルゴリズム、またはその指定情報を記録した構成を有する。
 再生時間は、シーンの始まる時間情報(begin)と終了する時間情報(end)を規定している。
 なお、再生時間の代わりに画像フレーム識別子を記録する構成としてもよい。
 本例において、各シーンに適用する信号変換アルゴリズムは、ガンマ補正処理アルゴリズムである。
 このガンマ補正処理アルゴリズムがシーンに応じて異なる設定になる。
 また、ガンマ補正処理アルゴリズムに適用するパラメータは、環境光センサ31の取得したセンサ検出値に応じて決定する。
 シーン対応のガンマ補正処理アルゴリズムと、各ガンマ補正処理アルゴリズムに適用するパラメータの決定アルゴリズム(例えば関数F)が、コンテンツ対応の画像制御アプリケーションに記録されている。
 画像表示制御装置(テレビ30)は、各シーンの表示処理を実行する際に、シーン対応のガンマ補正処理アルゴリズムを選択し、選択したシーン対応のガンマ補正処理アルゴリズムに適用するパラメータを、センサ検出値に基づいて算出する。
 さらに、算出したパラメータをシーン対応のガンマ補正処理アルゴリズムに適用して出力画像のガンマ補正処理を実行して出力画像を生成して表示処理を実行する。
 このような処理を行なうことで、シーン、および環境光に応じて異なるガンマ補正処理が実行され、コンテンツ製作者の意図に添ったガンマ補正処理のなされた画像を表示することが可能となる。
 次に、図17を参照して、「(c)シーンおよび環境光に応じて異なる色温度調整処理を実行する」画像制御アプリケーションについて説明する。
 図16に示す画像制御アプリケーションは、
 「(b)シーンおよび環境光に応じて異なる色温度調整処理を実行する」アプリケーションの構成例を示している。
 図17には、
 シーン識別子、
 再生時間、
 適用する信号変換アルゴリズムID(識別子)
 これらの3つのデータの対応関係を示している。
 これにらの対応関係は先に図5を参照して説明した画像制御アプリケーション(1)と同様である。
 ただし、図17に示す画像制御アプリケーション(3)に示すエントリ、
 「適用する信号変換アルゴリズムID(識別子)」
 は、色温度調整処理アルゴリズム指定情報として設定されている。
 すなわち、画像制御アプリケーションは、シーンの区分に応じて、これらのシーンの再生時間と適用する信号変換アルゴリズムとして色温度調整処理アルゴリズム、またはその指定情報を記録した構成を有する。
 再生時間は、シーンの始まる時間情報(begin)と終了する時間情報(end)を規定している。
 なお、再生時間の代わりに画像フレーム識別子を記録する構成としてもよい。
 本例において、各シーンに適用する信号変換アルゴリズムは、色温度調整処理アルゴリズムである。
 この色温度調整処理アルゴリズムがシーンに応じて異なる設定になる。
 また、色温度調整処理アルゴリズムに適用するパラメータは、環境光センサ31の取得したセンサ検出値に応じて決定する。
 シーン対応の色温度調整処理アルゴリズムと、各色温度調整処理アルゴリズムに適用するパラメータの決定アルゴリズム(例えば関数F)が、コンテンツ対応の画像制御アプリケーションに記録されている。
 画像表示制御装置(テレビ30)は、各シーンの表示処理を実行する際に、シーン対応の色温度調整処理アルゴリズムを選択し、選択したシーン対応の色温度調整処理アルゴリズムに適用するパラメータを、センサ検出値に基づいて算出する。
 さらに、算出したパラメータをシーン対応の色温度調整処理アルゴリズムに適用して出力画像の色温度調整処理を実行して出力画像を生成して表示処理を実行する。
 このような処理を行なうことで、シーン、および環境光に応じて異なる色温度調整処理が実行され、コンテンツ製作者の意図に添った色温度調整処理のなされた画像を表示することが可能となる。
 なお、画像制御アプリケーションの例について複数説明したが、上述の様々なアプリケーションを組み合わせた構成を持つアプリケーションを設定して適用する構成も可能である。
  [5.装置の構成例について]
 次に、図1に示すコンテンツサーバ12、あるいはアプリケーションサーバ20等の送信装置、および図1に示すテレビ30等の画像表示制御装置の装置構成例について、図18、図19を参照して説明する。
 図18には、コンテンツサーバ12、あるいはアプリケーションサーバ20等の送信装置であるサーバ150と、画像表示制御装置170の構成例を示している。
 サーバ150は、データ処理部151、通信部152、記憶部153を有する。
 画像表示制御装置170は、データ処理部171、通信部172、記憶部173、入力部174、出力部175、センサ176を有する。
 サーバ150のデータ処理部151は、番組等のコンテンツ、あるいはコンテンツ対応の画像制御アプリケーションの生成や送信のための各種のデータ処理を実行する。例えばコンテンツ構成データの生成、コンテンツ対応のメタデータの生成、コンテンツ対応の画像制御アプリケーションファイルの生成、さらに、これら生成データの送信制御を行う。
 通信部152は、データ処理部151の生成したコンテンツ、メタデータ、画像制御アプリケーションの送信処理などを行う。
 記憶部153は送信対象とするコンテンツ、メタデータ、画像制御アプリケーションなどを格納する。さらに、記憶部153は、データ処理部151の実行するデータ処理のワークエリアとして利用され、また各種パラメータの記憶領域としても利用される。
 一方、画像表示制御装置170は、データ処理部171、通信部172、記憶部173、入力部174、出力部175、センサ176を有する。
 通信部172は、放送局やサーバから送信されるデータ、例えば番組等のコンテンツ、メタデータ、画像制御アプリケーション等を受信する。
 データ処理部171は、受信コンテンツの出力制御等を実行する。
 具体的には、画像制御アプリケーションを実行して、センサ176の検出した環境光情報に基づいて出力画像の制御を実行する。
 ユーザの指示コマンド、例えばコンテンツ指定コマンド等は入力部174を介して入力される。
 コンテンツは表示部やスピーカ等の出力部175に出力される。
 記憶部173には、受信コンテンツやメタデータ、画像制御アプリケーションファイルなどが格納される。
 さらに、記憶部173は、データ処理部171の実行するデータ処理のワークエリアとして利用され、また各種パラメータの記憶領域としても利用される。
 センサ176は、環境光の輝度や色相情報、例えば環境光のYUVの各値を検出する。
 図19は、画像表示制御装置170として適用可能な通信装置のハードウェア構成例を示している。
 画像表示制御装置は、図1に示すようにテレビ30によって構成可能である。だし、アプリケーションプログラムを実行可能なCPU等を備えたデータ処理部を有することが必要である。
 なお、画像表示制御装置はテレビ等の表示部を備えない構成としてもよい。例えば接続表示装置に対して画像信号を出力可能な装置、具体的には、例えばディスク再生装置や、サーバ装置、PC等の情報処理装置によって構成することも可能である。
 図19に示す構成は、上述した実施例を実行するための機能を備えた画像表示制御装置の1つのハードウェア構成例を示している。
 図19に示す構成について説明する。
 CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
 CPU201はバス204を介して入出力インタフェース205に接続され、入出力インタフェース205には、各種スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部207に出力する。
 入出力インタフェース205に接続されている記憶部208は、例えばハードディスク等からなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部、さらに放送波の送受信部として機能し、外部の装置と通信する。
 センサ210は、図1に示すテレビ30に備えられた環境光センサ31に対応する。環境光の案軽さや色相、例えばYUVの各値を取得する。
 入出力インタフェース205に接続されているドライブ221は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア222を駆動し、データの記録あるいは読み取りを実行する。
  [6.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 表示部に出力する画像信号の制御を実行するデータ処理部を有し、
 前記データ処理部は、
 前記表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する構成であり、
 前記表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、
 前記センサ検出信号を適用して前記コンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する画像表示制御装置。
 (2) 前記表示制御アプリケーションは、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の信号変換アルゴリズムを記録した構成を有し、
 前記データ処理部は、
 前記表示制御アプリケーションに規定された画像単位で、異なる信号変換アルゴリズムを適用した信号変換処理を実行する(1)に記載の画像表示制御装置。
 (3) 前記データ処理部は、
 前記コンテンツオリジナルの入力画像信号に含まれる輝度信号および色差信号の少なくともいずれかの信号に対して、
 コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なる信号変換処理を実行して出力画像信号を構成する輝度信号または色差信号を生成する(1)または(2)に記載の画像表示制御装置。
 (4) 前記データ処理部は、
 前記コンテンツオリジナルの入力画像信号に対して、
 コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なるホワイトバランス調整処理、またはガンマ補正処理、または色温度調整処理の少なくともいずれかの処理を実行して出力画像信号を生成する(1)~(3)いずれかに記載の画像表示制御装置。
 (5) 前記表示制御アプリケーションは、
 コンテンツの再生時間情報と各再生時間に対応する画像信号に適用する信号変換アルゴリズムを規定したアプリケーションであり、
 前記データ処理部は、
 前記表示制御アプリケーションから、コンテンツの再生時間に対して規定された信号変換アルゴリズムを、順次選択適用して出力画像信号を生成する(1)~(4)いずれかに記載の画像表示制御装置。
 (6) 前記信号変換アルゴリズムは、前記センサ検出信号に応じて変換態様が変更されるアルゴリズムであり、
 前記データ処理部は、
 前記センサ検出信号に応じた異なる信号変換処理によって、環境光に応じて異なる出力画像信号を生成する(1)~(5)いずれかに記載の画像表示制御装置。
 (7) 前記データ処理部は、
 前記センサ検出信号に基づくパラメータを算出し、
 算出したパラメータを前記信号変換アルゴリズムに適用して、環境光に応じて異なる出力画像信号を生成する(1)~(6)いずれかに記載の画像表示制御装置。
 (8) 前記センサ検出信号は、輝度信号と色差信号を含み、
 前記データ処理部は、
 前記センサ検出信号に含まれる輝度信号と色差信号に基づくパラメータを算出し、
 算出したパラメータを前記信号変換アルゴリズムに適用して、環境光に応じて異なる出力画像信号を生成する(1)~(7)いずれかに記載の画像表示制御装置。
 (9) 表示部に表示するコンテンツと、該コンテンツに対応する表示制御アプリケーションを、通信部を介して送信するデータ処理部を有し、
 前記表示制御アプリケーションは、
 表示部周囲の環境光情報を取得するセンサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理によって出力画像信号を生成させるプログラムを記録したアプリケーションである送信装置。
 (10) 前記表示制御アプリケーションは、
 前記コンテンツオリジナルの入力画像信号に含まれる輝度信号および色差信号の少なくともいずれかの信号に対して、
 コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なる信号変換処理を実行して出力画像信号を構成する輝度信号または色差信号を生成させるプログラムを記録したアプリケーションである(9)に記載の送信装置。
 (11) 前記表示制御アプリケーションは、
 前記コンテンツオリジナルの入力画像信号に対して、
 コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なるホワイトバランス調整処理、またはガンマ補正処理、または色温度調整処理の少なくともいずれかの処理を実行して出力画像信号を生成させるプログラムを記録したアプリケーションである(9)または(10)に記載の送信装置。
 (12) 画像表示制御装置において実行する画像表示制御方法であり、
 前記画像表示制御装置は、表示部に出力する画像信号の制御を実行するデータ処理部を有し、
 前記データ処理部は、
 前記表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する処理を実行し、
 前記出力画像信号の生成処理において、
 前記表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、
 前記センサ検出信号を適用して前記コンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する画像表示制御方法。
 (13) 画像表示制御装置において出力画像信号生成処理を実行させるプログラムであり、
 前記プログラムは、表示部に表示するコンテンツ対応の表示制御アプリケーションであり、
 表示部の周囲の環境光情報であるセンサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成するプログラム。
 なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、コンテンツ単位、またはシーン、あるいはフレーム単位で環境光に応じて信号変換処理を実行して出力画像を生成する装置、および方法が実現される。
 具体的には、表示部に出力する画像信号の制御を実行するデータ処理部を有し、データ処理部は、表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する。データ処理部は、表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、センサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する。
 本構成により、コンテンツ単位、またはシーン、あるいはフレーム単位で環境光に応じて信号変換処理を実行して出力画像を生成する装置、および方法が実現される。
  11 放送局
  12 コンテンツサーバ
  20 アプリケーションサーバ
  30 テレビ
  31 環境光センサ
 150 サーバ
 151 データ処理部
 152 通信部
 153 記憶部
 170 画像表示制御装置
 171 データ処理部
 172 通信部
 173 記憶部
 174 入力部
 175 出力部
 176 センサ
 201 CPU
 202 ROM
 203 RAM
 204 バス
 205 入出力インタフェース
 206 入力部
 207 出力部
 208 記憶部
 209 通信部
 210 センサ
 210 ドライブ
 211 リムーバブルメディア

Claims (13)

  1.  表示部に出力する画像信号の制御を実行するデータ処理部を有し、
     前記データ処理部は、
     前記表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する構成であり、
     前記表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、
     前記センサ検出信号を適用して前記コンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する画像表示制御装置。
  2.  前記表示制御アプリケーションは、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の信号変換アルゴリズムを記録した構成を有し、
     前記データ処理部は、
     前記表示制御アプリケーションに規定された画像単位で、異なる信号変換アルゴリズムを適用した信号変換処理を実行する請求項1に記載の画像表示制御装置。
  3.  前記データ処理部は、
     前記コンテンツオリジナルの入力画像信号に含まれる輝度信号および色差信号の少なくともいずれかの信号に対して、
     コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なる信号変換処理を実行して出力画像信号を構成する輝度信号または色差信号を生成する請求項1に記載の画像表示制御装置。
  4.  前記データ処理部は、
     前記コンテンツオリジナルの入力画像信号に対して、
     コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なるホワイトバランス調整処理、またはガンマ補正処理、または色温度調整処理の少なくともいずれかの処理を実行して出力画像信号を生成する請求項1に記載の画像表示制御装置。
  5.  前記表示制御アプリケーションは、
     コンテンツの再生時間情報と各再生時間に対応する画像信号に適用する信号変換アルゴリズムを規定したアプリケーションであり、
     前記データ処理部は、
     前記表示制御アプリケーションから、コンテンツの再生時間に対して規定された信号変換アルゴリズムを、順次選択適用して出力画像信号を生成する請求項1に記載の画像表示制御装置。
  6.  前記信号変換アルゴリズムは、前記センサ検出信号に応じて変換態様が変更されるアルゴリズムであり、
     前記データ処理部は、
     前記センサ検出信号に応じた異なる信号変換処理によって、環境光に応じて異なる出力画像信号を生成する請求項1に記載の画像表示制御装置。
  7.  前記データ処理部は、
     前記センサ検出信号に基づくパラメータを算出し、
     算出したパラメータを前記信号変換アルゴリズムに適用して、環境光に応じて異なる出力画像信号を生成する請求項1に記載の画像表示制御装置。
  8.  前記センサ検出信号は、輝度信号と色差信号を含み、
     前記データ処理部は、
     前記センサ検出信号に含まれる輝度信号と色差信号に基づくパラメータを算出し、
     算出したパラメータを前記信号変換アルゴリズムに適用して、環境光に応じて異なる出力画像信号を生成する請求項1に記載の画像表示制御装置。
  9.  表示部に表示するコンテンツと、該コンテンツに対応する表示制御アプリケーションを、通信部を介して送信するデータ処理部を有し、
     前記表示制御アプリケーションは、
     表示部周囲の環境光情報を取得するセンサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理によって出力画像信号を生成させるプログラムを記録したアプリケーションである送信装置。
  10.  前記表示制御アプリケーションは、
     前記コンテンツオリジナルの入力画像信号に含まれる輝度信号および色差信号の少なくともいずれかの信号に対して、
     コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なる信号変換処理を実行して出力画像信号を構成する輝度信号または色差信号を生成させるプログラムを記録したアプリケーションである請求項9に記載の送信装置。
  11.  前記表示制御アプリケーションは、
     前記コンテンツオリジナルの入力画像信号に対して、
     コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位で、異なるホワイトバランス調整処理、またはガンマ補正処理、または色温度調整処理の少なくともいずれかの処理を実行して出力画像信号を生成させるプログラムを記録したアプリケーションである請求項9に記載の送信装置。
  12.  画像表示制御装置において実行する画像表示制御方法であり、
     前記画像表示制御装置は、表示部に出力する画像信号の制御を実行するデータ処理部を有し、
     前記データ処理部は、
     前記表示部に表示するコンテンツ対応の表示制御アプリケーションを実行して、出力画像信号を生成する処理を実行し、
     前記出力画像信号の生成処理において、
     前記表示部の周囲の環境光情報を取得するセンサからセンサ検出信号を入力し、
     前記センサ検出信号を適用して前記コンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成する画像表示制御方法。
  13.  画像表示制御装置において出力画像信号生成処理を実行させるプログラムであり、
     前記プログラムは、表示部に表示するコンテンツ対応の表示制御アプリケーションであり、
     表示部の周囲の環境光情報であるセンサ検出信号を適用してコンテンツオリジナルの入力画像信号に対して、コンテンツ単位、またはコンテンツを構成するシーン、あるいはフレーム単位の異なる信号変換アルゴリズムを適用した信号変換処理により出力画像信号を生成するプログラム。
PCT/JP2015/072350 2014-09-22 2015-08-06 画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム WO2016047287A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016550020A JP6711275B2 (ja) 2014-09-22 2015-08-06 画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム
EP15844266.5A EP3200184A4 (en) 2014-09-22 2015-08-06 Image display control device, transmitter, image display control method, and program
US15/510,727 US10021338B2 (en) 2014-09-22 2015-08-06 Image display control apparatus, transmission apparatus, and image display control method
CN201580049310.5A CN107077824B (zh) 2014-09-22 2015-08-06 图像显示控制设备、传输设备、图像显示控制方法
US16/000,527 US10939064B2 (en) 2014-09-22 2018-06-05 Image display control apparatus, transmission apparatus, image display control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-192181 2014-09-22
JP2014192181 2014-09-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/510,727 A-371-Of-International US10021338B2 (en) 2014-09-22 2015-08-06 Image display control apparatus, transmission apparatus, and image display control method
US16/000,527 Continuation US10939064B2 (en) 2014-09-22 2018-06-05 Image display control apparatus, transmission apparatus, image display control method, and program

Publications (1)

Publication Number Publication Date
WO2016047287A1 true WO2016047287A1 (ja) 2016-03-31

Family

ID=55580819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/072350 WO2016047287A1 (ja) 2014-09-22 2015-08-06 画像表示制御装置、送信装置、および画像表示制御方法、並びにプログラム

Country Status (5)

Country Link
US (2) US10021338B2 (ja)
EP (1) EP3200184A4 (ja)
JP (1) JP6711275B2 (ja)
CN (1) CN107077824B (ja)
WO (1) WO2016047287A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157132A (ja) * 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 プロジェクタおよび画像投影方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10217438B2 (en) * 2014-05-30 2019-02-26 Apple Inc. User interface and method for directly setting display white point
EP3200184A4 (en) * 2014-09-22 2018-04-25 Sony Corporation Image display control device, transmitter, image display control method, and program
US10692467B2 (en) * 2018-05-04 2020-06-23 Microsoft Technology Licensing, Llc Automatic application of mapping functions to video signals based on inferred parameters

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332439A (ja) * 1993-05-26 1994-12-02 Hitachi Ltd マルチ画面表示装置
JP2003324756A (ja) * 2002-04-25 2003-11-14 Samsung Electronics Co Ltd 映像コンテンツのメタデータを用いた色温度変換システム及びその方法
JP2005210325A (ja) * 2004-01-21 2005-08-04 Toyota Infotechnology Center Co Ltd 配色変換プログラムおよび記録媒体
JP2007057599A (ja) * 2005-08-22 2007-03-08 Sony Corp 画像信号処理装置、画像信号処理方法及び画像信号処理システム
JP2009229952A (ja) * 2008-03-25 2009-10-08 Mitsubishi Electric Corp 画像表示装置
JP2011250356A (ja) * 2010-05-31 2011-12-08 Sony Corp 情報処理装置、情報処理方法、コンピュータプログラム、および情報処理システム
JP2014183596A (ja) * 2013-03-20 2014-09-29 Samsung Electronics Co Ltd 収集された情報に基づいた映像処理方法及びその装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344761A (ja) 2001-03-16 2002-11-29 Seiko Epson Corp 環境適応型の画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2003323610A (ja) * 2002-03-01 2003-11-14 Nec Corp プロジェクタの色補正方法および色補正装置
JP2005236520A (ja) 2004-02-18 2005-09-02 Sanyo Electric Co Ltd ディスプレイ装置
US7744216B1 (en) * 2006-01-06 2010-06-29 Lockheed Martin Corporation Display system intensity adjustment based on pupil dilation
US8296803B2 (en) * 2006-08-10 2012-10-23 Panasonic Corporation Program recommendation system, program view terminal, program view program, program view method, program recommendation server, program recommendation program, and program recommendation method
CN101682962A (zh) * 2007-05-22 2010-03-24 皇家飞利浦电子股份有限公司 用于显示器设备的环境照明系统以及这种环境照明系统的操作方法
US20110205259A1 (en) * 2008-10-28 2011-08-25 Pixtronix, Inc. System and method for selecting display modes
JP5257375B2 (ja) * 2009-03-13 2013-08-07 オムロン株式会社 画像処理装置および画像処理方法
US8537174B2 (en) * 2009-10-06 2013-09-17 Palm, Inc. Techniques for adaptive brightness control of a display
JP5651340B2 (ja) * 2010-01-22 2015-01-14 ミツミ電機株式会社 画質制御装置、画質制御方法、及び画質制御プログラム
US8786585B2 (en) 2010-02-22 2014-07-22 Dolby Laboratories Licensing Corporation System and method for adjusting display based on detected environment
JP5691289B2 (ja) * 2010-08-11 2015-04-01 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2012038239A (ja) * 2010-08-11 2012-02-23 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP5953687B2 (ja) * 2011-09-26 2016-07-20 ヤマハ株式会社 情報処理装置及びプログラム
US9392129B2 (en) * 2013-03-15 2016-07-12 John Castle Simmons Light management for image and data control
WO2015151747A1 (ja) * 2014-03-31 2015-10-08 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
CN106134189B (zh) * 2014-03-31 2019-03-01 富士胶片株式会社 图像处理装置、摄像装置、图像处理方法及程序
JP5901704B2 (ja) * 2014-06-30 2016-04-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
EP3200184A4 (en) * 2014-09-22 2018-04-25 Sony Corporation Image display control device, transmitter, image display control method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332439A (ja) * 1993-05-26 1994-12-02 Hitachi Ltd マルチ画面表示装置
JP2003324756A (ja) * 2002-04-25 2003-11-14 Samsung Electronics Co Ltd 映像コンテンツのメタデータを用いた色温度変換システム及びその方法
JP2005210325A (ja) * 2004-01-21 2005-08-04 Toyota Infotechnology Center Co Ltd 配色変換プログラムおよび記録媒体
JP2007057599A (ja) * 2005-08-22 2007-03-08 Sony Corp 画像信号処理装置、画像信号処理方法及び画像信号処理システム
JP2009229952A (ja) * 2008-03-25 2009-10-08 Mitsubishi Electric Corp 画像表示装置
JP2011250356A (ja) * 2010-05-31 2011-12-08 Sony Corp 情報処理装置、情報処理方法、コンピュータプログラム、および情報処理システム
JP2014183596A (ja) * 2013-03-20 2014-09-29 Samsung Electronics Co Ltd 収集された情報に基づいた映像処理方法及びその装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3200184A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157132A (ja) * 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 プロジェクタおよび画像投影方法
JP7394386B2 (ja) 2020-03-30 2023-12-08 パナソニックIpマネジメント株式会社 プロジェクタおよび画像投影方法

Also Published As

Publication number Publication date
EP3200184A1 (en) 2017-08-02
EP3200184A4 (en) 2018-04-25
US20180288357A1 (en) 2018-10-04
US10939064B2 (en) 2021-03-02
JPWO2016047287A1 (ja) 2017-06-29
CN107077824B (zh) 2020-11-03
US10021338B2 (en) 2018-07-10
CN107077824A (zh) 2017-08-18
JP6711275B2 (ja) 2020-06-17
US20170310922A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
JP7407373B2 (ja) 表示装置、表示方法、および、コンピュータプログラム
JP6430577B2 (ja) 画像のダイナミックレンジ変換のための装置及び方法
US9948884B2 (en) Converting method and converting apparatus for converting luminance value of an input video into a second luminance value
US10939064B2 (en) Image display control apparatus, transmission apparatus, image display control method, and program
JP6674150B2 (ja) ディスプレイ制御のためのビデオコンテンツを処理する装置及び方法
JP2016225965A (ja) 表示方法および表示装置
JP2016530778A (ja) コンテンツ提示管理のためのシステム及び方法
US10565694B2 (en) Image processing apparatus, image processing method, and program for reproducing tone of a high dynamic range (HDR) image
CN113240644B (zh) 高动态范围图像的显示处理方法及相关装置
EP3566429A1 (en) Color image modification with approximation function
JP2016534603A (ja) 色調整モニター、色調整システム及び色調整方法
JP7431595B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6948173B2 (ja) 画像処理装置及び方法、撮像装置、及び、撮像システム
JP2010032920A (ja) 映像表示装置及び映像表示方法
JP2015139044A (ja) パラメータ調整装置、パラメータ調整方法、及び、プログラム
WO2024020356A1 (en) Multiple-intent composite image encoding and rendering
JP2016208430A (ja) 映像表示装置およびシステム
WO2018160847A1 (en) Color image modification with approximation function

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15844266

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016550020

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015844266

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015844266

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15510727

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE