WO2014024553A1 - 画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム - Google Patents

画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム Download PDF

Info

Publication number
WO2014024553A1
WO2014024553A1 PCT/JP2013/065450 JP2013065450W WO2014024553A1 WO 2014024553 A1 WO2014024553 A1 WO 2014024553A1 JP 2013065450 W JP2013065450 W JP 2013065450W WO 2014024553 A1 WO2014024553 A1 WO 2014024553A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
sub
feature amount
display mode
Prior art date
Application number
PCT/JP2013/065450
Other languages
English (en)
French (fr)
Inventor
順司 助野
山田 和彦
宣比古 山岸
賢司 南
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to EP13827920.3A priority Critical patent/EP2884741B1/en
Priority to US14/409,415 priority patent/US9830722B2/en
Priority to JP2014529336A priority patent/JP5885847B2/ja
Priority to EP17173436.1A priority patent/EP3244395B1/en
Publication of WO2014024553A1 publication Critical patent/WO2014024553A1/ja
Priority to HK15110903.8A priority patent/HK1210343A1/xx

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Definitions

  • the present invention relates to an image processing device, a display device, an image processing method, a display method, and an image processing program.
  • Patent Document 1 discloses a display method for generating and displaying display image data by combining image data that is graphic data with relatively high luminance and image data that is a natural image with relatively low luminance. Yes.
  • the maximum brightness of high brightness image data is adjusted by the feature amount of the low brightness image data, and then the adjusted high brightness image data and the low brightness image data are combined to display the display image data.
  • the luminance of the backlight is determined based on the feature amount of the display image data, and the display image data is adjusted in conjunction with the luminance of the backlight.
  • a main image for example, a graphic image or a character image such as a vehicle destination, stop, or transfer guidance
  • a sub-image for example, a natural image or an animation image such as an advertisement image
  • the present invention provides an image processing apparatus, a display apparatus, an image processing method, a display method, and an image processing apparatus that can display the main image and the sub-image at the same time or by switching according to the display mode.
  • An object of the present invention is to provide an image processing program.
  • An image processing apparatus is an image processing apparatus that generates display image data for displaying a main image and a sub-image at the same time or by switching, Main image data input means for receiving input of main image data representing the main image; Sub image data input means for receiving input of sub image data representing the sub image; Display mode acquisition means for acquiring display mode information indicating a display mode when displaying the main image and the sub-image; First feature amount calculating means for calculating a feature amount of main image data input to the main image data input means; A feature amount of sub-image data after resizing obtained by resizing the sub-image data input to the sub-image data input unit or the sub-image data according to display mode information acquired by the display mode acquisition unit.
  • a second feature amount calculating means for calculating; Based on the feature amount of the main image data calculated by the first feature amount calculation unit and the feature amount of the sub image data calculated by the second feature amount calculation unit, the sub-image data after the resizing Image quality adjustment means for adjusting image quality and generating adjusted sub-image data; In accordance with the display mode information acquired by the display mode acquisition means, the display image is obtained from the main image data input to the main image data input means and the adjusted sub-image data generated by the image quality adjustment means.
  • Display image data generation means for generating data, The image quality adjustment unit compares the calculated feature amount of the sub image data and the feature amount of the main image data with the difference between the feature amount of the adjusted sub image data and the feature amount of the main image data.
  • the image quality adjustment unit is configured to switch the contents to be subjected to the image quality adjustment when the image quality adjustment is performed for each content.
  • the feature amount of the main image data used for the image quality adjustment is updated.
  • Another image processing apparatus is an image processing apparatus that generates display image data for displaying a main image and a sub-image at the same time or by switching, Main image data input means for receiving input of main image data representing the main image; Sub image data input means for receiving input of sub image data representing the sub image; Display mode acquisition means for acquiring display mode information indicating a display mode when displaying the main image and the sub-image; A feature amount of sub-image data after resizing obtained by resizing the sub-image data input to the sub-image data input unit or the sub-image data according to display mode information acquired by the display mode acquisition unit.
  • the display image is obtained from the main image data input to the main image data input means and the adjusted sub-image data generated by the image quality adjustment means.
  • the image quality adjusting means is configured to display a sub-image that displays only a sub-image from a simultaneous display mode that displays a main image and a sub-image at the same time or a main image display mode that displays only the main image.
  • the display mode before the switching calculated by the third feature amount calculating unit is supported.
  • a feature amount of the adjusted sub-image data based on a reference feature amount obtained from the feature amount of the display image data to be compared with a difference between the calculated feature amount of the sub-image data and the reference feature amount. And adjusting the image quality so that the difference between the reference feature amount and the reference feature amount is small,
  • the reference feature amount is a feature amount that gradually changes from a feature amount of the display image data to a preset value.
  • a display device includes any one of the image processing devices described above and a display unit that displays an image based on the display image data generated by the display image data generation unit.
  • An image processing method is an image processing method for generating display image data for displaying a main image and a sub image simultaneously or by switching, A main image data input step for receiving input of main image data representing the main image; A sub image data input step for receiving input of sub image data representing the sub image; A display mode acquisition step of acquiring display mode information indicating a display mode when displaying the main image and the sub-image; A first feature amount calculating step for calculating a feature amount of the main image data input in the main image data input step; A feature amount of the sub-image data after resizing obtained by resizing the sub-image data input in the sub-image data input step or the sub-image data according to the display mode information acquired in the display mode acquisition step.
  • a second feature amount calculating step to calculate; Based on the feature amount of the main image data calculated in the first feature amount calculation step and the feature amount of the sub image data calculated in the second feature amount calculation step, the sub-image data after the resizing An image quality adjustment step for adjusting image quality and generating adjusted sub-image data; In accordance with the display mode information acquired in the display mode acquisition step, the display image is obtained from the main image data input in the main image data input step and the adjusted sub image data generated in the image quality adjustment step.
  • a display image data generation step for generating data In the image quality adjustment step, the feature amount of the adjusted sub image data and the feature amount of the main image data are compared with the difference between the calculated feature amount of the sub image data and the feature amount of the main image data.
  • the image quality adjustment step is performed at the timing of switching of the contents targeted for image quality adjustment when performing the image quality adjustment for each content.
  • the feature amount of the main image data used for the image quality adjustment is updated.
  • Another image processing method is an image processing method for generating display image data for displaying a main image and a sub image simultaneously or by switching, A main image data input step for receiving input of main image data representing the main image; A sub image data input step for receiving input of sub image data representing the sub image; A display mode acquisition step of acquiring display mode information indicating a display mode when displaying the main image and the sub-image; A feature amount of sub-image data input in the sub-image data input step or sub-image data obtained by resizing the sub-image data in accordance with display mode information acquired in the display mode acquisition step is calculated.
  • An image quality adjustment step for performing image quality adjustment on the resized sub image data and generating adjusted sub image data;
  • the display image is obtained from the main image data input in the main image data input step and the adjusted sub image data generated in the image quality adjustment step.
  • a display image data generation step for generating data;
  • a third feature amount calculating step for calculating a feature amount of the display image data generated in the display image data generating step,
  • the display mode indicated by the display mode information is changed from a simultaneous display mode in which a main image and a sub image are displayed simultaneously or a main image display mode in which only the main image is displayed to a sub image in which only the sub image is displayed.
  • the display mode before the switching calculated in the third feature amount calculating step is supported.
  • a feature amount of the adjusted sub-image data based on a reference feature amount obtained from the feature amount of the display image data to be compared with a difference between the calculated feature amount of the sub-image data and the reference feature amount. And adjusting the image quality so that the difference between the reference feature amount and the reference feature amount is small,
  • the reference feature amount is a feature amount that gradually changes from a feature amount of the display image data to a preset value.
  • the display method according to the present invention includes any one of the image processing methods described above and a display step for displaying an image based on the display image data generated in the display image data generation step.
  • An image processing program is an image processing program for generating display image data for displaying a main image and a sub image simultaneously or by switching, A main image data input step for receiving input of main image data representing the main image; A sub image data input step for receiving input of sub image data representing the sub image; A display mode acquisition step of acquiring display mode information indicating a display mode when displaying the main image and the sub-image; A first feature amount calculating step for calculating a feature amount of the main image data input in the main image data input step; A feature amount of sub-image data input in the sub-image data input step or sub-image data obtained by resizing the sub-image data in accordance with display mode information acquired in the display mode acquisition step is calculated.
  • the image quality adjustment step is performed at the timing of switching of the contents targeted for image quality adjustment when performing the image quality adjustment for each content.
  • the feature amount of the main image data used for the image quality adjustment is updated.
  • Another image processing program is an image processing program for generating display image data for displaying a main image and a sub image simultaneously or by switching, A main image data input step for receiving input of main image data representing the main image; A sub image data input step for receiving input of sub image data representing the sub image; A display mode acquisition step of acquiring display mode information indicating a display mode when displaying the main image and the sub-image; A feature amount of sub-image data input in the sub-image data input step or sub-image data obtained by resizing the sub-image data in accordance with display mode information acquired in the display mode acquisition step is calculated.
  • An image quality adjustment step for performing image quality adjustment on the resized sub image data and generating adjusted sub image data;
  • the display image is obtained from the main image data input in the main image data input step and the adjusted sub image data generated in the image quality adjustment step.
  • a display image data generation step for generating data;
  • a third feature amount calculating step for calculating a feature amount of the display image data generated in the display image data generating step;
  • the display mode indicated by the display mode information is changed from a simultaneous display mode in which a main image and a sub image are displayed simultaneously or a main image display mode in which only the main image is displayed to a sub image in which only the sub image is displayed.
  • the display mode before the switching calculated in the third feature amount calculating step is supported.
  • a feature amount of the adjusted sub-image data based on a reference feature amount obtained from the feature amount of the display image data to be compared with a difference between the calculated feature amount of the sub-image data and the reference feature amount. And adjusting the image quality so that the difference between the reference feature amount and the reference feature amount is small,
  • the reference feature amount is a feature amount that gradually changes from a feature amount of the display image data to a preset value.
  • the present invention when the main image and the sub-image are displayed at the same time or by switching, it is possible to display with appropriate image quality according to the display mode.
  • FIG. 1 is a block diagram illustrating a configuration of a display device according to Embodiment 1.
  • FIG. (A)-(c) is a figure which shows the example of a display mode.
  • (A)-(c) is a figure which shows the other example of a display mode.
  • 3 is a block diagram illustrating a configuration of a sub-image data adjustment unit according to Embodiment 1.
  • FIG. (A) And (b) is a figure which shows an example of the image and brightness
  • FIG. 3 is a flowchart illustrating an operation of the display device according to the first embodiment.
  • FIG. 6 is a block diagram illustrating a configuration of a display device according to Embodiment 2.
  • FIG. 10 is a block diagram illustrating a configuration of a sub-image data adjustment unit according to Embodiment 2.
  • FIG. (A)-(f) is a figure for demonstrating an example of image quality adjustment in Embodiment 2.
  • FIG. 10 is a block diagram illustrating a configuration of a sub-image data adjustment unit according to Embodiment 3.
  • FIG. 10 is a block diagram illustrating a configuration of a display device according to a fourth embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of a sub-image data adjustment unit in a fourth embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of a display device according to a fifth embodiment.
  • FIG. 1 is a block diagram showing a configuration of display device 100 according to the first embodiment.
  • the display device 100 is a device that displays a main image and a sub image simultaneously or by switching.
  • the main image is a main image among images corresponding to the main purpose of the display device 100 or images displayed on the display device 100
  • the sub-image is an image or main image other than the main image. It is an accompanying image.
  • the main image is a guide image for guiding users of public transportation, for example, destinations of passenger transportation means such as vehicles (trains), buses, ships, airplanes, stops, transfers, etc. It is an image which shows the guidance information.
  • the sub-image is an image other than the guide image, for example, an advertisement image.
  • the main image is a graphic image or a character image, and is mainly a still image.
  • the sub-image is a natural image or an animation image, and is a moving image, a semi-moving image, or a still image.
  • the display device 100 is installed in public transportation such as a vehicle, a station, a bus or a bus stop, a ship or a port, an airplane or an airport, and provides guidance information such as a destination of the vehicle, a bus, a ship or an airplane, a stop or a transfer. In addition, advertisement images and other information are displayed.
  • the display device 100 includes an image processing unit 1 and a display unit 2.
  • the image processing unit 1 generates display image data for displaying the main image and the sub image simultaneously or by switching from the main image data representing the main image and the sub image data representing the sub image.
  • the display unit 2 is a liquid crystal display, for example, and displays a display image based on the display image data generated by the image processing unit 1.
  • the image processing unit 1 includes a main image data input unit 11, a sub image data input unit 12, a display mode acquisition unit 13, a first feature amount calculation unit 14, a sub image data adjustment unit 15, a display image data generation unit 16, and A display image data output unit 17 is provided.
  • the main image data input unit 11 is an input terminal, for example, and receives input of main image data.
  • the main image data is composed of image data of a plurality of contents arranged in time series.
  • the plurality of contents include, for example, Japanese notation contents and English notation contents for route display, neighborhood display, stop station guide, and transfer guide, and are arranged in time series so as to be switched and displayed at regular intervals. Is done.
  • Each content is composed of a plurality of frames arranged in time series.
  • the main image data input to the main image data input unit 11 is input to the first feature amount calculation unit 14 and the display image data generation unit 16.
  • the sub image data input unit 12 is an input terminal, for example, and receives input of sub image data.
  • the sub-image data is composed of image data of a plurality of contents arranged in time series.
  • the plurality of contents are, for example, advertisement images, and are arranged in time series so as to be displayed in order.
  • Each content is composed of a plurality of frames arranged in time series.
  • the sub-image data is, for example, ITU-T (International Telecommunication Union-Telecommunication sector) recommendation H.264. It is a moving image obtained by decoding encoded data such as 26x and ISO / IEC (International Organization for Standardization / International Technical Commission) MPEG (Moving Picture Experts Group).
  • the sub image data is not limited to a moving image, and may be a still image obtained by decoding encoded data such as JPEG (Joint Photographic Experts Group).
  • the sub image data input to the sub image data input unit 12 is input to the sub image data adjustment unit 15.
  • the display mode acquisition unit 13 acquires display mode information indicating a display mode when displaying the main image and the sub image.
  • the display mode acquisition unit 13 is an input terminal that receives input of display mode information from the outside.
  • the display mode acquisition unit 13 may generate display mode information by determining or selecting a display mode based on information such as the current time and the display schedule.
  • the display mode includes a main image display mode that displays only the main image of the main image and the sub image, a sub image display mode that displays only the sub image of the main image and the sub image, and a main image, There is a simultaneous display mode in which a sub-image is displayed simultaneously.
  • FIGS. 2A, 2B, and 2C illustrate display images in the main image display mode, the sub-image display mode, and the simultaneous display mode, respectively.
  • the display image in the main image display mode has a main image area (for example, a guide area where a guide image is displayed) Rm where the main image is displayed.
  • a main image area for example, a guide area where a guide image is displayed
  • the display image in the sub-image display mode has a sub-image area (for example, an advertisement area where an advertisement image is displayed) Rs where the sub-image is displayed.
  • the display image in the simultaneous display mode has a main image region Rm and a sub image region Rs.
  • the simultaneous display mode is, for example, a combined display mode in which a main image and a sub-image are combined and displayed.
  • FIG. 2C shows a display image in the combined display mode.
  • the display mode is not limited to the above.
  • a plurality of images may be arranged in the main image area, and the main image data may include image data of a plurality of images that are displayed simultaneously.
  • a plurality of images may be arranged in the sub-image area, and the sub-image data may include image data of a plurality of images that are displayed simultaneously.
  • the simultaneous display mode three images M1, M2, and M3 are displayed in the main image region Rm, and two images S1 and S2 are displayed in the sub-image region Rs.
  • the main image area may be divided into a plurality of areas, and the main image may be displayed divided into a plurality of areas.
  • the sub image area may be divided into a plurality of areas, and the sub image may be divided into a plurality of areas and displayed.
  • the main image area Rm may be divided into two areas Rm1 and Rm2, and the sub-image area Rs may be divided into two areas Rs1 and Rs2.
  • the simultaneous display mode is not limited to the composite display mode, and may be a two-screen display mode in which the main image and the sub-image are displayed on two display screens.
  • the two-screen display mode for example, as shown in FIG. 3C, the main image is displayed on one display screen D1 of the two display screens D1 and D2 arranged side by side, and the other display screen D2 is displayed.
  • a sub-image is displayed.
  • two display screens may be regarded as one display screen and may be considered equivalent to the composite display mode.
  • the number of display screens is not limited to two, and the display image may be displayed on a plurality of three or more display screens.
  • the display image may include a telop.
  • the character telop may be regarded as a part of the main image.
  • the telop added to the guide image may be regarded as a part of the main image
  • the telop added to the advertisement image may be regarded as a part of the sub image.
  • the simultaneous display mode may include a plurality of types of display modes having different image layouts.
  • the display mode information acquired by the display mode acquisition unit 13 is input to the sub image data adjustment unit 15 and the display image data generation unit 16.
  • the first feature amount calculation unit 14 calculates the feature amount of the main image data input from the main image data input unit 11, and outputs the calculated feature amount of the main image data to the sub image data adjustment unit 15.
  • the feature amount is specifically a feature amount related to the image quality of the main image data.
  • the average value average luminance value
  • the maximum value maximum luminance value
  • These are a minimum value (minimum luminance value), a histogram (luminance histogram), a predetermined color component of image data for each frame, or an average value, maximum value, minimum value, histogram of gradation values for each color component, and the like.
  • the color components are, for example, red (R), green (G), and blue (B) components, that is, RGB components.
  • the average value or the like of the luminance value of the image data for each frame is specifically an average value or the like of the luminance values of a plurality of pixels constituting one frame.
  • the feature amount is not limited to one frame, but is averaged over a plurality of frames (for example, an average luminance value for each of the plurality of frames) or averaged for each content (for example, an average luminance for each content) Value).
  • the feature amount is not limited to the luminance value and the gradation value, and may be sharpness (intelligibility), saturation (saturation), or the like.
  • the main image data is graphic data such as a guide image or image data of a character image, and there is no significant change in the feature amount in one content of the main image data.
  • the first feature amount calculation unit 14 may calculate the feature amount from the entire main image data screen, or may calculate the feature amount from the portion of the main image data screen displayed as the display image. Also good.
  • the sub-image data adjustment unit 15 resizes the sub-image data input from the sub-image data input unit 12 according to the display mode information input from the display mode acquisition unit 13, and calculates the first feature amount.
  • the image quality is adjusted based on the feature amount of the main image data calculated by the unit 14, and the adjusted sub image data is generated and output.
  • the sub image data adjustment unit 15 will be described in detail later.
  • the display image data generation unit 16 adjusts the main image data input from the main image data input unit 11 and the sub image data adjustment unit 15 according to the display mode information input from the display mode acquisition unit 13. Display image data for displaying the main image and the sub-image at the same time or by switching from the sub-image data. Specifically, when the display mode indicated by the display mode information is the main image display mode, the display image data generation unit 16 selects the main image data and outputs it as display image data. If so, the adjusted sub-image data is selected and output as display image data. When the display mode is the composite display mode, image data obtained by combining the main image data and the sub image data is output as display image data.
  • the display image data generation unit 16 selects an image in which a sub-image is overwritten on a part of an image area of the main image, an image obtained by selecting and combining the main image and the sub-image in units of areas, or a partial image of the main image.
  • Image data of an image obtained by combining (or pasting) a plurality of sub-images is output as display image data.
  • the display image data generation unit 16 generates display image data corresponding to the display mode for each frame of main image data and sub image data, for example, and outputs display image data composed of a plurality of frames.
  • the display image data output unit 17 is an output terminal, for example, and outputs the display image data generated by the display image data generation unit 16 to the display unit 2.
  • FIG. 4 is a block diagram showing the configuration of the sub image data adjustment unit 15.
  • the sub image data adjustment unit 15 includes input terminals 21, 22, 23, a resizing unit 24, a second feature amount calculation unit 25, an image quality adjustment unit 26, and an output terminal 27.
  • the input terminal 21 receives input of sub image data from the sub image data input unit 12, and the input sub image data is input to the resizing unit 24.
  • the input terminal 22 receives display mode information from the display mode acquisition unit 13, and the input display mode information is input to the resizing unit 24 and the image quality adjusting unit 26.
  • the input terminal 23 receives the feature amount of the main image data from the first feature amount calculation unit 14, and the input feature amount of the main image data is input to the image quality adjustment unit 26.
  • the resizing unit 24 resizes the sub image data input from the input terminal 21 according to the display mode indicated by the display mode information input from the input terminal 22, and outputs the resized sub image data. Specifically, for each frame of sub-image data, the resizing unit 24 changes the image size of the image data of the frame to an image size corresponding to the display mode corresponding to the frame, and the image of the frame after the resizing Output data. The resizing unit 24 may perform resizing processing as necessary depending on the display mode.
  • the resized sub-image data generated by the resizing unit 24 is input to the second feature amount calculating unit 25 and the image quality adjusting unit 26.
  • the second feature amount calculation unit 25 calculates the feature amount of the resized sub-image data output from the resizing unit 24, and outputs the calculated feature amount of the sub-image data to the image quality adjustment unit 26.
  • the feature amount is specifically a feature amount related to the image quality of the sub-image data.
  • the average value average luminance value
  • maximum value maximum luminance value
  • luminance histogram luminance histogram
  • predetermined color component predetermined color component of image data for each frame
  • the color component is, for example, an RGB component.
  • the average value or the like of the luminance value of the image data for each frame is specifically an average value or the like of the luminance values of a plurality of pixels constituting one frame.
  • the feature amount is not limited to one frame, but is averaged over a plurality of frames (for example, an average luminance value for each of the plurality of frames) or averaged for each content (for example, an average luminance for each content) Value).
  • the feature amount is not limited to the luminance value and the gradation value, and may be sharpness, saturation, or the like.
  • the second feature amount calculation unit 25 may calculate the feature amount from the entire screen of the sub image data, or calculate the feature amount from the portion of the sub image data screen that is displayed as the display image. Also good.
  • the second feature amount calculation unit 25 may receive the input of the sub image data input to the sub image data input unit 12 from the input terminal 21 and calculate the feature amount of the sub image data.
  • the input terminal 21 and the second feature value calculation unit 25 may be connected, and the connection between the resizing unit 24 and the second feature value calculation unit 25 may be omitted.
  • the feature amount corresponding to one frame when the feature amount is calculated for each frame with respect to the feature amount of the main image data and the feature amount of the sub-image data is referred to as “frame feature amount”.
  • a feature amount corresponding to one content when a feature amount is calculated for each content is referred to as a “content feature amount”.
  • the image quality adjustment unit 26 is output from the resizing unit 24 based on the feature amount of the main image data input from the input terminal 23 and the feature amount of the sub-image data calculated by the second feature amount calculation unit 25. Image quality adjustment is performed on the resized sub-image data, and adjusted sub-image data is generated and output. Specifically, the image quality adjustment unit 26 determines a setting value (for example, adjustment level or adjustment amount) for image quality adjustment from the feature amount of the main image data and the feature amount of the sub-image data, and after resizing according to the set value. Image quality adjustment is performed on the sub-image data. For example, when the adjustment level is determined, the image quality adjustment unit 26 performs image quality adjustment so that the feature amount of the sub-image data matches the adjustment level. When the adjustment amount is determined, the feature amount of the sub-image data is determined by image quality adjustment. The image quality is adjusted so that changes by the adjustment amount.
  • a setting value for example, adjustment level or adjustment amount
  • the image quality adjustment unit 26 compares the difference between the feature amount of the sub image data calculated by the second feature amount calculation unit 25 (that is, the feature amount of the sub image data before adjustment) and the feature amount of the main image data.
  • the image quality adjustment is performed so that the difference between the adjusted feature amount of the sub-image data and the feature amount of the main image data is reduced. That is, the image quality adjustment unit 26 performs image quality adjustment so that the feature amount of the sub-image data is close to the feature amount of the main image data by the image quality adjustment.
  • the image quality adjustment unit 26 performs the image quality adjustment for each frame of the sub image data, for example.
  • the image quality adjustment unit 26 is based on the feature amount of the main image data corresponding to the frame Fs and the feature amount of the sub-image data corresponding to the frame Fs. Adjust the image quality.
  • the feature amount of the main image data corresponding to the frame Fs for example, the feature amount of the frame of the main image data corresponding to the frame Fs (the frame of the main image data displayed simultaneously with the frame Fs) Fm
  • the feature amount of the sub image data corresponding to the frame Fs includes, for example, the feature amount of the frame Fs and the feature amount of the content to which the frame Fs belongs.
  • the image quality adjustment unit 26 may perform image quality adjustment according to the display mode as necessary based on the display mode information input from the input terminal 22.
  • the adjusted sub image data generated by the image quality adjustment unit 26 is output to the display image data generation unit 16 via the output terminal 27.
  • the image processing unit 1 performs resizing and image quality adjustment on the sub image data frame by frame in accordance with the frame display order (or arrangement order) to generate display image data.
  • the image processing unit 1 does not necessarily process one frame at a time in the frame display order, and may process in a different order from the frame display order, or may process a plurality of frames in parallel. Good.
  • FIG. 5A shows an image (sub image) of the sub image data output from the resizing unit 24, and FIG. 5B shows a luminance histogram of the sub image data.
  • the image quality adjustment unit 26 selects the sub image data.
  • the image quality adjustment is performed so as to increase the average luminance value of.
  • the image quality adjustment unit 26 increases the intermediate gradation of the sub-image data by using the upwardly convex tone curve TC1 as indicated by the bold line in FIG.
  • the horizontal axis indicates the luminance value of the sub-image data (input) before adjustment
  • the vertical axis indicates the luminance value of the sub-image data (output) after adjustment
  • the thin line indicates the same output as the input.
  • the linear characteristic L is as follows.
  • the image quality adjustment unit 26 adjusts the luminance value of each pixel constituting the sub image data according to the tone curve TC1.
  • the tone curve TC1 By the adjustment by the tone curve TC1, the sub image in FIG. 5A is adjusted as shown in FIG. 6A, and the luminance histogram in FIG. 5B is adjusted as shown in FIG.
  • the data is adjusted in the direction of brightening (that is, the feature amount of the sub image data approaches the feature amount of the main image data).
  • the image quality adjustment unit 26 adjusts the image quality so as to reduce the average luminance value of the sub-image data. Specifically, the image quality adjustment unit 26 lowers the intermediate gradation of the sub-image data using a downwardly convex tone curve TC2 as indicated by a thick line in FIG.
  • the horizontal axis indicates the luminance value of the sub-image data (input) before adjustment
  • the vertical axis indicates the luminance value of the sub-image data (output) after adjustment
  • the thin line indicates the same output as the input.
  • the linear characteristic L is as follows.
  • the image quality adjustment unit 26 adjusts the luminance value of each pixel constituting the sub image data according to the tone curve TC2.
  • the tone curve TC2 By the adjustment by the tone curve TC2, the sub image in FIG. 5A is adjusted as shown in FIG. 7A, and the luminance histogram in FIG. 5B is adjusted as shown in FIG.
  • the data is adjusted in the direction of darkening (that is, the feature amount of the sub-image data approaches the feature amount of the main image data).
  • the feature amount for performing the image quality adjustment (for example, luminance adjustment) of the sub-image data is not limited to the average luminance value.
  • a luminance value, a minimum luminance value, a luminance histogram, an average value of gradation values for each color component, a maximum value, a minimum value, a histogram, or the like may be used.
  • the image quality adjustment unit 26 determines the gradation to be brightened or darkened by the maximum luminance value, the minimum luminance value, the luminance histogram, the average value of the gradation values for each color component, the maximum value, the minimum value, the histogram, or the like.
  • the characteristics of the tone curve may be adjusted.
  • the image quality adjustment unit 26 may be configured to adjust the unevenness of the tone curve based on the difference between the feature amount of the main image data and the feature amount of the sub image data.
  • the image quality adjustment method is not limited to the one using a tone curve.
  • the image quality adjustment unit 26 sets the maximum luminance value and the minimum luminance value of the sub image data so that the shape of the luminance histogram of the sub image data is similar before and after the image quality adjustment, respectively.
  • the luminance value of each pixel of the sub image data may be adjusted so as to approach the value.
  • the image quality adjustment unit 26 may perform processing to increase the sharpness of the sub-image data when the sharpness of the sub-image data is lower than the sharpness of the main image data, and vice versa. Processing for reducing the sharpness of the image data may be performed. Also, the image quality adjustment unit 26 may perform a process of increasing the saturation of the sub image data when the saturation of the sub image data is lower than the saturation of the main image data, and vice versa. Processing for reducing the saturation of the image data may be performed.
  • the feature amount is an average luminance value for each frame.
  • FIG. 8A shows main image data including contents of guide 1, guide 2, guide 3, and guide 4.
  • Guide 1, Guide 2, Guide 3, and Guide 4 are arranged in this order in time series, and their positions (or display times) in the time series are time TI1 to TI2, time TI2 to TI3, and time TI3.
  • FIG. 8B shows sub-image data composed of the contents of the advertisement 1, the advertisement 2, the advertisement 3, and the advertisement 4.
  • Advertisement 1, advertisement 2, and advertisement 4 are moving images, and advertisement 3 is a still image.
  • the advertisement 1, the advertisement 2, the advertisement 3, and the advertisement 4 are arranged in time series in this order, and their positions (display times) in the time series are time TC1 to TC2, time TC2 to TC3, time TC3 to TC4, times TC4 to TC5.
  • the character data is updated within the guidance k, or a part thereof moves in an animation display, and the feature amount does not change greatly.
  • FIG. 8C shows the average luminance value of the main image data (the feature amount of the main image data output from the first feature amount calculation unit 14).
  • FIG. 8D shows the average luminance value of the sub image data (the feature amount of the sub image data output from the second feature amount calculation unit 25).
  • the image quality adjustment unit 26 performs image quality adjustment on the resized sub image data from the feature amount of the main image data and the feature amount of the sub image data.
  • the thin solid line indicates the average luminance value of the sub-image data before image quality adjustment
  • the broken line indicates the average luminance value of the main image data
  • the thick solid line indicates the average luminance value of the sub-image data after image quality adjustment. Is shown.
  • the image quality adjustment unit 26 performs image quality adjustment on the sub-image data so that the average luminance value of the sub-image data approaches the average luminance value of the main image data.
  • the image quality adjustment unit 26 performs image quality adjustment on each frame of the sub-image data, and when performing image quality adjustment on a frame Fs with sub-image data, the average brightness of the frame Fs after image quality adjustment.
  • the image quality is adjusted to be 2.
  • the average luminance value of the sub-image data after the image quality adjustment is the entire main image and sub-image before the image quality adjustment (the entire screen). It becomes the same as the average luminance value of (region).
  • the average luminance value of the sub-image data after image quality adjustment does not necessarily have to be the average value of the average luminance value of the sub-image data before image quality adjustment and the average luminance value of the main image data. It only needs to be adjusted.
  • the thin solid line indicates the average luminance value of the sub-image data after image quality adjustment
  • the broken line indicates the average luminance value of the main image data
  • the thick solid line indicates the sub-image data and main image data after the image quality adjustment. And indicate the average luminance value of the combined display image data.
  • the image quality adjustment of the sub image data is performed when the main image and the sub image are displayed at the same time.
  • the sub image data is displayed.
  • Image quality adjustment may be performed.
  • the image quality adjustment unit 26 displays the feature amount of the main image data displayed in the main image display mode and the sub image display mode.
  • the image quality adjustment may be performed on the sub image data displayed in the sub image display mode based on the feature amount of the sub image data.
  • FIG. 9 is a flowchart showing the operation of the display device 100 according to the first embodiment (or the display method according to the first embodiment). Hereinafter, the operation of the display device 100 will be described with reference to FIG.
  • the image processing unit 1 receives input of main image data (S1) and input of sub image data (S2).
  • the image processing unit 1 acquires display mode information (S3).
  • the image processing unit 1 calculates the feature amount of the main image data input in step S1 (S4). Further, the image processing unit 1 resizes the sub image data input in step S2 according to the display mode information acquired in step S3 (S5), and the input sub image data or the sub image data after resizing. Is calculated (S6). Then, the image processing unit 1 performs image quality adjustment on the resized sub image data based on the feature amount of the main image data calculated in step S4 and the feature amount of the sub image data calculated in step S6. Then, the adjusted sub-image data is generated (S7).
  • the image processing unit 1 combines or selects and displays the main image data input in step S1 and the adjusted sub-image data generated in step S7 according to the display mode information acquired in step S3.
  • Image data is generated (S8).
  • the display unit 2 displays the display image data generated in step S8 on the display screen (S9).
  • the image processing unit includes the first feature amount calculation unit that calculates the feature amount of the main image data, and the second feature amount calculation unit that calculates the feature amount of the sub-image data. Based on the feature amount of the main image data and the feature amount of the sub-image data, the image quality adjustment is performed on the sub-image data after resizing obtained by resizing the sub-image data according to the display mode information.
  • An image quality adjustment unit that generates sub-image data
  • a display image data generation unit that generates display image data from the main image data and the adjusted sub-image data according to display mode information.
  • the feature amount of the sub-image data after adjustment and the feature of the main image data So that the difference from the quantity is small Performing a quality-adjusted. According to this configuration, when displaying the main image and the sub image simultaneously or while switching them, it is possible to display with appropriate image quality according to the display mode.
  • the image visibility is adjusted by adjusting the image quality so as to reduce the difference in feature amount between the main image and the sub-image.
  • the main image and the sub image are combined and displayed as shown in FIG. 2C, or the main image and the sub image are displayed side by side as shown in FIG. 3C.
  • the brightness difference between the main image and the sub-image is reduced to improve the visibility when both are viewed continuously in time. be able to.
  • the sub image data can be displayed with an appropriate image quality with respect to the main image data without changing the main image data, thereby improving the visibility of the display image. can do.
  • the sub-image for example, the guide image
  • the image quality of the main image for example, the guide image
  • the image quality of advertisement images can be improved.
  • a graphic image or a character image created for the purpose of displaying on the display device and a natural image are combined and displayed, the feature amount of the natural image As a result, the graphic image and the character image are adjusted, and the image quality and appearance of the graphic image and the character image change.
  • a graphic image such as a guide image that is the main image of the display device and a character image
  • a natural image such as an advertisement image that is a sub-image, or an animation image
  • the sub-image data is resized according to the display mode information, and the display image data is generated according to the display mode information from the main image data and the resized sub-image data, so that the display mode according to the display mode information is used.
  • a main image and a sub-image can be displayed.
  • the display image display area is divided into a sub-image area (for example, an advertisement area) for displaying a sub-image and a main image area (for example, a guide area) for displaying a main image.
  • a sub-image area for example, an advertisement area
  • a main image area for example, a guide area
  • FIG. The display device according to the second embodiment is the same as the display device 100 according to the first embodiment, except for the part relating to the control of the feature amount of main image data used for image quality adjustment described below.
  • the description of the same parts as those in the first embodiment is omitted or simplified, and the same or corresponding elements as those in the first embodiment are denoted by the same reference numerals.
  • FIG. 10 is a block diagram showing a configuration of the display device 200 according to the second embodiment.
  • the display device 200 includes a content switching detection unit 31 in addition to the configuration of the display device 100 of FIG. 1.
  • the sub image data input to the sub image data input unit 12 is input to the sub image data adjustment unit 15 and the content switching detection unit 31.
  • the content switching detection unit 31 detects the timing of switching the content of the sub image data input from the sub image data input unit 12 (hereinafter referred to as “content switching timing”), and sends the detection result to the sub image data adjustment unit 15. Output.
  • the sub-image data representing the advertisement image is composed of a plurality of contents of a fixed time such as 5 seconds, 10 seconds, and 15 seconds, and the content switching detection unit 31 performs a scene change based on a luminance change or a histogram change.
  • the content switching timing of the sub image data is detected by the detecting method.
  • a method for detecting a scene change various methods including known methods can be used.
  • sub-image data is input to the content switching detection unit 31 frame by frame in the display order, and the content switching detection unit 31 detects content when a scene change is detected between the current frame and the previous frame.
  • a detection result indicating that the switching timing has been detected is output to the sub-image data adjustment unit 15.
  • the sub-image data adjustment unit 15 performs resizing processing on the sub-image data from the sub-image data input unit 12 according to the display mode information from the display mode acquisition unit 13 and the first feature amount calculation unit 14. The image quality is adjusted based on the feature amount of the main image data, and the adjusted sub image data is generated.
  • the sub-image data adjustment unit 15 controls the feature amount of the main image data used for image quality adjustment based on the detection result of the content detection timing output from the content switching detection unit 31.
  • FIG. 11 is a block diagram illustrating a configuration of the sub-image data adjustment unit 15 according to the second embodiment.
  • the sub-image data adjustment unit 15 includes a content switching timing input terminal 32 in addition to the configuration of the sub-image data adjustment unit 15 in the first embodiment.
  • the input terminal 32 receives the detection result of the content switching timing from the content switching detection unit 31, and the detection result of the content switching timing input to the input terminal 32 is input to the image quality adjustment unit 26.
  • the feature amount of the main image data used for image quality adjustment is updated at the timing of switching of the content of the sub-image data to be subjected to image quality adjustment ( Or change). That is, when performing image quality adjustment for each content, the image quality adjustment unit 26 uses a constant feature amount for each content as the feature amount of main image data used for image quality adjustment.
  • the sub-image data includes image data of a plurality of contents arranged in time series, and the image quality adjustment unit 26 sequentially adjusts the image quality one by one for the image data of the plurality of contents, thereby adjusting the image quality.
  • the feature amount of the main image data used for image quality adjustment is updated (or changed) at the timing of switching the target content.
  • the image quality adjustment unit 26 does not update the feature amount of the main image data used for image quality adjustment during the period in which the image quality adjustment is performed for one content.
  • the order of image quality adjustment is, for example, the display order (or arrangement order) of content, but it may be other orders.
  • the image quality adjustment unit 26 includes a first feature amount storage unit 33, and temporarily stores the feature amount of the main image data input from the input terminal 23 in the first feature amount storage unit 33. To do. Further, the image quality adjustment unit 26 holds the feature amount of the main image data stored in the first feature amount storage unit 33 until the content switching timing based on the detection result of the content switching timing input from the input terminal 32. The feature amount of the main image data stored in the first feature amount storage unit 33 is updated at the content switching timing. Then, the image quality adjustment unit 26 adjusts the image quality of the sub image data using the feature amount of the main image data stored in the first feature amount storage unit 33.
  • the image quality adjustment unit 26 is based on the feature amount of the main image data stored in the first feature amount storage unit 33 and the feature amount of the sub image data input from the second feature amount calculation unit 25.
  • the image quality adjustment set value is determined, and the image quality adjustment is performed on the resized sub-image data according to the set value.
  • a feature amount for each frame for example, an average value such as a luminance value for each frame
  • the feature amount for each content for example, an average value such as a luminance value for each content
  • the sub-image data is input to the image quality adjustment unit 26 frame by frame in the display order, and the characteristics of the main image data corresponding to the sub-image data frame are synchronized with the input of the sub-image data frame.
  • a quantity is entered.
  • the feature amount of the main image data corresponding to the sub image data frame is the feature amount of the content to which the main image data frame corresponding to the sub image data frame belongs (for example, the luminance average value of the content).
  • the image quality adjustment unit 26 holds the feature amount of the main image data stored in the feature amount storage unit 33 until the content switching timing is detected. When the content switching timing is detected, the sub image data is switched.
  • the feature quantity of the main image data stored in the first feature quantity storage unit 33 is updated with the feature quantity of the main image data corresponding to the first frame of the subsequent content.
  • the feature amount is an average luminance value for each frame.
  • FIGS. 8A, 8B, 8C, and 8D respectively.
  • the average luminance value of the main image data and the average luminance value of the sub image data are shown.
  • the image quality adjustment unit 26 performs image quality adjustment on the resized sub image data from the feature amount of the main image data and the feature amount of the sub image data.
  • the thin solid line indicates the average luminance value of the sub-image data before the image quality adjustment, and the broken line is stored in the average luminance value (that is, the first feature amount storage unit 33) of the main image data used for the image quality adjustment.
  • the thick solid line indicates the average luminance value of the sub-image data after image quality adjustment.
  • the image quality adjustment unit 26 adjusts the image quality of the sub-image data so that the average brightness value of the sub-image data approaches the average brightness value of the main image data.
  • the image quality adjustment unit 26 performs image quality adjustment on each frame of the sub-image data, and when performing image quality adjustment on a frame Fs with sub-image data, the average brightness of the frame Fs after image quality adjustment.
  • the average luminance value Lm of the main image data the average luminance value of the main image data stored in the first feature amount storage unit 33 is used. As shown in FIG.
  • the average luminance value of the main image data stored in the first feature amount storage unit 33 is updated at the content switching timings TC2, TC3, and TC4 of the sub image data. It is held constant within the same content period. Therefore, in FIG. 8, the average luminance value (broken line) of the main image data used for image quality adjustment shown in (e) is the same as the average luminance value of the main image data shown in (c). Then, the average luminance value (broken line) of the main image data used for image quality adjustment shown in (e) is updated (captured) at the content switching timings TC2, TC3, and TC4 of the sub-image data. )
  • the thin solid line indicates the average luminance value of the sub-image data after image quality adjustment
  • the broken line indicates the average luminance value of the main image data
  • the thick solid line indicates the sub-image data and main image data after the image quality adjustment. And indicate the average luminance value of the combined display image data.
  • the sub-image data includes image data of a plurality of contents arranged in time series
  • the image quality adjustment unit is used for image quality adjustment at the timing of content switching when performing image quality adjustment for each content.
  • the feature amount of the main image data is updated.
  • the feature amount of the main image data used for the image quality adjustment is updated when the content of the sub image data is switched, so that the feature amount of the main image data used for the image quality adjustment changes within one content. Compared with the case where it does, there is little discomfort on the display image by the change of the feature-value of main image data used for image quality adjustment.
  • Embodiment 3 FIG.
  • the display device according to the third embodiment is the same as the display device 100 according to the first embodiment, except for a part relating to control in image quality adjustment described below.
  • the description of the same parts as those in the first embodiment is omitted or simplified, and the same or corresponding elements as those in the first embodiment are denoted by the same reference numerals.
  • the display device has a content switching detection unit 31 in addition to the configuration of the display device 100 of FIG.
  • the sub image data input to the unit 12 is input to the sub image data adjustment unit 15 and the content switching detection unit 31.
  • the content switching detection unit 31 detects the timing of content switching (content switching timing) of the sub image data input from the sub image data input unit 12, and adjusts the detection result to the sub image data adjustment. To the unit 15.
  • the sub-image data adjustment unit 15 performs resizing processing on the sub-image data from the sub-image data input unit 12 according to the display mode information from the display mode acquisition unit 13 and the first feature amount calculation unit 14. The image quality is adjusted based on the feature amount of the main image data, and the adjusted sub image data is generated.
  • the sub image data adjustment unit 15 controls the feature amount of the sub image data used for image quality adjustment based on the detection result of the content detection timing output from the content switching detection unit 31.
  • FIG. 13 is a block diagram illustrating a configuration of the sub-image data adjustment unit 15 according to the third embodiment. 13, in addition to the configuration of the sub image data adjustment unit 15 in the first embodiment shown in FIG. 4, the sub image data adjustment unit 15 includes an input terminal 41 for content switching timing, a second feature amount storage unit 42, and the like.
  • the input terminal 41 receives the input of the content switching timing detection result from the content switching detection unit 31, and the content switching timing detection result input to the input terminal 41 is input to the image quality adjustment unit 26.
  • the second feature amount calculation unit 25 outputs the calculated feature amount of the sub-image data to the image quality adjustment unit 26 and also outputs it to the second feature amount storage unit 42.
  • the second feature quantity storage unit 42 temporarily stores the feature quantity of the sub image data output from the second feature quantity calculation unit 25 and outputs the feature quantity of the past sub image data to the image quality adjustment unit 26. To do.
  • the image quality adjustment unit 26 includes the feature amount of the main image data input from the input terminal 23, the feature amount of the sub-image data output from the second feature amount calculation unit 25, and the second feature amount storage unit 42. Based on the output feature value of the past sub-image data, a setting value for image quality adjustment is determined, and according to the setting value, image quality adjustment is performed on the re-sized sub-image data output from the resizing unit 24, Sub-image data after adjustment is generated.
  • the image quality adjustment unit 26 when the sub-image data includes the image data of the first content and the image data of the second content subsequent to the first content, the image quality adjustment unit 26 When image quality adjustment is performed on a portion of image data immediately after switching from the first content to the second content, control for suppressing a change in the feature amount of the sub-image data after the adjustment before and after the switching I do. Specifically, when image quality adjustment is performed on the portion immediately after the switching, the image quality adjustment unit 26 uses the feature amount calculated from the image data of the first content as the feature amount of the sub-image data, and the second content. A predetermined feature amount between the feature amount calculated from the image data of the content is used.
  • the image quality adjustment unit 26 may use a feature amount that gradually changes from the predetermined feature amount to the feature amount calculated from the image data of the second content, as the feature amount of the sub-image data.
  • the portion immediately after the switching may be, for example, one frame or a plurality of frames.
  • the feature amount calculated from the image data of the first content is, for example, the feature amount of the first content or the feature amount of the frame at the end of the first content.
  • the feature amount calculated from the image data of the second content is, for example, the feature amount of the second content or the feature amount of the frame at the beginning of the second content.
  • the gradually changing feature amount may finally reach or converge to the feature amount calculated from the image data of the second content.
  • the image quality adjustment unit 26 is based on the detection result of the content switching timing input from the input terminal 41, and the adjustment level of image quality adjustment (or the feature amount of the adjusted sub-image data before and after the content switching timing). ) From the feature quantity of the sub-image data input from the second feature quantity calculation unit 25 and the feature quantity of the past sub-image data output from the second feature quantity storage unit 42 so as not to change significantly. Then, setting values (for example, adjustment levels and adjustment amounts) for image quality adjustment are determined. Specifically, when image quality adjustment is performed on the content after switching, the image quality adjusting unit 26 outputs the feature amount of the sub image data from the second feature amount storage unit 42 in the period immediately after the switching.
  • a predetermined feature amount between the feature amount of the content before switching and the feature amount of the content after switching output from the second feature amount calculation unit 25 is used.
  • the feature amount of the sub-image data is the average luminance value for each content
  • the average luminance value of the content before switching is L 0 and the average luminance value of the content after switching is La
  • the average luminance value L 1 calculated by the following equation (1) is used as the feature amount of the sub-image data, not the average luminance value La of the content after switching.
  • L 1 L 0 + (La ⁇ L 0 ) ⁇ ⁇ (0 ⁇ ⁇ 1) (1)
  • the image quality adjustment unit 26 uses the feature amount of the image data of the content after switching (or the feature amount of the current sub image data) from the predetermined feature amount as the feature amount of the sub image data in the period immediately after the switching. ) May be used that gradually change until.
  • the feature amount of the sub-image data is the average luminance value for each content
  • the average luminance value of the content before switching is L 0 and the average luminance value of the content after switching is La
  • the average luminance value La of the content after switching is used as the feature amount of the sub-image data.
  • the average luminance value L n calculated by the following formula (2) may be used.
  • L n L n ⁇ 1 + (La ⁇ L n ⁇ 1 ) ⁇ ⁇ (0 ⁇ ⁇ 1) (2)
  • the sub image data includes the image data of the first content and the image data of the second content subsequent to the first content
  • the image quality adjustment unit includes the image of the second content.
  • an abrupt change in the display image for example, an abrupt change in image quality such as a luminance value of the sub image in the display image
  • an abrupt change in image quality such as a luminance value of the sub image in the display image
  • the image quality adjustment unit calculates the feature amount of the sub-image data from the image data of the second content from the predetermined feature amount when performing image quality adjustment on the portion immediately after the switching.
  • the feature amount that gradually changes to the feature amount is used. According to this aspect, it is possible to gradually shift to image quality adjustment suitable for the second content while suppressing a sudden change in the display image due to the switching of the content of the sub-image data.
  • Embodiment 4 FIG.
  • the display device according to the fourth embodiment is the same as the display device 100 according to the first embodiment, except for a part relating to control of a feature amount used for image quality adjustment described below.
  • the description of the same parts as those in the first embodiment is omitted or simplified, and the same or corresponding elements as those in the first embodiment are denoted by the same reference numerals.
  • FIG. 14 is a block diagram showing a configuration of display device 400 according to the fourth embodiment. 14, the display device 400 includes a third feature value calculation unit 51 and a third feature value storage unit 52 in addition to the configuration of the display device 100 of FIG. 1.
  • the third feature quantity calculation unit 51 calculates the feature quantity of the display image data generated by the display image data generation unit 16 and outputs it to the third feature quantity storage unit 52.
  • the feature amount is specifically a feature amount related to the image quality of the display image data.
  • the average value average luminance value
  • the maximum value maximum luminance value
  • These are a minimum value (minimum luminance value), a histogram (luminance histogram), a predetermined color component of image data for each frame, or an average value, maximum value, minimum value, histogram of gradation values for each color component, and the like.
  • the color component is, for example, an RGB component.
  • the average value or the like of the luminance value of the image data for each frame is specifically an average value or the like of the luminance values of a plurality of pixels constituting one frame.
  • the feature amount is not limited to one frame, but is averaged over a plurality of frames (for example, an average luminance value for each of the plurality of frames) or averaged for each content (for example, an average luminance for each content) Value).
  • the feature amount is not limited to the luminance value and the gradation value, and may be sharpness, saturation, or the like.
  • the third feature quantity storage unit 52 stores the feature quantity of the display image data calculated by the third feature quantity calculation unit 51.
  • the third feature amount storage unit 52 stores the display image stored at the timing when the display mode changes from the simultaneous display mode to the sub-image display mode based on the display mode information input from the display mode acquisition unit 13.
  • the data feature amount is output to the sub-image data adjustment unit 15.
  • the sub-image data adjustment unit 15 performs resizing processing on the sub-image data from the sub-image data input unit 12 according to the display mode information from the display mode acquisition unit 13 and the first feature amount calculation unit 14.
  • the image quality is adjusted based on the feature amount of the main image data, and the adjusted sub image data is generated.
  • the image quality adjustment is performed using the feature amount of the display image data output from the third feature amount storage unit 52.
  • FIG. 15 is a block diagram illustrating a configuration of the sub-image data adjustment unit 15 according to the fourth embodiment.
  • the sub image data adjustment unit 15 includes a feature image input terminal 53 in addition to the configuration of the sub image data adjustment unit 15 in the first embodiment.
  • the input terminal 53 receives the feature amount of the display image data from the third feature amount storage unit 52, and the feature amount of the display image data input to the input terminal 53 is input to the image quality adjustment unit 26.
  • the image quality adjustment unit 26 includes the feature amount of the main image data input from the input terminal 23, the feature amount of the sub-image data output from the second feature amount calculation unit 25, and the display image input from the input terminal 53. Based on the feature amount of the data, a setting value for image quality adjustment is determined, and image quality adjustment is performed on the resized sub image data output from the resizing unit 24 according to the setting value, and the adjusted sub image data is Generate.
  • the image quality adjustment unit 26 when the display mode indicated by the display mode information acquired by the display mode acquisition unit 13 is switched from the simultaneous display mode to the sub image display mode, the sub image display mode after the switching.
  • the image quality adjustment is performed on the sub-image data corresponding to, at least immediately after switching, instead of the feature amount of the main image data, the display mode before switching calculated by the third feature amount calculation unit 51 is supported.
  • the reference feature amount obtained from the feature amount of the display image data to be used is used.
  • the reference feature amount is, for example, a feature amount of display image data corresponding to the display mode before switching.
  • the feature amount of the display image data corresponding to the display mode before switching is, for example, the feature amount of the display image data in a predetermined period (for example, a period of one or a plurality of frames) immediately before the display mode is switched to the sub image display mode. It is.
  • the reference feature amount may be a feature amount that gradually changes from a feature amount of display image data corresponding to the display mode before switching to a preset value.
  • the feature amount of the display image data is taken, and as the value of n increases, it gradually changes to the preset value. The gradually changing feature amount may finally reach or converge to the preset value.
  • the preset value is a value set according to the sub-image display mode, and is set so that, for example, good visibility of the sub-image can be obtained in the sub-image display mode.
  • the image quality adjustment unit 26 may determine the value according to the surrounding environment of the display unit 2 that displays the display image data. For example, the illuminance of the display unit 2 and the luminance of the backlight of the display unit 2 The value may be determined based on at least one of them. Specifically, the image quality adjustment unit 26 acquires the illuminance around the display unit 2 from the illuminance detection unit (not shown), acquires the luminance of the backlight of the display unit 2 from the backlight control unit (not shown), and The above value may be determined based on the illuminance and the luminance of the backlight.
  • the image quality adjustment unit 26 performs image quality adjustment in the same manner as in the first embodiment.
  • the feature amount of the display image data in the simultaneous display mode is calculated by the third feature amount calculation unit 51 and stored in the third feature amount storage unit 52.
  • the feature amount of the display image data is, for example, an average luminance value shown in (f) of FIG. 8 or FIG.
  • information indicating the change is input from the display mode acquisition unit 13 to the third feature amount storage unit 52, and the display stored in the third feature amount storage unit 52
  • the feature amount of the image data is output to the sub image data adjustment unit 15.
  • the image quality adjustment unit 26 receives the feature amount of the display image data from the third feature amount storage unit 52 via the input terminal 53, and uses the feature amount of the main image data as a reference. Instead, the image quality adjustment of the sub-image data is performed based on the feature amount of the input display image data. At this time, immediately after the switching, the image quality adjustment unit 26 performs image quality adjustment on the basis of the feature amount of the display image data in the composite display mode, and then gradually sets a feature amount as a reference for image quality adjustment over time. It may be converged to the obtained value.
  • image processing unit 1 may perform the same processing as described above when the display mode is switched from the main image display mode to the sub image display mode.
  • the image processing unit further includes a third feature amount calculation unit that calculates the feature amount of the display image data, and the image quality adjustment unit has the display mode indicated by the display mode information as a simultaneous display mode or a main display mode.
  • the third feature amount calculation is performed instead of the feature amount of the main image data. The feature amount of the display image data corresponding to the display mode before switching calculated by the unit is used.
  • the image quality adjustment unit performs image quality on the sub image data corresponding to the sub image display mode after switching.
  • the feature amount of the sub-image data calculated by the second feature amount calculation unit and the feature amount of the display image data corresponding to the display mode before switching calculated by the third feature amount calculation unit is performed so that the difference between the feature amount of the adjusted sub-image data and the feature amount of the display image data becomes smaller than the difference.
  • the display mode when the display mode is switched from the simultaneous display mode or the main image display mode to the sub image display mode, the feature amount of the display image data before switching and the display image data after switching (sub image data after adjustment) ) Is reduced, the change in the feature quantity such as the brightness of the display image when the display mode is switched can be reduced, and the visibility of the image can be improved.
  • the brightness of the sub-image in the sub-image display mode is lower than the brightness of the entire screen in the simultaneous display mode, or simultaneous display
  • the brightness of the sub-image in the sub-image display mode is higher than the brightness of the entire screen in the mode, and when both are viewed continuously in time by reducing the brightness difference (brightness change) at the time of switching Can improve the visibility.
  • the image quality adjustment unit when performing image quality adjustment on the sub-image data corresponding to the sub-image display mode after the switching, displays the display before the switching instead of the feature amount of the main image data.
  • a feature amount that gradually changes from a feature amount of the display image data corresponding to the mode to a preset value is used. According to this aspect, it is possible to gradually shift to image quality adjustment suitable for the sub-image display mode while suppressing a change in the feature amount of the display image data when the display mode is switched, and display with less discomfort is possible.
  • the image quality adjustment unit determines the above values according to the surrounding environment of the display unit, such as the illuminance around the display unit and the luminance of the backlight. According to this aspect, it is possible to perform appropriate image quality adjustment according to the surrounding environment of the display unit.
  • the first feature amount calculation unit 14 may be omitted, and image quality adjustment based on the feature amount of the main image data calculated by the first feature amount calculation unit 14 is omitted. Also good.
  • the image quality adjustment for the sub image data in the simultaneous display mode or the main image display mode may be omitted, and the image processing unit 1 performs the image quality adjustment only for the sub image data corresponding to the sub image display mode after switching. It may be configured to do.
  • Embodiment 5 FIG.
  • the display device according to the fifth embodiment is the same as the display device 100 according to the first embodiment, except for the part relating to correction of main image data described below.
  • the description of the same parts as those in the first embodiment is omitted or simplified, and the same or corresponding elements as those in the first embodiment are denoted by the same reference numerals.
  • FIG. 16 is a block diagram showing a configuration of display device 500 according to the fifth embodiment.
  • the display device 500 includes a display environment information acquisition unit 61 and a main image data correction unit 62 in addition to the configuration of the display device 100 of FIG. 1.
  • the display environment information acquisition unit 61 acquires display environment information that is information related to the surrounding environment of the display unit 2 that displays the display image data.
  • the display environment information is, for example, illuminance information indicating the peripheral illuminance of the display unit 2 or luminance information indicating the luminance of a backlight or the like irradiated on the display unit 2.
  • the display environment information acquisition unit 61 is an input terminal that receives input of display environment information, and receives illuminance information from an illuminance detection unit (not shown) and luminance information from a backlight control unit (not shown).
  • the main image data correction unit 62 corrects main image data input from the main image data input unit 11 according to the surrounding environment of the display unit 2 based on the display environment information acquired by the display environment information acquisition unit 61. . Specifically, when the ambient illuminance of the display unit 2 is low, the main image data correction unit 62 performs correction so as to reduce the average luminance of the main image data, and conversely, the peripheral illuminance of the display unit 2 is high. In this case, correction is performed so as to increase the average luminance of the main image data.
  • the main image data correction unit 62 may correct the main image data so that the luminance of the main image data is increased so as to compensate for the decrease in the luminance of the backlight due to power saving or the like.
  • the main image data corrected by the main image data correction unit 62 is input to the first feature amount calculation unit 14 and the display image data generation unit 16.
  • the first feature amount calculation unit 14 and the display image data generation unit 16 use the main image data corrected by the main image data correction unit 62 instead of the main image data input to the main image data input unit 11.
  • the image processing unit further includes a main image data correction unit that corrects the main image data according to the surrounding environment of the display unit, and the first feature amount calculation unit and the display image data generation unit include the main image data correction unit.
  • the main image data corrected by the main image data correction unit is used instead of the main image data input to the image data input unit.
  • main image data can be appropriately displayed according to the surrounding environment of the display unit.
  • main image data such as guidance display prepared for the display device according to the surrounding environment of the display device.
  • the function of the image processing unit may be realized only by hardware resources such as an electronic circuit, or may be realized by cooperation of hardware resources and software.
  • the function of the image processing unit is realized by, for example, an image processing program being executed by a computer. More specifically, the function of the image processing unit is such that an image processing program recorded on a recording medium such as a ROM (Read Only Memory) is read out to a main storage device and is executed by a central processing unit (CPU). It is realized by being executed.
  • the image processing program may be provided by being recorded on a computer-readable recording medium such as an optical disk, or may be provided via a communication line such as the Internet.
  • the average luminance value is mainly used as the feature amount.
  • the present invention is not limited to this, and the maximum luminance value, the minimum luminance value, the average value of the gradation values for each color component, The same effect can be obtained when other feature amounts such as the maximum value and the minimum value are used.
  • the image quality adjustment unit 26 uses a setting value corresponding to the display mode indicated by the display mode information acquired by the display mode acquisition unit 13 instead of the feature amount of the main image data. Image quality adjustment may be performed. That is, the image quality adjustment unit 26 may perform image quality adjustment so that the feature amount of the sub-image data is close to a setting value corresponding to each display mode.
  • the image processing unit 1 uses the resized sub image data obtained by resizing the sub image data according to the display mode information, instead of resizing the sub image data by the resizing unit 24. You may acquire from the outside. In this case, the resizing unit 24 may be omitted.
  • Embodiment 3 may be combined with Embodiment 2
  • Embodiment 4 may be combined with Embodiment 2 or 3
  • Embodiment 5 may be combined with Embodiment 2, 3, or 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 本発明は、主画像と副画像とを同時にまたは切り替えて表示する場合に、適切な画質で表示モードに応じて表示する。画像処理部は、主画像データの特徴量を算出する第1の特徴量算出部と、副画像データの特徴量を算出する第2の特徴量算出部(25)と、リサイズ後の副画像データに対して画質調整を行う画質調整部(26)と、表示モード情報に応じて、主画像データと調整後の副画像データとから、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する表示画像データ生成部とを備える。画質調整部(26)は、算出された副画像データの特徴量と主画像データの特徴量との差と比べて、調整後の副画像データの特徴量と主画像データの特徴量との差が小さくなるように画質調整を行う。画質調整部(26)は、コンテンツ毎に画質調整を行う際、コンテンツの切り替わりのタイミングで、画質調整に用いる主画像データの特徴量を更新する。

Description

画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム
 本発明は、画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラムに関する。
 公共交通機関の車両内では、従来から、車両の路線案内、官公庁からの案内、および一般企業の宣伝広告が紙媒体を通して、固定的に利用客に向けて提供または表示されていた。近年になり、一部が電子化され、LEDを使った電光掲示板や液晶ディスプレイを通して、行き先、停車、乗り換え案内などの情報が走行区間に応じて可変的に表示され、宣伝広告に至っては動画像や静止画像として提供または表示される状況になっている。
 特許文献1には、比較的高輝度のグラフィックデータである画像データと、比較的低輝度の自然画である画像データとを合成して表示画像データを生成して表示する表示方法が示されている。この表示方法では、高輝度の画像データの最大輝度を低輝度の画像データの特徴量により調整した後、調整後の高輝度の画像データと低輝度の画像データとを合成して表示画像データを生成し、その後、表示画像データの特徴量によりバックライトの輝度を決定し、このバックライトの輝度に連動して表示画像データを調整する。
特開2006-154064号公報
 ところで、主画像(例えば、車両の行き先、停車、乗り換え案内などのグラフィック画像や文字画像)と副画像(例えば、宣伝広告画像などの自然画像やアニメーション画像)とを同時にまたは切り替えて表示する場合に、適切な画質で表示モードに応じて表示することが望まれる。
 本発明は、主画像と副画像とを同時にまたは切り替えて表示する場合に、適切な画質で表示モードに応じて表示することを可能にする画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラムを提供することを目的とする。
 本発明に係る画像処理装置は、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理装置であって、
 前記主画像を表す主画像データの入力を受ける主画像データ入力手段と、
 前記副画像を表す副画像データの入力を受ける副画像データ入力手段と、
 前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得手段と、
 前記主画像データ入力手段に入力された主画像データの特徴量を算出する第1の特徴量算出手段と、
 前記副画像データ入力手段に入力された副画像データ、または前記副画像データを前記表示モード取得手段により取得された表示モード情報に応じてリサイズして得られるリサイズ後の副画像データの特徴量を算出する第2の特徴量算出手段と、
 前記第1の特徴量算出手段で算出された主画像データの特徴量と、前記第2の特徴量算出手段で算出された副画像データの特徴量とに基づき、前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整手段と、
 前記表示モード取得手段により取得された表示モード情報に応じて、前記主画像データ入力手段に入力された主画像データと前記画質調整手段により生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成手段と、を備え、
 前記画質調整手段は、前記算出された副画像データの特徴量と前記主画像データの特徴量との差と比べて、前記調整後の副画像データの特徴量と前記主画像データの特徴量との差が小さくなるように前記画質調整を行い、
 前記副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、前記画質調整手段は、前記コンテンツ毎に前記画質調整を行う際に、前記画質調整の対象となるコンテンツの切り替わりのタイミングで、前記画質調整に用いる主画像データの特徴量を更新することを特徴とする。
 本発明に係る別の画像処理装置は、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理装置であって、
 前記主画像を表す主画像データの入力を受ける主画像データ入力手段と、
 前記副画像を表す副画像データの入力を受ける副画像データ入力手段と、
 前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得手段と、
 前記副画像データ入力手段に入力された副画像データ、または前記副画像データを前記表示モード取得手段により取得された表示モード情報に応じてリサイズして得られるリサイズ後の副画像データの特徴量を算出する第2の特徴量算出手段と、
 前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整手段と、
 前記表示モード取得手段により取得された表示モード情報に応じて、前記主画像データ入力手段に入力された主画像データと前記画質調整手段により生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成手段と、
 前記表示画像データ生成手段により生成された表示画像データの特徴量を算出する第3の特徴量算出手段と、を備え、
 前記画質調整手段は、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記第3の特徴量算出手段で算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量に基づき、前記算出された副画像データの特徴量と前記基準の特徴量との差と比べて、前記調整後の副画像データの特徴量と前記基準の特徴量との差が小さくなるように前記画質調整を行い、
 前記基準の特徴量は、前記表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であることを特徴とする。
 本発明に係る表示装置は、上記いずれかの画像処理装置と、前記表示画像データ生成手段により生成された表示画像データに基づいて画像を表示する表示手段と、を備えることを特徴とする。
 本発明に係る画像処理方法は、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理方法であって、
 前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
 前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
 前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
 前記主画像データ入力ステップで入力された主画像データの特徴量を算出する第1の特徴量算出ステップと、
 前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップにより取得された表示モード情報に応じてリサイズして得られるリサイズ後の副画像データの特徴量を算出する第2の特徴量算出ステップと、
 前記第1の特徴量算出ステップで算出された主画像データの特徴量と、前記第2の特徴量算出ステップで算出された副画像データの特徴量とに基づき、前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
 前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、を有し、
 前記画質調整ステップは、前記算出された副画像データの特徴量と前記主画像データの特徴量との差と比べて、前記調整後の副画像データの特徴量と前記主画像データの特徴量との差が小さくなるように前記画質調整を行い、
 前記副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、前記画質調整ステップは、前記コンテンツ毎に前記画質調整を行う際に、前記画質調整の対象となるコンテンツの切り替わりのタイミングで、前記画質調整に用いる主画像データの特徴量を更新することを特徴とする。
 本発明に係る別の画像処理方法は、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理方法であって、
 前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
 前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
 前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
 前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップにより取得された表示モード情報に応じてリサイズして得られる副画像データの特徴量を算出する第2の特徴量算出ステップと、
 前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
 前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
 前記表示画像データ生成ステップで生成された表示画像データの特徴量を算出する第3の特徴量算出ステップと、を有し、
 前記画質調整ステップは、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記第3の特徴量算出ステップで算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量に基づき、前記算出された副画像データの特徴量と前記基準の特徴量との差と比べて、前記調整後の副画像データの特徴量と前記基準の特徴量との差が小さくなるように前記画質調整を行い、
 前記基準の特徴量は、前記表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であることを特徴とする。
 本発明に係る表示方法は、上記いずれかの画像処理方法と、前記表示画像データ生成ステップで生成された表示画像データに基づいて画像を表示する表示ステップと、を有することを特徴とする。
 本発明に係る画像処理プログラムは、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理プログラムであって、
 前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
 前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
 前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
 前記主画像データ入力ステップで入力された主画像データの特徴量を算出する第1の特徴量算出ステップと、
 前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップで取得された表示モード情報に応じてリサイズして得られる副画像データの特徴量を算出する第2の特徴量算出ステップと、
 前記第1の特徴量算出ステップで算出された主画像データの特徴量と、前記第2の特徴量算出ステップで算出された副画像データの特徴量とに基づき、前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
 前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
 をコンピュータに実行させ、
 前記画質調整ステップは、前記算出された副画像データの特徴量と前記主画像データの特徴量との差と比べて、前記調整後の副画像データの特徴量と前記主画像データの特徴量との差が小さくなるように前記画質調整を行い、
 前記副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、前記画質調整ステップは、前記コンテンツ毎に前記画質調整を行う際に、前記画質調整の対象となるコンテンツの切り替わりのタイミングで、前記画質調整に用いる主画像データの特徴量を更新することを特徴とする。
 本発明に係る別の画像処理プログラムは、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理プログラムであって、
 前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
 前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
 前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
 前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップで取得された表示モード情報に応じてリサイズして得られる副画像データの特徴量を算出する第2の特徴量算出ステップと、
 前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
 前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
 前記表示画像データ生成ステップで生成された表示画像データの特徴量を算出する第3の特徴量算出ステップと、
 をコンピュータに実行させ、
 前記画質調整ステップは、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記第3の特徴量算出ステップで算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量に基づき、前記算出された副画像データの特徴量と前記基準の特徴量との差と比べて、前記調整後の副画像データの特徴量と前記基準の特徴量との差が小さくなるように前記画質調整を行い、
 前記基準の特徴量は、前記表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であることを特徴とする。
 本発明によれば、主画像と副画像とを同時にまたは切り替えて表示する場合に、適切な画質で表示モードに応じて表示することが可能になる。
実施の形態1に係る表示装置の構成を示すブロック図である。 (a)~(c)は表示モードの例を示す図である。 (a)~(c)は表示モードの他の例を示す図である。 実施の形態1における副画像データ調整部の構成を示すブロック図である。 (a)および(b)は、それぞれ画質調整部に入力される副画像データの画像および輝度ヒストグラムの一例を示す図である。 (a)および(b)は、それぞれ画質調整部により明るく調整した場合の副画像データの画像および輝度ヒストグラムの一例を示す図であり、(c)は、当該調整に用いられるトーンカーブを示す図である。 (a)および(b)は、それぞれ画質調整部により暗く調整した場合の副画像データの画像および輝度ヒストグラムの一例を示す図であり、(c)は、当該調整に用いられるトーンカーブを示す図である。 (a)~(f)は実施の形態1における画質調整の一例を説明するための図である。 実施の形態1に係る表示装置の動作を示すフローチャートである。 実施の形態2に係る表示装置の構成を示すブロック図である。 実施の形態2における副画像データ調整部の構成を示すブロック図である。 (a)~(f)は実施の形態2における画質調整の一例を説明するための図である。 実施の形態3における副画像データ調整部の構成を示すブロック図である。 実施の形態4に係る表示装置の構成を示すブロック図である。 実施の形態4における副画像データ調整部の構成を示すブロック図である。 実施の形態5に係る表示装置の構成を示すブロック図である。
 以下、本発明の実施の形態を図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る表示装置100の構成を示すブロック図である。この表示装置100は、主画像と副画像とを同時にまたは切り替えて表示する装置である。具体的には、主画像は、表示装置100の主目的に対応する画像または表示装置100に表示される画像のうち主となる画像であり、副画像は、主画像以外の画像または主画像に付随する画像である。より具体的には、主画像は、公共交通機関の利用者を案内するための案内画像であり、例えば、車両(列車)、バス、船、飛行機などの乗客輸送手段の行き先、停車、乗り換えなどの案内情報を示す画像である。副画像は、上記案内画像以外の画像であり、例えば宣伝広告画像である。また、主画像は、グラフィック画像や文字画像であり、主として静止画像である。副画像は、自然画像やアニメーション画像であり、動画像、準動画像、または静止画像である。表示装置100は、例えば、車両や駅、バスやバス停、船や港、飛行機や空港など、公共交通機関に設置され、車両、バス、船、飛行機などの行き先、停車、乗り換えなどの案内情報に加え、宣伝広告画像やその他情報などを表示する。
 図1において、表示装置100は、画像処理部1および表示部2を備える。画像処理部1は、主画像を表す主画像データと副画像を表す副画像データとから、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する。表示部2は、例えば液晶ディスプレイであり、画像処理部1により生成された表示画像データに基づいて表示画像を表示する。
 画像処理部1は、主画像データ入力部11、副画像データ入力部12、表示モード取得部13、第1の特徴量算出部14、副画像データ調整部15、表示画像データ生成部16、および表示画像データ出力部17を有する。
 主画像データ入力部11は、例えば入力端子であり、主画像データの入力を受ける。主画像データは、時系列に並ぶ複数のコンテンツの画像データから構成される。複数のコンテンツは、例えば、路線表示、近傍表示、停車駅案内、および乗り換え案内のそれぞれの日本語表記コンテンツおよび英語表記コンテンツなどを含み、一定間隔毎に切り替えて表示されるように時系列に配列される。各コンテンツは、時系列に並ぶ複数のフレームで構成される。主画像データ入力部11に入力された主画像データは、第1の特徴量算出部14と表示画像データ生成部16とに入力される。
 副画像データ入力部12は、例えば入力端子であり、副画像データの入力を受ける。副画像データは、時系列に並ぶ複数のコンテンツの画像データから構成される。複数のコンテンツは、例えば、宣伝広告画像であり、順番に表示されるように時系列に配列される。各コンテンツは、時系列に並ぶ複数のフレームで構成される。副画像データは、例えば、ITU-T(International Telecommunication Union-Telecommunication sector)勧告H.26xやISO/IEC(International Organization for Standardization/International Electrotechnical Commission)標準MPEG(Moving Picture Experts Group)などの符号化データを復号化した動画像である。なお、副画像データは、動画像に限られず、JPEG(Joint Photographic Experts Group)などの符号化データを復号化した静止画像であってもよい。副画像データ入力部12に入力された副画像データは、副画像データ調整部15に入力される。
 表示モード取得部13は、主画像および副画像を表示するときの表示モードを示す表示モード情報を取得する。ここでは、表示モード取得部13は、外部から表示モード情報の入力を受ける入力端子である。ただし、表示モード取得部13は、現在時刻や表示スケジュール等の情報に基づき、表示モードを決定または選択して表示モード情報を生成してもよい。
 本例では、表示モードとしては、主画像および副画像のうち主画像だけを表示する主画像表示モードと、主画像および副画像のうち副画像だけを表示する副画像表示モードと、主画像と副画像とを同時に表示する同時表示モードとがある。図2(a),(b),(c)には、それぞれ、主画像表示モード、副画像表示モード、および同時表示モードにおける表示画像が例示されている。図2(a)に示されるように、主画像表示モードの表示画像は、主画像が表示される主画像領域(例えば案内画像が表示される案内領域)Rmを有する。図2(b)に示されるように、副画像表示モードの表示画像は、副画像が表示される副画像領域(例えば広告画像が表示される広告領域)Rsを有する。図2(c)に示されるように、同時表示モードの表示画像は、主画像領域Rmと副画像領域Rsとを有する。同時表示モードは、例えば、主画像と副画像とを合成して表示する合成表示モードであり、図2(c)には、合成表示モードの表示画像が示されている。
 なお、表示モードは、上記に限定されない。例えば、主画像領域には、複数の画像が配置されてもよく、主画像データは、同時に表示される複数の画像の画像データを含んでもよい。同様に、副画像領域には、複数の画像が配置されてもよく、副画像データは、同時に表示される複数の画像の画像データを含んでもよい。例えば、図3(a)に示されるように、同時表示モードにおいて、主画像領域Rmに3つの画像M1,M2,M3が表示され、副画像領域Rsに2つの画像S1,S2が表示されてもよい。また、主画像領域は複数の領域に分かれていてもよく、主画像は、複数の領域に分けて表示されてもよい。同様に、副画像領域は複数の領域に分かれていてもよく、副画像は複数の領域に分けて表示されてもよい。例えば、図3(b)に示されるように、同時表示モードにおいて、主画像領域Rmが2つの領域Rm1,Rm2に分かれ、副画像領域Rsが2つの領域Rs1,Rs2に分かれていてもよい。また、同時表示モードは、合成表示モードに限られず、主画像と副画像とを2つの表示画面に表示する2画面表示モードであってもよい。2画面表示モードでは、例えば、図3(c)に示されるように、並べて配置された2つの表示画面D1,D2のうち、一方の表示画面D1に主画像が表示され、他方の表示画面D2に副画像が表示される。この場合、2つの表示画面を1つの表示画面とみなし、合成表示モードと同等と考えてもよい。なお、表示画面の個数は2つに限られず、表示画像は3つ以上の複数の表示画面に表示されてもよい。また、表示画像は、テロップを含んでもよい。この場合、例えば文字テロップは主画像の一部とみなしてもよい。また例えば、案内画像に付加されるテロップは主画像の一部、広告画像に付加されるテロップは副画像の一部とみなしてもよい。また、同時表示モードには、画像のレイアウトの異なる複数種類の表示モードがあってもよい。
 再び図1を参照すると、表示モード取得部13により取得された表示モード情報は、副画像データ調整部15と表示画像データ生成部16とに入力される。
 第1の特徴量算出部14は、主画像データ入力部11から入力された主画像データの特徴量を算出し、算出した主画像データの特徴量を副画像データ調整部15に出力する。ここで、特徴量は、具体的には主画像データの画質に関する特徴量であり、例えば、1フレーム毎の画像データの輝度値の平均値(平均輝度値)、最大値(最大輝度値)、最小値(最小輝度値)、ヒストグラム(輝度ヒストグラム)や、1フレーム毎の画像データの所定の色成分または色成分毎の階調値の平均値、最大値、最小値、ヒストグラムなどである。色成分は、例えば、赤色(R)、緑色(G)、青色(B)の成分、すなわちRGB成分である。上記1フレーム毎の画像データの輝度値等の平均値等は、具体的には、1フレームを構成する複数の画素の輝度値等の平均値等である。なお、特徴量は、1フレーム毎のものに限られず、複数フレームに渡って平均化したもの(例えば複数フレーム毎の平均輝度値)や、コンテンツ単位で平均化したもの(例えばコンテンツ毎の平均輝度値)であってもよい。また、特徴量は、輝度値や階調値に限られず、鮮鋭度(明瞭度)や彩度(鮮やかさ)などでもよい。なお、本例では、主画像データは、案内画像などのグラフィック画像や文字画像の画像データであり、主画像データの1つのコンテンツ内では特徴量に大きな変化はない。
 なお、第1の特徴量算出部14は、主画像データの画面全体から特徴量を算出してもよいし、主画像データの画面のうち表示画像として表示される部分から特徴量を算出してもよい。
 副画像データ調整部15は、副画像データ入力部12から入力された副画像データに対して、表示モード取得部13から入力された表示モード情報に応じたリサイズ処理や、第1の特徴量算出部14で算出された主画像データの特徴量に基づく画質の調整等を行い、調整後の副画像データを生成して出力する。副画像データ調整部15については、後に詳しく説明する。
 表示画像データ生成部16は、表示モード取得部13から入力された表示モード情報に応じて、主画像データ入力部11から入力された主画像データと副画像データ調整部15から出力された調整後の副画像データとから、主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する。具体的には、表示画像データ生成部16は、表示モード情報で示される表示モードが主画像表示モードである場合には、主画像データを選択して表示画像データとして出力し、副画像表示モードである場合には、調整後の副画像データを選択して表示画像データとして出力する。また、表示モードが合成表示モードである場合には、主画像データと副画像データとを合成して得られる画像データを表示画像データとして出力する。例えば、表示画像データ生成部16は、主画像の画像領域の一部に副画像を上書きした画像、主画像と副画像とを領域単位で選択して合成した画像、または主画像の部分画像と副画像の部分画像とを複数組み合わせて(または貼り合わせて)得られる画像の画像データを表示画像データとして出力する。
 表示画像データ生成部16は、例えば、主画像データおよび副画像データのフレーム毎に、表示モードに応じた表示画像データの生成を行い、複数フレームで構成される表示画像データを出力する。
 表示画像データ出力部17は、例えば出力端子であり、表示画像データ生成部16により生成された表示画像データを表示部2に出力する。
 以下、副画像データ調整部15について詳しく説明する。図4は、副画像データ調整部15の構成を示すブロック図である。図4において、副画像データ調整部15は、入力端子21,22,23、リサイズ部24、第2の特徴量算出部25、画質調整部26、および出力端子27を有する。
 入力端子21は、副画像データ入力部12から副画像データの入力を受け、入力された副画像データはリサイズ部24に入力される。入力端子22は、表示モード取得部13から表示モード情報の入力を受け、入力された表示モード情報はリサイズ部24と画質調整部26とに入力される。入力端子23は、第1の特徴量算出部14から主画像データの特徴量の入力を受け、入力された主画像データの特徴量は画質調整部26に入力される。
 リサイズ部24は、入力端子21から入力された副画像データを、入力端子22から入力された表示モード情報で示される表示モードに応じてリサイズし、リサイズ後の副画像データを出力する。具体的には、リサイズ部24は、副画像データのフレーム毎に、当該フレームの画像データの画像サイズを、当該フレームに対応する表示モードに応じた画像サイズに変更し、リサイズ後のフレームの画像データを出力する。リサイズ部24は、表示モードにより必要に応じてリサイズ処理を行えばよい。リサイズ部24により生成されたリサイズ後の副画像データは、第2の特徴量算出部25と画質調整部26とに入力される。
 第2の特徴量算出部25は、リサイズ部24から出力されたリサイズ後の副画像データの特徴量を算出し、算出した副画像データの特徴量を画質調整部26に出力する。ここで、特徴量は、具体的には副画像データの画質に関する特徴量であり、例えば、1フレーム毎の画像データの輝度値の平均値(平均輝度値)、最大値(最大輝度値)、最小値(最小輝度値)、ヒストグラム(輝度ヒストグラム)や、1フレーム毎の画像データの所定の色成分または色成分毎の階調値の平均値、最大値、最小値、ヒストグラムなどである。色成分は、例えばRGB成分である。上記1フレーム毎の画像データの輝度値等の平均値等は、具体的には、1フレームを構成する複数の画素の輝度値等の平均値等である。なお、特徴量は、1フレーム毎のものに限られず、複数フレームに渡って平均化したもの(例えば複数フレーム毎の平均輝度値)や、コンテンツ単位で平均化したもの(例えばコンテンツ毎の平均輝度値)であってもよい。また、特徴量は、輝度値や階調値に限られず、鮮鋭度や彩度などでもよい。
 なお、第2の特徴量算出部25は、副画像データの画面全体から特徴量を算出してもよいし、副画像データの画面のうち表示画像として表示される部分から特徴量を算出してもよい。
 また、第2の特徴量算出部25は、入力端子21から、副画像データ入力部12に入力された副画像データの入力を受け、当該副画像データの特徴量を算出してもよい。この場合、図4において、入力端子21と第2の特徴量算出部25とが接続され、リサイズ部24と第2の特徴量算出部25との接続は省略されてもよい。
 また、以降の説明では、主画像データの特徴量および副画像データの特徴量について、1フレーム毎に特徴量を算出する場合における1つのフレームに対応する特徴量を「フレームの特徴量」と称し、1コンテンツ毎に特徴量を算出する場合における1つのコンテンツに対応する特徴量を「コンテンツの特徴量」と称す。
 画質調整部26は、入力端子23から入力された主画像データの特徴量と、第2の特徴量算出部25で算出された副画像データの特徴量とに基づき、リサイズ部24から出力されたリサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成して出力する。具体的には、画質調整部26は、主画像データの特徴量と副画像データの特徴量とから、画質調整の設定値(例えば調整レベルや調整量)を決定し、当該設定値に従ってリサイズ後の副画像データに対して画質調整を行う。例えば、画質調整部26は、調整レベルを決定した場合、副画像データの特徴量が調整レベルと一致するように画質調整を行い、調整量を決定した場合、画質調整により副画像データの特徴量が調整量だけ変化するように画質調整を行う。
 また、画質調整部26は、第2の特徴量算出部25で算出された副画像データの特徴量(すなわち調整前の副画像データの特徴量)と主画像データの特徴量との差と比べて、調整後の副画像データの特徴量と主画像データの特徴量との差が小さくなるように画質調整を行う。すなわち、画質調整部26は、画質調整により副画像データの特徴量が主画像データの特徴量に近くなるように画質調整を行う。
 画質調整部26は、例えば、副画像データのフレーム毎に上記画質調整を行う。画質調整部26は、副画像データのあるフレームFsに対して画質調整を行う場合、フレームFsに対応する主画像データの特徴量と、フレームFsに対応する副画像データの特徴量とに基づいて画質調整を行う。ここで、フレームFsに対応する主画像データの特徴量としては、例えば、フレームFsに対応する主画像データのフレーム(フレームFsと同時に表示される主画像データのフレーム)Fmの特徴量や、フレームFmが属するコンテンツの特徴量がある。また、フレームFsに対応する副画像データの特徴量としては、例えば、フレームFsの特徴量や、フレームFsが属するコンテンツの特徴量がある。
 なお、画質調整部26は、入力端子22から入力された表示モード情報に基づき、表示モードにより必要に応じて画質調整を行えばよい。
 画質調整部26により生成された調整後の副画像データは、出力端子27を介して表示画像データ生成部16に出力される。
 上記の画像処理部1は、一つの態様では、フレームの表示順(または並び順)に従って1フレームずつ、副画像データに対するリサイズと画質調整を行い、表示画像データを生成する。ただし、画像処理部1は、必ずしもフレームの表示順通りに1フレームずつ処理する必要はなく、フレームの表示順とは異なる順番で処理してもよいし、複数のフレームを並列に処理してもよい。
 以下、図5から図7を用いて、画質調整部26による画質調整の方法の一例を説明する。図5(a)は、リサイズ部24から出力された副画像データの画像(副画像)を示し、図5(b)は、当該副画像データの輝度ヒストグラムを示す。
 入力端子23から入力された主画像データの平均輝度値に比べて、第2の特徴量算出部25から出力された副画像データの平均輝度値が小さい場合、画質調整部26は、副画像データの平均輝度値を大きくするように画質調整を行う。具体的には、画質調整部26は、図6(c)で太線で示されるような上に凸なトーンカーブTC1を用いて副画像データの中間階調を上げる。図6(c)において、横軸は調整前の副画像データ(入力)の輝度値を示し、縦軸は調整後の副画像データ(出力)の輝度値を示し、細線は出力が入力と同じになる線形特性Lを示している。画質調整部26は、副画像データを構成する各画素の輝度値をトーンカーブTC1に従って調整する。このトーンカーブTC1による調整によって、図5(a)の副画像は図6(a)のように調整され、図5(b)の輝度ヒストグラムは図6(b)のように調整され、副画像データは明るくなる(すなわち副画像データの特徴量が主画像データの特徴量に近づく)方向に調整される。
 逆に、主画像データの平均輝度値に比べて副画像データの平均輝度値が大きい場合、画質調整部26は、副画像データの平均輝度値を小さくするように画質調整を行う。具体的には、画質調整部26は、図7(c)で太線で示されるような下に凸なトーンカーブTC2を用いて副画像データの中間階調を下げる。図7(c)において、横軸は調整前の副画像データ(入力)の輝度値を示し、縦軸は調整後の副画像データ(出力)の輝度値を示し、細線は出力が入力と同じになる線形特性Lを示している。画質調整部26は、副画像データを構成する各画素の輝度値をトーンカーブTC2に従って調整する。このトーンカーブTC2による調整によって、図5(a)の副画像は図7(a)のように調整され、図5(b)の輝度ヒストグラムは図7(b)のように調整され、副画像データは暗くなる(すなわち副画像データの特徴量が主画像データの特徴量に近づく)方向に調整される。
 なお、上記の例では平均輝度値を用いて画質調整する場合を示したが、副画像データの画質調整(例えば輝度調整)を行うための特徴量は、平均輝度値に限られず、例えば、最大輝度値、最小輝度値、輝度ヒストグラムや、色成分毎の階調値の平均値、最大値、最小値、ヒストグラムなどでもよい。また、画質調整部26は、最大輝度値、最小輝度値、輝度ヒストグラムや、色成分毎の階調値の平均値、最大値、最小値、ヒストグラムなどによって、明るくしたい又は暗くしたい階調を割り出し、トーンカーブの特性を調整してもよい。また、画質調整部26は、主画像データの特徴量と副画像データの特徴量との差からトーンカーブの凹凸具合を調整するように構成されてもよい。
 また、画質調整の方法は、トーンカーブを用いるものに限られず、例えば、ヒストグラムをみて、副画像データの最大値および最小値の一方または両方を上下させ、副画像データの階調幅を伸縮させることによって調整を行ってもよい。例えば、画質調整部26は、副画像データの輝度ヒストグラムの形状が画質調整前後で相似となるように、副画像データの最大輝度値および最小輝度値がそれぞれ主画像データの最大輝度値および最小輝度値に近づくように、副画像データの各画素の輝度値を調整してもよい。
 さらに、画質調整部26は、主画像データの鮮鋭度と比べて副画像データの鮮鋭度が低い場合には、副画像データの鮮鋭度を上げる処理を行ってもよく、逆の場合には副画像データの鮮鋭度を下げる処理を行ってもよい。また、画質調整部26は、主画像データの彩度と比べて副画像データの彩度が低い場合には、副画像データの彩度を上げる処理を行ってもよく、逆の場合には副画像データの彩度を下げる処理を行ってもよい。
 次に、図8を用いて、表示モードが同時表示モードである場合の画質調整の一例を示す。本例では、特徴量は、フレーム毎の平均輝度値であるものとする。
 図8(a)には、案内1、案内2、案内3、および案内4の各コンテンツからなる主画像データが示されている。案内1、案内2、案内3、および案内4は、この順で時系列に配列されており、時系列におけるそれぞれの位置(または表示時間)は、時刻TI1~TI2、時刻TI2~TI3、時刻TI3~TI4、時刻TI4~TI5である。
 図8(b)には、広告1、広告2、広告3、および広告4の各コンテンツからなる副画像データが示されている。広告1、広告2、および広告4は動画であり、広告3は静止画である。広告1、広告2、広告3、および広告4は、この順で時系列に配列されており、時系列におけるそれぞれの位置(表示時間)は、時刻TC1~TC2、時刻TC2~TC3、時刻TC3~TC4、時刻TC4~TC5である。ここで、TC1<TI1<TI2<TC2<TI3<TC3<TC4<TI4<TI5<TC5である。
 案内k(k=1,2,3,4)においては、案内k内で文字データが更新されたり、一部がアニメーション表示で動いたりする程度であり、特徴量が大きく変化することはない。動画の広告m(m=1,2,4)においては、広告m内で動きがあり、特徴量が大きく変化する。静止画の広告n(n=3)においては、広告n内で動きがないため、特徴量が変化しない。
 図8(c)には、主画像データの平均輝度値(第1の特徴量算出部14から出力された主画像データの特徴量)が示されている。図8(d)には、副画像データの平均輝度値(第2の特徴量算出部25から出力された副画像データの特徴量)が示されている。
 画質調整部26は、主画像データの特徴量と、副画像データの特徴量とから、リサイズ後の副画像データに対して画質調整を行う。図8(e)において、細い実線は画質調整前の副画像データの平均輝度値を示し、破線は主画像データの平均輝度値を示し、太い実線は画質調整後の副画像データの平均輝度値を示している。図8(e)に示されるように、画質調整部26は、副画像データの平均輝度値が主画像データの平均輝度値に近づくように、副画像データに対して画質調整を行う。具体的には、画質調整部26は、副画像データの各フレームに対して画質調整を行い、副画像データのあるフレームFsに対して画質調整を行う場合、画質調整後のフレームFsの平均輝度値Ls’が、画質調整前のフレームFsの平均輝度値LsとフレームFsに対応する主画像データのフレームFmの平均輝度値Lmとの平均値となるように、すなわちLs’=(Ls+Lm)/2となるように画質調整を行う。図3(c)のように主画像と副画像とで画素数が同じ場合には、画質調整後の副画像データの平均輝度値は、画質調整前の主画像および副画像の全体(画面全体領域)の平均輝度値と同じとなる。なお、必ずしも画質調整後の副画像データの平均輝度値が、画質調整前の副画像データの平均輝度値と主画像データの平均輝度値との平均値となる必要性はなく、その方向に画質調整がなされればよい。
 図8(f)において、細い実線は画質調整後の副画像データの平均輝度値を示し、破線は主画像データの平均輝度値を示し、太い実線は画質調整後の副画像データと主画像データとが合成された表示画像データの平均輝度値を示す。
 なお、上記の説明では、主画像と副画像とを同時に表示する場合に副画像データの画質調整を行う場合を示したが、主画像と副画像とを切り換えて表示する場合に副画像データの画質調整を行ってもよい。例えば、表示モードが主画像表示モードから副画像表示モードに切り替わる場合に、画質調整部26は、上記主画像表示モードで表示される主画像データの特徴量と、上記副画像表示モードで表示される副画像データの特徴量とに基づき、上記副画像表示モードで表示される副画像データに対して画質調整を行ってもよい。
 図9は、実施の形態1に係る表示装置100の動作(または実施の形態1に係る表示方法)を示すフローチャートである。以下、図9を参照して、表示装置100の動作について説明する。
 画像処理部1は、主画像データの入力を受けるとともに(S1)、副画像データの入力を受ける(S2)。また、画像処理部1は、表示モード情報を取得する(S3)。
 画像処理部1は、ステップS1で入力された主画像データの特徴量を算出する(S4)。また、画像処理部1は、ステップS2で入力された副画像データを、ステップS3で取得された表示モード情報に応じてリサイズし(S5)、入力された副画像データまたはリサイズ後の副画像データの特徴量を算出する(S6)。そして、画像処理部1は、ステップS4で算出された主画像データの特徴量と、ステップS6で算出された副画像データの特徴量とに基づき、リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する(S7)。そして、画像処理部1は、ステップS3で取得された表示モード情報に応じて、ステップS1で入力された主画像データおよびステップS7で生成された調整後の副画像データを合成または選択して表示画像データを生成する(S8)。表示部2は、ステップS8で生成された表示画像データを表示画面上に表示する(S9)。
 以上の通り、本実施の形態では、画像処理部は、主画像データの特徴量を算出する第1の特徴量算出部と、副画像データの特徴量を算出する第2の特徴量算出部と、主画像データの特徴量と副画像データの特徴量とに基づき、副画像データを表示モード情報に応じてリサイズして得られるリサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整部と、表示モード情報に応じて、主画像データと調整後の副画像データとから表示画像データを生成する表示画像データ生成部とを備え、画質調整部は、算出された副画像データの特徴量(すなわち調整前の副画像データの特徴量)と主画像データの特徴量との差と比べて、調整後の副画像データの特徴量と主画像データの特徴量との差が小さくなるように画質調整を行う。この構成によれば、主画像と副画像とを同時にまたは切り替えて表示する場合に、適切な画質で表示モードに応じて表示することが可能になる。
 具体的には、主画像と副画像とを同時にまたは切り替えて表示する場合に、主画像と副画像との間の特徴量の差が小さくなるように画質調整を行うことにより、画像の視認性を向上させることができる。例えば、図2(c)のように主画像と副画像を合成して表示したり、図3(c)のように主画像と副画像とを並べて表示したりする場合など、主画像と副画像とを同時に表示する場合において、主画像の輝度に比べて副画像の輝度が低いときや、主画像の輝度に比べて副画像の輝度が高いときに、画像間の輝度の差を縮めることにより、両者を同時に見た場合の見やすさを改善することができる。また、主画像と副画像とを切り替えて表示する場合において、主画像と副画像との間の輝度の差を縮めることにより、両者を時間的に連続して見た場合の見やすさを改善することができる。
 また、副画像データに対して画質調整を行うので、主画像データを変更することなく、主画像データに対して副画像データを適切な画質で表示することができ、表示画像の見やすさを改善することができる。具体的には、画質調整により主画像データを変更することがないため、表示モードや表示環境等にあわせて専用にデザインされた主画像(例えば案内画像)の画質を維持しながら、副画像(例えば広告画像)の画質を改善することができる。例えば、特許文献1に記載された表示装置では、その表示装置に表示することを目的として作成されたグラフィック画像や文字画像と、自然画像とを合成して表示する場合に、自然画像の特徴量によってグラフィック画像や文字画像が調整されることになり、グラフィック画像や文字画像の画質や見た目が変化してしまう。これに対し、本実施の形態によれば、表示装置の主画像である案内画像などのグラフィック画像や文字画像と、副画像である宣伝広告画像などの自然画像やアニメーション画像とを同時にまたは切り替えて表示する場合に、グラフィック画像や文字画像の画質を維持しつつ、自然画像やアニメーション画像をグラフィック画像や文字画像に対して最適な輝度比やコントラスト比で表示することができる。
 さらに、表示モード情報に応じて副画像データをリサイズし、主画像データとリサイズ後の副画像データとから表示モード情報に応じて表示画像データを生成するので、表示モード情報に応じた表示態様で主画像および副画像を表示することができる。
 また、表示画像が表示される領域を、副画像を表示する副画像領域(例えば広告領域)と、主画像を表示する主画像領域(例えば案内領域)とに分け、副画像領域(調整が必要な領域)のみ画質調整することにより、副画像領域と主画像領域の境界部分をあわせて調整して境界を鈍らせてしまうことがない。
実施の形態2.
 本実施の形態2に係る表示装置は、以下に説明する画質調整に用いる主画像データの特徴量の制御に関する部分を除き、実施の形態1に係る表示装置100と同様である。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
 図10は、実施の形態2に係る表示装置200の構成を示すブロック図である。図10において、表示装置200は、図1の表示装置100の構成に加えて、コンテンツ切替検出部31を有する。副画像データ入力部12に入力された副画像データは、副画像データ調整部15とコンテンツ切替検出部31とに入力される。
 コンテンツ切替検出部31は、副画像データ入力部12から入力された副画像データのコンテンツの切り替わりのタイミング(以下、「コンテンツ切替タイミング」という)を検出し、検出結果を副画像データ調整部15に出力する。例えば、宣伝広告画像を表す副画像データは、5秒、10秒、15秒など一定時間の複数のコンテンツで構成され、コンテンツ切替検出部31は、輝度変化やヒストグラム変化などに基づいてシーンチェンジを検出する方法により、副画像データのコンテンツ切替タイミングを検出する。シーンチェンジの検出方法としては、公知の方法を含む様々な方法を利用することができる。
 例えば、コンテンツ切替検出部31には、副画像データが1フレームずつ表示順に入力され、コンテンツ切替検出部31は、現在のフレームと前回のフレームとの間でシーンチェンジが検出された場合に、コンテンツ切替タイミングが検出されたことを示す検出結果を副画像データ調整部15に出力する。
 副画像データ調整部15は、副画像データ入力部12からの副画像データに対して、表示モード取得部13からの表示モード情報に応じたリサイズ処理や、第1の特徴量算出部14からの主画像データの特徴量に基づく画質の調整等を行い、調整後の副画像データを生成する。本実施の形態では、副画像データ調整部15は、コンテンツ切替検出部31から出力されるコンテンツ検出タイミングの検出結果に基づき、画質調整に用いる主画像データの特徴量を制御する。
 図11は、実施の形態2における副画像データ調整部15の構成を示すブロック図である。図11において、副画像データ調整部15は、実施の形態1における副画像データ調整部15の構成に加えて、コンテンツ切替タイミングの入力端子32を有する。
 入力端子32は、コンテンツ切替検出部31からコンテンツ切替タイミングの検出結果の入力を受け、入力端子32に入力されたコンテンツ切替タイミングの検出結果は、画質調整部26に入力される。
 画質調整部26は、副画像データのコンテンツ毎に画質調整を行う際に、画質調整の対象となる副画像データのコンテンツの切り替わりのタイミングで、画質調整に用いる主画像データの特徴量を更新(または変更)する。すなわち、画質調整部26は、コンテンツ毎に画質調整を行う際に、画質調整に用いる主画像データの特徴量として、コンテンツ毎に一定の特徴量を用いる。具体的には、副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、画質調整部26は、当該複数のコンテンツの画像データに対して1コンテンツずつ順に画質調整を行い、画質調整対象のコンテンツの切り替わりのタイミングで、画質調整に用いる主画像データの特徴量の更新(または変更)を行う。画質調整部26は、1つのコンテンツに対して画質調整を行っている期間中は、画質調整に用いる主画像データの特徴量の更新を行わない。画質調整の順番は、例えばコンテンツの表示順(または並び順)であるが、これ以外の順番であってもよい。
 図11の例では、画質調整部26は、第1の特徴量格納部33を含み、入力端子23から入力された主画像データの特徴量を第1の特徴量格納部33に一時的に格納する。また、画質調整部26は、入力端子32から入力されたコンテンツ切替タイミングの検出結果に基づき、コンテンツ切替タイミングまで第1の特徴量格納部33に格納されている主画像データの特徴量を保持し、コンテンツ切替タイミングで、第1の特徴量格納部33に格納される主画像データの特徴量を更新する。そして、画質調整部26は、第1の特徴量格納部33に格納されている主画像データの特徴量を用いて副画像データの画質調整を行う。すなわち、画質調整部26は、第1の特徴量格納部33に格納されている主画像データの特徴量と、第2の特徴量算出部25から入力された副画像データの特徴量とに基づき、画質調整の設定値を決定し、当該設定値に従って、リサイズ後の副画像データに対して画質調整を行う。
 ここで、上記主画像データの特徴量としては、フレーム毎の特徴量(例えばフレーム毎の輝度値等の平均値)が用いられてもよいが、主画像データの特徴量も一部の文字の変更や視覚効果によりコンテンツ内で小さく変動することから、ここでは、コンテンツ毎の特徴量(例えばコンテンツ毎の輝度値等の平均値)を採用することとする。
 画質調整部26には、例えば、副画像データが1フレームずつ表示順に入力されるとともに、当該副画像データのフレームの入力と同期して、当該副画像データのフレームに対応する主画像データの特徴量が入力される。ここでは、副画像データのフレームに対応する主画像データの特徴量は、副画像データのフレームに対応する主画像データのフレームが属するコンテンツの特徴量(例えばコンテンツの輝度平均値)である。そして、画質調整部26は、コンテンツ切替タイミングが検出されるまで、特徴量格納部33に格納される主画像データの特徴量を保持し、コンテンツ切替タイミングが検出されると、副画像データの切り替わり後のコンテンツの先頭フレームに対応する主画像データの特徴量により、第1の特徴量格納部33に格納される主画像データの特徴量を更新する。
 以下、図12を用いて、表示モードが同時表示モードである場合の画質調整の一例を示す。本例では、特徴量は、フレーム毎の平均輝度値であるものとする。
 図12(a)、(b)、(c)、(d)には、それぞれ、図8(a)、(b)、(c)、(d)と同様に、主画像データ、副画像データ、主画像データの平均輝度値、副画像データの平均輝度値が示されている。
 画質調整部26は、主画像データの特徴量と、副画像データの特徴量とから、リサイズ後の副画像データに対して画質調整を行う。図12(e)において、細い実線は画質調整前の副画像データの平均輝度値を示し、破線は画質調整に用いる主画像データの平均輝度値(すなわち第1の特徴量格納部33に格納されている主画像データの平均輝度値)を示し、太い実線は画質調整後の副画像データの平均輝度値を示している。図12(e)に示されるように、画質調整部26は、副画像データの平均輝度値が主画像データの平均輝度値に近づくように、副画像データの画質調整を行う。具体的には、画質調整部26は、副画像データの各フレームに対して画質調整を行い、副画像データのあるフレームFsに対して画質調整を行う場合、画質調整後のフレームFsの平均輝度値Ls’が、画質調整前のフレームFsの平均輝度値LsとフレームFsに対応する主画像データの平均輝度値Lmとの平均値となるように、すなわちLs’=(Ls+Lm)/2となるように画質調整を行う。主画像データの平均輝度値Lmとしては、第1の特徴量格納部33に格納されている主画像データの平均輝度値が用いられる。図12に示されるように、第1の特徴量格納部33に格納されている主画像データの平均輝度値は、副画像データのコンテンツ切替タイミングTC2,TC3,TC4で更新され、副画像データの同一コンテンツの期間内では一定に保持される。したがって、図8では、(e)に示される画質調整に用いる主画像データの平均輝度値(破線)が(c)に示される主画像データの平均輝度値と同じになっているが、図12では、(e)に示される画質調整に用いる主画像データの平均輝度値(破線)は、副画像データのコンテンツ切替タイミングTC2,TC3,TC4で主画像データの平均輝度値を更新した(取り込んだ)ものとなっている。
 図12(f)において、細い実線は画質調整後の副画像データの平均輝度値を示し、破線は主画像データの平均輝度値を示し、太い実線は画質調整後の副画像データと主画像データとが合成された表示画像データの平均輝度値を示す。
 以上説明した本実施の形態によれば、実施の形態1と同様の効果の他に、以下の効果が得られる。
 本実施の形態では、副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、画質調整部は、コンテンツ毎に画質調整を行う際に、コンテンツの切り替わりのタイミングで、画質調整に用いる主画像データの特徴量を更新する。この構成によれば、副画像データのコンテンツの切り替わりにて、画質調整に用いる主画像データの特徴量の更新が行われるので、画質調整に用いる主画像データの特徴量が1つのコンテンツ内で変化する場合と比べ、画質調整に用いる主画像データの特徴量の変化による表示画像上の違和感が少ない。
実施の形態3.
 本実施の形態3に係る表示装置は、以下に説明する画質調整における制御に関する部分を除き、実施の形態1に係る表示装置100と同様である。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
 本実施の形態に係る表示装置は、図10に示すように、実施の形態2と同様に、図1の表示装置100の構成に加えて、コンテンツ切替検出部31を有し、副画像データ入力部12に入力された副画像データは、副画像データ調整部15とコンテンツ切替検出部31とに入力される。
 コンテンツ切替検出部31は、実施の形態2と同様に、副画像データ入力部12から入力された副画像データのコンテンツの切り替わりのタイミング(コンテンツ切替タイミング)を検出し、検出結果を副画像データ調整部15に出力する。
 副画像データ調整部15は、副画像データ入力部12からの副画像データに対して、表示モード取得部13からの表示モード情報に応じたリサイズ処理や、第1の特徴量算出部14からの主画像データの特徴量に基づく画質の調整等を行い、調整後の副画像データを生成する。本実施の形態では、副画像データ調整部15は、コンテンツ切替検出部31から出力されるコンテンツ検出タイミングの検出結果に基づき、画質調整に用いる副画像データの特徴量を制御する。
 図13は、実施の形態3における副画像データ調整部15の構成を示すブロック図である。図13において、副画像データ調整部15は、図4に示す実施の形態1における副画像データ調整部15の構成に加えて、コンテンツ切替タイミングの入力端子41と第2の特徴量格納部42とを有する。
 入力端子41は、コンテンツ切替検出部31からコンテンツ切替タイミングの検出結果の入力を受け、入力端子41に入力されたコンテンツ切替タイミングの検出結果は、画質調整部26に入力される。
 第2の特徴量算出部25は、算出した副画像データの特徴量を画質調整部26に出力するとともに、第2の特徴量格納部42に出力する。
 第2の特徴量格納部42は、第2の特徴量算出部25から出力された副画像データの特徴量を一時的に格納し、過去の副画像データの特徴量を画質調整部26に出力する。
 画質調整部26は、入力端子23から入力された主画像データの特徴量と、第2の特徴量算出部25から出力された副画像データの特徴量と、第2の特徴量格納部42から出力された過去の副画像データの特徴量とに基づき、画質調整の設定値を決定し、当該設定値に従って、リサイズ部24から出力されたリサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する。
 本実施の形態では、副画像データが、第1のコンテンツの画像データと、第1のコンテンツに後続する第2のコンテンツの画像データを含む場合に、画質調整部26は、第2のコンテンツの画像データのうち、第1のコンテンツから第2のコンテンツへの切り替わり直後の部分に対して画質調整を行う場合、切り替わり前後での調整後の副画像データの特徴量の変化を抑制するための制御を行う。具体的には、画質調整部26は、上記切り替わり直後の部分に対して画質調整を行うとき、副画像データの特徴量として、第1のコンテンツの画像データから算出される特徴量と第2のコンテンツの画像データから算出される特徴量との間の所定の特徴量を用いる。この場合、画質調整部26は、副画像データの特徴量として、上記所定の特徴量から第2のコンテンツの画像データから算出される特徴量まで徐々に変化する特徴量を用いてもよい。ここで、「徐々に変化する」とは、第2のコンテンツの画像データの時間軸に沿って段階的または連続的に変化することを含む意味である。例えば、第2のコンテンツのn番目(n=1,2,3,…)のフレームに対する画質調整に用いられる副画像データの特徴量をCs(n)とした場合、Cs(n)は、n=1のときに上記所定の特徴量をとり、nの増加に伴って、第2のコンテンツの画像データから算出される特徴量まで段階的に変化する。
 ここで、上記切り替わり直後の部分は、例えば1フレーム分でもよいし複数フレーム分でもよい。また、第1のコンテンツの画像データから算出される特徴量は、例えば、第1のコンテンツの特徴量や、第1のコンテンツの末尾部分のフレームの特徴量である。第2のコンテンツの画像データから算出される特徴量は、例えば、第2のコンテンツの特徴量や、第2のコンテンツの先頭部分のフレームの特徴量である。また、上記徐々に変化する特徴量は、第2のコンテンツの画像データから算出される特徴量に最終的に到達してもよいし、収束してもよい。
 図13の例では、画質調整部26は、入力端子41から入力されるコンテンツ切替タイミングの検出結果に基づき、コンテンツ切替タイミングの前後で画質調整の調整レベル(または調整後の副画像データの特徴量)が大きく変化しないように、第2の特徴量算出部25から入力された副画像データの特徴量と、第2の特徴量格納部42から出力された過去の副画像データの特徴量とから、画質調整の設定値(例えば調整レベルや調整量)を決定する。具体的には、画質調整部26は、切り替わり後のコンテンツに対して画質調整を行う場合、切り替わり直後の期間において、副画像データの特徴量として、第2の特徴量格納部42から出力される切り替わり前のコンテンツの特徴量と、第2の特徴量算出部25から出力される切り替わり後のコンテンツの特徴量との間の所定の特徴量を用いる。例えば、副画像データの特徴量をコンテンツ毎の平均輝度値とした場合に、切り替わり前のコンテンツの平均輝度値がL、切り替わり後のコンテンツの平均輝度値がLaであるとき、コンテンツ切り替わり直後のフレームに対する画質調整では、副画像データの特徴量として、切り替わり後のコンテンツの平均輝度値Laではなく、下記式(1)で算出される平均輝度値Lを用いる。
=L+(La-L)×α (0<α<1) ・・・(1)
 例えば、式(1)においてα=0.8とした場合に、切り替わり前のコンテンツの平均輝度値が100、切り替わり後のコンテンツの平均輝度値が200であるとき、コンテンツ切り替わり直後のフレームに対する画質調整では、副画像データの特徴量として、100+(200-100)×0.8=180が用いられる。
 また、画質調整部26は、上記切り替わり直後の期間において、副画像データの特徴量として、上記所定の特徴量から、切り替わり後のコンテンツの画像データの特徴量(または現在の副画像データの特徴量)まで徐々に変化する特徴量を用いてもよい。例えば、副画像データの特徴量をコンテンツ毎の平均輝度値とした場合に、切り替わり前のコンテンツの平均輝度値がL、切り替わり後のコンテンツの平均輝度値がLaであるとき、コンテンツ切り替わり直後のn番目(n=1,2,3,…)のフレーム(すなわち切り替わり後のコンテンツのn番目のフレーム)に対する画質調整では、副画像データの特徴量として、切り替わり後のコンテンツの平均輝度値Laではなく、下記式(2)で算出される平均輝度値Lを用いてもよい。
=Ln-1+(La-Ln-1)×α (0<α<1) ・・・(2)
 例えば、式(2)においてα=0.8とした場合に、切り替わり前のコンテンツの平均輝度値が100、切り替わり後のコンテンツの平均輝度値が200であるとき、コンテンツ切り替わり直後の1番目のフレームに対する画質調整では、副画像データの特徴量として、100+(200-100)×0.8=180が用いられ、次の2番目のフレームに対する画質調整では、副画像データの特徴量として、180+(200-180)×0.8=196が用いられる。つまり、画質調整部26は、画質調整に用いる副画像データの特徴量を、ある一定の時定数をもって変化させる。
 以上説明した本実施の形態によれば、実施の形態1と同様の効果の他に、以下の効果が得られる。
 本実施の形態では、副画像データは、第1のコンテンツの画像データと、当該第1のコンテンツに後続する第2のコンテンツの画像データとを含み、画質調整部は、第2のコンテンツの画像データのうち、第1のコンテンツから第2のコンテンツへの切り替わり直後の部分に対して画質調整を行う場合、切り替わり前後での調整後の副画像データの特徴量の変化を抑制するための制御を行う。具体的には、画質調整部は、上記切り替わり直後の部分に対して画質調整を行う場合、副画像データの特徴量として、第1のコンテンツの画像データから算出される特徴量と第2のコンテンツの画像データから算出される特徴量との間の所定の特徴量を用いる。本実施の形態によれば、副画像データのコンテンツの切り替わりによる表示画像の急激な変化(例えば表示画像中の副画像の輝度値等の画質の急激な変化)を抑えることができ、これにより、表示画像の急激な変化による違和感を少なくし、表示画像の見やすさを向上させることができる。
 また、一つの態様では、画質調整部は、上記切り替わり直後の部分に対して画質調整を行う場合、副画像データの特徴量として、上記所定の特徴量から第2のコンテンツの画像データから算出される特徴量まで徐々に変化する特徴量を用いる。本態様によれば、副画像データのコンテンツの切り替わりによる表示画像の急激な変化を抑えつつ、徐々に第2のコンテンツに適した画質調整に移行させることができる。
実施の形態4.
 本実施の形態4に係る表示装置は、以下に説明する画質調整に用いる特徴量の制御に関する部分を除き、実施の形態1に係る表示装置100と同様である。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
 図14は、実施の形態4に係る表示装置400の構成を示すブロック図である。図14において、表示装置400は、図1の表示装置100の構成に加えて、第3の特徴量算出部51と第3の特徴量格納部52とを有する。
 第3の特徴量算出部51は、表示画像データ生成部16により生成された表示画像データの特徴量を算出し、第3の特徴量格納部52に出力する。ここで、特徴量は、具体的には表示画像データの画質に関する特徴量であり、例えば、1フレーム毎の画像データの輝度値の平均値(平均輝度値)、最大値(最大輝度値)、最小値(最小輝度値)、ヒストグラム(輝度ヒストグラム)や、1フレーム毎の画像データの所定の色成分または色成分毎の階調値の平均値、最大値、最小値、ヒストグラムなどである。色成分は、例えばRGB成分である。上記1フレーム毎の画像データの輝度値等の平均値等は、具体的には、1フレームを構成する複数の画素の輝度値等の平均値等である。なお、特徴量は、1フレーム毎のものに限られず、複数フレームに渡って平均化したもの(例えば複数フレーム毎の平均輝度値)や、コンテンツ単位で平均化したもの(例えばコンテンツ毎の平均輝度値)であってもよい。また、特徴量は、輝度値や階調値に限られず、鮮鋭度や彩度などでもよい。
 第3の特徴量格納部52は、第3の特徴量算出部51で算出された表示画像データの特徴量を格納する。また、第3の特徴量格納部52は、表示モード取得部13から入力される表示モード情報に基づき、表示モードが同時表示モードから副画像表示モードに変化するタイミングで、格納されている表示画像データの特徴量を副画像データ調整部15に出力する。
 副画像データ調整部15は、副画像データ入力部12からの副画像データに対して、表示モード取得部13からの表示モード情報に応じたリサイズ処理や、第1の特徴量算出部14からの主画像データの特徴量に基づく画質の調整等を行い、調整後の副画像データを生成する。本実施の形態では、表示モードが同時表示モードから副画像表示モードに変化する場合に、第3の特徴量格納部52から出力される表示画像データの特徴量を用いて画質調整を行う。
 図15は、実施の形態4における副画像データ調整部15の構成を示すブロック図である。図15において、副画像データ調整部15は、実施の形態1における副画像データ調整部15の構成に加えて、表示画像データの特徴量の入力端子53を有する。
 入力端子53は、第3の特徴量格納部52から表示画像データの特徴量の入力を受け、入力端子53に入力された表示画像データの特徴量は、画質調整部26に入力される。
 画質調整部26は、入力端子23から入力された主画像データの特徴量と、第2の特徴量算出部25から出力された副画像データの特徴量と、入力端子53から入力された表示画像データの特徴量とに基づき、画質調整の設定値を決定し、当該設定値に従って、リサイズ部24から出力されたリサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する。
 本実施の形態では、画質調整部26は、表示モード取得部13で取得された表示モード情報により示される表示モードが同時表示モードから副画像表示モードに切り替わる場合、当該切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、少なくとも切り替わり直後において、主画像データの特徴量の代わりに、第3の特徴量算出部51で算出された上記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量を用いる。基準の特徴量は、例えば、上記切り替わり前の表示モードに対応する表示画像データの特徴量である。また、上記切り替わり前の表示モードに対応する表示画像データの特徴量は、例えば、表示モードが副画像表示モードに切り替わる直前の所定期間(例えば1または複数フレームの期間)における表示画像データの特徴量である。
 また、上記基準の特徴量は、上記切り替わり前の表示モードに対応する表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であってもよい。ここで、「徐々に変化する」とは、副画像データの時間軸に沿って段階的または連続的に変化することを含む意味である。例えば、副画像データのn番目(n=1,2,3,…)のフレームに対する画質調整に用いられる基準の特徴量をCr(n)とした場合、Cr(n)は、n=1のときに上記表示画像データの特徴量をとり、nの増加に伴って、上記予め設定された値まで段階的に変化する。上記徐々に変化する特徴量は、上記予め設定された値に最終的に到達してもよいし、収束してもよい。また、上記予め設定された値は、副画像表示モードに応じて設定される値であり、例えば副画像表示モードにおいて副画像の良好な視認性が得られるように設定される。
 上記構成において、画質調整部26は、表示画像データを表示する表示部2の周辺環境に応じて上記値を決定してもよく、例えば、表示部2の照度および表示部2のバックライトの輝度のうち少なくとも1つに基づいて上記値を決定してもよい。具体的には、画質調整部26は、図示しない照度検出部から表示部2の周辺の照度を取得し、図示しないバックライト制御部から表示部2のバックライトの輝度を取得し、取得した周辺の照度およびバックライトの輝度に基づいて上記値を決定してもよい。
 なお、表示モードが同時表示モードまたは主画像表示モードである場合など、上記以外の場合には、画質調整部26は、実施の形態1と同様に画質調整を行う。
 以下、表示モードが、同時表示モードから副画像表示モードに変化する場合における画像処理部1の処理を具体的に示す。
 同時表示モードにおける表示画像データの特徴量は、第3の特徴量算出部51により算出され、第3の特徴量格納部52に格納される。この表示画像データの特徴量は、例えば図8や図12の(f)に示される平均輝度値である。表示モードが副画像表示モードに変化したとき、表示モード取得部13からその変化を示す情報が第3の特徴量格納部52に入力され、第3の特徴量格納部52に格納されている表示画像データの特徴量が、副画像データ調整部15に出力される。
 副画像データ調整部15では、画質調整部26は、第3の特徴量格納部52から入力端子53を介して上記表示画像データの特徴量の入力を受け、主画像データの特徴量を基準とする代わりに、入力された上記表示画像データの特徴量を基準として、副画像データの画質調整を行う。このとき、画質調整部26は、切り替わり直後は合成表示モード時の表示画像データの特徴量を基準として画質調整を行い、その後、徐々に時間をかけて画質調整の基準とする特徴量を予め設定された値に収束させてもよい。
 なお、画像処理部1は、表示モードが主画像表示モードから副画像表示モードに切り替わる場合に、上記と同様の処理を行ってもよい。
 以上説明した本実施の形態によれば、実施の形態1と同様の効果の他に、以下の効果が得られる。
 本実施の形態では、画像処理部は、表示画像データの特徴量を算出する第3の特徴量算出部をさらに備え、画質調整部は、表示モード情報により示される表示モードが同時表示モードまたは主画像表示モードから副画像表示モードに切り替わる場合、切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、主画像データの特徴量の代わりに、第3の特徴量算出部で算出された切り替わり前の表示モードに対応する表示画像データの特徴量を用いる。すなわち、画質調整部は、表示モード情報により示される表示モードが同時表示モードまたは主画像表示モードから副画像表示モードに切り替わる場合、切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、第2の特徴量算出部で算出された副画像データの特徴量と第3の特徴量算出部で算出された切り替わり前の表示モードに対応する表示画像データの特徴量との差と比べて、調整後の副画像データの特徴量と上記表示画像データの特徴量との差が小さくなるように画質調整を行う。この構成によれば、表示モードが同時表示モードまたは主画像表示モードから副画像表示モードに切り替わる場合に、切り替わり前の表示画像データの特徴量と切り替わり後の表示画像データ(調整後の副画像データ)の特徴量との差を小さくすることにより、表示モード切り替わり時の表示画像の輝度等の特徴量の変化を小さくすることができ、画像の視認性を向上させることができる。具体的には、表示モードが同時表示モードから副画像表示モードに切り替わる場合に、同時表示モード時の画面全体の輝度に比べて副画像表示モード時の副画像の輝度が低いときや、同時表示モード時の画面全体の輝度に比べて副画像表示モード時の副画像の輝度が高いときに、切り替わり時の輝度差(輝度変化)を縮めることにより、両者を時間的に連続して見た場合の見やすさを改善することができる。
 また、一つの態様では、画質調整部は、上記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、主画像データの特徴量の代わりに、上記切り替わり前の表示モードに対応する表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量を用いる。本態様によれば、表示モード切り替わり時の表示画像データの特徴量の変化を抑えつつ、徐々に副画像表示モードに適した画質調整に移行させることができ、違和感の少ない表示が可能になる。
 さらに、一つの態様では、画質調整部は、表示部の周辺の照度やバックライトの輝度など、表示部の周辺環境に応じて上記値を決定する。本態様によれば、表示部の周辺環境に応じた適切な画質調整を行うことができる。
 なお、本実施の形態4では、第1の特徴量算出部14は省略されてもよく、第1の特徴量算出部14で算出された主画像データの特徴量に基づく画質調整は省略されてもよい。例えば、同時表示モードや主画像表示モードにおける副画像データに対する画質調整は省略されてもよく、画像処理部1は、切り替わり後の副画像表示モードに対応する副画像データに対してのみ画質調整を行うように構成されてもよい。
実施の形態5.
 本実施の形態5に係る表示装置は、以下に説明する主画像データの補正に関する部分を除き、実施の形態1に係る表示装置100と同様である。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
 図16は、実施の形態5に係る表示装置500の構成を示すブロック図である。図16において、表示装置500は、図1の表示装置100の構成に加えて、表示環境情報取得部61と主画像データ補正部62とを有する。
 表示環境情報取得部61は、表示画像データを表示する表示部2の周辺環境に関する情報である表示環境情報を取得する。表示環境情報は、例えば、表示部2の周辺照度を示す照度情報や、表示部2に照射されるバックライト等の輝度を示す輝度情報である。ここでは、表示環境情報取得部61は、表示環境情報の入力を受ける入力端子であり、図示しない照度検出部からの照度情報や、図示しないバックライト制御部からの輝度情報を受ける。
 主画像データ補正部62は、表示環境情報取得部61により取得された表示環境情報に基づき、表示部2の周辺環境に応じて、主画像データ入力部11から入力される主画像データを補正する。具体的には、主画像データ補正部62は、表示部2の周辺照度が低い場合には、主画像データの平均輝度を下げるように補正を行い、逆に、表示部2の周辺照度が高い場合には、主画像データの平均輝度を上げるように補正を行う。また、主画像データ補正部62は、節電等のためにバックライトの輝度が下げられた場合に、その分を補うように主画像データの輝度を上げるように補正してもよい。
 主画像データ補正部62により補正された主画像データは、第1の特徴量算出部14と表示画像データ生成部16とに入力される。第1の特徴量算出部14および表示画像データ生成部16は、主画像データ入力部11に入力された主画像データの代わりに、主画像データ補正部62により補正された主画像データを用いる。
 以上説明した本実施の形態によれば、実施の形態1と同様の効果の他に、以下の効果が得られる。
 本実施の形態では、画像処理部は、表示部の周辺環境に応じて主画像データを補正する主画像データ補正部をさらに備え、第1の特徴量算出部および表示画像データ生成部は、主画像データ入力部に入力された主画像データの代わりに、主画像データ補正部により補正された主画像データを用いる。この構成によれば、表示部の周辺環境に応じて適切に主画像データを表示することができる。また、例えば、当該表示装置向けに用意された案内表示などの主画像データについても、表示装置の周辺環境に応じて補正することが好ましい場合があり、主画像データに対して事前に適切な補正をかけることによって、以降の副画像データの調整を適切に行うことができる。
 以上説明した実施の形態1~5において、画像処理部の機能は、電子回路などのハードウェア資源のみにより実現されてもよいし、ハードウェア資源とソフトウェアとの協働により実現されてもよい。ハードウェア資源とソフトウェアとの協働により実現される場合、画像処理部の機能は、例えば画像処理プログラムがコンピュータにより実行されることによって実現される。より具体的には、画像処理部の機能は、ROM(Read Only Memory)等の記録媒体に記録された画像処理プログラムが主記憶装置に読み出されて中央処理装置(CPU:Central Processing Unit)により実行されることによって実現される。画像処理プログラムは、光ディスク等のコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネット等の通信回線を介して提供されてもよい。
 なお、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。
 例えば、上記各実施の形態では、主に特徴量として平均輝度値を用いて説明したが、これに限るものではなく、最大輝度値、最小輝度値、色成分毎の階調値の平均値、最大値、最小値など、他の特徴量を用いる場合にも同様の効果が得られる。
 また、上記各実施の形態において、画質調整部26は、主画像データの特徴量の代わりに、表示モード取得部13により取得された表示モード情報により示される表示モードに応じた設定値を用いて画質調整を行ってもよい。すなわち、画質調整部26は、副画像データの特徴量が各表示モードに応じた設定値に近くなるように画質調整を行ってもよい。
 また、上記各実施の形態において、画像処理部1は、リサイズ部24で副画像データをリサイズする代わりに、副画像データを表示モード情報に応じてリサイズして得られるリサイズ後の副画像データを、外部から取得してもよい。この場合、リサイズ部24は省略されてもよい。
 また、上記各実施の形態の構成は、適宜組み合わせることができる。例えば、実施の形態3は実施の形態2と、実施の形態4は実施の形態2または3と、実施の形態5は実施の形態2、3、または4と組み合わされてもよい。
 1 画像処理部、 2 表示部、 11 主画像データ入力部、 12 副画像データ入力部、 13 表示モード取得部、 14 第1の特徴量算出部、 15 副画像データ調整部、 16 表示画像データ生成部、 17 表示画像データ出力部、 24 リサイズ部、 25 第2の特徴量算出部、 26 画質調整部、 31 コンテンツ切替検出部、 33 第1の特徴量格納部、 42 第2の特徴量格納部、 51 第3の特徴量算出部、 52 第3の特徴量格納部、 61 表示環境情報取得部、 62 主画像データ補正部、 100,200,400,500 表示装置。

Claims (19)

  1.  主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理装置であって、
     前記主画像を表す主画像データの入力を受ける主画像データ入力手段と、
     前記副画像を表す副画像データの入力を受ける副画像データ入力手段と、
     前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得手段と、
     前記主画像データ入力手段に入力された主画像データの特徴量を算出する第1の特徴量算出手段と、
     前記副画像データ入力手段に入力された副画像データ、または前記副画像データを前記表示モード取得手段により取得された表示モード情報に応じてリサイズして得られるリサイズ後の副画像データの特徴量を算出する第2の特徴量算出手段と、
     前記第1の特徴量算出手段で算出された主画像データの特徴量と、前記第2の特徴量算出手段で算出された副画像データの特徴量とに基づき、前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整手段と、
     前記表示モード取得手段により取得された表示モード情報に応じて、前記主画像データ入力手段に入力された主画像データと前記画質調整手段により生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成手段と、
     を備え、
     前記画質調整手段は、前記算出された副画像データの特徴量と前記主画像データの特徴量との差と比べて、前記調整後の副画像データの特徴量と前記主画像データの特徴量との差が小さくなるように前記画質調整を行い、
     前記副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、前記画質調整手段は、前記コンテンツ毎に前記画質調整を行う際に、前記画質調整の対象となるコンテンツの切り替わりのタイミングで、前記画質調整に用いる主画像データの特徴量を更新することを特徴とする画像処理装置。
  2.  前記主画像データは、グラフィック画像または文字画像の画像データであり、
     前記副画像データは、自然画像またはアニメーション画像の画像データである、
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記副画像データは、第1のコンテンツの画像データと、前記第1のコンテンツに後続する第2のコンテンツの画像データとを含み、
     前記画質調整手段は、前記第2のコンテンツの画像データのうち、前記第1のコンテンツから前記第2のコンテンツへの切り替わり直後の部分に対して前記画質調整を行う場合、前記切り替わり前後での前記調整後の副画像データの特徴量の変化を抑制するための制御を行う、ことを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記画質調整手段は、前記切り替わり直後の部分に対して前記画質調整を行う場合、前記副画像データの特徴量として、前記第1のコンテンツの画像データから算出される特徴量と前記第2のコンテンツの画像データから算出される特徴量との間の所定の特徴量を用いることを特徴とする請求項3に記載の画像処理装置。
  5.  前記画質調整手段は、前記切り替わり直後の部分に対して前記画質調整を行う場合、前記副画像データの特徴量として、前記所定の特徴量から前記第2のコンテンツの画像データから算出される特徴量まで徐々に変化する特徴量を用いることを特徴とする請求項4に記載の画像処理装置。
  6.  前記表示画像データ生成手段により生成された表示画像データの特徴量を算出する第3の特徴量算出手段をさらに備え、
     前記画質調整手段は、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記主画像データの特徴量の代わりに、前記第3の特徴量算出手段で算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量を用いる、ことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7.  前記画質調整手段は、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記主画像データの特徴量の代わりに、前記切り替わり前の表示モードに対応する表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量を用いることを特徴とする請求項6に記載の画像処理装置。
  8.  主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理装置であって、
     前記主画像を表す主画像データの入力を受ける主画像データ入力手段と、
     前記副画像を表す副画像データの入力を受ける副画像データ入力手段と、
     前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得手段と、
     前記副画像データ入力手段に入力された副画像データ、または前記副画像データを前記表示モード取得手段により取得された表示モード情報に応じてリサイズして得られるリサイズ後の副画像データの特徴量を算出する第2の特徴量算出手段と、
     前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整手段と、
     前記表示モード取得手段により取得された表示モード情報に応じて、前記主画像データ入力手段に入力された主画像データと前記画質調整手段により生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成手段と、
     前記表示画像データ生成手段により生成された表示画像データの特徴量を算出する第3の特徴量算出手段と、を備え、
     前記画質調整手段は、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記第3の特徴量算出手段で算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量に基づき、前記算出された副画像データの特徴量と前記基準の特徴量との差と比べて、前記調整後の副画像データの特徴量と前記基準の特徴量との差が小さくなるように前記画質調整を行い、
     前記基準の特徴量は、前記表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であることを特徴とする画像処理装置。
  9.  前記画質調整手段は、前記表示画像データに基づいて画像を表示する表示手段の周辺環境に応じて前記値を決定することを特徴とする請求項7または8に記載の画像処理装置。
  10.  前記画質調整手段は、前記主画像データの特徴量の代わりに、前記表示モード取得手段により取得された表示モード情報により示される表示モードに応じた設定値を用いることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  11.  前記各特徴量は、各画像データの1フレーム毎の輝度値の平均値、最大値、最小値、およびヒストグラム、ならびに各画像データの1フレーム毎の所定の色成分の階調値の平均値、最大値、最小値、およびヒストグラムのうち少なくとも1つを含むことを特徴とする請求項1から10に記載の画像処理装置。
  12.  前記表示画像データに基づいて画像を表示する表示手段の周辺環境に応じて、前記主画像データ入力手段に入力された主画像データを補正する主画像データ補正手段をさらに備え、
     前記第1の特徴量算出手段および前記表示画像データ生成手段は、前記主画像データ入力手段に入力された主画像データの代わりに、前記主画像データ補正手段により補正された主画像データを用いる、ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13.  請求項1から12のいずれか1項に記載の画像処理装置と、
     前記表示画像データ生成手段により生成された表示画像データに基づいて画像を表示する表示手段と、
     を備えることを特徴とする表示装置。
  14.  主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理方法であって、
     前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
     前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
     前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
     前記主画像データ入力ステップで入力された主画像データの特徴量を算出する第1の特徴量算出ステップと、
     前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップにより取得された表示モード情報に応じてリサイズして得られるリサイズ後の副画像データの特徴量を算出する第2の特徴量算出ステップと、
     前記第1の特徴量算出ステップで算出された主画像データの特徴量と、前記第2の特徴量算出ステップで算出された副画像データの特徴量とに基づき、前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
     前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
     を有し、
     前記画質調整ステップは、前記算出された副画像データの特徴量と前記主画像データの特徴量との差と比べて、前記調整後の副画像データの特徴量と前記主画像データの特徴量との差が小さくなるように前記画質調整を行い、
     前記副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、前記画質調整ステップは、前記コンテンツ毎に前記画質調整を行う際に、前記画質調整の対象となるコンテンツの切り替わりのタイミングで、前記画質調整に用いる主画像データの特徴量を更新することを特徴とする画像処理方法。
  15.  主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理方法であって、
     前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
     前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
     前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
     前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップにより取得された表示モード情報に応じてリサイズして得られる副画像データの特徴量を算出する第2の特徴量算出ステップと、
     前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
     前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
     前記表示画像データ生成ステップで生成された表示画像データの特徴量を算出する第3の特徴量算出ステップと、
     を有し、
     前記画質調整ステップは、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記第3の特徴量算出ステップで算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量に基づき、前記算出された副画像データの特徴量と前記基準の特徴量との差と比べて、前記調整後の副画像データの特徴量と前記基準の特徴量との差が小さくなるように前記画質調整を行い、
     前記基準の特徴量は、前記表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であることを特徴とする画像処理方法。
  16.  前記主画像データは、グラフィック画像または文字画像の画像データであり、
     前記副画像データは、自然画像またはアニメーション画像の画像データである、
     ことを特徴とする請求項14または15に記載の画像処理方法。
  17.  請求項14から16のいずれか1項に記載の画像処理方法と、
     前記表示画像データ生成ステップで生成された表示画像データに基づいて画像を表示する表示ステップと、
     を有することを特徴とする表示方法。
  18.  主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理プログラムであって、
     前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
     前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
     前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
     前記主画像データ入力ステップで入力された主画像データの特徴量を算出する第1の特徴量算出ステップと、
     前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップで取得された表示モード情報に応じてリサイズして得られる副画像データの特徴量を算出する第2の特徴量算出ステップと、
     前記第1の特徴量算出ステップで算出された主画像データの特徴量と、前記第2の特徴量算出ステップで算出された副画像データの特徴量とに基づき、前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
     前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
     をコンピュータに実行させ、
     前記画質調整ステップは、前記算出された副画像データの特徴量と前記主画像データの特徴量との差と比べて、前記調整後の副画像データの特徴量と前記主画像データの特徴量との差が小さくなるように前記画質調整を行い、
     前記副画像データは、時系列に並ぶ複数のコンテンツの画像データを含み、前記画質調整ステップは、前記コンテンツ毎に前記画質調整を行う際に、前記画質調整の対象となるコンテンツの切り替わりのタイミングで、前記画質調整に用いる主画像データの特徴量を更新することを特徴とする画像処理プログラム。
  19.  主画像と副画像とを同時にまたは切り替えて表示するための表示画像データを生成する画像処理プログラムであって、
     前記主画像を表す主画像データの入力を受ける主画像データ入力ステップと、
     前記副画像を表す副画像データの入力を受ける副画像データ入力ステップと、
     前記主画像および前記副画像を表示するときの表示モードを示す表示モード情報を取得する表示モード取得ステップと、
     前記副画像データ入力ステップで入力された副画像データ、または前記副画像データを前記表示モード取得ステップで取得された表示モード情報に応じてリサイズして得られる副画像データの特徴量を算出する第2の特徴量算出ステップと、
     前記リサイズ後の副画像データに対して画質調整を行い、調整後の副画像データを生成する画質調整ステップと、
     前記表示モード取得ステップで取得された表示モード情報に応じて、前記主画像データ入力ステップで入力された主画像データと前記画質調整ステップで生成された調整後の副画像データとから、前記表示画像データを生成する表示画像データ生成ステップと、
     前記表示画像データ生成ステップで生成された表示画像データの特徴量を算出する第3の特徴量算出ステップと、
     をコンピュータに実行させ、
     前記画質調整ステップは、前記表示モード情報により示される表示モードが、主画像と副画像とを同時に表示する同時表示モードまたは主画像だけを表示する主画像表示モードから、副画像だけを表示する副画像表示モードに切り替わる場合、前記切り替わり後の副画像表示モードに対応する副画像データに対して画質調整を行うとき、前記第3の特徴量算出ステップで算出された前記切り替わり前の表示モードに対応する表示画像データの特徴量から得られる基準の特徴量に基づき、前記算出された副画像データの特徴量と前記基準の特徴量との差と比べて、前記調整後の副画像データの特徴量と前記基準の特徴量との差が小さくなるように前記画質調整を行い、
     前記基準の特徴量は、前記表示画像データの特徴量から予め設定された値まで徐々に変化する特徴量であることを特徴とする画像処理プログラム。
PCT/JP2013/065450 2012-08-10 2013-06-04 画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム WO2014024553A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP13827920.3A EP2884741B1 (en) 2012-08-10 2013-06-04 Image processing device, display device, image processing method, display method, and image processing program
US14/409,415 US9830722B2 (en) 2012-08-10 2013-06-04 Image processing device, display device, image processing method, display method, and image processing program
JP2014529336A JP5885847B2 (ja) 2012-08-10 2013-06-04 画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム
EP17173436.1A EP3244395B1 (en) 2012-08-10 2013-06-04 Image processing device, display device, image processing method, display method, and image processing program
HK15110903.8A HK1210343A1 (en) 2012-08-10 2015-11-05 Image processing device, display device, image processing method, display method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012178009 2012-08-10
JP2012-178009 2012-08-10

Publications (1)

Publication Number Publication Date
WO2014024553A1 true WO2014024553A1 (ja) 2014-02-13

Family

ID=50067796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065450 WO2014024553A1 (ja) 2012-08-10 2013-06-04 画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム

Country Status (5)

Country Link
US (1) US9830722B2 (ja)
EP (2) EP3244395B1 (ja)
JP (1) JP5885847B2 (ja)
HK (1) HK1210343A1 (ja)
WO (1) WO2014024553A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144171A (ja) * 2015-02-05 2016-08-08 三菱電機株式会社 映像再生装置及び方法、並びにプログラム及び記録媒体
WO2017078432A1 (en) * 2015-11-04 2017-05-11 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2558000B (en) * 2016-12-21 2020-06-10 Apical Ltd Display control
GB2558234B (en) * 2016-12-22 2020-05-13 Apical Ltd Image processing
JP6891913B2 (ja) * 2019-03-25 2021-06-18 カシオ計算機株式会社 電子表示装置及び表示制御方法
US11798457B2 (en) * 2019-05-23 2023-10-24 Lg Electronics Inc. Display device
JP6861873B2 (ja) * 2020-06-18 2021-04-21 三菱電機株式会社 映像再生方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154064A (ja) 2004-11-26 2006-06-15 Matsushita Electric Ind Co Ltd 表示方法及び表示装置
JP2009069613A (ja) * 2007-09-14 2009-04-02 Fujitsu Ten Ltd 画質制御装置及び画質制御方法
JP2009105505A (ja) * 2007-10-19 2009-05-14 Sony Corp 映像表示システム、映像表示方法、表示制御装置
WO2011004666A1 (ja) * 2009-07-06 2011-01-13 三菱電機株式会社 列車搭載コンテンツ配信システムおよび列車コンテンツ情報の表示方法
JP2012006453A (ja) * 2010-06-23 2012-01-12 Denso Corp 車両用表示装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH077685A (ja) 1993-06-16 1995-01-10 Hitachi Ltd テレビジョン受像機
JPH0738820A (ja) 1993-07-20 1995-02-07 Fujitsu General Ltd 2画面表示映像信号処理回路
JP3435880B2 (ja) 1995-03-13 2003-08-11 株式会社日立製作所 画像表示装置
US5978041A (en) 1994-10-24 1999-11-02 Hitachi, Ltd. Image display system
JP3389805B2 (ja) 1997-01-17 2003-03-24 松下電器産業株式会社 子画面デコーダー装置
US6879728B1 (en) * 2000-02-11 2005-04-12 Sony Corporation Multiple image harmonization system
JP2003316314A (ja) * 2001-12-27 2003-11-07 Sony Corp プラズマ表示装置、並びにその輝度補正方法およびその表示方法
JP2004194311A (ja) * 2002-11-29 2004-07-08 Matsushita Electric Ind Co Ltd 映像再生装置及び映像再生方法
JP2007180641A (ja) * 2005-12-27 2007-07-12 Sony Corp 撮像装置及び撮像装置の表示方法
JP5013832B2 (ja) * 2006-12-05 2012-08-29 キヤノン株式会社 映像制御装置及びその方法
JP2009276702A (ja) 2008-05-19 2009-11-26 Mitsubishi Electric Corp 画像表示装置
JP5108840B2 (ja) * 2009-07-29 2012-12-26 クラリオン株式会社 車両用周辺監視装置および車両用周辺画像表示方法
US8565516B2 (en) 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
JP2011203342A (ja) 2010-03-24 2011-10-13 Mitsubishi Electric Corp 車載用表示装置
US20120096344A1 (en) * 2010-10-19 2012-04-19 Google Inc. Rendering or resizing of text and images for display on mobile / small screen devices
JP5921080B2 (ja) * 2011-04-28 2016-05-24 キヤノン株式会社 撮像装置及びその制御方法
JP5725965B2 (ja) * 2011-04-28 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154064A (ja) 2004-11-26 2006-06-15 Matsushita Electric Ind Co Ltd 表示方法及び表示装置
JP2009069613A (ja) * 2007-09-14 2009-04-02 Fujitsu Ten Ltd 画質制御装置及び画質制御方法
JP2009105505A (ja) * 2007-10-19 2009-05-14 Sony Corp 映像表示システム、映像表示方法、表示制御装置
WO2011004666A1 (ja) * 2009-07-06 2011-01-13 三菱電機株式会社 列車搭載コンテンツ配信システムおよび列車コンテンツ情報の表示方法
JP2012006453A (ja) * 2010-06-23 2012-01-12 Denso Corp 車両用表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2884741A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144171A (ja) * 2015-02-05 2016-08-08 三菱電機株式会社 映像再生装置及び方法、並びにプログラム及び記録媒体
WO2017078432A1 (en) * 2015-11-04 2017-05-11 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US10306219B2 (en) 2015-11-04 2019-05-28 Samsung Electronics Co., Ltd. Display apparatus and control method thereof for detecting video content switch

Also Published As

Publication number Publication date
US9830722B2 (en) 2017-11-28
JP5885847B2 (ja) 2016-03-16
HK1210343A1 (en) 2016-04-15
EP3244395A1 (en) 2017-11-15
EP2884741A1 (en) 2015-06-17
EP3244395B1 (en) 2018-07-25
US20150325019A1 (en) 2015-11-12
EP2884741B1 (en) 2018-01-17
JPWO2014024553A1 (ja) 2016-07-25
EP2884741A4 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
JP5885847B2 (ja) 画像処理装置、表示装置、画像処理方法、表示方法、および画像処理プログラム
US6771243B2 (en) Display device and method for driving the same
JP5127121B2 (ja) 表示装置及び表示方法
JP5196731B2 (ja) 画像処理装置及び画像処理方法
JP5005757B2 (ja) 画像表示装置
JP2009020340A (ja) 表示装置及び表示装置駆動回路
JP5079017B2 (ja) 表示装置
US9704443B2 (en) Liquid crystal display apparatus and display method
JP2008209828A (ja) 画像表示装置及び電子機器
US20080079674A1 (en) Display device and method for driving the same
JP2004246099A (ja) 画像表示方法、画像表示装置及び電子機器
JP2007333770A (ja) 電気光学装置、電気光学装置用駆動回路、及び電気光学装置の駆動方法、並びに電子機器
JP2019040135A (ja) 表示装置及びテレビジョン受信装置
US9582241B2 (en) Control apparatus and control method thereof
JP5293923B2 (ja) 画像処理方法及び装置、画像表示装置並びにプログラム
JP5903283B2 (ja) 画像処理装置、画像表示システム、および画像表示方法
US20150002515A1 (en) Method for displaying multi-gradation characters, device for displaying multi-gradation characters, television receiver provided with device for displaying multi-gradation characters, mobile equipment provided with device for displaying multi-gradation characters, and recording medium
JP2010048958A (ja) 画像処理装置、その処理方法および画像表示システム
US20120287133A1 (en) Image processing apparatus and image processing method
JP2005117266A (ja) 画像投写システムの駆動回路
JP4862866B2 (ja) 画像表示装置および画像表示方法
JP2014203034A (ja) 表示制御装置
US20110164049A1 (en) Image signal distribution apparatus and control method thereof, and program
JP6080241B2 (ja) 画像処理装置
KR102423637B1 (ko) 표시장치 및 이의 구동방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13827920

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014529336

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14409415

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013827920

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE