JP2023172980A - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP2023172980A
JP2023172980A JP2022084883A JP2022084883A JP2023172980A JP 2023172980 A JP2023172980 A JP 2023172980A JP 2022084883 A JP2022084883 A JP 2022084883A JP 2022084883 A JP2022084883 A JP 2022084883A JP 2023172980 A JP2023172980 A JP 2023172980A
Authority
JP
Japan
Prior art keywords
image
index value
size
image quality
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022084883A
Other languages
Japanese (ja)
Inventor
貴史 神田
Takashi Kanda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022084883A priority Critical patent/JP2023172980A/en
Priority to CN202310593868.6A priority patent/CN117174042A/en
Priority to US18/201,299 priority patent/US20230403446A1/en
Publication of JP2023172980A publication Critical patent/JP2023172980A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image display device and an image display method for properly adjusting image quality regarding a specific color.SOLUTION: An image display device includes: an image acquisition unit for acquiring an input image; an object detection unit which detects a predetermined object from the input image; a size acquisition unit which determines a size of the predetermined object; a determination unit which determines whether to adjust image quality regarding a specific color of the predetermined object on the basis of the size of the predetermined object; an image quality adjustment unit which adjusts image quality of a region which is at least a part of the input image regarding the specific color; and a display control unit which controls the input image with adjusted image quality to be displayed on a display panel.SELECTED DRAWING: Figure 3

Description

本発明は、画像表示装置及び画像表示方法等に関する。 The present invention relates to an image display device, an image display method, and the like.

従来、画像中の特定色に関して画質の調整を行う手法が知られている。例えば特許文献1には、顔の肌色等の特定色が含まれる画素数をカウントした結果に基づき、特定色の画素数の割合が大きい場合は、特定色領域に好適な補正を行う手法が開示されている。 2. Description of the Related Art Conventionally, methods are known for adjusting the image quality of specific colors in an image. For example, Patent Document 1 discloses a method of performing correction suitable for a specific color area when the proportion of pixels of a specific color is large, based on the result of counting the number of pixels that include a specific color such as the skin color of a face. has been done.

特開2004-297617号公報Japanese Patent Application Publication No. 2004-297617

特許文献1の手法は、肌色等の特定色の画素情報に基づいて、補正を行うか否かを判定する。しかし、マスクやサングラス等で顔の一部が隠れる、顔がぼやけている等の状況では、肌色の画素数が少なくなる。そのため特許文献1の手法では、入力画像に占める顔の割合が大きい場合でも、顔の肌色に好適な補正を行えない可能性がある。 The method disclosed in Patent Document 1 determines whether or not to perform correction based on pixel information of a specific color such as skin color. However, in situations where part of the face is hidden by a mask, sunglasses, etc., or the face is blurred, the number of pixels for skin color decreases. Therefore, with the method of Patent Document 1, even when the proportion of the face in the input image is large, there is a possibility that suitable correction cannot be performed on the skin color of the face.

本開示のいくつかの態様によれば、特定色に関する画質の調整を適切に行う画像表示装置及び画像表示方法等を提供できる。 According to some aspects of the present disclosure, it is possible to provide an image display device, an image display method, and the like that appropriately adjust image quality regarding a specific color.

本開示の一態様は、入力画像を取得する画像取得部と、前記入力画像から所定のオブジェクトを検出するオブジェクト検出部と、前記所定のオブジェクトのサイズを求めるサイズ取得部と、前記所定のオブジェクトの前記サイズに基づいて、前記所定のオブジェクトが有する特定色に関して画質を調整するか否かを判定する判定部と、前記判定部において前記画質の調整を行うと判定された場合、前記特定色に関して、前記入力画像の少なくとも一部の領域の前記画質を調整する画質調整部と、前記画質が調整された前記入力画像を表示パネルに表示する制御を行う表示制御部と、を含む画像表示装置に関係する。 One aspect of the present disclosure includes: an image acquisition unit that acquires an input image; an object detection unit that detects a predetermined object from the input image; a size acquisition unit that determines the size of the predetermined object; a determination unit that determines whether or not to adjust image quality with respect to a specific color that the predetermined object has based on the size; and when the determination unit determines that the image quality is to be adjusted, with respect to the specific color; An image display device including: an image quality adjustment unit that adjusts the image quality of at least a part of the input image; and a display control unit that controls displaying the input image with the image quality adjusted on a display panel. do.

本開示の他の態様は、入力画像を取得し、前記入力画像から所定のオブジェクトを検出し、前記所定のオブジェクトのサイズを求め、前記所定のオブジェクトの前記サイズに基づいて、前記所定のオブジェクトが有する特定色に関する画質を調整するか否か判定し、前記画質の調整を行うと判定された場合、前記特定色に関して、前記入力画像の少なくとも一部の領域の前記画質を調整し、前記画質が調整された前記入力画像を表示パネルに表示する制御を行う、画像表示方法に関係する。 Another aspect of the present disclosure is to obtain an input image, detect a predetermined object from the input image, determine the size of the predetermined object, and determine whether the predetermined object is determined based on the size of the predetermined object. If it is determined that the image quality is to be adjusted, the image quality of at least a part of the input image is adjusted with respect to the specific color, and the image quality is adjusted. The present invention relates to an image display method that controls displaying the adjusted input image on a display panel.

画像表示装置の一例であるテレビ受信装置の外観例である。1 is an example of the appearance of a television receiver that is an example of an image display device. 画像表示装置の一例であるテレビ受信装置の構成例である。1 is a configuration example of a television receiving device that is an example of an image display device. 画像表示装置の構成例である。It is an example of a structure of an image display device. 画像表示装置の処理を説明するフローチャートである。It is a flow chart explaining processing of an image display device. オブジェクト検出結果の例である。This is an example of object detection results. サイズ指標値の取得処理を説明するフローチャートである。3 is a flowchart illustrating a size index value acquisition process. サイズ統計量とサイズ指標値の関係例である。This is an example of the relationship between size statistics and size index values. 特定色に関する画質調整の要否判定処理を説明するフローチャートである。7 is a flowchart illustrating processing for determining whether or not image quality adjustment is necessary for a specific color. 特定色に関する画質調整の要否判定処理を説明するフローチャートである。7 is a flowchart illustrating processing for determining whether or not image quality adjustment is necessary for a specific color. 指標値の時系列変化の例である。This is an example of time-series changes in index values. ヒステリシス処理結果の時系列変化の例である。This is an example of time-series changes in hysteresis processing results. チャタリングフィルタ処理結果の時系列変化の例である。This is an example of time-series changes in chattering filter processing results. 画像表示装置の構成例である。It is an example of a structure of an image display device. 画像表示装置の処理を説明するフローチャートである。It is a flow chart explaining processing of an image display device. シーン判定の入出力を説明する図である。FIG. 3 is a diagram illustrating input and output of scene determination. シーン判定結果(シーン指標値)とオブジェクト検出結果の例である。This is an example of a scene determination result (scene index value) and an object detection result. 指標値の取得処理を説明するフローチャートである。It is a flow chart explaining acquisition processing of an index value.

以下、本実施形態について図面を参照しつつ説明する。図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。 This embodiment will be described below with reference to the drawings. In the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description will be omitted. Note that this embodiment described below does not unduly limit the content described in the claims. Furthermore, not all of the configurations described in this embodiment are essential configuration requirements of the present disclosure.

1.第1実施形態
1.1 システム構成
図1は、本実施形態に係る画像表示装置100の一例であるテレビ受信装置10の構成例を示す図である。テレビ受信装置10は、例えばテレビジョン放送の放送波を受信し、受信した放送波に基づく映像を表示パネル16に表示する装置である。なお図1はテレビ受信装置10の外観構成の一例であり、具体的な形状については種々の変形実施が可能である。
1. First Embodiment 1.1 System Configuration FIG. 1 is a diagram showing an example of the configuration of a television receiving device 10, which is an example of an image display device 100 according to this embodiment. The television receiving device 10 is, for example, a device that receives broadcast waves of television broadcasting and displays images based on the received broadcast waves on a display panel 16. Note that FIG. 1 is an example of the external configuration of the television receiving device 10, and various modifications can be made to the specific shape.

図2は、テレビ受信装置10のハードウェア構成例を示す図である。テレビ受信装置10は、プロセッサー11、チューナー12、通信インターフェイス13、メモリー14、操作インターフェイス15、表示パネル16を含む。ただし、テレビ受信装置10の構成は図2に限定されず、一部の構成を省略する、他の構成を追加する等の種々の変形実施が可能である。 FIG. 2 is a diagram showing an example of the hardware configuration of the television receiving device 10. As shown in FIG. The television receiving device 10 includes a processor 11, a tuner 12, a communication interface 13, a memory 14, an operation interface 15, and a display panel 16. However, the configuration of the television receiving device 10 is not limited to that shown in FIG. 2, and various modifications such as omitting some configurations or adding other configurations are possible.

プロセッサー11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等、各種のプロセッサーを用いることが可能である。またプロセッサー11は、ASIC(application specific integrated circuit)、FPGA(Field Programmable Gate Array)等のハードウェアを含んでもよい。プロセッサー11は、テレビ受信装置10の各部に接続され、各部の制御を実行する。 The processor 11 can be a variety of processors, such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a DSP (Digital Signal Processor). Further, the processor 11 may include hardware such as an ASIC (application specific integrated circuit) and an FPGA (field programmable gate array). The processor 11 is connected to each part of the television receiving device 10 and controls each part.

チューナー12は、特定の周波数のテレビジョン放送の放送波を受信するインターフェイス及び、受信した放送波に対する処理を実行する回路等を含む。例えばここでのインターフェイスは、アンテナケーブルを接続するための端子である。またここでの回路等は、RF(Radio Frequency)回路、復号化を行う復号回路、アナログ/デジタル変換を行うA/D変換回路等を含んでもよい。チューナー12は、アンテナからテレビジョン放送の放送波に対応する信号を受信し、当該信号に基づく映像信号をプロセッサー11に出力する。ここでの映像信号は、例えば時系列的に取得される複数の画像の集合である。 The tuner 12 includes an interface that receives television broadcast waves of a specific frequency, a circuit that processes the received broadcast waves, and the like. For example, the interface here is a terminal for connecting an antenna cable. Further, the circuits and the like here may include an RF (Radio Frequency) circuit, a decoding circuit that performs decoding, an A/D conversion circuit that performs analog/digital conversion, and the like. The tuner 12 receives a signal corresponding to a television broadcast wave from an antenna, and outputs a video signal based on the signal to the processor 11. The video signal here is, for example, a set of multiple images acquired in time series.

通信インターフェイス13は、例えばIEEE802.11等の通信方式に従った通信を行うインターフェイスであり、狭義には当該通信方式に従った通信を行うための通信チップである。例えばテレビ受信装置10は、通信インターフェイス13を介してインターネット等の公衆通信網と通信を行う。具体的には、テレビ受信装置10は、公衆通信網を介してコンテンツサーバーに接続し、当該コンテンツサーバーから映画等の映像コンテンツを受信する処理を行ってもよい。 The communication interface 13 is an interface that performs communication according to a communication method such as IEEE802.11, and in a narrow sense, it is a communication chip for performing communication according to the communication method. For example, the television receiving device 10 communicates with a public communication network such as the Internet via the communication interface 13. Specifically, the television receiving device 10 may perform a process of connecting to a content server via a public communication network and receiving video content such as a movie from the content server.

メモリー14は、プロセッサー11のワーク領域であって、種々の情報を記憶する。メモリー14は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)などの半導体メモリーであってもよいし、レジスタであってもよいし、HDD(Hard Disk Drive)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。 The memory 14 is a work area for the processor 11 and stores various information. The memory 14 may be a semiconductor memory such as an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory), a register, or a magnetic storage device such as an HDD (Hard Disk Drive). Alternatively, it may be an optical storage device such as an optical disk device.

操作インターフェイス15は、ユーザーがテレビ受信装置10を操作する際に用いられるインターフェイスであり、テレビ受信装置10の筐体に設けられるボタンであってもよいし、リモコンとの通信に用いられるインターフェイス(例えば赤外線の受信装置)であってもよい。 The operation interface 15 is an interface used when a user operates the television receiving device 10, and may be a button provided on the casing of the television receiving device 10, or an interface used for communication with a remote control (for example, It may also be an infrared receiving device).

表示パネル16は、画像を表示するディスプレイである。表示パネル16は、例えば液晶ディスプレイであってもよいし、有機ELディスプレイであってもよいし、他の方式のディスプレイであってもよい。 The display panel 16 is a display that displays images. The display panel 16 may be, for example, a liquid crystal display, an organic EL display, or another type of display.

図3は、本実施形態に係る画像表示装置100の構成例を示す図である。画像表示装置100は、画像取得部110、オブジェクト検出部120、サイズ取得部130、判定部150、画質調整部160、表示制御部170を含む。ただし、画像表示装置100の構成は図3に限定されず、構成の追加や省略等の変形実施が可能である。 FIG. 3 is a diagram showing a configuration example of the image display device 100 according to the present embodiment. The image display device 100 includes an image acquisition section 110, an object detection section 120, a size acquisition section 130, a determination section 150, an image quality adjustment section 160, and a display control section 170. However, the configuration of the image display device 100 is not limited to that shown in FIG. 3, and modifications such as addition or omission of configurations are possible.

本実施形態の画像表示装置100は、例えば図2に示したテレビ受信装置10に対応する。例えば画像表示装置100の各部は、テレビ受信装置10のプロセッサー11により実現されてもよい。例えばメモリー14は、プログラムと各種のデータ等を記憶する。より具体的には、メモリー14はコンピューターによって読み取り可能な命令を格納しており、当該命令をプロセッサー11が実行することによって、図3に示した画像表示装置100の各部の機能が処理として実現される。画像表示装置100の各部とは、画像取得部110、オブジェクト検出部120、サイズ取得部130、判定部150、画質調整部160、表示制御部170を含む。また画像表示装置100の各部は、図10を用いて後述するシーン取得部140を含んでもよい。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサー11のハードウェア回路に対して動作を指示する命令であってもよい。 The image display device 100 of this embodiment corresponds to, for example, the television receiving device 10 shown in FIG. 2. For example, each part of the image display device 100 may be realized by the processor 11 of the television receiving device 10. For example, the memory 14 stores programs and various data. More specifically, the memory 14 stores computer-readable instructions, and when the processor 11 executes the instructions, the functions of each part of the image display device 100 shown in FIG. 3 are realized as processing. Ru. Each section of the image display device 100 includes an image acquisition section 110, an object detection section 120, a size acquisition section 130, a determination section 150, an image quality adjustment section 160, and a display control section 170. Further, each section of the image display device 100 may include a scene acquisition section 140, which will be described later using FIG. 10. The instructions here may be instructions of an instruction set that constitutes a program, or instructions that instruct a hardware circuit of the processor 11 to operate.

画像取得部110は、入力画像を取得する。ここでの入力画像は、表示パネル16での表示対象となる画像を表す。例えば入力画像は、アンテナ及びチューナー12を介して取得されるテレビジョン放送の映像信号に含まれる画像であってもよい。ここでの映像信号は、高精細度テレビジョン放送における符号化等に関する規格であるRec.709(BT.709)に従った信号であってもよい。Rec.709では、例えばRGB色空間パラメーターが規定されている。 The image acquisition unit 110 acquires an input image. The input image here represents an image to be displayed on the display panel 16. For example, the input image may be an image included in a television broadcast video signal acquired via the antenna and tuner 12. The video signal here is Rec., which is a standard for encoding etc. in high-definition television broadcasting. 709 (BT.709). Rec. In 709, for example, RGB color space parameters are defined.

以下、入力画像がテレビジョン放送の映像信号に対応する例について説明する。ただし本実施形態の手法はこれに限定されない。例えば入力画像は、通信インターフェイス13がコンテンツサーバーから取得した映像信号に含まれる画像であってもよい。またテレビ受信装置10はBD(Blu-ray Disc、登録商標)等のメディアの再生装置に接続され、当該メディアから読み出された映像信号に含まれる画像が入力画像として用いられてもよい。 An example in which the input image corresponds to a television broadcast video signal will be described below. However, the method of this embodiment is not limited to this. For example, the input image may be an image included in a video signal that the communication interface 13 obtains from a content server. Further, the television receiving device 10 may be connected to a reproduction device for media such as a BD (Blu-ray Disc, registered trademark), and an image included in a video signal read from the media may be used as an input image.

またオブジェクト検出部120は、入力画像から所定のオブジェクトを検出する。ここでの所定のオブジェクトは例えば人物の顔である。ただし、所定のオブジェクトは青空、緑の景色等、他のオブジェクトであってもよい。なお、緑の景色とは、例えば草木等の植物がある景色を表す。 Furthermore, the object detection unit 120 detects a predetermined object from the input image. The predetermined object here is, for example, a person's face. However, the predetermined object may be other objects such as a blue sky or a green landscape. Note that the green scenery represents, for example, a scenery with plants such as plants.

例えば人物の顔を対象とする場合、オブジェクト検出部120は、目、口、鼻等の顔に含まれるパーツを検出し、検出されたパーツの種類や位置関係に基づいて入力画像から人物の顔を検出してもよい。例えばオブジェクト検出部120は、パーツの位置関係に基づいて、人物の顔の輪郭を検出することによって、顔に対応する領域を特定してもよい。オブジェクト検出では、当該オブジェクトの有無だけでなく、入力画像のうち、所定のオブジェクトが存在する位置、範囲を特定する処理が実行される。また画像からオブジェクト検出を行う際に、機械学習の結果が用いられてもよい。例えば、入力画像の一部に検出窓を設定し、当該検出窓に含まれる領域に顔があるか否かを判定する畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が用いられてもよい。検出窓のサイズや形状を変えながら処理を繰り返すことによって、入力画像から所定のオブジェクトを検出することが可能になる。なおニューラルネットワークを用いた手法として、リアルタイム検出に適したYOLO(You Only Look Once)等の種々の手法が知られており、本実施形態ではそれらを広く適用できる。その他、オブジェクト検出の手法は上記の例に限定されず、公知の手法を広く適用することが可能である。 For example, when the target is a person's face, the object detection unit 120 detects parts included in the face such as eyes, mouth, nose, etc., and extracts the person's face from the input image based on the types and positional relationships of the detected parts. may be detected. For example, the object detection unit 120 may identify the area corresponding to the face by detecting the outline of the person's face based on the positional relationship of the parts. In object detection, processing is performed to identify not only the presence or absence of the object, but also the position and range in which a predetermined object exists in the input image. Furthermore, the results of machine learning may be used when detecting objects from images. For example, a convolutional neural network (CNN) may be used that sets a detection window in a part of the input image and determines whether or not there is a face in the area included in the detection window. By repeating the process while changing the size and shape of the detection window, it becomes possible to detect a predetermined object from the input image. Note that various methods using neural networks, such as YOLO (You Only Look Once), which are suitable for real-time detection, are known, and these can be widely applied in this embodiment. In addition, the object detection method is not limited to the above example, and a wide range of known methods can be applied.

サイズ取得部130は、オブジェクト検出部120によって検出された所定のオブジェクトのサイズを取得する。例えばオブジェクト検出の結果として、図5を用いて後述するように、所定のオブジェクトを包含する矩形領域D1等が検出されている場合、サイズ取得部130は、当該矩形領域の縦方向の長さ(画素数)と横方向の長さ(画素数)の積に基づいてサイズを取得できる。 The size acquisition unit 130 acquires the size of a predetermined object detected by the object detection unit 120. For example, when a rectangular area D1 or the like that includes a predetermined object is detected as a result of object detection, as will be described later using FIG. The size can be obtained based on the product of the horizontal length (number of pixels) and the horizontal length (number of pixels).

判定部150は、所定のオブジェクトのサイズに基づいて、特定色に関する画質を調整するか否かを判定する。具体的な判定手法については図6~図8B等を用いて後述する。 The determination unit 150 determines whether or not to adjust the image quality regarding a specific color based on the size of a predetermined object. A specific determination method will be described later using FIGS. 6 to 8B and the like.

画質調整部160は、画質の調整を行うと判定された場合、所定のオブジェクトが有する特定色に関して、入力画像の少なくとも一部の領域の画質を調整する。例えば、所定のオブジェクトから人がイメージとして記憶する色である記憶色が知られている。記憶色は、実際のオブジェクトの色とは異なる場合がある。この場合、実際の色に忠実に画像を表示した場合、記憶色と異なるため、当該画像を見たユーザーが違和感を覚える可能性がある。よって画質調整部160は、所定のオブジェクトに含まれる特定色に対して、当該特定色の色味を記憶色に近づけるような画質の調整処理を実行してもよい。例えば人物の肌色については、記憶色の彩度が実際より低いことが知られているため、画質調整部160は肌色領域の彩度を下げる画質の調整処理を行ってもよい。また青空や緑の景色は、記憶色の彩度が実際よりも高いことが知られているため、画質調整部160は空に対応する青色領域、緑の景色に対応する緑色領域の彩度を上げる画質の調整処理を行ってもよい。また画質の調整は彩度の調整に限定されず、明度や色相の調整を含んでもよい。また本実施形態における特定色に関する画質の調整は、記憶色に基づく調整に限定されない。 When it is determined that the image quality should be adjusted, the image quality adjustment unit 160 adjusts the image quality of at least a part of the input image with respect to a specific color that a predetermined object has. For example, memory colors, which are colors that people remember as images of certain objects, are known. The memory color may differ from the actual color of the object. In this case, if the image is displayed faithfully to the actual color, the user who views the image may feel uncomfortable because the color is different from the memory color. Therefore, the image quality adjustment unit 160 may perform image quality adjustment processing on a specific color included in a predetermined object so as to bring the tint of the specific color closer to the memory color. For example, since it is known that the saturation of the memory color of a person's skin color is lower than the actual color, the image quality adjustment unit 160 may perform image quality adjustment processing to lower the saturation of the skin color area. Furthermore, it is known that the saturation of the memory color of blue skies and green scenery is higher than the actual color, so the image quality adjustment unit 160 adjusts the saturation of the blue region corresponding to the sky and the green region corresponding to the green scenery. You may perform adjustment processing to increase the image quality. Further, image quality adjustment is not limited to saturation adjustment, but may also include brightness and hue adjustment. Further, the adjustment of image quality regarding a specific color in this embodiment is not limited to adjustment based on memory colors.

また上述したテレビジョン放送の規格によって決まる色空間は、表示パネル16が表現可能な色空間に比べて狭いことがある。この場合、入力画像をそのまま表示すると、表示パネル16が鮮やかな色を表現する能力を有していたとしても、当該能力を発揮できない可能性がある。よって画質調整部160は、オブジェクトの検出結果とは関係なく、入力画像に対して明度及び彩度の少なくとも一方を上げる画質の調整処理を行ってもよい。例えば画質調整部160は、所定のオブジェクトの特定色に関する調整処理と、オブジェクトによらない調整処理の両方を組み合わせることによって、入力画像に対する画質の調整を行ってもよい。 Further, the color space determined by the above-mentioned television broadcasting standards may be narrower than the color space that can be expressed by the display panel 16. In this case, if the input image is displayed as is, even if the display panel 16 has the ability to express vivid colors, it may not be able to demonstrate its ability. Therefore, the image quality adjustment unit 160 may perform image quality adjustment processing to increase at least one of brightness and saturation on the input image, regardless of the object detection result. For example, the image quality adjustment unit 160 may adjust the image quality of the input image by combining both an adjustment process related to a specific color of a predetermined object and an adjustment process that does not depend on the object.

表示制御部170は、画質調整部160において画質が調整された入力画像を表示パネル16に表示する制御を行う。例えば表示制御部170は、画像信号と、表示パネル16に含まれる駆動回路の制御タイミングを指示するタイミング制御信号とを、表示パネル16に出力する。なお判定部150の判定によっては特定色に関する画質調整は省略されてもよく、ここで表示対象となる画像は、特定色に関する調整が行われていない画像であってもよい。 The display control unit 170 performs control to display on the display panel 16 the input image whose image quality has been adjusted by the image quality adjustment unit 160. For example, the display control unit 170 outputs an image signal and a timing control signal that instructs the control timing of a drive circuit included in the display panel 16 to the display panel 16. Note that the image quality adjustment for the specific color may be omitted depending on the determination by the determination unit 150, and the image to be displayed here may be an image on which no adjustment for the specific color has been performed.

なお以上では画像表示装置100がテレビ受信装置10である例を説明したが、これには限定されない。例えば画像表示装置100は、セットトップボックス等の装置に対応してもよい。この場合、表示制御部170が行う表示制御とは、表示パネル16を有する機器(テレビ受信装置10、ディスプレイ等)に対して、画質の調整後の入力画像を出力する制御であってもよい。 Note that although an example in which the image display device 100 is the television receiving device 10 has been described above, the present invention is not limited to this. For example, the image display device 100 may correspond to a device such as a set-top box. In this case, the display control performed by the display control unit 170 may be a control for outputting an input image whose image quality has been adjusted to a device having the display panel 16 (television receiving device 10, display, etc.).

本実施形態の手法では、上述したようにオブジェクト検出の結果に基づいて、所定のオブジェクトの特定色に関する画質の調整が行われる。オブジェクト検出の手法は上記の通り種々考えられるが、所定のオブジェクトの一部が隠れる場合等にも、当該所定のオブジェクトを精度よく検出できるため、特定色に関する画質調整の要否を適切に判定することが可能になる。例えば所定のオブジェクトが顔である場合、顔の一部がマスクやサングラス等で隠れることによって肌色の画素数が少なくなった場合にも、当該顔のサイズが大きければ画質調整が必要と判定できる。結果として、特定色に対応する色の画素の数、当該色の画素が連続する領域等を用いる従来手法に比べて、画質調整に漏れが生じることを抑制できる。 In the method of this embodiment, as described above, the image quality regarding a specific color of a predetermined object is adjusted based on the result of object detection. Various methods of object detection can be considered as described above, but even when a part of a given object is hidden, the given object can be detected with high accuracy, so it is possible to appropriately determine whether or not image quality adjustment is necessary for a particular color. becomes possible. For example, when the predetermined object is a face, even if part of the face is hidden by a mask, sunglasses, etc. and the number of skin-colored pixels decreases, it can be determined that image quality adjustment is necessary if the size of the face is large. As a result, compared to the conventional method that uses the number of pixels of a color corresponding to a specific color, a region in which pixels of the color are continuous, etc., omissions in image quality adjustment can be suppressed.

また、本実施形態の画像表示装置100が行う処理の一部又は全部は、プログラムによって実現されてもよい。画像表示装置100が行う処理とは、例えばテレビ受信装置10のプロセッサー11が行う処理である。 Further, part or all of the processing performed by the image display device 100 of this embodiment may be realized by a program. The processing performed by the image display device 100 is, for example, the processing performed by the processor 11 of the television receiving device 10.

本実施形態に係るプログラムは、例えばコンピューターによって読み取り可能な媒体である非一時的な情報記憶装置(情報記憶媒体)に格納できる。情報記憶装置は、例えば光ディスク、メモリーカード、HDD、或いは半導体メモリーなどによって実現できる。半導体メモリーは例えばROMである。画像表示装置100、プロセッサー11等は、情報記憶装置に格納されるプログラムに基づいて本実施形態の種々の処理を行う。即ち情報記憶装置は、画像表示装置100の各部としてコンピューターを機能させるためのプログラムを記憶する。コンピューターは、入力装置、処理部、記憶部、出力部を備える装置である。具体的には本実施形態に係るプログラムは、図4等を用いて後述する各ステップを、コンピューターに実行させるためのプログラムである。 The program according to this embodiment can be stored in a non-transitory information storage device (information storage medium), which is a computer-readable medium, for example. The information storage device can be realized by, for example, an optical disk, a memory card, an HDD, or a semiconductor memory. The semiconductor memory is, for example, a ROM. The image display device 100, processor 11, etc. perform various processes of this embodiment based on programs stored in the information storage device. That is, the information storage device stores programs for making the computer function as each part of the image display device 100. A computer is a device that includes an input device, a processing section, a storage section, and an output section. Specifically, the program according to this embodiment is a program for causing a computer to execute each step described later using FIG. 4 and the like.

例えば本実施形態に係るプログラムは、画像表示装置100の画像取得部110、オブジェクト検出部120、サイズ取得部130、判定部150、画質調整部160、表示制御部170として、コンピューターを機能させる。 For example, the program according to this embodiment causes a computer to function as the image acquisition section 110, object detection section 120, size acquisition section 130, determination section 150, image quality adjustment section 160, and display control section 170 of the image display device 100.

また本実施形態の手法は、以下の各ステップを含む画像表示方法に適用されてもよい。画像処理方法は、入力画像を取得するステップと、入力画像から所定のオブジェクトを検出するステップと、所定のオブジェクトのサイズを求めるステップと、所定のオブジェクトのサイズに基づいて、所定のオブジェクトが有する特定色に関する画質を調整するか否か判定するステップと、画質の調整を行うと判定された場合、特定色に関して、入力画像の少なくとも一部の領域の画質を調整するステップと、画質が調整された入力画像を表示パネルに表示する制御を行うステップを含む。例えば画像表示方法は、図4、図6、図8A、図8B等を用いて後述する各ステップを含んでもよい。 Further, the method of this embodiment may be applied to an image display method including the following steps. The image processing method includes the steps of acquiring an input image, detecting a predetermined object from the input image, determining the size of the predetermined object, and determining the specificity of the predetermined object based on the size of the predetermined object. a step of determining whether or not to adjust image quality related to color; and, if it is determined that image quality is to be adjusted, a step of adjusting image quality of at least a part of the input image with respect to a specific color; The method includes a step of controlling display of an input image on a display panel. For example, the image display method may include steps described below using FIGS. 4, 6, 8A, 8B, etc.

1.2 処理の詳細
図4は、本実施形態に係る画像表示装置100の処理を説明するフローチャートである。図4に示す処理は、例えば時系列の画像の集合である映像情報が取得された場合に、各フレームの画像を対象として実行されてもよい。
1.2 Details of Processing FIG. 4 is a flowchart illustrating the processing of the image display device 100 according to the present embodiment. The processing shown in FIG. 4 may be performed on images of each frame, for example, when video information that is a set of time-series images is acquired.

まずステップS101において、画像取得部110は入力画像を取得する。例えば画像取得部110は、チューナー12等を介して取得された映像情報のうち、所与の1フレームの画像を取得し、オブジェクト検出部120に出力する。 First, in step S101, the image acquisition unit 110 acquires an input image. For example, the image acquisition unit 110 acquires an image of one given frame from the video information acquired via the tuner 12 or the like, and outputs it to the object detection unit 120.

ステップS102において、オブジェクト検出部120は、画像取得部110から取得した入力画像を対象として、所定のオブジェクトを検出するオブジェクト検出処理を行う。ここでの処理は、上述したように、所定のオブジェクトに含まれる構造(目、鼻等)に基づいてオブジェクトの輪郭を検出する処理であってもよいし、CNN、YOLO等の機械学習を適用した処理であってもよいし、他のオブジェクト検出手法を用いた処理であってもよい。 In step S102, the object detection unit 120 performs object detection processing to detect a predetermined object in the input image acquired from the image acquisition unit 110. As mentioned above, this process may be a process of detecting the outline of a given object based on the structures included in the object (eyes, nose, etc.), or may be a process of applying machine learning such as CNN or YOLO. The process may be performed using a different object detection method, or may be a process using another object detection method.

図5は、オブジェクト検出部120のオブジェクト検出処理によって取得される検出結果の例を説明する図である。図5における画像IMが、入力画像に対応する。図5の例では入力画像(画像IM)に、2人の人物の顔F1及びF2が含まれていた。この場合、オブジェクト検出部120は、例えば顔F1を包含する矩形領域D1、及び顔F2を包含する矩形領域D2を、オブジェクト検出処理の検出結果として取得する。例えば検出結果は、矩形領域を特定する情報であり、矩形領域の基準点の座標(例えば左上の座標と右下の座標)の組であってもよいし、矩形領域の基準点の座標(例えば左上の座標)と縦及び横方向の長さの組であってもよいし、他の情報であってもよい。所定のオブジェクトが複数検出された場合、各所定のオブジェクトについて矩形領域を特定する情報が求められる。例えば検出結果は、検出された所定のオブジェクトの数と、各所定のオブジェクトに対応する矩形領域を特定する情報と、を含んでもよい。 FIG. 5 is a diagram illustrating an example of a detection result obtained by object detection processing by the object detection unit 120. Image IM in FIG. 5 corresponds to the input image. In the example of FIG. 5, the input image (image IM) includes two human faces F1 and F2. In this case, the object detection unit 120 obtains, for example, a rectangular area D1 that includes the face F1 and a rectangular area D2 that includes the face F2 as the detection results of the object detection process. For example, the detection result is information that specifies a rectangular area, and may be a set of coordinates of the reference point of the rectangular area (for example, upper left coordinates and lower right coordinates), or may be a set of coordinates of the reference point of the rectangular area (for example, It may be a set of the upper left coordinate) and the length in the vertical and horizontal directions, or it may be other information. If a plurality of predetermined objects are detected, information specifying a rectangular area for each predetermined object is obtained. For example, the detection result may include the number of detected predetermined objects and information specifying a rectangular area corresponding to each predetermined object.

なお、検出結果は矩形領域に限定されない。例えばオブジェクト検出処理が、目や鼻等の構造から顔の輪郭を検出する処理である場合、オブジェクト検出部120は、当該輪郭によって囲まれる領域を検出結果として取得してもよい。またニューラルネットワークを用いた処理では、検出窓毎に処理を行うのではなく、入力画像の各画素について、当該画素が顔に属するか否かの確からしさが求められてもよい。この場合、検出結果は、顔に属する確からしさが所定閾値以上の画素の集合であってもよく、形状は矩形に限定されない。例えば検出結果は、検出された所定のオブジェクトの数と、各所定のオブジェクトに対応する領域を特定する情報と、を含んでもよい。オブジェクト検出部120は、検出結果をサイズ取得部130に出力する。 Note that the detection result is not limited to a rectangular area. For example, when the object detection process is a process of detecting the outline of a face from structures such as eyes and nose, the object detection unit 120 may obtain an area surrounded by the outline as a detection result. Furthermore, in the process using a neural network, the probability of whether or not each pixel of the input image belongs to a face may be determined for each pixel of the input image, instead of performing the process for each detection window. In this case, the detection result may be a set of pixels whose probability of belonging to a face is equal to or higher than a predetermined threshold, and the shape is not limited to a rectangle. For example, the detection result may include the number of detected predetermined objects and information specifying the area corresponding to each predetermined object. The object detection unit 120 outputs the detection result to the size acquisition unit 130.

ステップS103において、サイズ取得部130は、オブジェクト検出部120によって検出された所定のオブジェクトのサイズを求める。図5に示すように複数のオブジェクトが検出されている場合、オブジェクト検出部120は、それぞれについてサイズを求める。ここでのサイズは大きさを表す情報であり、矩形領域の縦方向の長さと横方向の長さの積であってもよいし、検出結果に含まれる画素数の合計であってもよい。サイズ取得部130は、求めたサイズを判定部150に出力する。例えばサイズ取得部130は、検出された所定のオブジェクトの数と、各所定のオブジェクトのサイズを判定部150に出力してもよい。 In step S103, the size acquisition unit 130 determines the size of the predetermined object detected by the object detection unit 120. When a plurality of objects are detected as shown in FIG. 5, the object detection unit 120 calculates the size of each object. The size here is information representing the size, and may be the product of the length in the vertical direction and the length in the horizontal direction of the rectangular area, or may be the total number of pixels included in the detection result. The size acquisition unit 130 outputs the determined size to the determination unit 150. For example, the size acquisition unit 130 may output the number of detected predetermined objects and the size of each predetermined object to the determination unit 150.

ステップS104において、判定部150は、サイズ取得部130から出力されたサイズに基づいて、所定のオブジェクトに含まれる特定色に関する画質の調整を行うか否かを判定する。 In step S104, the determination unit 150 determines whether or not to adjust the image quality regarding the specific color included in the predetermined object, based on the size output from the size acquisition unit 130.

例えば判定部150は、所定のオブジェクトのサイズが所定サイズより大きい場合、特定色に関する画質の調整を行うと判定してもよい。このようにすれば、特定色に該当する画素数によらず、所定のオブジェクト自体のサイズに基づいて、特定色の調整を行うか否かを判定できる。そのため、所定のオブジェクトが入力画像において大きく撮像されていれば、仮にマスク等によって肌色領域の一部が遮蔽されたとしても、当該所定のオブジェクトに起因する特定色の調整が行われる。そのため、例えば人物の顔が大きく映し出される画像を表示する際に、肌色の画質調整が行われる蓋然性を高くできる。例えば、大きく表示されるオブジェクトに含まれる特定色が記憶色から乖離することを抑制できるため、表示される画像を見たユーザーが違和感を覚えることを抑制できる。一方、所定のオブジェクトが小さい場合、当該所定のオブジェクトがユーザーに与える影響は小さいため、画質の調整は省略が可能である。 For example, when the size of a predetermined object is larger than a predetermined size, the determination unit 150 may determine that image quality regarding a specific color should be adjusted. In this way, it is possible to determine whether or not to adjust the specific color based on the size of the predetermined object itself, regardless of the number of pixels corresponding to the specific color. Therefore, if a predetermined object is captured in a large size in the input image, even if a part of the skin color area is blocked by a mask or the like, the specific color caused by the predetermined object is adjusted. Therefore, for example, when displaying an image in which a person's face is displayed in a large size, it is possible to increase the probability that image quality adjustment for skin color will be performed. For example, since it is possible to prevent a specific color included in a large displayed object from deviating from the memory color, it is possible to prevent a user from feeling uncomfortable when viewing the displayed image. On the other hand, if the predetermined object is small, the effect of the predetermined object on the user is small, and thus adjustment of image quality can be omitted.

例えば判定部150は、所定のオブジェクトのサイズに基づいて指標値を求め、指標値と所与の閾値とに基づいて、特定色に関する画質の調整を行うか否かを判定してもよい。このようにすれば、サイズが大きいか否かの判定を適切に実行することが可能になる。また指標値の算出手法や閾値を調整することによって、特定色に関する画質の調整を行うか否かの判断基準を柔軟に変更することが可能になる。例えばステップS104の処理は、指標値を算出する処理と、当該指標値に基づいて特定色に関する画質の調整の要否を判定する処理とを含んでもよい。以下、各処理の例について説明する。 For example, the determination unit 150 may determine an index value based on the size of a predetermined object, and determine whether or not to adjust the image quality regarding a specific color based on the index value and a given threshold value. In this way, it becomes possible to appropriately determine whether the size is large or not. Furthermore, by adjusting the method of calculating the index value and the threshold value, it becomes possible to flexibly change the criteria for determining whether or not to adjust the image quality regarding a specific color. For example, the process in step S104 may include a process of calculating an index value, and a process of determining whether adjustment of image quality regarding a specific color is necessary based on the index value. Examples of each process will be described below.

図6は、ステップS104における判定処理のうち、サイズに関する指標値であるサイズ指標値を求める処理を説明するフローチャートである。まずステップS201において、判定部150は、検出された所定のオブジェクトの数が1以上であるかを判定する。 FIG. 6 is a flowchart illustrating a process for determining a size index value, which is an index value related to size, in the determination process in step S104. First, in step S201, the determination unit 150 determines whether the number of detected predetermined objects is one or more.

検出された所定のオブジェクトの数が1以上である場合(ステップS201:Yes)、判定部150は、ステップS202において、サイズ取得部130から出力された各所定のオブジェクトのサイズに基づいて、サイズ統計量を算出する。 If the number of detected predetermined objects is 1 or more (step S201: Yes), the determination unit 150 calculates size statistics based on the size of each predetermined object output from the size acquisition unit 130 in step S202. Calculate the amount.

例えば判定部150は、検出された1または複数の所定のオブジェクトのうち、最も大きい所定のオブジェクトのサイズをサイズ統計量として求めてもよい。あるいは判定部150は、1または複数の所定のオブジェクトのサイズの合計値、平均値、中央値等をサイズ統計量として求めてもよい。この際、合計値等の算出に用いる所定のオブジェクトは、検出された所定のオブジェクトの全てであってもよいし、サイズの大きさの上位n個(nは2以上の整数)であってもよい。ここでのnは固定値であってもよいし、検出された所定のオブジェクトの数に応じて動的に決定される値であってもよい。あるいは判定部150は、1または複数の所定のオブジェクトのうち、サイズの上位n個のなかでの最小値をサイズ統計量として求めてもよい。 For example, the determination unit 150 may determine the size of the largest predetermined object among the detected one or more predetermined objects as the size statistic. Alternatively, the determination unit 150 may determine the total value, average value, median value, etc. of the sizes of one or more predetermined objects as the size statistics. At this time, the predetermined objects used to calculate the total value etc. may be all of the detected predetermined objects, or may be the top n objects in terms of size (n is an integer of 2 or more). good. Here, n may be a fixed value or a value dynamically determined depending on the number of detected predetermined objects. Alternatively, the determination unit 150 may determine the minimum value among the top n sizes of one or more predetermined objects as the size statistic.

また判定部150は、上述した最大値の、入力画像全体に対する割合をサイズ統計量として求めてもよい。例えば、判定部150は、入力画像の解像度に基づいて、入力画像のサイズを求めてもよい。入力画像のサイズとは縦方向での画素数と、横方向での画素数の積である。例えば、検出された所定のオブジェクトのサイズの最大値をBとし、入力画像のサイズをAとしたとき、サイズ統計量を表す値Cは、C=(B/A)×100であってもよい。またここでのBは、上述したように、合計値、平均値、中央値、最小値等の値に置き換えられてもよい。 Further, the determination unit 150 may obtain the ratio of the above-mentioned maximum value to the entire input image as a size statistic. For example, the determination unit 150 may determine the size of the input image based on the resolution of the input image. The size of an input image is the product of the number of pixels in the vertical direction and the number of pixels in the horizontal direction. For example, when the maximum size of a detected predetermined object is B and the size of the input image is A, the value C representing the size statistics may be C=(B/A)×100. . Moreover, B here may be replaced with a value such as a total value, an average value, a median value, or a minimum value, as described above.

なお判定部150は、入力画像から検出された所定のオブジェクトの位置に基づいて、指標値を求めてもよい。例えば判定部150は、上記のサイズ統計量の算出に所定のオブジェクトの位置を用いてもよい。例えば判定部150は、サイズ取得部130が求めた各所定のオブジェクトのサイズに対して、位置に応じた重みを乗じた上で、上述したサイズ統計量を求めてもよい。例えば判定部150は、所定のオブジェクトの位置が入力画像の中心に近いほど値が大きく、中心から離れるほど値が小さくなる重みを用いてもよい。例えば同じサイズのオブジェクトであっても、入力画像に中心に近いオブジェクトは相対的にサイズが大きく評価され、中心から遠いオブジェクトは相対的にサイズが小さく評価される。このようにすれば、サイズ統計量の算出において、ユーザーに注目されやすいオブジェクトの寄与度を相対的に大きくできるため、例えば注目されやすいオブジェクトの画質の調整漏れを抑制することが可能になる。 Note that the determination unit 150 may calculate the index value based on the position of a predetermined object detected from the input image. For example, the determination unit 150 may use the position of a predetermined object to calculate the size statistics described above. For example, the determining unit 150 may calculate the size statistics described above by multiplying the size of each predetermined object determined by the size acquiring unit 130 by a weight according to the position. For example, the determination unit 150 may use a weight that increases as the position of the predetermined object approaches the center of the input image, and decreases as the position of the predetermined object moves away from the center. For example, even if the objects have the same size, an object closer to the center of the input image is evaluated to be relatively large in size, and an object far from the center is evaluated to be relatively small in size. In this way, in calculating the size statistics, it is possible to relatively increase the contribution of objects that tend to attract the user's attention, so that, for example, it is possible to suppress omissions in adjusting the image quality of objects that tend to attract the user's attention.

サイズ統計量の算出後、ステップS203において、判定部150はサイズ統計量と、所与の閾値THとの比較処理に基づいて、サイズ指標値を求める。ここでのサイズ指標値はサイズの大小を表す指標であり、例えばサイズが大きいほど値が大きくなる情報である。またここでの閾値は、例えば0より大きく100以下の値であってもよい。 After calculating the size statistics, in step S203, the determination unit 150 calculates a size index value based on a comparison process between the size statistics and a given threshold TH. The size index value here is an index representing the magnitude of the size, and is information that, for example, the larger the size, the larger the value. Further, the threshold value here may be, for example, a value greater than 0 and less than or equal to 100.

例えば、サイズ統計量が閾値TH以上である場合(ステップS203:Yes)、ステップS204において、判定部150はサイズ指標値の値を100に設定する。一方、サイズ統計量が閾値TH未満である場合(ステップS203:No)、ステップS205において、判定部150は補間処理に基づいてサイズ指標値を決定する。 For example, if the size statistic is greater than or equal to the threshold TH (step S203: Yes), the determination unit 150 sets the size index value to 100 in step S204. On the other hand, if the size statistic is less than the threshold TH (step S203: No), in step S205, the determination unit 150 determines a size index value based on interpolation processing.

図7は、サイズ統計量、閾値TH、サイズ指標値の関係例を示す図である。例えば図7に示すように、ステップS205において、判定部150は線形補間によってサイズ指標値を求めてもよい。ただし、図7はサイズ統計量、閾値TH、サイズ指標値の関係の一例であり、他の関係に基づいてサイズ指標値が求められてもよい。例えばサイズ統計量が閾値TH未満の範囲において、非線形関数を用いた補間処理が行われてもよい。 FIG. 7 is a diagram showing an example of the relationship between size statistics, threshold value TH, and size index value. For example, as shown in FIG. 7, in step S205, the determination unit 150 may obtain the size index value by linear interpolation. However, FIG. 7 is an example of the relationship between the size statistics, the threshold TH, and the size index value, and the size index value may be determined based on other relationships. For example, interpolation processing using a nonlinear function may be performed in a range where the size statistics are less than the threshold TH.

また検出された所定のオブジェクトの数が0個である場合(ステップS201:No)、ステップS206において、サイズ指標値の値は0に設定される。 If the number of detected predetermined objects is 0 (step S201: No), the size index value is set to 0 in step S206.

以上のように、判定部150は、入力画像から所定のオブジェクトが複数検出された場合、少なくとも1つの所定のオブジェクトのサイズに基づいて、指標値を求めてもよい。例えば上記のように、オブジェクトの最大サイズが指標値算出に用いられてもよいし、2以上のオブジェクトのサイズの平均値等が指標値算出に用いられてもよい。このようにすれば、所定のオブジェクトが複数ある場合にも、入力画像における所定のオブジェクトのサイズを適切に評価することが可能になる。換言すれば、入力画像に含まれる所定のオブジェクトの数によらず、所定のオブジェクトがユーザーに与える影響を適切に数値化することが可能になる。 As described above, when a plurality of predetermined objects are detected from the input image, the determination unit 150 may calculate the index value based on the size of at least one predetermined object. For example, as described above, the maximum size of an object may be used for calculating the index value, or the average value of the sizes of two or more objects may be used for calculating the index value. In this way, even when there are a plurality of predetermined objects, it is possible to appropriately evaluate the size of the predetermined object in the input image. In other words, regardless of the number of predetermined objects included in the input image, it is possible to appropriately quantify the influence that a predetermined object has on a user.

なお図7に示したように、本実施形態ではサイズ統計量からサイズ指標値への変換処理が行われてもよい。サイズ統計量は例えば最大値が100となる値であるが、現実の入力画像では人物の顔が画像全体を覆うケースは多くない。例えば上述したBはAよりも小さい値となりやすく、サイズ統計量が100やその近傍の値となる蓋然性が低い。その点、図7の例におけるサイズ指標値では、最大値である100近傍の値も適切に用いられる。即ち、サイズ指標値への変換を行うことによって、数値範囲(例えば0以上100以下)における値のばらつき具合を調整することが可能になる。特に、第2実施形態において後述するように、サイズ指標値を、シーン指標値等の他の指標値と比較する場合、各指標値の数値範囲の中でのばらつき具合を揃えることによって、大小関係を適切に比較することが可能になる。ただし、判定部150は、サイズ統計量そのものをサイズ指標値として用いることも妨げられない。この場合、図6のステップS203~S205は省略が可能であり、ステップS202で求められたサイズ統計量がそのままサイズ指標値となる。 Note that, as shown in FIG. 7, in this embodiment, conversion processing from size statistics to size index values may be performed. The size statistic has a maximum value of 100, for example, but in actual input images, there are not many cases in which a person's face covers the entire image. For example, the above-mentioned B is likely to have a smaller value than A, and the probability that the size statistic will be 100 or a value in the vicinity is low. In this regard, for the size index value in the example of FIG. 7, values around 100, which is the maximum value, are also appropriately used. That is, by converting to a size index value, it becomes possible to adjust the degree of variation in values within a numerical range (for example, from 0 to 100). In particular, as will be described later in the second embodiment, when comparing the size index value with other index values such as the scene index value, the magnitude relationship is It becomes possible to compare them appropriately. However, the determination unit 150 is not prevented from using the size statistics themselves as the size index value. In this case, steps S203 to S205 in FIG. 6 can be omitted, and the size statistics obtained in step S202 directly serve as the size index value.

図8Aは、ステップS104における判定処理のうち、指標値に基づいて特定色に関する画質調整の要否を判定する処理を説明するフローチャートである。ここでの処理は、指標値と所与の閾値TH0とに基づく処理であってもよい。指標値とは上述したサイズ指標値である。またここでの所与の閾値TH0は、サイズ統計量との比較に用いられる閾値THとは異なる情報であるが、閾値TH0と、上述した閾値THが同じ値に設定されることは妨げられない。 FIG. 8A is a flowchart illustrating the process of determining whether image quality adjustment is necessary for a specific color based on the index value, among the determination processes in step S104. The processing here may be processing based on the index value and a given threshold value TH0. The index value is the size index value described above. Furthermore, although the given threshold TH0 here is different information from the threshold TH used for comparison with the size statistics, this does not prevent the threshold TH0 and the above-mentioned threshold TH from being set to the same value. .

図8Aに示すように、まずステップS301において、サイズ指標値が閾値TH0以上であるかを判定する。図7の例であれば、サイズ指標値は0以上100以下の値であり、TH0は、0より大きく100以下の範囲で設定されてもよい。 As shown in FIG. 8A, first in step S301, it is determined whether the size index value is equal to or greater than a threshold value TH0. In the example of FIG. 7, the size index value is a value between 0 and 100, and TH0 may be set within a range between 0 and 100.

サイズ指標値が閾値TH0以上である場合(ステップS301:Yes)、ステップS302において、判定部150は、特定色に関する画質の調整を行うと判定する。サイズ指標値が閾値TH0未満である場合(ステップS301:No)、ステップS303において、判定部150は、特定色に関する画質の調整を行わないと判定する。このようにすれば、サイズ指標値の大きさに基づいて、特定色に関する画質調整の要否を判定することが可能になる。 If the size index value is equal to or greater than the threshold value TH0 (step S301: Yes), in step S302, the determination unit 150 determines to perform image quality adjustment regarding the specific color. If the size index value is less than the threshold TH0 (step S301: No), in step S303, the determination unit 150 determines not to perform image quality adjustment for the specific color. In this way, it is possible to determine whether or not image quality adjustment for a specific color is necessary based on the magnitude of the size index value.

また指標値に基づいて特定色に関する画質調整の要否を判定する処理は図8Aに示した処理に限定されない。図8Bは、ステップS104における判定処理のうち、指標値と所与の閾値とに基づいて、特定色に関する画質の調整を行うか否かを判定する他の処理を説明するフローチャートである。 Furthermore, the process of determining whether image quality adjustment is necessary for a specific color based on the index value is not limited to the process shown in FIG. 8A. FIG. 8B is a flowchart illustrating another process of determining whether or not to adjust the image quality regarding a specific color based on the index value and a given threshold value, among the determination processes in step S104.

ステップS401に示すように、判定部150は、指標値に対して、時系列的な変動を抑制するフィルタ処理を行ってもよい。判定部150は、フィルタ処理後の指標値に基づいて、画質を調整するか否かを判定する。サイズ指標値の時系列的な変動を抑制することによって、例えばサイズ指標値が閾値の近傍で細かく変動した場合であっても、判定結果の頻繁な変化を抑制できる。特定色の画質が頻繁に変化することを抑制できるため、ユーザーに与える違和感を抑制できる。 As shown in step S401, the determination unit 150 may perform filter processing on the index value to suppress time-series fluctuations. The determination unit 150 determines whether or not to adjust the image quality based on the index value after the filter processing. By suppressing time-series fluctuations in the size index value, frequent changes in the determination result can be suppressed, for example, even if the size index value fluctuates minutely in the vicinity of the threshold value. Since it is possible to suppress frequent changes in the image quality of a specific color, it is possible to suppress the sense of discomfort given to the user.

ここでのフィルタ処理は、指標値の変化方向に応じて異なる複数の閾値を用いた閾値判定を行うヒステリシス処理と、同じ値が所定回数以上取得されることを条件に値を変更するチャタリングフィルタ処理と、を含んでもよい。このようにすれば、指標値の時系列的な変動を適切に抑制できる。なお、以下ではチャタリングフィルタ処理が同じ値が所定回数以上、連続して取得されることを条件に値を変更する処理である例について説明する。 The filter processing here includes hysteresis processing, which performs threshold judgment using multiple threshold values that differ depending on the direction of change in the index value, and chattering filter processing, which changes the value on the condition that the same value is obtained a predetermined number of times or more. It may also include. In this way, time-series fluctuations in index values can be appropriately suppressed. Note that an example will be described below in which the chattering filter process is a process in which a value is changed on the condition that the same value is continuously acquired a predetermined number of times or more.

図9A~図9Cは、ステップS401のフィルタ処理の具体例を説明する図である。図9Aは、指標値の時系列的な変化の例を説明する図である。図9Aの横軸は時間を表し、縦軸は指標値を表す。本実施形態における指標値は、上述したサイズ指標値である。図9Aにおいて、タイミングt1~t11は、それぞれサイズ指標値が求められるタイミングであり、例えば映像信号におけるフレームに対応する。以下ではヒステリシス処理の処理結果を、第1処理結果と表記する。 9A to 9C are diagrams illustrating a specific example of the filtering process in step S401. FIG. 9A is a diagram illustrating an example of time-series changes in index values. The horizontal axis in FIG. 9A represents time, and the vertical axis represents index values. The index value in this embodiment is the size index value described above. In FIG. 9A, timings t1 to t11 are timings at which size index values are calculated, and correspond to frames in a video signal, for example. In the following, the processing result of the hysteresis processing will be referred to as a first processing result.

例えばヒステリシス処理では、判定部150は、現在の第1処理結果が0である場合、第1処理結果を1に増加させるか否かを、相対的に大きい閾値TH1との比較処理に基づいて判定する。例えば判定部150は、サイズ指標値が閾値TH1以上であると判定された場合に、第1処理結果として1を出力する。また判定部150は、サイズ指標値が閾値TH1未満であると判定された場合に、第1処理結果として0の出力を継続する。 For example, in hysteresis processing, when the current first processing result is 0, the determination unit 150 determines whether or not to increase the first processing result to 1 based on comparison processing with a relatively large threshold TH1. do. For example, the determination unit 150 outputs 1 as the first processing result when it is determined that the size index value is equal to or greater than the threshold value TH1. Further, when it is determined that the size index value is less than the threshold value TH1, the determination unit 150 continues to output 0 as the first processing result.

また判定部150は、現在の第1処理結果が1である場合、第1処理結果を0に減少させるか否かを、閾値TH1に比べて小さい閾値TH2との比較処理に基づいて判定する。例えば判定部150は、サイズ指標値が閾値TH2未満であると判定された場合に、第1処理結果として0を出力する。また判定部150は、サイズ指標値が閾値TH2以上であると判定された場合に、第1処理結果として1の出力を継続する。 Further, when the current first processing result is 1, the determining unit 150 determines whether or not to reduce the first processing result to 0 based on a comparison process with a threshold TH2, which is smaller than the threshold TH1. For example, the determination unit 150 outputs 0 as the first processing result when it is determined that the size index value is less than the threshold value TH2. Furthermore, when it is determined that the size index value is equal to or greater than the threshold value TH2, the determination unit 150 continues to output 1 as the first processing result.

以上をまとめると、判定部150は、サイズ指標値が閾値TH1以上である場合に第1処理結果として1を出力し、サイズ指標値が閾値TH2未満である場合に第1処理結果として0を出力し、サイズ指標値が閾値TH2以上、閾値TH1未満である場合に、1タイミング前の第1処理結果と同じ値の出力を継続する。 To summarize the above, the determination unit 150 outputs 1 as the first processing result when the size index value is greater than or equal to the threshold TH1, and outputs 0 as the first processing result when the size index value is less than the threshold TH2. However, when the size index value is greater than or equal to the threshold value TH2 and less than the threshold value TH1, the same value as the first processing result one timing ago is continued to be output.

図9Bは、図9Aに示す指標値に対して、閾値TH1及びTH2を用いたヒステリシス処理を行った処理結果を示す図である。タイミングt1では、サイズ指標値が閾値TH2未満であるため、判定部150は第1処理結果として0を出力する。タイミングt2、t3も同様であり、判定部150は第1処理結果として0を出力する。 FIG. 9B is a diagram showing a processing result of performing hysteresis processing using threshold values TH1 and TH2 on the index values shown in FIG. 9A. At timing t1, the size index value is less than the threshold value TH2, so the determination unit 150 outputs 0 as the first processing result. The same applies to timings t2 and t3, and the determination unit 150 outputs 0 as the first processing result.

タイミングt4では、サイズ指標値が閾値TH2以上、TH1未満である。この場合、1タイミング前の第1処理結果の出力が継続されるため、判定部150は第1処理結果として0を出力する。 At timing t4, the size index value is greater than or equal to the threshold value TH2 and less than TH1. In this case, the determination unit 150 outputs 0 as the first processing result because the output of the first processing result one timing ago is continued.

タイミングt5において、サイズ指標値が閾値TH1以上と判定される。よって判定部150は、第1処理結果として1を出力する。 At timing t5, the size index value is determined to be greater than or equal to the threshold value TH1. Therefore, the determination unit 150 outputs 1 as the first processing result.

タイミングt6では、サイズ指標値が閾値TH2以上、TH1未満である。この場合、1タイミング前の第1処理結果の出力が継続されるため、判定部150は第1処理結果として1を出力する。タイミングt7も同様である。 At timing t6, the size index value is greater than or equal to the threshold value TH2 and less than TH1. In this case, the determination unit 150 outputs 1 as the first processing result because the output of the first processing result from one timing ago is continued. The same applies to timing t7.

タイミングt8において、サイズ指標値が閾値TH2未満と判定される。よって判定部150は、第1処理結果として0を出力する。 At timing t8, it is determined that the size index value is less than the threshold value TH2. Therefore, the determination unit 150 outputs 0 as the first processing result.

以下同様であり、判定部150は、タイミングt9及びt10において第1処理結果として1を出力し、タイミングt11において第1処理結果として0を出力する。 The same applies below, and the determination unit 150 outputs 1 as the first processing result at timings t9 and t10, and outputs 0 as the first processing result at timing t11.

図9Aに示したように、この例ではサイズ指標値の変動度合いが大きいが、ヒステリシス処理を行うことによって値の変動が抑制される。例えば図9Aの例では閾値TH1またはTH2をまたぐ値の変動が多く見られるものの、図9Bに示すようにヒステリシス処理の処理結果における値の変動はt5、t8、t11の3回に抑制される。 As shown in FIG. 9A, although the degree of variation in the size index value is large in this example, the variation in value is suppressed by performing hysteresis processing. For example, in the example of FIG. 9A, there are many variations in value that cross the threshold TH1 or TH2, but as shown in FIG. 9B, the variation in value in the result of the hysteresis process is suppressed to three times, t5, t8, and t11.

図9Cは、図9Bに示すヒステリシス処理の処理結果に対して、チャタリングフィルタ処理を行った処理結果を示す図である。以下、説明の便宜上、チャタリングフィルタ処理の処理結果を第2処理結果とも表記する。例えば判定部150は、1タイミング前の第2処理結果と異なる入力値が所定回数連続して取得されたことを条件として、第2処理結果の値を入力値に変更する。換言すれば、第2処理結果と異なる入力値が取得されたとしても、連続回数が所定回数未満であれば、入力値は第2処理結果に反映されない。図9Cは、所定回数として3回が設定された場合の例であるが、所定回数の値は種々の変形実施が可能である。また第2処理結果の初期値は0であるものとする。 FIG. 9C is a diagram showing the processing result of chattering filter processing performed on the processing result of the hysteresis processing shown in FIG. 9B. Hereinafter, for convenience of explanation, the processing result of the chattering filter processing will also be referred to as the second processing result. For example, the determination unit 150 changes the value of the second processing result to the input value on the condition that an input value different from the second processing result one timing before has been acquired a predetermined number of times in succession. In other words, even if an input value different from the second processing result is obtained, if the consecutive number of times is less than the predetermined number, the input value will not be reflected in the second processing result. FIG. 9C shows an example in which three times is set as the predetermined number of times, but the value of the predetermined number of times can be modified in various ways. Further, it is assumed that the initial value of the second processing result is 0.

図9Bに示したようにタイミングt1~t4では、入力値である第1処理結果の値が0であり、1タイミング前の第2処理結果の値が0である。よって図9Cに示すように、判定部150は、第2処理結果として0の出力を継続する。 As shown in FIG. 9B, from timing t1 to t4, the value of the first processing result, which is the input value, is 0, and the value of the second processing result one timing before is 0. Therefore, as shown in FIG. 9C, the determination unit 150 continues to output 0 as the second processing result.

タイミングt5では、入力値である第1処理結果の値が1であり、1タイミング前の第2処理結果の値である0と異なる。よって判定部150は、連続回数が所定回数以上であるかを判定する。ここでは連続回数が1であり、所定回数である3より小さいため、入力値は反映されない。結果として、図9Cに示すように、判定部150は、第2処理結果として0の出力を継続する。 At timing t5, the value of the first processing result, which is the input value, is 1, which is different from 0, which is the value of the second processing result one timing before. Therefore, the determining unit 150 determines whether the consecutive number of times is equal to or greater than a predetermined number of times. Here, the consecutive number is 1, which is smaller than the predetermined number of 3, so the input value is not reflected. As a result, as shown in FIG. 9C, the determination unit 150 continues to output 0 as the second processing result.

タイミングt6でも、入力値である第1処理結果の値が1であり、1タイミング前の第2処理結果の値である0と異なる。この場合、連続回数が2に増加するが、所定回数である3より小さいため、入力値は反映されない。結果として、図9Cに示すように、判定部150は、第2処理結果として0の出力を継続する。 At timing t6, the value of the first processing result, which is the input value, is 1, which is different from 0, which is the value of the second processing result one timing before. In this case, the number of consecutive times increases to 2, but since it is smaller than the predetermined number of 3, the input value is not reflected. As a result, as shown in FIG. 9C, the determination unit 150 continues to output 0 as the second processing result.

タイミングt7では、入力値である第1処理結果の値が1であり、第2処理結果の値である0と異なる。この場合、連続回数が3に増加するため、所定回数である3以上となり、入力値が第2処理結果に反映される。結果として、図9Cに示すように、判定部150は、第2処理結果として1を出力する。 At timing t7, the value of the first processing result, which is the input value, is 1, which is different from 0, which is the value of the second processing result. In this case, since the number of consecutive operations increases to 3, the number of consecutive operations becomes 3 or more, which is the predetermined number of operations, and the input value is reflected in the second processing result. As a result, as shown in FIG. 9C, the determination unit 150 outputs 1 as the second processing result.

タイミングt8以降では、1タイミング前の第2処理結果が1であるため、入力値が0である連続回数と所定回数の比較が行われる。例えばt8及びt11では入力値として0が取得されるが、いずれも連続回数は1であり、所定回数である3より小さいため、入力値は反映されない。結果として、図9Cに示すように、判定部150は、タイミングt8~t11において、第2処理結果として1の出力を継続する。 After timing t8, since the second processing result one timing before is 1, a comparison is made between the consecutive number of times the input value is 0 and the predetermined number of times. For example, 0 is acquired as the input value at t8 and t11, but the consecutive number of times is 1 in both cases, which is smaller than the predetermined number of times of 3, so the input value is not reflected. As a result, as shown in FIG. 9C, the determination unit 150 continues to output 1 as the second processing result from timing t8 to t11.

図9Bと図9Cの比較から分かるように、チャタリングフィルタ処理を行うことによって短期的な値の変動が処理結果に反映されなくなるため、指標値の時系列的な変動をさらに抑制することが可能になる。 As can be seen from the comparison between FIG. 9B and FIG. 9C, by performing chattering filter processing, short-term value fluctuations are no longer reflected in the processing results, making it possible to further suppress time-series fluctuations in index values. Become.

図8Bに戻って説明を続ける。ステップS402において、判定部150は、フィルタ処理後の値である第2処理結果が1であるかを判定する。第2処理結果が1である場合(ステップS402:Yes)、ステップS403において、判定部150は、特定色に関する画質の調整を行うと判定する。第2処理結果が0である場合(ステップS402:No)、ステップS404において、判定部150は、特定色に関する画質の調整を行わないと判定する。このようにすれば、サイズ指標値の時系列的な変動を抑制した上で、特定色に関する画質調整の要否を判定することが可能になる。 Returning to FIG. 8B, the explanation will be continued. In step S402, the determining unit 150 determines whether the second processing result, which is the value after filtering, is 1. If the second processing result is 1 (step S402: Yes), in step S403, the determining unit 150 determines to perform image quality adjustment regarding the specific color. If the second processing result is 0 (step S402: No), in step S404, the determination unit 150 determines that the image quality regarding the specific color is not to be adjusted. In this way, it is possible to suppress time-series fluctuations in the size index value and then determine whether or not image quality adjustment for a particular color is necessary.

図6~図8Bを用いて上述した処理によって、図4のステップS104に示した判定部150の処理が終了する。判定部150は、特定色に関する画質の調整を行うか否かの判定結果を、画質調整部160に出力する。 By the processing described above using FIGS. 6 to 8B, the processing of the determination unit 150 shown in step S104 of FIG. 4 is completed. The determination unit 150 outputs the determination result of whether or not to adjust the image quality regarding the specific color to the image quality adjustment unit 160.

ステップS105において、画質調整部160は、特定色に関する画質の調整を行うという判定結果が得られたかを判定する。判定部150が特定色に関する画質の調整を行うと判定した場合(ステップS105:Yes)、ステップS106において、画質調整部160は、入力画像に対して、特定色に関する画質の調整を行う。例えば所定のオブジェクトが人物の顔である場合、記憶色が実際の色よりも薄いため、画質調整部160は肌色に対応する色の画素の彩度を低下させる処理を行う。また所定のオブジェクトが青空や緑の景色である場合、記憶色が実際の色よりも濃いため、画質調整部160は青色や緑色の画素の彩度を増加させる処理を行う。 In step S105, the image quality adjustment unit 160 determines whether a determination result indicating that the image quality regarding the specific color is to be adjusted is obtained. If the determining unit 150 determines to adjust the image quality regarding the specific color (step S105: Yes), in step S106, the image quality adjusting unit 160 adjusts the image quality regarding the specific color with respect to the input image. For example, when the predetermined object is a person's face, the memory color is lighter than the actual color, so the image quality adjustment unit 160 performs processing to reduce the saturation of pixels of a color corresponding to the skin color. Furthermore, if the predetermined object is a blue sky or green scenery, the memory color is darker than the actual color, so the image quality adjustment unit 160 performs processing to increase the saturation of blue and green pixels.

なおステップS106において、画質調整部160は、入力画像のうち、オブジェクト検出部120によって検出された所定のオブジェクトに対応する領域の画質を調整し、且つ、他の領域の画質を調整しなくてもよい。このようにすれば、特定色に関する画質の補正対象を所定のオブジェクトに限定できる。例えば人物の肌とは異なる肌色の物体が画像に含まれる場合に、当該物体に対する画質の調整を行わないため、ユーザーに違和感を与えることを抑制できる。 Note that in step S106, the image quality adjustment unit 160 adjusts the image quality of the area corresponding to the predetermined object detected by the object detection unit 120 in the input image, and also adjusts the image quality of the other area without adjusting the image quality of the other area. good. In this way, it is possible to limit the image quality correction target for a specific color to a predetermined object. For example, when an image includes an object whose skin color is different from that of a person's skin, the image quality of the object is not adjusted, so that it is possible to prevent the user from feeling uncomfortable.

なおここでの所定のオブジェクトに対応する領域とは、例えば図5に示した検出結果である矩形領域D1や矩形領域D2そのものであるが、厳密に一致しなくてもよい。例えば顔F1を対象とした特定色に関する画質の調整は、矩形領域D1の一部が除外された領域を対象として実行されてもよい。例えば調整対象の領域は、D1のうちの所定割合以上を含む領域であってもよい。あるいは調整対象の領域は、矩形領域D1の近傍の領域を含んでもよい。例えば調整対象の領域は、当該領域に占める矩形領域D1以外の領域の割合が所定割合未満となる領域であってもよい。 Note that the area corresponding to the predetermined object here is, for example, the rectangular area D1 or the rectangular area D2 that are the detection results shown in FIG. 5, but they do not have to match exactly. For example, the image quality adjustment regarding a specific color for the face F1 may be performed for a region from which a part of the rectangular region D1 is excluded. For example, the area to be adjusted may be an area that includes a predetermined percentage or more of D1. Alternatively, the area to be adjusted may include an area near the rectangular area D1. For example, the area to be adjusted may be an area in which the ratio of areas other than the rectangular area D1 to the area is less than a predetermined ratio.

あるいは、画質調整部160は、入力画像のうち、オブジェクト検出部120によって検出された所定のオブジェクトに対応する領域、及び所定のオブジェクトに対応しない領域を含む領域の画質を調整してもよい。ここでの画質調整の対象となる領域は、入力画像全体のサイズに対して、所定割合以上のサイズを有する領域であってもよい。例えば画質調整部160は、入力画像全体を対象として、特定色に関する画質を調整してもよい。このようにすれば、画質調整の対象となる領域を厳密に設定する必要がないため、処理負荷の軽減が可能である。 Alternatively, the image quality adjustment unit 160 may adjust the image quality of an area of the input image that includes an area corresponding to the predetermined object detected by the object detection unit 120 and an area not corresponding to the predetermined object. The area targeted for image quality adjustment here may be an area having a size equal to or larger than a predetermined ratio with respect to the size of the entire input image. For example, the image quality adjustment unit 160 may adjust the image quality of a specific color for the entire input image. In this way, it is not necessary to strictly set the area to be subjected to image quality adjustment, so that the processing load can be reduced.

また判定部150が特定色に関する画質の調整を行わないと判定した場合(ステップS105:No)、画質調整部160は、ステップS106に示した特定色に関する画質の調整をスキップする。 Furthermore, when the determination unit 150 determines that the image quality adjustment for the specific color is not to be performed (step S105: No), the image quality adjustment unit 160 skips the image quality adjustment for the specific color shown in step S106.

なお図4には不図示であるが、画質調整部160は、特定色に限定せずに、入力画像の明度及び彩度の少なくとも一方を上げる処理を実行してもよい。このようにすれば、テレビジョン放送の規格によらず、鮮やかな色を表現することが可能になる。例えば画質調整部160は、特定色に関する画質の調整を行う場合、特定色に関する画質調整と、特定色に限定しない画質調整の両方を行ってもよい。また画質調整部160は、特定色に関する画質の調整を行わない場合、特定色に限定しない画質調整のみを行ってもよい。 Although not shown in FIG. 4, the image quality adjustment unit 160 may perform processing to increase at least one of the brightness and saturation of the input image without being limited to a specific color. In this way, it becomes possible to express vivid colors regardless of the standards of television broadcasting. For example, when adjusting the image quality for a specific color, the image quality adjustment unit 160 may perform both the image quality adjustment for the specific color and the image quality adjustment not limited to the specific color. Furthermore, when not adjusting the image quality for a specific color, the image quality adjustment unit 160 may only perform image quality adjustment not limited to the specific color.

ステップS107において、表示制御部170は、画質調整後の入力画像を表示パネル16に表示する制御を行う。ここでの画質調整後の入力画像とは、狭義には特定色に関する画質の調整が行われた入力画像である。ただし、画質調整後の入力画像は、特定色に関する画質調整と特定色に限定しない画質調整の両方が行われた入力画像であってもよいし、特定色に限定しない画質調整のみが行われた入力画像であってもよい。 In step S107, the display control unit 170 performs control to display the input image after image quality adjustment on the display panel 16. The input image after image quality adjustment here is, in a narrow sense, an input image on which the image quality regarding a specific color has been adjusted. However, the input image after image quality adjustment may be an input image that has undergone both image quality adjustment related to a specific color and image quality adjustment not limited to a specific color, or may be an input image in which only image quality adjustment not limited to a specific color has been performed. It may be an input image.

2.第2実施形態
図10は本実施形態に係る画像表示装置100の構成例を示す図である。図3に示した構成と比較した場合、シーン取得部140が追加された構成となる。シーン取得部140は、画像取得部110から出力された入力画像のシーンを判定し、シーン判定結果を取得する。例えば後述するように、シーン取得部140は、複数の候補シーンのそれぞれについて、入力画像が当該候補シーンに該当する確からしさを判定してもよい。ここでの候補シーンは、人物の顔、青空、緑の景色、アニメーション等を含む。
2. Second Embodiment FIG. 10 is a diagram showing a configuration example of an image display device 100 according to this embodiment. When compared with the configuration shown in FIG. 3, the configuration is such that a scene acquisition unit 140 is added. The scene acquisition unit 140 determines the scene of the input image output from the image acquisition unit 110, and acquires a scene determination result. For example, as described below, the scene acquisition unit 140 may determine, for each of a plurality of candidate scenes, the probability that the input image corresponds to the candidate scene. The candidate scenes here include a person's face, a blue sky, a green scenery, an animation, and the like.

画像取得部110は、入力画像をオブジェクト検出部120及びシーン取得部140に出力する点を除いて第1実施形態と同様である。判定部150は、サイズ指標値に加えて、シーン取得部140におけるシーン判定結果に基づいて、特定色に関する画質調整の要否を判定する。判定部150における処理の詳細については後述する。オブジェクト検出部120、サイズ取得部130、画質調整部160及び表示制御部170については第1実施形態と同様である。 The image acquisition unit 110 is similar to the first embodiment except that it outputs the input image to the object detection unit 120 and the scene acquisition unit 140. The determining unit 150 determines whether image quality adjustment is necessary for a specific color based on the scene determination result in the scene acquiring unit 140 in addition to the size index value. Details of the processing in the determination unit 150 will be described later. The object detection section 120, size acquisition section 130, image quality adjustment section 160, and display control section 170 are the same as those in the first embodiment.

図11は、本実施形態に係る画像表示装置100の処理を説明するフローチャートである。図11に示す処理は、例えば時系列の画像の集合である映像情報が取得された場合に、各フレームの画像を対象として実行されてもよい。 FIG. 11 is a flowchart illustrating the processing of the image display device 100 according to this embodiment. The processing shown in FIG. 11 may be performed on images of each frame, for example, when video information that is a set of time-series images is acquired.

まずステップS501において、画像取得部110は入力画像を取得する。ステップS502において、オブジェクト検出部120は、画像取得部110から取得した入力画像を対象として、所定のオブジェクトを検出するオブジェクト検出処理を行う。ステップS503において、サイズ取得部130は、オブジェクト検出部120によって検出された所定のオブジェクトのサイズを求める。ステップS501~S503の処理は、図4のステップS101~S103と同様である。例えばステップS503において、サイズ取得部130は、検出された所定のオブジェクトの数と、各所定のオブジェクトのサイズを判定部150に出力する。 First, in step S501, the image acquisition unit 110 acquires an input image. In step S502, the object detection unit 120 performs object detection processing to detect a predetermined object in the input image acquired from the image acquisition unit 110. In step S503, the size acquisition unit 130 determines the size of the predetermined object detected by the object detection unit 120. The processing in steps S501 to S503 is similar to steps S101 to S103 in FIG. For example, in step S503, the size acquisition unit 130 outputs the number of detected predetermined objects and the size of each predetermined object to the determination unit 150.

ステップS504において、シーン取得部140は、入力画像のシーンを判定し、シーン判定結果を取得する。例えばシーン取得部140は、機械学習によって取得される分類モデルを用いてシーン判定を行ってもよい。ただし以下で説明する処理はシーン判定の一例であり、シーン判定はSVM(Support Vector Machine)等の他の機械学習を用いて実行されてもよいし、機械学習とは異なる手法によって実行されてもよい。なおステップS502及びS503に示す処理と、ステップS504に示す処理は、並列に実行されてもよいし、シーケンシャルに実行されてもよい。 In step S504, the scene acquisition unit 140 determines the scene of the input image and acquires the scene determination result. For example, the scene acquisition unit 140 may perform scene determination using a classification model acquired by machine learning. However, the process described below is an example of scene determination, and scene determination may be performed using other machine learning such as SVM (Support Vector Machine), or by a method different from machine learning. good. Note that the processes shown in steps S502 and S503 and the process shown in step S504 may be executed in parallel or sequentially.

図12は、シーン判定における入出力を説明する図である。シーン判定は、例えば上述したCNNを用いた分類モデルを用いて実行されてもよい。CNNの入力は、画像取得部110から出力された入力画像である。なお、入力は入力画像そのものに限定されず、入力画像に対して何らかの前処理が行われた結果であってもよい。 FIG. 12 is a diagram illustrating input and output in scene determination. The scene determination may be performed using, for example, the classification model using the CNN described above. The input of the CNN is the input image output from the image acquisition unit 110. Note that the input is not limited to the input image itself, and may be the result of some preprocessing performed on the input image.

CNNの出力は、例えば複数の候補シーンのそれぞれに関する確からしさであってもよい。ここでの候補シーンは、例えば上述した人物の顔、青空、緑の景色、アニメーションを含む。また候補シーンはこれに限定されず、建物、食べ物、動物等、種々のシーンを含むことが可能である。例えばCNNは、入力画像のシーンが人物の顔である確からしさ、入力画像のシーンが青空である確からしさ、入力画像のシーンが緑の景色である確からしさ、入力画像のシーンがアニメーションである確からしさの4つの値を出力する。各値は、例えば0以上100以下の数値であってもよい。以下、人物の顔である確からしさを顔シーン判定値、青空である確からしさを青空シーン判定値、緑の景色である確からしさを緑シーン判定値、アニメーションである確からしさをアニメシーン判定値と表記する。 The output of the CNN may be, for example, the probability for each of a plurality of candidate scenes. The candidate scenes here include, for example, the above-mentioned human face, blue sky, green scenery, and animation. Further, the candidate scenes are not limited to these, and can include various scenes such as buildings, food, animals, etc. For example, CNN calculates the probability that the input image scene is a person's face, the probability that the input image scene is a blue sky, the probability that the input image scene is a green landscape, and the probability that the input image scene is an animation. Outputs four values of likelihood. Each value may be a numerical value of 0 or more and 100 or less, for example. Hereinafter, the probability that it is a human face is called the face scene judgment value, the probability that it is a blue sky is called the blue sky scene judgment value, the certainty that it is a green scenery is called the green scene judgment value, and the certainty that it is an animation is called the animation scene judgment value. write.

例えばCNNは、訓練データに基づく機械学習によって取得される。ここでの訓練データは、学習用画像に対して、シーン分類結果が正解データとして付与されたデータである。シーン分類結果は、例えば学習用画像を閲覧したユーザーが入力することによって取得される。例えば、学習用画像は人物の顔を撮像した画像である、とユーザーが判断した場合、正解データとして、顔シーン判定値が100であり、青空シーン判定値、緑シーン判定値、及びアニメシーン判定値が0となるデータが付与される。また青空と人物の顔が1枚の学習用画像に含まれるように、1つの画像が複数のシーンに対応してもよい。この例では、正解データとして、顔シーン判定値及び青空シーン判定値が100であり、緑シーン判定値及びアニメシーン判定値が0となるデータが付与される。なお画像分類を行う学習済モデルを生成する手法は広く知られており、本実施形態ではそれらの手法を広く適用可能である。 For example, CNN is obtained by machine learning based on training data. The training data here is data in which the scene classification results are added as correct data to the learning images. The scene classification result is obtained, for example, by input by a user who viewed the learning image. For example, if the user determines that the learning image is an image of a person's face, the correct data includes a face scene determination value of 100, a blue sky scene determination value, a green scene determination value, and an animation scene determination value. Data with a value of 0 is assigned. Furthermore, one image may correspond to a plurality of scenes, such that a blue sky and a person's face are included in one learning image. In this example, data in which the face scene determination value and the blue sky scene determination value are 100, and the green scene determination value and the animation scene determination value are 0 is assigned as correct data. Note that methods for generating trained models for image classification are widely known, and these methods can be widely applied to this embodiment.

例えば画像表示装置100は不図示の記憶部を含み、当該記憶部は学習済モデルであるCNNを記憶する。なおここでの記憶部は、図2に示したテレビ受信装置10のメモリー14であってもよい。シーン取得部140は、記憶部からCNNを読み出し、入力画像をCNNに入力することによって、顔シーン判定値、青空シーン判定値、緑シーン判定値、及びアニメシーン判定値の4つの値を求める。シーン取得部140は、これらの値の少なくとも1つを、シーン判定結果として判定部150に出力する。 For example, the image display device 100 includes a storage unit (not shown), and the storage unit stores a CNN that is a trained model. Note that the storage unit here may be the memory 14 of the television receiving device 10 shown in FIG. 2. The scene acquisition unit 140 reads the CNN from the storage unit and inputs the input image to the CNN to obtain four values: a face scene determination value, a blue sky scene determination value, a green scene determination value, and an animation scene determination value. The scene acquisition unit 140 outputs at least one of these values to the determination unit 150 as a scene determination result.

判定部150は、サイズ取得部130から出力されたサイズ、及び、シーン取得部140から出力されたシーン判定結果に基づいて、所定のオブジェクトに含まれる特定色に関する画質の調整を行うか否かを判定する。例えば判定部150は、サイズに基づくサイズ指標値と、シーン判定結果に基づくシーン指標値を取得し、サイズ指標値及びシーン指標値に基づいて、指標値を求めてもよい。判定部150は、当該指標値に基づいて、特定色に関する画質調整の要否を判定する。このようにすればオブジェクト検出の結果と、シーン判定結果という異なる情報に基づいて画質調整の要否を判定できる。そのため、判定精度を向上させることが可能になる。 The determination unit 150 determines whether or not to adjust the image quality regarding a specific color included in a predetermined object based on the size output from the size acquisition unit 130 and the scene determination result output from the scene acquisition unit 140. judge. For example, the determination unit 150 may obtain a size index value based on the size and a scene index value based on the scene determination result, and calculate the index value based on the size index value and the scene index value. The determination unit 150 determines whether image quality adjustment is necessary for a specific color based on the index value. In this way, it is possible to determine whether or not image quality adjustment is necessary based on different information: the object detection result and the scene determination result. Therefore, it becomes possible to improve the determination accuracy.

この際、シーン取得部140は、入力画像が、所定のオブジェクトに対応するシーンである確からしさを、シーン判定結果として求めてもよい。そして判定部150は、所定のオブジェクトに対応するシーンである確からしさを、シーン指標値として取得してもよい。例えば、所定のオブジェクトが人物の顔である場合、シーン取得部140は、シーン判定結果として少なくとも顔シーン判定値を含む情報を取得し、判定部150は、顔シーン判定値をシーン指標値として取得する。また所定のオブジェクトが青空である場合、シーン取得部140は、シーン判定結果として少なくとも青空シーン判定値を含む情報を取得し、判定部150は、青空シーン判定値をシーン指標値として取得してもよい。同様に、所定のオブジェクトが緑の景色である場合、シーン取得部140は、シーン判定結果として少なくとも緑シーン判定値を含む情報を取得し、判定部150は、緑シーン判定値をシーン指標値として取得する。このようにすれば、所定のオブジェクトに関するオブジェクト検出の結果と、所定のオブジェクトに関するシーン判定の結果とを指標値算出に用いることが可能になる。同じオブジェクトについて、異なる判定の結果を用いるため、画質調整の要否判定の精度を向上させることが可能になる。 At this time, the scene acquisition unit 140 may obtain the probability that the input image is a scene corresponding to a predetermined object as a scene determination result. Then, the determination unit 150 may obtain the probability that the scene corresponds to a predetermined object as a scene index value. For example, when the predetermined object is a person's face, the scene acquisition unit 140 acquires information including at least a face scene determination value as a scene determination result, and the determination unit 150 acquires the face scene determination value as a scene index value. do. Further, when the predetermined object is a blue sky, the scene acquisition unit 140 acquires information including at least a blue sky scene determination value as a scene determination result, and the determination unit 150 acquires the blue sky scene determination value as a scene index value. good. Similarly, when the predetermined object is a green scene, the scene acquisition unit 140 acquires information including at least a green scene determination value as a scene determination result, and the determination unit 150 uses the green scene determination value as a scene index value. get. In this way, it becomes possible to use the result of object detection regarding the predetermined object and the result of scene determination regarding the predetermined object for calculating the index value. Since different determination results are used for the same object, it is possible to improve the accuracy of determining whether or not image quality adjustment is necessary.

ここでオブジェクト検出とシーン判定の相違点について説明する。例えばオブジェクト検出は、所定のオブジェクトが存在するか否かに加えて、具体的な位置やサイズを求める処理であり、場合によっては目、鼻等のパーツのような詳細な形状の検出処理を含む。そのため、所定のオブジェクトに関して、シーン判定より詳細な情報を求めることが可能であるし、所定のオブジェクトの検出精度が高い。一方、シーン判定は、入力画像全体として、候補シーンの特徴にどの程度合致しているかを求める処理である。そのため、具体的なオブジェクトの数、サイズ、位置等までは求められないが、図12に示すように、種々の候補シーンに関する判定が可能である。 Here, the differences between object detection and scene determination will be explained. For example, object detection is a process that determines the specific position and size of a given object in addition to whether it exists, and in some cases includes the process of detecting detailed shapes such as parts such as eyes and nose. . Therefore, it is possible to obtain more detailed information regarding a predetermined object than by scene determination, and the detection accuracy of the predetermined object is high. On the other hand, scene determination is a process of determining how well the input image as a whole matches the characteristics of the candidate scene. Therefore, although the specific number, size, position, etc. of objects cannot be determined, determinations regarding various candidate scenes can be made as shown in FIG. 12.

図13は、入力画像の態様と、顔シーン判定値、オブジェクト検出結果の関係例を示す図である。顔シーン判定値は上述したように入力画像が人物の顔を含むシーンである確からしさを表す0以上100以下の数値である。オブジェクト検出結果は、入力画像からオブジェクトが検出されたか否かを表す。 FIG. 13 is a diagram illustrating an example of the relationship between the input image format, the face scene determination value, and the object detection result. As described above, the face scene determination value is a numerical value between 0 and 100 that represents the probability that the input image is a scene that includes a person's face. The object detection result indicates whether or not an object was detected from the input image.

図13に示すように、顔を遮るような物体がない通常の態様で撮像された場合、顔シーン判定値はある程度高い値となり、オブジェクト検出の結果として顔が検出される。よってこの場合は、オブジェクト検出結果に基づくサイズ指標値と、シーン指標値(顔シーン判定値)のいずれについても、入力画像に含まれる所定のオブジェクト(人物の顔)を反映した情報となる。 As shown in FIG. 13, when an image is captured in a normal manner without an object blocking the face, the face scene determination value becomes a relatively high value, and a face is detected as a result of object detection. Therefore, in this case, both the size index value based on the object detection result and the scene index value (face scene determination value) become information that reflects the predetermined object (person's face) included in the input image.

また、マスク等により鼻や口が遮蔽された場合、人物が斜めを向いている場合、ゴーグル等により目が遮蔽された場合、顔の周辺に字幕が表示される場合等には、図13に示すように顔シーン判定値が低下する可能性がある。これは、顔の一部のパーツが遮蔽される、字幕等の他の情報が混在することによって、入力画像が、顔を含むシーンらしい状態から乖離するためと考えられる。この場合、シーン指標値は入力画像に含まれる所定のオブジェクト(人物の顔)を適切に反映しておらず、シーン指標値のみを用いると、肌色に関する画質調整が不要と判定される可能性がある。一方で、オブジェクト検出では、一部のパーツが欠けたとしても、残りのパーツの検出は可能であるため、顔領域を適切に検出できる。また顔の方向が正面でないことで画像上でのパーツ形状がゆがむ、字幕等の他の情報が混在する等の場合も同様であり、オブジェクト検出が可能である。そのため、これらの態様で人物の顔が映し出される入力画像を対象とする場合、オブジェクト検出結果に基づくサイズ指標値を用いることによって、画質の調整漏れが生じることを抑制できる。なお、図13に示した顔シーン判定値は一例であり、「鼻/口隠し」、「斜め下を向く」、「目隠し」、及び「顔の下に字幕」の場合に、顔シーン判定値が必ず低下するとは限らない。即ち、これらの場合の何れかに該当する場合であっても、シーン判定により人物の顔を含むシーンが適切に検出される場合があってもよい。 In addition, if the nose or mouth is blocked by a mask, etc., if the person is facing diagonally, if the eyes are blocked by goggles, etc., or if subtitles are displayed around the face, etc. As shown, the face scene judgment value may decrease. This is thought to be because some parts of the face are occluded and other information such as subtitles is mixed, causing the input image to deviate from a state that seems to be a scene including a face. In this case, the scene index value does not appropriately reflect the predetermined object (person's face) included in the input image, and if only the scene index value is used, it may be determined that image quality adjustment regarding skin color is not necessary. be. On the other hand, in object detection, even if some parts are missing, the remaining parts can be detected, so the facial area can be detected appropriately. The same holds true when the shape of parts on the image is distorted because the face is not facing forward, or when other information such as subtitles is mixed, and object detection is possible. Therefore, when an input image in which a person's face is displayed in these manners is targeted, by using the size index value based on the object detection result, it is possible to prevent the image quality from being omitted from adjustment. The face scene judgment values shown in Fig. 13 are just examples, and the face scene judgment values are does not necessarily decrease. That is, even if any of these cases applies, a scene including a person's face may be appropriately detected by scene determination.

また人物にピントが合わないことによって画像上での人物の顔がぼやけている場合、例えばパーツ検出が適切に行えないため、所定のオブジェクトが非検出と判定される可能性がある。この場合、オブジェクト検出結果に基づくサイズ指標値のみを用いると、肌色に関する画質調整が不要と判定される可能性がある。一方で、ピントが合っていない状態では細かい構造が潰れるかもしれないが、入力画像全体の傾向としてはピントが合った状態からの乖離が少ない。シーン判定では入力画像全体として顔を含むシーンである確からしさが判定されるため、ピントが合っていない状態であっても、人物を含む画像であれば顔シーン判定値は高く判定されやすい。そのため、シーン指標値を用いることによって、画質の調整漏れが生じることを抑制できる。なお、図13は、「ピンボケ」の場合にオブジェクト検出処理による顔検出ができない可能性があることを示すものであり、「ピンボケ」の場合であっても、オブジェクト検出処理により人物の顔が適切に検出される場合があってもよい。 Further, if the person's face in the image is blurred because the person is out of focus, for example, parts cannot be detected appropriately, and a predetermined object may be determined not to be detected. In this case, if only the size index value based on the object detection result is used, it may be determined that image quality adjustment regarding skin color is unnecessary. On the other hand, although fine structures may be lost when the image is out of focus, the overall tendency of the input image is that there is little deviation from the focused state. In scene determination, the probability that the input image as a whole is a scene including a face is determined, so even if the image is out of focus, if the image includes a person, the face scene determination value is likely to be determined to be high. Therefore, by using the scene index value, it is possible to suppress the omission of image quality adjustment. Note that Figure 13 shows that there is a possibility that a face cannot be detected by object detection processing in the case of "out of focus"; even in the case of "out of focus", the face of a person may be properly detected by object detection processing. may be detected.

図13の例から分かるように、オブジェクト検出とシーン判定はそれぞれ好適な顔の態様が異なる。よって、オブジェクト検出に基づくサイズ指標値と、シーン判定に基づくシーン指標値の両方を併用することによって、入力画像における顔の態様によらず、特定色に関する画質調整の要否を適切に判定することが可能になる。 As can be seen from the example in FIG. 13, the preferred facial aspects are different for object detection and scene determination. Therefore, by using both the size index value based on object detection and the scene index value based on scene determination, it is possible to appropriately determine whether image quality adjustment is necessary for a specific color, regardless of the aspect of the face in the input image. becomes possible.

例えば図11のステップS505において、判定部150は第1実施形態と同様の手法によってサイズ指標値を求めるとともに、シーン取得部140からの出力に基づいてシーン指標値を取得する。そして判定部150は、サイズ指標値とシーン指標値のうちの最大値を、特定色に関する画質調整の要否判定に用いる指標値として取得してもよい。例えば、図12の例であれば、鼻/口隠し、斜め下を向く、目隠し、顔の下に字幕、等の態様ではサイズ指標値が指標値として用いられやすくなり、ピンボケの態様ではシーン指標値が指標値として用いられやすくなる。このようにすれば、入力画像の態様が変化したとしても、当該態様に適した情報が指標値として用いられるため、特定色に関する画質の調整漏れが生じることを抑制できる。 For example, in step S505 in FIG. 11, the determination unit 150 determines the size index value using the same method as in the first embodiment, and acquires the scene index value based on the output from the scene acquisition unit 140. Then, the determination unit 150 may obtain the maximum value of the size index value and the scene index value as an index value used to determine whether or not image quality adjustment regarding a specific color is necessary. For example, in the example shown in Figure 12, the size index value is likely to be used as the index value in situations such as covering the nose/mouth, looking diagonally downward, blindfolding, subtitles under the face, etc., and the scene index value is likely to be used in cases where the face is out of focus. The value becomes more likely to be used as an index value. In this way, even if the aspect of the input image changes, information suitable for the aspect is used as the index value, so that it is possible to suppress the omission of adjustment of the image quality regarding a specific color.

指標値が求められた後の処理は第1実施形態と同様であってもよい。例えば判定部150は、図8Aに示したように、指標値と閾値TH0との比較処理に基づいて、特定色に関する画質調整を行うか否かを判定してもよい。あるいは判定部150は、図8Bに示したように、指標値の時系列変化を抑制する処理を行った上で(ステップS401)、処理後の値に基づいて特定色に関する画質調整を行うか否かを判定してもよい。例えば判定部150は、複数のフレームのそれぞれにおいてサイズ指標値とシーン指標値を取得し、いずれか大きい方を当該フレームでの指標値として求める。そして求めた時系列の指標値に対して、図9A~図9Cを用いて上述した処理を行うことによって、時系列変化が抑制された指標値を求めてもよい。 The processing after the index value is calculated may be the same as in the first embodiment. For example, as shown in FIG. 8A, the determination unit 150 may determine whether to perform image quality adjustment for a specific color based on a comparison process between the index value and the threshold value TH0. Alternatively, as shown in FIG. 8B, the determination unit 150 performs processing to suppress time-series changes in index values (step S401), and then determines whether or not to perform image quality adjustment for a specific color based on the processed values. It may be determined whether For example, the determination unit 150 obtains a size index value and a scene index value for each of a plurality of frames, and determines whichever is larger as the index value for the frame. Then, by performing the processing described above using FIGS. 9A to 9C on the determined time-series index values, index values whose time-series changes are suppressed may be determined.

ステップS506~S508の処理については、図4のステップS105~S107と同様であるため詳細な説明は省略する。 The processing in steps S506 to S508 is the same as steps S105 to S107 in FIG. 4, so a detailed explanation will be omitted.

またシーン判定を行う場合、ステップS505において判定部150は複数の候補シーンに関するシーン判定を行い、ステップS507において画質調整部160は当該シーン判定の結果に従って特定色に関する画質調整を行ってもよい。以下、具体例について説明する。 Further, when performing scene determination, the determination unit 150 may perform scene determination regarding a plurality of candidate scenes in step S505, and in step S507, the image quality adjustment unit 160 may perform image quality adjustment regarding a specific color according to the result of the scene determination. A specific example will be explained below.

以上の説明では、人物の顔の検出結果に基づくサイズ指標値と、シーン指標値である顔シーン判定値を用いて、人物の肌色に関する画質調整を行う例を説明した。この場合、青空の青色領域、及び、緑の景色の緑色領域を特定色とする画質調整は省略されてもよい。しかし図12を用いて上述したように、シーン判定の結果は、青空を含むシーンである確からしさ(青空シーン判定値)や緑の景色を含むシーンである確からしさ(緑シーン判定値)を含んでもよい。そして青空や緑の景色は、記憶色が実際の色よりも鮮やかであるため、青空の青色や緑の景色の緑色の画質を調整することが有用である。よって青空シーン判定値や緑シーン判定値に基づいて、特定色に関する画質調整の要否が判定されてもよい。例えば、青空シーン判定値が大きい場合には青空の青色領域の彩度を上げ、緑シーン判定値が大きい場合には緑の景色の緑色領域の彩度を上げる画質調整が行われてもよい。このようにすれば、オブジェクト検出の対象とならないオブジェクトに含まれる特定色についても、画質調整の要否を判定することが可能になる。 In the above description, an example has been described in which image quality adjustment regarding a person's skin color is performed using a size index value based on a detection result of a person's face and a face scene determination value that is a scene index value. In this case, the image quality adjustment that makes the blue region of the blue sky and the green region of the green scenery a specific color may be omitted. However, as described above using FIG. 12, the scene determination result does not include the probability that the scene includes a blue sky (blue sky scene determination value) or the probability that the scene includes a green landscape (green scene determination value). But that's fine. Since the memory color of a blue sky or a green scenery is more vivid than the actual color, it is useful to adjust the image quality of the blue of the blue sky or the green of a green scenery. Therefore, it may be determined whether image quality adjustment for a specific color is necessary based on the blue sky scene determination value or the green scene determination value. For example, image quality adjustment may be performed to increase the saturation of the blue region of the blue sky when the blue sky scene determination value is large, and to increase the saturation of the green region of the green scenery when the green scene determination value is large. In this way, it is possible to determine whether image quality adjustment is necessary even for a specific color included in an object that is not a target of object detection.

所定のオブジェクトが変化する場合も同様である。例えば所定のオブジェクトが青空である場合、判定部150は、青空の検出結果に基づくサイズ指標値及び青空シーン判定値の大きい方に基づいて、青色領域の彩度を上げるか否かを判定する。そして判定部150は、人物の顔及び緑の景色については、顔シーン判定値及び緑シーン判定値をそのまま用いて、肌色領域及び緑色領域に関する画質調整の要否を判定してもよい。 The same applies when a predetermined object changes. For example, when the predetermined object is a blue sky, the determination unit 150 determines whether to increase the saturation of the blue region based on the larger of the size index value based on the blue sky detection result and the blue sky scene determination value. The determining unit 150 may use the face scene determination value and the green scene determination value as they are for the person's face and the green scene to determine whether image quality adjustment is necessary for the skin color area and the green area.

また所定のオブジェクトは2以上であってもよい。例えばオブジェクト検出部120は、人物の顔の検出処理と、青空の検出処理の両方を行ってもよい。この場合、判定部150は、人物の顔の検出結果に基づくサイズ指標値及び顔シーン判定値に基づいて、肌色領域の彩度を下げるか否かを判定する。また判定部150は、青空の検出結果に基づくサイズ指標値及び青空シーン判定値に基づいて、青色領域の彩度を上げるか否かを判定する。また判定部150は、緑の景色については、緑シーン判定値をそのまま用いて、緑の景色の緑色領域に関する画質調整の要否を判定してもよい。 Further, there may be two or more predetermined objects. For example, the object detection unit 120 may perform both human face detection processing and blue sky detection processing. In this case, the determination unit 150 determines whether or not to lower the saturation of the skin color area based on the size index value and face scene determination value based on the detection result of the person's face. The determination unit 150 also determines whether to increase the saturation of the blue region based on the size index value and the blue sky scene determination value based on the blue sky detection result. Further, the determination unit 150 may use the green scene determination value as is for the green scene to determine whether or not image quality adjustment is necessary for the green region of the green scene.

当然、オブジェクト検出部120は、人物の顔、青空、緑の景色のそれぞれを所定のオブジェクトとしてオブジェクト検出処理を行ってもよい。この場合、判定部150は、肌色領域、青色領域、緑色領域のすべてについて、オブジェクト検出結果とシーン判定結果の両方を用いて、画質調整の要否を判定する。 Naturally, the object detection unit 120 may perform object detection processing using each of a person's face, a blue sky, and a green scenery as predetermined objects. In this case, the determination unit 150 determines whether or not image quality adjustment is necessary for all of the skin color region, blue region, and green region, using both the object detection result and the scene determination result.

以上のように本実施形態では、所定のオブジェクトは人物の顔であってもよいし、青空であってもよいし、緑の景色であってもよいし、これ以外のオブジェクトであってもよい。また特定色に関する画質調整の対象となるオブジェクトは1つに限定されず、例えば上述したように、人物の顔、青空、緑の景色のうちの2以上が対象となってもよい。この際、オブジェクト検出処理の対象となるオブジェクトについては、オブジェクト検出結果とシーン判定結果が併用されることによって、画質調整の要否判定の精度向上が可能になる。 As described above, in this embodiment, the predetermined object may be a person's face, a blue sky, a green landscape, or any other object. . Further, the object to be subjected to image quality adjustment regarding a specific color is not limited to one, and for example, as described above, two or more of a person's face, a blue sky, and a green scenery may be the objects. At this time, for objects to be subjected to object detection processing, the object detection results and scene determination results are used together, making it possible to improve the accuracy of determining whether or not image quality adjustment is necessary.

3.第3実施形態
第2実施形態では、オブジェクト検出結果に基づくサイズ指標値と、シーン判定結果に基づくシーン指標値が取得された場合に、その値の大きい方が指標値として用いられる例を説明した。しかし指標値を取得する手法はこれに限定されない。以下、具体例について説明する。なお図11に示した処理のうち、ステップS505を除いた処理については、第2実施形態と同様である。
3. Third Embodiment In the second embodiment, when a size index value based on an object detection result and a scene index value based on a scene determination result are obtained, the larger value is used as the index value. . However, the method of obtaining the index value is not limited to this. A specific example will be explained below. Note that among the processes shown in FIG. 11, the processes excluding step S505 are the same as those in the second embodiment.

図14は、本実施形態における指標値の取得処理を説明するフローチャートである。なお図14に示す処理の前に、判定部150は、サイズ指標値およびシーン指標値を取得しているものとする。 FIG. 14 is a flowchart illustrating the index value acquisition process in this embodiment. It is assumed that the determination unit 150 has acquired the size index value and the scene index value before the processing shown in FIG. 14 .

ステップS601において、判定部150は、サイズ指標値に対して第1重みにより重み付けを行う。またステップS602において、判定部150は、シーン指標値に対して第2重みによる重み付けを行う。ここでの重み付けとはサイズ指標値に第1重みを乗ずる処理、及び、シーン指標値に第2重みを乗ずる処理であるが、他の重み付け処理が行われてもよい。また、ここで第1重みと第2重みは同じ値であってもよいし、異なる値であってもよい。本実施形態の判定部150は、ステップS605において後述するように、重み付け後のサイズ指標値及び重み付け後のシーン指標値に基づいて、指標値を求める。 In step S601, the determination unit 150 weights the size index value using a first weight. Further, in step S602, the determination unit 150 weights the scene index value using the second weight. The weighting here refers to a process in which the size index value is multiplied by a first weight, and a process in which the scene index value is multiplied by a second weight, but other weighting processes may be performed. Moreover, the first weight and the second weight may be the same value or may be different values. The determination unit 150 of this embodiment calculates an index value based on the weighted size index value and the weighted scene index value, as described later in step S605.

このようにすれば、サイズ指標値とシーン指標値のそれぞれについて、画質調整の要否判定への寄与度を補正することが可能になる。例えば、第1重みは0以上1以下の値であってもよく、値が0に近いほどサイズ指標値の値が小さくなるため、サイズ指標値の寄与度が小さくなる。また第2重みは0以上1以下の値であってもよく、値が0に近いほどシーン指標値の値が小さくなるため、シーン指標値の寄与度が小さくなる。また第1重み及び第2重みの少なくとも一方が1以上の値となってもよい。本実施形態の手法によれば、サイズ指標値とシーン指標値のどちらを重視するかを柔軟に決定することが可能になる。 In this way, it becomes possible to correct the degree of contribution of each of the size index value and scene index value to the determination of whether image quality adjustment is necessary. For example, the first weight may be a value greater than or equal to 0 and less than or equal to 1, and the closer the value is to 0, the smaller the value of the size index value becomes, and therefore the degree of contribution of the size index value becomes smaller. Further, the second weight may be a value of 0 or more and 1 or less, and the closer the value is to 0, the smaller the scene index value becomes, and therefore the smaller the contribution of the scene index value. Further, at least one of the first weight and the second weight may have a value of 1 or more. According to the method of this embodiment, it becomes possible to flexibly determine which of the size index value and the scene index value is more important.

例えば、第1重みは第2重みよりも大きい値であってもよい。この場合、サイズ指標値をシーン指標値に比べて重視する処理が可能になる。例えば図13に示したように、入力画像における所定のオブジェクト(例えば人物の顔)の態様は種々考えられるが、シーン判定に比べて、オブジェクト検出が対応可能な範囲が広い可能性がある。即ち、特定色に関する画質調整の要否判定において、オブジェクト検出に基づくサイズ指標値は、シーン指標値に比べて信頼性の高い情報である可能性がある。よって第1重みを第2重みよりも大きくすることによって、より信頼できる情報を重視した処理を実現できる。ただし本実施形態の処理はこれに限定されず、第1重みと第2重みの値が同じになってもよいし、第2重みを第1重みより大きくしてもよい。 For example, the first weight may be a larger value than the second weight. In this case, it becomes possible to carry out processing in which the size index value is given more importance than the scene index value. For example, as shown in FIG. 13, various aspects of a predetermined object (for example, a person's face) in an input image can be considered, but object detection may cover a wider range than scene determination. That is, in determining whether image quality adjustment is necessary for a specific color, the size index value based on object detection may be more reliable information than the scene index value. Therefore, by making the first weight larger than the second weight, processing that emphasizes more reliable information can be realized. However, the processing of this embodiment is not limited to this, and the values of the first weight and the second weight may be the same, or the second weight may be larger than the first weight.

また図12に示したように、シーン取得部140は、入力画像が、アニメーションである確からしさを表すシーン判定結果を取得してもよい。ここでのシーン判定結果は、例えば上述したアニメシーン判定値である。そして判定部150は、入力画像がアニメーションである確からしさに基づいて、サイズ指標値及びシーン指標値の少なくとも一方に対して、重み付け処理を行ってもよい。例えば判定部150は、アニメシーン判定値が大きい場合、値が小さい場合に比べて、サイズ指標値及びシーン指標値の少なくとも一方が小さくなるような第3重みを用いた重み付け処理を行ってもよい。ここで指標値を小さくする重みとは、特定色に関する画質の調整を行わないと判定される方向の重みと言い換えてもよい。なお図14では、判定部150は、ステップS603において、サイズ指標値に対する重み付け処理を行い、ステップS604において、シーン指標値に対する重み付け処理を行う例を示したが、ステップS603及びS604の何れか一方が省略されてもよい。 Further, as shown in FIG. 12, the scene acquisition unit 140 may acquire a scene determination result indicating the probability that the input image is an animation. The scene determination result here is, for example, the above-mentioned animation scene determination value. The determination unit 150 may perform weighting processing on at least one of the size index value and the scene index value based on the probability that the input image is an animation. For example, the determination unit 150 may perform weighting processing using a third weight such that when the anime scene determination value is large, at least one of the size index value and the scene index value is smaller than when the value is small. . Here, the weight that reduces the index value may be rephrased as the weight that determines that the image quality of a specific color is not adjusted. Note that in FIG. 14, an example is shown in which the determination unit 150 performs weighting processing on the size index value in step S603 and weighting processing on the scene index value in step S604, but if either one of steps S603 and S604 is May be omitted.

例えば判定部150は、第3重みとして0以上1未満の重みを設定してもよい。例えば第3重みはアニメシーン判定値が所与の閾値以上の場合に0となり、所与の閾値未満の場合に1となる値であってもよい。この場合、入力画像がアニメーションである蓋然性が高いと判定された場合に、サイズ指標値とシーン指標値の少なくとも一方の値が0に設定される。このようにすれば、例えばアニメーションにおける肌色領域に対して画質調整が行われることを抑制できる。アニメーションでは肌色に相当する画素の画質を調整することによって、かえってユーザーに違和感を与える可能性があるため、第3重みを用いることによって当該違和感の発生を抑制できる。 For example, the determination unit 150 may set a weight of 0 or more and less than 1 as the third weight. For example, the third weight may be 0 when the animation scene determination value is greater than or equal to a given threshold, and may be 1 when it is less than the given threshold. In this case, when it is determined that there is a high probability that the input image is an animation, at least one of the size index value and the scene index value is set to zero. In this way, for example, it is possible to suppress image quality adjustment from being performed on a skin color area in an animation. In animation, adjusting the image quality of pixels corresponding to skin color may give the user a sense of discomfort; therefore, by using the third weight, the occurrence of the sense of discomfort can be suppressed.

なお判定部150は、サイズ指標値とシーン指標値の両方に第3重みを乗ずる重み付けを行ってもよい。このようにすれば、両方の指標値が小さくなるため、特定色に関する画質調整が行われにくくなる。ただし本実施形態における処理はこれに限定されず、判定部150は、サイズ指標値とシーン指標値の何れか一方に第3重みを乗ずる重み付けを行ってもよい。 Note that the determination unit 150 may perform weighting by multiplying both the size index value and the scene index value by a third weight. In this way, since both index values become small, it becomes difficult to perform image quality adjustment regarding a specific color. However, the processing in this embodiment is not limited to this, and the determination unit 150 may perform weighting by multiplying either the size index value or the scene index value by a third weight.

また第3重みは、0と1の2値に限定されない。例えば第3重みは、アニメシーン判定値が0の場合に1、100の場合に0となり、アニメシーン判定値が0より大きく100未満の範囲では線形補間が行われてもよい。このようにすれば、アニメシーン判定値の大小に応じた柔軟な重み付けが可能になる。なお第3重みの範囲はこれに限定されず、アニメシーン判定値が100の場合に0より大きい値が設定されてもよい。例えばアニメシーン判定値が100の場合の第3重みの値を0.5に設定することによって、第3重みは0.5以上1以下の範囲で設定されてもよい。またアニメシーン判定値が0の場合の第3重みを1より小さい値に設定することによって、第3重みの上限値が変更されてもよい。また、アニメシーン判定値が0より大きく100未満の範囲での補間処理は線形補間に限定されず、非線形関数を用いた補間処理が行われてもよい。 Further, the third weight is not limited to two values of 0 and 1. For example, the third weight may be 1 when the anime scene determination value is 0, 0 when the anime scene determination value is 100, and linear interpolation may be performed in a range where the anime scene determination value is greater than 0 and less than 100. In this way, flexible weighting can be performed depending on the size of the animation scene determination value. Note that the range of the third weight is not limited to this, and when the animation scene determination value is 100, a value larger than 0 may be set. For example, by setting the value of the third weight to 0.5 when the animation scene determination value is 100, the third weight may be set in a range of 0.5 or more and 1 or less. Further, the upper limit value of the third weight may be changed by setting the third weight when the animation scene determination value is 0 to a value smaller than 1. Moreover, the interpolation process in the range where the animation scene determination value is greater than 0 and less than 100 is not limited to linear interpolation, and interpolation process using a nonlinear function may be performed.

なお図14において、サイズ指標値に関する処理(ステップS601及びS603)と、シーン指標値に関する処理(ステップS602及びS604)は、並列に実行されてもよいし、シーケンシャルに実行されてもよい。重み付け処理の完了後、ステップS605において、判定部150は、重み付け後のサイズ指標値及びシーン指標値に基づいて、特定色に関する画質調整の要否を判定するための指標値を取得する。具体的には、判定部150は、重み付け後のサイズ指標値と重み付け後のシーン指標値を比較し、大きい方の値を指標値として取得する。指標値取得後の処理については第1実施形態や第2実施形態と同様であり、図8Aに示した処理が実行されてもよいし、図8Bに示した処理が実行されてもよい。 Note that in FIG. 14, the process related to the size index value (steps S601 and S603) and the process related to the scene index value (steps S602 and S604) may be executed in parallel or sequentially. After the weighting process is completed, in step S605, the determination unit 150 obtains an index value for determining whether image quality adjustment is necessary for a specific color based on the weighted size index value and scene index value. Specifically, the determination unit 150 compares the weighted size index value and the weighted scene index value, and obtains the larger value as the index value. The processing after obtaining the index value is the same as in the first embodiment and the second embodiment, and the processing shown in FIG. 8A or the processing shown in FIG. 8B may be performed.

また以上では、アニメーションである確からしさに応じて、サイズ指標値及びシーン指標値の少なくとも一方に適用する第3重みを調整する例を説明した。ただし本実施形態では、アニメーションである確からしさに基づいて、他の画質調整が行われてもよい。例えば画質調整部160は、アニメーションである確からしさに基づいて、特定色に関する画質調整の具体的な内容を変更してもよい。例えば上述した例では、特定色に関する画質調整とは、特定色の表現を記憶色に近づける調整である。これに対して画質調整部160は、例えばアニメーションである確からしさが所定未満である場合には、特定色の表現を記憶色に近づける調整を行い、アニメーションである確からしさが所定以上である場合には、特定色を記憶色とは異なる色に近づける調整を行ってもよい。より広義には、画質調整部160は、アニメーションである確からしさ(アニメシーン判定値)に基づいて、特定色に関する画質調整における目標色を決定してもよい。ここで目標色とは、明度、彩度及び色相の値の組によって特定される情報である。このようにすれば、入力画像(映像信号)がアニメーションである場合とそれ以外の場合とで、それぞれに好適な画質調整を実現することが可能になる。またアニメシーン判定値は、特定色とは異なる色の画質調整における目標色の決定に用いられてもよい。その他、具体的な処理については種々の変形実施が可能である。 Furthermore, an example has been described above in which the third weight applied to at least one of the size index value and the scene index value is adjusted depending on the probability that it is an animation. However, in this embodiment, other image quality adjustments may be performed based on the probability that the image is an animation. For example, the image quality adjustment unit 160 may change the specific content of image quality adjustment regarding a specific color based on the probability that it is an animation. For example, in the above example, the image quality adjustment for a specific color is an adjustment that brings the expression of the specific color closer to the memory color. On the other hand, the image quality adjustment unit 160 adjusts the expression of the specific color closer to the memory color if, for example, the probability that it is an animation is less than a predetermined value, and if the probability that it is an animation is more than a predetermined value. may perform adjustment to bring the specific color closer to a color different from the memory color. In a broader sense, the image quality adjustment unit 160 may determine a target color for image quality adjustment regarding a specific color based on the probability that it is an animation (anime scene determination value). Here, the target color is information specified by a set of values of brightness, saturation, and hue. In this way, it becomes possible to realize image quality adjustment suitable for both cases where the input image (video signal) is an animation and cases where the input image is not an animation. Further, the animation scene determination value may be used to determine a target color in image quality adjustment of a color different from the specific color. In addition, various modifications can be made to the specific processing.

なお、上記のように本実施形態について詳細に説明したが、本実施形態の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本開示の範囲に含まれる。また画像表示装置、テレビ受信装置等の構成及び動作等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although this embodiment has been described in detail as above, those skilled in the art will easily understand that many modifications can be made without substantively departing from the novelty and effects of this embodiment. . Therefore, all such modifications are intended to be included within the scope of the present disclosure. For example, a term that appears at least once in the specification or drawings together with a different term with a broader or synonymous meaning may be replaced by that different term anywhere in the specification or drawings. Furthermore, all combinations of this embodiment and modifications are also included within the scope of the present disclosure. Further, the configuration and operation of the image display device, the television receiving device, etc. are not limited to those described in this embodiment, and various modifications are possible.

10…テレビ受信装置、11…プロセッサー、12…チューナー、13…通信インターフェイス、14…メモリー、15…操作インターフェイス、16…表示パネル、100…画像表示装置、110…画像取得部、120…オブジェクト検出部、130…サイズ取得部、140…シーン取得部、150…判定部、160…画質調整部、170…表示制御部、D1,D2…矩形領域、F1,F2…顔、IM…画像、t1~t11…タイミング DESCRIPTION OF SYMBOLS 10... Television receiving device, 11... Processor, 12... Tuner, 13... Communication interface, 14... Memory, 15... Operation interface, 16... Display panel, 100... Image display device, 110... Image acquisition part, 120... Object detection part , 130... Size acquisition section, 140... Scene acquisition section, 150... Judgment section, 160... Image quality adjustment section, 170... Display control section, D1, D2... Rectangular area, F1, F2... Face, IM... Image, t1 to t11 …timing

Claims (13)

入力画像を取得する画像取得部と、
前記入力画像から所定のオブジェクトを検出するオブジェクト検出部と、
前記所定のオブジェクトのサイズを求めるサイズ取得部と、
前記所定のオブジェクトの前記サイズに基づいて、前記所定のオブジェクトが有する特定色に関して画質を調整するか否かを判定する判定部と、
前記判定部において前記画質の調整を行うと判定された場合、前記特定色に関して、前記入力画像の少なくとも一部の領域の前記画質を調整する画質調整部と、
前記画質が調整された前記入力画像を表示パネルに表示する制御を行う表示制御部と、
を含む画像表示装置。
an image acquisition unit that acquires an input image;
an object detection unit that detects a predetermined object from the input image;
a size obtaining unit that obtains the size of the predetermined object;
a determination unit that determines whether to adjust image quality with respect to a specific color of the predetermined object, based on the size of the predetermined object;
an image quality adjustment unit that adjusts the image quality of at least a part of the input image with respect to the specific color when the determination unit determines that the image quality is to be adjusted;
a display control unit that controls displaying the input image with the image quality adjusted on a display panel;
An image display device including:
請求項1において、
前記判定部は、
前記所定のオブジェクトの前記サイズが所定サイズより大きい場合、前記特定色に関する前記画質の調整を行うと判定する画像表示装置。
In claim 1,
The determination unit includes:
An image display device that determines to adjust the image quality regarding the specific color when the size of the predetermined object is larger than a predetermined size.
請求項1において、
前記判定部は、
前記所定のオブジェクトの前記サイズに基づいて指標値を求め、前記指標値と所与の閾値とに基づいて、前記特定色に関する前記画質の調整を行うか否かを判定する画像表示装置。
In claim 1,
The determination unit includes:
An image display device that calculates an index value based on the size of the predetermined object, and determines whether or not to adjust the image quality regarding the specific color based on the index value and a given threshold.
請求項3において、
前記判定部は、
前記入力画像から前記所定のオブジェクトが複数検出された場合、少なくとも1つの前記所定のオブジェクトの前記サイズに基づいて、前記指標値を求める画像表示装置。
In claim 3,
The determination unit includes:
The image display device calculates the index value based on the size of at least one of the predetermined objects when a plurality of the predetermined objects are detected from the input image.
請求項4において、
前記判定部は、
前記入力画像から検出された前記所定のオブジェクトの位置に基づいて、前記指標値を求める画像表示装置。
In claim 4,
The determination unit includes:
An image display device that calculates the index value based on the position of the predetermined object detected from the input image.
請求項3乃至5の何れか一項において、
前記入力画像のシーンを判定し、シーン判定結果を取得するシーン取得部を含み、
前記判定部は、
前記サイズに基づくサイズ指標値と、前記シーン判定結果に基づくシーン指標値を取得し、前記サイズ指標値及び前記シーン指標値に基づいて、前記指標値を求める画像表示装置。
In any one of claims 3 to 5,
including a scene acquisition unit that determines a scene of the input image and acquires a scene determination result;
The determination unit includes:
An image display device that obtains a size index value based on the size and a scene index value based on the scene determination result, and calculates the index value based on the size index value and the scene index value.
請求項6において、
前記シーン取得部は、
前記入力画像が、前記所定のオブジェクトに対応するシーンである確からしさを、前記シーン判定結果として取得する画像表示装置。
In claim 6,
The scene acquisition unit includes:
An image display device that obtains, as the scene determination result, a probability that the input image is a scene corresponding to the predetermined object.
請求項6において、
前記判定部は、
前記サイズ指標値に対して第1重みにより重み付けを行い、前記シーン指標値に対して第2重みによる重み付けを行い、重み付け後の前記サイズ指標値及び重み付け後の前記シーン指標値に基づいて、前記指標値を求める画像表示装置。
In claim 6,
The determination unit includes:
The size index value is weighted with a first weight, the scene index value is weighted with a second weight, and based on the weighted size index value and the weighted scene index value, the An image display device for determining index values.
請求項6において、
前記シーン取得部は、
前記入力画像が、アニメーションである確からしさを表す前記シーン判定結果を取得し、
前記判定部は、
前記入力画像が前記アニメーションである前記確からしさに基づいて、前記サイズ指標値及び前記シーン指標値の少なくとも一方に対して、重み付け処理を行う画像表示装置。
In claim 6,
The scene acquisition unit includes:
obtaining the scene determination result indicating the probability that the input image is an animation;
The determination unit includes:
An image display device that performs weighting processing on at least one of the size index value and the scene index value based on the probability that the input image is the animation.
請求項3乃至5の何れか一項において、
前記判定部は、
前記指標値に対して、時系列的な変動を抑制するフィルタ処理を行い、
前記画質調整部は、
前記フィルタ処理後の前記指標値に基づいて、前記画質を調整する画像表示装置。
In any one of claims 3 to 5,
The determination unit includes:
Performing filter processing to suppress time-series fluctuations on the index value,
The image quality adjustment section includes:
An image display device that adjusts the image quality based on the index value after the filter processing.
請求項1乃至5の何れか一項において、
前記画質調整部は、
前記入力画像のうち、前記オブジェクト検出部によって検出された前記所定のオブジェクトに対応する領域の前記画質を調整し、且つ、他の領域の前記画質を調整しない、画像表示装置。
In any one of claims 1 to 5,
The image quality adjustment section includes:
An image display device that adjusts the image quality of an area corresponding to the predetermined object detected by the object detection unit in the input image, and does not adjust the image quality of other areas.
請求項1乃至5の何れか一項において、
前記画質調整部は、
前記入力画像のうち、前記オブジェクト検出部によって検出された前記所定のオブジェクトに対応する領域、及び、前記所定のオブジェクトに対応しない領域を含む領域の前記画質を調整する、画像表示装置。
In any one of claims 1 to 5,
The image quality adjustment section includes:
An image display device that adjusts the image quality of an area of the input image that includes an area corresponding to the predetermined object detected by the object detection unit and an area that does not correspond to the predetermined object.
入力画像を取得し、
前記入力画像から所定のオブジェクトを検出し、
前記所定のオブジェクトのサイズを求め、
前記所定のオブジェクトの前記サイズに基づいて、前記所定のオブジェクトが有する特定色に関する画質を調整するか否か判定し、
前記画質の調整を行うと判定された場合、前記特定色に関して、前記入力画像の少なくとも一部の領域の前記画質を調整し、
前記画質が調整された前記入力画像を表示パネルに表示する制御を行う、
画像表示方法。
Get the input image,
detecting a predetermined object from the input image;
determining the size of the predetermined object;
Based on the size of the predetermined object, determine whether to adjust image quality regarding a specific color of the predetermined object;
If it is determined that the image quality is to be adjusted, adjusting the image quality of at least a partial area of the input image with respect to the specific color;
performing control to display the input image with the image quality adjusted on a display panel;
Image display method.
JP2022084883A 2022-05-25 2022-05-25 Image display device and image display method Pending JP2023172980A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022084883A JP2023172980A (en) 2022-05-25 2022-05-25 Image display device and image display method
CN202310593868.6A CN117174042A (en) 2022-05-25 2023-05-24 Image display device and image display method
US18/201,299 US20230403446A1 (en) 2022-05-25 2023-05-24 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022084883A JP2023172980A (en) 2022-05-25 2022-05-25 Image display device and image display method

Publications (1)

Publication Number Publication Date
JP2023172980A true JP2023172980A (en) 2023-12-07

Family

ID=88934269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022084883A Pending JP2023172980A (en) 2022-05-25 2022-05-25 Image display device and image display method

Country Status (3)

Country Link
US (1) US20230403446A1 (en)
JP (1) JP2023172980A (en)
CN (1) CN117174042A (en)

Also Published As

Publication number Publication date
US20230403446A1 (en) 2023-12-14
CN117174042A (en) 2023-12-05

Similar Documents

Publication Publication Date Title
CN109639982B (en) Image noise reduction method and device, storage medium and terminal
US9495582B2 (en) Digital makeup
JP6024110B2 (en) Image processing apparatus, image processing method, program, terminal device, and image processing system
EP1512294B1 (en) Video pre-processing
US20210297734A1 (en) Method for controlling video enhancement, device, electronic device and storage medium
JP5121294B2 (en) Image processing method, image processing apparatus, program, recording medium, and integrated circuit
US20020080882A1 (en) Noise reducing apparatus and noise reducing method
JP4118688B2 (en) System and method for enhancement based on segmentation of video images
JP5434265B2 (en) Region classification device, image quality improvement device, video display device, and methods thereof
WO2020107988A1 (en) Video processing method and apparatus, and electronic device and storage medium
KR101985880B1 (en) Display device and control method thereof
CN109544441B (en) Image processing method and device, and skin color processing method and device in live broadcast
CN114072764B (en) System and method for adaptively modifying presentation of media content
CN108495054B (en) Method and device for processing high dynamic range signal and computer storage medium
US20220351701A1 (en) Method and device for adjusting image quality, and readable storage medium
JP2013041565A (en) Image processor, image display device, image processing method, computer program, and recording medium
CN107592517B (en) Skin color processing method and device
WO2017159182A1 (en) Display control device, display apparatus, television receiver, control method for display control device, control program, and recording medium
US20140333649A1 (en) Image processing apparatus, image processing method, and storage medium
US9626932B2 (en) Image processing apparatus, image processing method and recording medium recording program for correcting image in predetermined area
JP2023172980A (en) Image display device and image display method
CN111833262A (en) Image noise reduction method and device and electronic equipment
JP5303399B2 (en) Moving picture bit depth reduction apparatus and program
JP2009296113A (en) Image display device
US11908340B2 (en) Magnification enhancement of video for visually impaired viewers