JP2023066444A - Image processing device, saturation compensation method, and program - Google Patents

Image processing device, saturation compensation method, and program Download PDF

Info

Publication number
JP2023066444A
JP2023066444A JP2021177035A JP2021177035A JP2023066444A JP 2023066444 A JP2023066444 A JP 2023066444A JP 2021177035 A JP2021177035 A JP 2021177035A JP 2021177035 A JP2021177035 A JP 2021177035A JP 2023066444 A JP2023066444 A JP 2023066444A
Authority
JP
Japan
Prior art keywords
luminance
image
saturation
scene determination
determination index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021177035A
Other languages
Japanese (ja)
Inventor
悠一 吉田
Yuichi Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2021177035A priority Critical patent/JP2023066444A/en
Publication of JP2023066444A publication Critical patent/JP2023066444A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

To provide an image processing device capable of compensating for deterioration of the saturation of a low luminance region due to adjustment of the luminance of an image.SOLUTION: The image processing device comprises: a scene determination index calculation unit which calculates a scene determination index indicative of a multitude of bluish or reddish regions among a plurality of regions included in an image; a luminance adjustment unit which adjusts the luminance of each region among the plurality of regions and determines the output luminance of each region; and a saturation correction unit which corrects the saturation component of each region based on the luminance, the output luminance, and the scene determination index.SELECTED DRAWING: Figure 1

Description

本開示は、画像処理装置、彩度補償方法及びプログラムに関する。 The present disclosure relates to an image processing device, a saturation compensation method, and a program.

特許文献1は、入力された映像信号の平均映像レベルが低い場合、特定の色相に対して映像信号の彩度を上げる液晶表示装置を開示する。 Patent Document 1 discloses a liquid crystal display device that increases the saturation of a video signal for a specific hue when the average video level of the input video signal is low.

特開2000-039862号公報Japanese Patent Application Laid-Open No. 2000-039862

平均映像レベルは、明るい映像においては相対的に高くなり、暗い映像においては相対的に低くなる。しかし、明るい映像において、一部に低輝度領域が含まれる場合、平均映像レベルは相対的に高くなる場合がある。その場合、特許文献1に開示された液晶表示装置では、特定の色相に対して映像信号の彩度を上げる処理が実行されず、低輝度領域の彩度が低い状態であるおそれがある。そこで、本開示の一態様は、画像の輝度の調整による低輝度領域の彩度の低下を補償できる画像処理装置、彩度補償方法及びプログラムを提供することを目的とする。 The average image level is relatively high for bright images and relatively low for dark images. However, when a bright image partially includes a low-luminance area, the average image level may be relatively high. In this case, in the liquid crystal display device disclosed in Patent Document 1, processing for increasing the saturation of the video signal is not executed for a specific hue, and there is a possibility that the saturation in the low-luminance region is low. Accordingly, an object of one aspect of the present disclosure is to provide an image processing device, a saturation compensation method, and a program capable of compensating for a decrease in saturation in a low-luminance region due to adjustment of luminance of an image.

本開示の一形態に係る画像処理装置は、画像に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標を算出するシーン判定指標算出部と、前記複数の領域のうちの各領域の輝度を調整して前記各領域の出力輝度を決定する輝度調整部と、前記輝度と前記出力輝度と前記シーン判定指標とに基づいて、前記各領域の彩度成分を補正する彩度補正部と、を備える。 An image processing apparatus according to an aspect of the present disclosure includes a scene determination index calculation unit that calculates a scene determination index indicating the number of regions that are blue-based or red-based among a plurality of regions included in an image; a luminance adjusting unit that adjusts the luminance of each area among the plurality of areas to determine the output luminance of each area; and the coloring of each area based on the luminance, the output luminance, and the scene determination index. and a saturation correction unit that corrects the saturation component.

本開示の一形態に係る彩度補償方法は、画像に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標を算出する工程と、前記複数の領域のうちの各領域の輝度を調整して前記各領域の出力輝度を決定する工程と、前記輝度と前記出力輝度と前記シーン判定指標とに基づいて、前記各領域の前記彩度成分を補正する工程と、を含む。 A saturation compensation method according to an aspect of the present disclosure includes the steps of: calculating a scene determination index indicating the number of areas that are blue-based colors or red-based colors among a plurality of areas included in an image; determining the output luminance of each area by adjusting the luminance of each area of the areas; and correcting the saturation component of each area based on the luminance, the output luminance, and the scene determination index. and

本開示の一形態に係るプログラムは、コンピュータに、画像に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標を算出する機能と、前記複数の領域のうちの各領域の輝度を調整して前記各領域の出力輝度を決定する機能と、前記輝度と前記出力輝度と前記シーン判定指標とに基づいて、前記各領域の前記彩度成分を補正する機能と、を実行させる。 A program according to an embodiment of the present disclosure, which provides a computer with a function of calculating a scene determination index indicating the number of regions that are blue-based or red-based among a plurality of regions included in an image; A function of adjusting the brightness of each region of the regions to determine the output brightness of each region; and correcting the saturation component of each region based on the brightness, the output brightness, and the scene determination index. and the function to execute.

第一実施形態に係る画像処理装置の構成の一例を示す図である。It is a figure showing an example of composition of an image processing device concerning a first embodiment. 第一実施形態に係る画像処理装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the image processing device according to the first embodiment; 色相ヒストグラムの一例を示す図である。It is a figure which shows an example of a hue histogram. 赤色成分、緑色成分、及び青色成分の輝度の比率の一例を示す図である。It is a figure which shows an example of the ratio of the luminance of a red component, a green component, and a blue component. 入力される輝度に応じた出力輝度の一例を示すグラフである。5 is a graph showing an example of output luminance according to input luminance; 輝度連動係数の一例を示すグラフである。It is a graph which shows an example of a luminance-linked coefficient. 第二実施形態に係る画像処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image processing apparatus which concerns on 2nd embodiment. 画像シーン判定情報の一例を示す図である。FIG. 4 is a diagram showing an example of image scene determination information; 第二実施形態に係る画像処理装置の動作の一例を示すフローチャートある。9 is a flow chart showing an example of the operation of the image processing apparatus according to the second embodiment; 第三実施形態に係る画像処理装置の一例を示す図である。It is a figure which shows an example of the image processing apparatus which concerns on 3rd embodiment. コンテンツシーン判定情報の一例を示す図である。FIG. 4 is a diagram showing an example of content scene determination information; 第三実施形態に係る画像処理装置で実行される動作の一例を示すフローチャートである。9 is a flow chart showing an example of operations performed by the image processing apparatus according to the third embodiment; 第四実施形態に係る画像処理装置の構成の一例を示す図である。FIG. 11 is a diagram showing an example of the configuration of an image processing apparatus according to a fourth embodiment; FIG. 第四実施形態に係る画像処理装置で実行される動作の一例を示すフローチャートである。FIG. 11 is a flow chart showing an example of operations performed by an image processing apparatus according to a fourth embodiment; FIG.

(第一実施形態)
図1は、画像処理装置100の構成の一例を示す図である。画像処理装置100は、表示部101、記憶部102、制御部103等を備える。
(First embodiment)
FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus 100. As shown in FIG. The image processing apparatus 100 includes a display unit 101, a storage unit 102, a control unit 103, and the like.

画像処理装置100は、取得した画像情報121によって示される画像122の輝度及び彩度を補正し、輝度及び彩度を補正した出力画像を表示部101に表示する。具体的には、画像処理装置100は、画像122の輝度を調整し、且つ相対的に低輝度である青系統色又は赤系統色の彩度を上げるように彩度を補正する。表示部101は、液晶パネルまたは有機EL(Electro-luminescence)パネル等である。 The image processing apparatus 100 corrects the brightness and saturation of the image 122 indicated by the acquired image information 121 and displays the corrected brightness and saturation output image on the display unit 101 . Specifically, the image processing apparatus 100 adjusts the luminance of the image 122 and corrects the saturation so as to increase the saturation of blue-based colors or red-based colors having relatively low luminance. A display unit 101 is a liquid crystal panel, an organic EL (Electro-luminescence) panel, or the like.

記憶部102は、各種データ、プログラム等を記録可能な記録媒体であり、例えば、記憶部102は、RAM(Random Access Memory)、ハードディスクドライブ、またはフラッシュメモリ等の記憶装置である。 The storage unit 102 is a recording medium capable of recording various data, programs, etc. For example, the storage unit 102 is a storage device such as a RAM (Random Access Memory), a hard disk drive, or a flash memory.

制御部103は、記憶部102に格納されるプログラム及びデータに従って、各種処理を実行する。例えば、制御部103は、ICチップ等の集積回路に形成された論理回路によって実現できる。または、制御部103は、CPU(Central Processing Unit)等のプロセッサを用いてソフトウェアによって実現されてもよい。 The control unit 103 executes various processes according to programs and data stored in the storage unit 102 . For example, the control unit 103 can be implemented by a logic circuit formed in an integrated circuit such as an IC chip. Alternatively, the control unit 103 may be realized by software using a processor such as a CPU (Central Processing Unit).

制御部103は、画像取得部111、色相ヒストグラム生成部112、シーン判定指標算出部113、輝度調整部114、輝度連動補正決定部115、彩度補正係数決定部116、彩度補正部117等を備える。 The control unit 103 controls the image acquisition unit 111, the hue histogram generation unit 112, the scene determination index calculation unit 113, the brightness adjustment unit 114, the brightness-linked correction determination unit 115, the saturation correction coefficient determination unit 116, the saturation correction unit 117, and the like. Prepare.

画像取得部111は、画像122を示す画像情報121を取得する。画像情報121は、画像122に含まれるマトリックス状の複数の画素の画素値を示す。例えば、画像情報121は、画像122に含まれる各画素に関して輝度Yinと彩度成分124とを示す。彩度成分124は、各画素の彩度及び色相に関する青色差成分Cbと、赤色差成分Crとを含む。青色差成分Cbは、青系統色の彩度及び色相に関する色成分を示す。赤色差成分Crは、赤系統色の彩度及び色相に関する色成分を示す。つまり、画像情報121は、画像122に含まれる各画素に関して、輝度Y、青色差成分Cb及び赤色差成分Crをそれぞれ示すYCbCr形式であってもよい。 The image acquisition unit 111 acquires image information 121 representing an image 122 . The image information 121 indicates pixel values of a plurality of matrix-shaped pixels included in the image 122 . For example, image information 121 indicates luminance Yin and saturation component 124 for each pixel contained in image 122 . The saturation component 124 includes a blue difference component Cb and a red difference component Cr regarding the saturation and hue of each pixel. The blue difference component Cb indicates a color component related to the saturation and hue of the blue color. The red difference component Cr indicates a color component related to the saturation and hue of reddish colors. That is, the image information 121 may be in a YCbCr format that indicates the luminance Y, the blue difference component Cb, and the red difference component Cr for each pixel included in the image 122 .

または、画像情報121は、画像122に含まれる各画素に関して赤色成分Rと、緑色成分Gと、青色成分Bとを示してもよい。赤色成分R、緑色成分G及び青色成分Bは、それぞれ、光の三原色である赤、緑及び青の強さを示す。つまり、画像情報121は、画像122に含まれる各画素に関して、赤色成分R、緑色成分G及び青色成分Bをそれぞれ示すRGB形式であってもよい。画像情報121が、画像122に含まれる各画素に関して赤色成分Rと、緑色成分Gと、青色成分Bとを示す場合、画像取得部111は、画像情報121によって示される赤色成分Rと、緑色成分Gと、青色成分Bとから、輝度Yinと彩度成分124とを算出してもよい。 Alternatively, image information 121 may indicate a red component R, a green component G, and a blue component B for each pixel included in image 122 . The red component R, green component G, and blue component B indicate the intensity of the three primary colors of light, red, green, and blue, respectively. That is, the image information 121 may be in RGB format, indicating the red component R, the green component G, and the blue component B for each pixel included in the image 122 . When the image information 121 indicates a red component R, a green component G, and a blue component B for each pixel included in the image 122, the image acquisition unit 111 obtains the red component R and the green component indicated by the image information 121. From G and the blue component B, the luminance Yin and the saturation component 124 may be calculated.

色相ヒストグラム生成部112は、画像情報121によって示される画像122の色相の区間毎の度数を示す色相ヒストグラム123を生成する。 The hue histogram generator 112 generates a hue histogram 123 that indicates the frequency of hues in each section of the image 122 indicated by the image information 121 .

シーン判定指標算出部113は、画像122に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標Scを算出する。 The scene determination index calculation unit 113 calculates a scene determination index Sc that indicates the number of regions having blue-based colors or red-based colors among the plurality of regions included in the image 122 .

輝度調整部114は、画像122に含まれる複数の領域のうちの各領域の輝度Yinを調整して各領域の出力輝度Youtを決定する。各領域の出力輝度Youtは、表示部101に表示される出力画像の各領域の輝度である。例えば、各領域は、画像122に含まれる各画素である。または、各領域は、複数の画素を含む領域であってもよい。 The luminance adjustment unit 114 adjusts the luminance Yin of each area among the plurality of areas included in the image 122 to determine the output luminance Yout of each area. The output luminance Yout of each area is the luminance of each area of the output image displayed on the display unit 101 . For example, each region is each pixel contained in image 122 . Alternatively, each region may be a region containing multiple pixels.

輝度連動補正決定部115は、輝度連動係数Aを決定する。輝度連動係数Aは、輝度Yinが補正閾値以下である場合に、輝度Yinが低いほど大きい値である。 The brightness-linked correction determination unit 115 determines the brightness-linked coefficient A. FIG. When the luminance Yin is equal to or less than the correction threshold, the luminance-linked coefficient A has a larger value as the luminance Yin decreases.

彩度補正係数決定部116は、各領域について、輝度Yinと出力輝度Youtとシーン判定指標Scとに基づいて彩度補正係数αを決定する。彩度補正係数αは、輝度Yinが補正閾値以下である場合に輝度Yinが低いほど大きい値である。 The saturation correction coefficient determination unit 116 determines the saturation correction coefficient α for each region based on the luminance Yin, the output luminance Yout, and the scene determination index Sc. When the luminance Yin is equal to or less than the correction threshold, the saturation correction coefficient α has a larger value as the luminance Yin decreases.

彩度補正部117は、各領域について、輝度Yinと出力輝度Youtとシーン判定指標Scとに基づいて、各領域の彩度成分124を補正する。具体的には、彩度補正部117は、各領域について、輝度Yinが補正閾値以下である領域の彩度を上げるように、輝度Yinと出力輝度Youtとシーン判定指標Scとに基づいて、各領域の彩度成分124を補正する。より具体的には、彩度補正部117は、各領域の彩度成分124に彩度補正係数αを適用して各領域の彩度成分124を補正する。 The saturation correction unit 117 corrects the saturation component 124 of each region based on the luminance Yin, the output luminance Yout, and the scene determination index Sc. Specifically, the saturation correction unit 117 corrects each region based on the luminance Yin, the output luminance Yout, and the scene determination index Sc so as to increase the saturation of the regions where the luminance Yin is equal to or less than the correction threshold. Correct the saturation component 124 of the region. More specifically, the saturation correction unit 117 corrects the saturation component 124 of each region by applying the saturation correction coefficient α to the saturation component 124 of each region.

図2は、画像処理装置100の動作の一例を示すフローチャートである。 FIG. 2 is a flow chart showing an example of the operation of the image processing apparatus 100. As shown in FIG.

ステップS201において画像取得部111は、画像122を示す画像情報121を取得する。例えば、画像情報121は、デジタルテレビ放送の番組の画像情報である。また、画像情報121は、インターネット等のネットワークから取得された番組の画像情報であってもよい。また、画像情報121は、画像処理装置100に接続されたビデオカメラまたは録画装置等の外部機器に記憶された画像情報であってもよい。 In step S<b>201 , the image acquisition unit 111 acquires image information 121 representing the image 122 . For example, the image information 121 is image information of a digital television broadcast program. Also, the image information 121 may be image information of a program acquired from a network such as the Internet. Also, the image information 121 may be image information stored in an external device such as a video camera or recording device connected to the image processing apparatus 100 .

なお、画像情報121が、画像122に含まれる各画素に関して赤色成分Rと、緑色成分Gと、青色成分Bとを示す場合、画像取得部111は、画像情報121によって示される赤色成分Rと、緑色成分Gと、青色成分Bとから、輝度Yinと、青色差成分Cbと、赤色差成分Crとを算出する。例えば、画像取得部111は、画像情報121によって示される赤色成分Rと、緑色成分Gと、青色成分Bとを映像規格によって定められた算出式に入力することで、輝度Yinと、青色差成分Cbと、赤色差成分Crとを算出する。また、画像情報121はRGB形式ではなく輝度と色差のYCbCr形式であってもよい。 Note that when the image information 121 indicates the red component R, the green component G, and the blue component B for each pixel included in the image 122, the image acquisition unit 111 obtains the red component R indicated by the image information 121, From the green component G and blue component B, luminance Yin, blue difference component Cb, and red difference component Cr are calculated. For example, the image acquisition unit 111 inputs the red component R, the green component G, and the blue component B indicated by the image information 121 into a calculation formula defined by the video standard, thereby obtaining the luminance Yin and the blue difference component. Cb and red-difference component Cr are calculated. Also, the image information 121 may be in the YCbCr format of luminance and color difference instead of the RGB format.

ステップS202において色相ヒストグラム生成部112は、ステップS201で取得された画像情報121によって示される画像122から色相ヒストグラム123を生成する。例えば、色相ヒストグラム生成部112は、画像122に含まれる各画素の青色差成分Cbと赤色差成分Crとから、各画素の色相を算出する。例えば、色相ヒストグラム生成部112は、色相H=tan-1(Cr/Cb)との演算式に、各画素の青色差成分Cbと赤色差成分Crとを代入して、各画素の色相Hを算出する。なお、色相の算出方法は、この演算式に限定されない。そして、色相ヒストグラム生成部112は、各画素の色相から色相ヒストグラム123を生成する。 In step S202, the hue histogram generation unit 112 generates a hue histogram 123 from the image 122 indicated by the image information 121 acquired in step S201. For example, the hue histogram generator 112 calculates the hue of each pixel from the blue difference component Cb and the red difference component Cr of each pixel included in the image 122 . For example, the hue histogram generation unit 112 substitutes the blue difference component Cb and the red difference component Cr of each pixel into the arithmetic expression of hue H=tan −1 (Cr/Cb) to obtain the hue H of each pixel. calculate. Note that the hue calculation method is not limited to this formula. Then, the hue histogram generator 112 generates a hue histogram 123 from the hue of each pixel.

ステップS203においてシーン判定指標算出部113は、色相ヒストグラム123によって示される青系統色又は赤系統色の複数の区間の度数の積算値と、色相ヒストグラム123によって示される度数の総数との比からシーン判定指標Scを算出する。青系統色とは、青色を含む所定の範囲の色相の色である。例えば、青色とは、画像122において各画素の赤色成分R、緑色成分G、及び青色成分Bのそれぞれの画素値を8ビットの値で表わす場合、赤色成分R=0、緑色成分G=0及び青色成分B=255の色である。また、赤系統色とは、赤色を含む所定の範囲の色相の色である。例えば、赤色とは、画像122において各画素の赤色成分R、緑色成分G及び青色成分のそれぞれの画素値を8ビットの値で表わす場合、赤色成分R=255、緑色成分G=0及び青色成分B=0の色である。 In step S203, the scene determination index calculation unit 113 performs scene determination based on the ratio between the integrated value of frequencies of a plurality of sections of blue-based colors or red-based colors indicated by the hue histogram 123 and the total number of frequencies indicated by the hue histogram 123. An index Sc is calculated. A blue-based color is a color in a predetermined range of hues including blue. For example, when the pixel values of the red component R, the green component G, and the blue component B of each pixel in the image 122 are represented by an 8-bit value, the blue color means that the red component R=0, the green component G=0 and It is a color with a blue component B=255. Further, reddish colors are colors in a predetermined range of hues including red. For example, when the pixel values of the red component R, the green component G, and the blue component of each pixel in the image 122 are represented by 8-bit values, the red component R=255, the green component G=0, and the blue component B=0 color.

図3は、色相ヒストグラム123の一例を示す図である。図3に例示する色相Hr、Hg、Hbは、それぞれ赤色、緑色、青色の色相を示す。例えば、赤色の色相Hrの度数は、画像122において赤色成分R=255、緑色成分G=0及び青色成分B=0の画素値を有する画素の数である。また、例えば、緑色の色相Hgの度数は、画像122において赤色成分R=0、緑色成分G=255及び青色成分B=0の画素値を有する画素の数である。また、例えば、青色の色相Hbの度数は、画像122において赤色成分R=0、緑色成分G=0及び青色成分B=255の画素値を有する画素の数である。 FIG. 3 is a diagram showing an example of the hue histogram 123. As shown in FIG. Hues Hr, Hg, and Hb illustrated in FIG. 3 indicate hues of red, green, and blue, respectively. For example, the frequency of red hue Hr is the number of pixels in image 122 that have pixel values of red component R=255, green component G=0, and blue component B=0. Also, for example, the frequency of the green hue Hg is the number of pixels in the image 122 having pixel values of red component R=0, green component G=255, and blue component B=0. Also, for example, the frequency of the blue hue Hb is the number of pixels having pixel values of red component R=0, green component G=0, and blue component B=255 in the image 122 .

度数XBは、青色の色相Hbの区間の度数を示す。度数XB-1及び度数XBは、青色の色相Hbに隣接する色相の区間の度数を示す。例えば、青色の色相Hbの区間に隣接する区間の色相が青系統色である場合、シーン判定指標算出部113は、度数XB-1、度数XB及び度数XBの和と、色相ヒストグラム123によって示される度数の総数との比からシーン判定指標Scを算出する。 The frequency XB 0 indicates the frequency of the section of the blue hue Hb. The frequency XB −1 and the frequency XB 1 indicate the frequency of the hue interval adjacent to the blue hue Hb. For example, when the hue of the section adjacent to the section of the hue Hb of blue is blue, the scene determination index calculation unit 113 calculates the sum of the frequency XB −1 , the frequency XB 0 and the frequency XB 1 , A scene determination index Sc is calculated from the ratio to the total number of frequencies shown.

または、青色の色相Hbの区間に隣接する区間の色相が青系統色である場合、シーン判定指標算出部113は、度数XB-1、度数XB及び度数XBの平均と、色相ヒストグラム123によって示される度数の総数との比からシーン判定指標Scを算出してもよい。 Alternatively, when the hue of the section adjacent to the section of the blue hue Hb is a blue color, the scene determination index calculation unit 113 calculates the average of the frequency XB −1 , the frequency XB 0 and the frequency XB 1 , and the hue histogram 123. The scene determination index Sc may be calculated from the ratio to the total number of frequencies shown.

または、青色の色相Hbの区間に隣接する区間の色相が青系統色である場合、シーン判定指標算出部113は、度数XB-1、度数XB及び度数XBにそれぞれ異なる重みを適用して積算し、積算された値と、色相ヒストグラム123によって示される度数の総数との比からシーン判定指標Scを算出してもよい。ここで、青系統色の色相の区間の度数に適用される重みは、青色の色相Hbからの距離に応じて小さく設定されてもよい。 Alternatively, when the hue of the section adjacent to the section of blue hue Hb is a blue-based color, the scene determination index calculation unit 113 applies different weights to the frequency XB −1 , the frequency XB 0 , and the frequency XB 1 . The scene determination index Sc may be calculated from the ratio between the integrated value and the total number of frequencies indicated by the hue histogram 123 . Here, the weight applied to the frequency of the blue-based hue section may be set smaller according to the distance from the blue hue Hb.

または、青色の色相Hbの区間に隣接する区間の色相が青系統色である場合、シーン判定指標算出部113は、度数XB-1と度数XBと度数XBとを所定の関数に入力し、出力された値をシーン判定指標Scとして算出してもよい。 Alternatively, when the hue of the section adjacent to the section of blue hue Hb is a blue-based color, the scene determination index calculation unit 113 inputs the frequency XB −1 , the frequency XB 0 , and the frequency XB 1 into a predetermined function. , the output value may be calculated as the scene determination index Sc.

シーン判定指標Scが赤系統色の領域の多さを示す場合についても同様であり、詳細な説明は省略する。なお、青系統色又は赤系統色の複数の区間の色相の度数を積算する範囲は、青系統色又は赤系統色の色相の区間であればよく、青色の色相Hbに隣接する色相の区間よりも広い区間であってもよい。 The same applies to the case where the scene determination index Sc indicates the number of reddish color areas, and detailed description thereof will be omitted. In addition, the range in which the hue frequency of a plurality of sections of blue-based color or red-based color is integrated may be a section of hue of blue-based color or red-based color, and is more than a hue section adjacent to blue hue Hb. may be a wide section.

続くステップS204において輝度調整部114は、画像122に含まれる複数の領域から注目領域を決定する。注目領域は、画像122に含まれる複数の領域のうちから選択された領域である。例えば、注目領域は、画像122に含まれる複数の画素から選択された画素である。 In subsequent step S<b>204 , brightness adjustment unit 114 determines a region of interest from a plurality of regions included in image 122 . A region of interest is a region selected from a plurality of regions included in the image 122 . For example, the region of interest is a pixel selected from a plurality of pixels included in image 122 .

ステップS205において輝度調整部114は、ステップS204で決定された注目領域の輝度Yinに応じて輝度Yinを調整して出力輝度Youtを決定する。 In step S205, the luminance adjustment unit 114 adjusts the luminance Yin according to the luminance Yin of the attention area determined in step S204 to determine the output luminance Yout.

図4は、赤色成分R、緑色成分G、及び青色成分Bの輝度の比率の一例を示す図である。図4に例示するように、緑色成分Gは、赤色成分R及び青色成分Bよりも相対的に輝度が高い。 FIG. 4 is a diagram showing an example of the luminance ratio of the red component R, the green component G, and the blue component B. In FIG. As illustrated in FIG. 4, the green component G is relatively brighter than the red component R and the blue component B. As shown in FIG.

図5は、入力される輝度に応じた出力輝度の一例を示すグラフである。図5においては、横軸に輝度がとられており、縦軸に出力輝度がとられている。図5に例示するグラフ501においては出力輝度が、入力される輝度と同一である。一方、図5に例示するグラフ502においては、入力される輝度が所定の輝度Yaより高い場合、出力輝度が入力される輝度よりも高く、入力される輝度が所定の輝度Yaより低い場合、出力輝度が入力される輝度よりも低い。 FIG. 5 is a graph showing an example of output luminance according to input luminance. In FIG. 5, the horizontal axis represents luminance, and the vertical axis represents output luminance. In the graph 501 illustrated in FIG. 5, the output luminance is the same as the input luminance. On the other hand, in the graph 502 illustrated in FIG. 5, when the input luminance is higher than the predetermined luminance Ya, the output luminance is higher than the input luminance, and when the input luminance is lower than the predetermined luminance Ya, the output Luminance is lower than input luminance.

例えば、輝度調整部114がグラフ502に例示するように出力輝度Youtを決定することで、画像122のコントラストが強調される。具体的には、輝度調整部114がグラフ502に例示するように輝度Yinを補正して出力輝度Youtを決定した場合、例えば入力領域が主に緑色である場合の出力輝度Ygoは、輝度成分の高い緑色が支配的であるため高輝度となりやすく、補正前の輝度Ygiよりも高くなることが多い。一方、入力領域が主に赤色である場合の出力輝度Yroは、補正前の輝度Yriよりも低下する。同様に、入力領域が主に青色である場合の出力輝度Yboは、補正前の輝度Ybiよりも低下する。 For example, the brightness adjustment unit 114 determines the output brightness Yout as illustrated in the graph 502 to enhance the contrast of the image 122 . Specifically, when the luminance adjustment unit 114 determines the output luminance Yout by correcting the luminance Yin as illustrated in the graph 502, for example, the output luminance Ygo when the input region is mainly green is Since high green color is dominant, the luminance tends to be high, and is often higher than the luminance Ygi before correction. On the other hand, the output luminance Yro when the input region is mainly red is lower than the luminance Yri before correction. Similarly, the output luminance Ybo when the input region is mainly blue is lower than the luminance Ybi before correction.

続くステップS206において彩度補正部117は、注目領域の輝度YinとステップS205で決定された出力輝度Youtとの輝度比を算出する。 In subsequent step S206, the saturation correction unit 117 calculates the luminance ratio between the luminance Yin of the attention area and the output luminance Yout determined in step S205.

ステップS207において輝度連動補正決定部115は、注目領域について、輝度連動係数Aを決定する。 In step S207, the luminance-linked correction determining unit 115 determines the luminance-linked coefficient A for the attention area.

図6は、輝度連動係数Aの一例を示すグラフである。図6においては、横軸に輝度がとられており、縦軸に輝度連動係数がとられている。図6に例示するグラフ601、及びグラフ602において、輝度が補正閾値YTHより高い場合、輝度連動係数Aの値は1である。例えば、彩度補正部117が輝度連動係数Aを輝度Yinに乗算する場合、輝度Yinが補正閾値YTHより高い場合、輝度連動係数Aと輝度Yinとの積は、輝度Yinと同一である。 FIG. 6 is a graph showing an example of the luminance-linked coefficient A. As shown in FIG. In FIG. 6, the horizontal axis is the luminance, and the vertical axis is the luminance-linked coefficient. In the graphs 601 and 602 illustrated in FIG. 6, the value of the luminance-linked coefficient A is 1 when the luminance is higher than the correction threshold value YTH. For example, when the saturation correction unit 117 multiplies the brightness Yin by the brightness-linked coefficient A, the product of the brightness-linked coefficient A and the brightness Yin is the same as the brightness Yin if the brightness Yin is higher than the correction threshold value YTH.

一方、グラフ601、及びグラフ602において、輝度が補正閾値YTH以下である場合、輝度連動係数Aは、減衰関数によって示される。つまり、グラフ601、及びグラフ602において、輝度が補正閾値YTH以下である場合、輝度連動係数Aは、輝度が低いほど大きい値である。例えば、彩度補正部117が輝度連動係数Aを輝度Yinに乗算する場合、輝度が補正閾値YTH以下である場合、輝度連動係数Aと輝度Yinとの積は、輝度Yinが低いほど大きい値である。 On the other hand, in the graphs 601 and 602, when the luminance is equal to or less than the correction threshold value YTH, the luminance-linked coefficient A is indicated by an attenuation function. That is, in the graphs 601 and 602, when the luminance is equal to or less than the correction threshold value YTH, the luminance-linked coefficient A has a larger value as the luminance decreases. For example, when the saturation correction unit 117 multiplies the luminance Yin by the luminance interlocking coefficient A, if the luminance is equal to or less than the correction threshold value YTH, the product of the luminance interlocking coefficient A and the luminance Yin increases as the luminance Yin decreases. be.

グラフ601は、輝度Yinが補正閾値以下の範囲では、輝度連動係数Aが輝度Yinの減少に伴い一次関数的に増加することを示す。また、グラフ602は、輝度Yinが補正閾値以下の範囲では、輝度連動係数Aが輝度Yinの低下に伴い非線形関数的に増加することを示す。また、輝度連動係数Aは、輝度が補正閾値YTH以下の範囲では、グラフ602とは異なり、輝度連動係数Aが輝度Yinの低下に伴い階段状に増加してもよい。 A graph 601 indicates that the luminance-linked coefficient A linearly increases as the luminance Yin decreases in the range where the luminance Yin is equal to or less than the correction threshold. Further, the graph 602 shows that the luminance-linked coefficient A increases nonlinearly as the luminance Yin decreases in the range where the luminance Yin is equal to or less than the correction threshold. Moreover, unlike the graph 602, the luminance-linked coefficient A may increase stepwise as the luminance Yin decreases in the range where the luminance is equal to or less than the correction threshold value YTH.

続くステップS208において彩度補正係数決定部116は、ステップS206で算出された輝度比と、ステップS203で算出されたシーン判定指標Scと、ステップS207で決定された輝度連動係数Aとに基づいて、彩度補正係数αを決定する。 In the subsequent step S208, the saturation correction coefficient determination unit 116 performs the following calculation based on the luminance ratio calculated in step S206, the scene determination index Sc calculated in step S203, and the luminance-linked coefficient A determined in step S207. Determine the saturation correction coefficient α.

図6に例示するように、輝度Yinが補正閾値YTHより高い場合、輝度連動係数Aの値は1であるとする。その場合、式(1)によって算出される彩度補正係数α=Yout/Yinである。つまり、輝度Yinが補正閾値YTHより高い場合、彩度補正係数αは、輝度Yinと出力輝度Youtとの比によって決定される。 As illustrated in FIG. 6, assume that the value of the luminance-linked coefficient A is 1 when the luminance Yin is higher than the correction threshold value YTH. In that case, the saturation correction coefficient α=Yout/Yin calculated by Equation (1). That is, when the luminance Yin is higher than the correction threshold value YTH, the saturation correction coefficient α is determined by the ratio between the luminance Yin and the output luminance Yout.

一方、図6に例示するように、輝度が補正閾値YTH以下である場合、輝度連動係数Aの値は1より大きいとする。ここで、シーン判定指標Scは、青系統色又は赤系統色の領域の多さを示すため、画像122において青系統色又は赤系統色の領域の多いほど、シーン判定指標Scの値は大きくなる。そのため、輝度が補正閾値YTH以下である場合、画像122において青系統色又は赤系統色の領域の多いほど、式(1)によって算出される彩度補正係数αは大きくなる。つまり、画像122において、相対的に低輝度である青系統色又は赤系統色の領域が多いほど、式(1)によって算出される彩度補正係数αは大きくなる。

Figure 2023066444000002
On the other hand, as illustrated in FIG. 6, when the luminance is equal to or less than the correction threshold YTH, the value of the luminance-linked coefficient A is assumed to be greater than one. Here, since the scene determination index Sc indicates the number of blue-based or red-based color regions, the larger the number of blue-based or red-based regions in the image 122, the larger the value of the scene determination index Sc. . Therefore, when the luminance is equal to or less than the correction threshold value YTH, the more bluish or reddish color regions in the image 122, the larger the saturation correction coefficient α calculated by Equation (1). That is, in the image 122, the more blue-based or red-based color regions with relatively low luminance, the larger the saturation correction coefficient α calculated by Equation (1).
Figure 2023066444000002

ステップS209において、彩度補正部117は、ステップS208で算出された彩度補正係数αに基づいて注目領域の彩度成分124を補正する。具体的には、彩度補正部117は、注目領域について、青色差成分Cb、及び赤色差成分Crからなる群より選択される少なくとも一種に彩度補正係数αを適用して注目領域の彩度成分124を補正する。 In step S209, the saturation correction unit 117 corrects the saturation component 124 of the attention area based on the saturation correction coefficient α calculated in step S208. Specifically, the saturation correction unit 117 applies the saturation correction coefficient α to at least one selected from the group consisting of the blue-difference component Cb and the red-difference component Cr to correct the saturation of the region of interest. Correct component 124 .

例えば、彩度補正部117は、式(2)によっては注目領域の青色差成分Cbを補正するとする。式(2)に示すCbiは注目領域の補正前の青色差成分である。式(2)に示すCboは、注目領域の補正後の青色差成分である。彩度補正係数α>1である場合、Cbo>Cbiである。つまり、彩度補正係数α>1である場合、注目領域の補正後の青色差成分Cboの値は、注目領域の補正前の青色差成分Cbiの値よりも大きい。

Figure 2023066444000003
For example, it is assumed that the saturation correction unit 117 corrects the blue difference component Cb of the attention area according to expression (2). Cbi shown in Equation (2) is the blue difference component before correction of the region of interest. Cbo shown in Equation (2) is the corrected blue-difference component of the region of interest. When the saturation correction coefficient α>1, Cbo>Cbi. That is, when the saturation correction coefficient α>1, the value of the corrected blue difference component Cbo in the region of interest is greater than the value of the uncorrected blue difference component Cbi in the region of interest.
Figure 2023066444000003

同様に、例えば、彩度補正部117は、式(3)によっては注目領域の赤色差成分Crを補正するとする。式(3)に示すCriは注目領域の補正前の赤色差成分である。式(3)に示すCroは、注目領域の補正後の赤色差成分である。彩度補正係数α>1である場合、Cro>Criである。つまり、彩度補正係数α>1である場合、注目領域の補正後の赤色差成分Croの値は、注目領域の補正前の赤色差成分Criの値よりも大きい。

Figure 2023066444000004
Similarly, for example, the chroma correction unit 117 corrects the red-difference component Cr of the region of interest according to Equation (3). Cri shown in Equation (3) is the red color difference component before correction of the region of interest. Cro shown in Equation (3) is the corrected red-difference component of the region of interest. If the saturation correction coefficient α>1, then Cro>Cri. That is, when the saturation correction coefficient α>1, the value of the corrected red-difference component Cro of the region of interest is greater than the value of the red-difference component Cri of the region of interest before correction.
Figure 2023066444000004

青色差成分Cbの絶対値及び赤色差成分Crの絶対値が大きいほど、彩度Sは高くなる。例えば、彩度S=(Cb+Cr1/2との演算式によって、彩度Sを算出する場合、当該演算式に注目領域の補正後の青色差成分Cboと、注目領域の補正後の赤色差成分Croとを代入することで、注目領域の補正後の彩度を算出できる。 The saturation S increases as the absolute value of the blue difference component Cb and the absolute value of the red difference component Cr increase. For example, when the saturation S is calculated by an arithmetic expression of saturation S=(Cb 2 +Cr 2 ) 1/2 , the arithmetic expression includes the blue difference component Cbo after correction of the attention area and the after correction of the attention area. By substituting the red difference component Cro of , the corrected chroma of the attention area can be calculated.

これにより、彩度補正部117は、青系統色又は赤系統色の出力輝度Youtが輝度Yinよりも高くなった場合であっても、補正後の青系統色又は赤系統色の領域を鮮やかにできる。 As a result, even when the output luminance Yout of the blue-based color or the red-based color is higher than the luminance Yin, the saturation correction unit 117 makes the corrected blue-based color or red-based color area vivid. can.

同様に、彩度補正部117は、相対的に高輝度である領域の輝度を上げて、相対的に低輝度である青系統色又は赤系統色の領域の出力輝度Youtが輝度Yinよりも低下した場合であっても、青系統色又は赤系統色の領域を鮮やかにできる。 Similarly, the saturation correction unit 117 increases the luminance of the relatively high luminance area, and the output luminance Yout of the relatively low luminance blue-based color or red-based color area is lower than the luminance Yin. Even in this case, the blue-based color or red-based color region can be made vivid.

ステップS210において彩度補正部117は、画像122に含まれる全ての領域が注目領域として選択されたか否かを判定する。ステップS210において画像122に含まれる全ての領域が注目領域として選択されていない場合、制御部103は、処理をステップS204に戻す。つまり、制御部103は、画像122に含まれる全ての領域について輝度と彩度とを補正するまで、ステップS204~ステップS210の処理を繰り返す。一方、ステップS210において画像122に含まれる全ての領域が注目領域として選択された場合、制御部103は処理をステップS211に移行する。 In step S210, the saturation correction unit 117 determines whether or not all areas included in the image 122 have been selected as attention areas. If not all areas included in the image 122 have been selected as attention areas in step S210, the control unit 103 returns the process to step S204. That is, the control unit 103 repeats the processing of steps S204 to S210 until the brightness and saturation of all regions included in the image 122 are corrected. On the other hand, if all areas included in the image 122 are selected as attention areas in step S210, the control unit 103 shifts the process to step S211.

ステップS211において、彩度補正部117は、画像122に含まれる全ての領域について、出力輝度Youtと、ステップS209で決定された彩度成分124とを有する出力画像を表示部101に出力する。これにより、表示部101は、輝度の調整による低輝度領域の彩度の低下を補償した出力画像を表示できる。 In step S<b>211 , the saturation correction unit 117 outputs to the display unit 101 an output image having the output luminance Yout and the saturation component 124 determined in step S<b>209 for all regions included in the image 122 . As a result, the display unit 101 can display an output image that compensates for a decrease in saturation in a low-luminance area due to luminance adjustment.

以上より、本実施形態に係る画像処理装置100は、青系統色又は赤系統色の領域の多さに応じて低輝度領域の彩度を上げるように補正する。これにより、本実施形態に係る画像処理装置100は、青系統色又は赤系統色の領域の多さに応じて画像の輝度の調整による低輝度領域の彩度の低下を補償できる。 As described above, the image processing apparatus 100 according to the present embodiment performs correction so as to increase the saturation of the low-luminance area according to the number of blue-based color or red-based color areas. As a result, the image processing apparatus 100 according to the present embodiment can compensate for a decrease in saturation in low-luminance areas due to adjustment of the luminance of an image according to the number of blue-based color or red-based color areas.

(第二実施形態)
図7~図9を参照して、第二実施形態について説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。第一実施形態と実質的に共通の機能を有する構成及び処理を共通の符号で参照して説明を省略し、第一実施形態と異なる点を説明する。
(Second embodiment)
A second embodiment will be described with reference to FIGS. 7 to 9. FIG. In the drawings, the same or equivalent elements are denoted by the same reference numerals, and overlapping descriptions are omitted. Configurations and processes having substantially the same functions as those of the first embodiment will be referred to by common reference numerals, description thereof will be omitted, and differences from the first embodiment will be described.

図7は、本実施形態に係る画像処理装置100の構成の一例を示す図である。図7に例示する画像処理装置100と、図1に例示する画像処理装置100との相違点は、図7に例示する画像処理装置100は、色相ヒストグラム生成部112とシーン判定指標算出部113とに替えて、シーン種別情報取得部701とシーン判定指標算出部702とを備える点にある。さらに、図7に例示する画像処理装置100においては、記憶部102に、画像シーン判定情報711が記憶される。 FIG. 7 is a diagram showing an example of the configuration of the image processing apparatus 100 according to this embodiment. The difference between the image processing apparatus 100 illustrated in FIG. 7 and the image processing apparatus 100 illustrated in FIG. 1 is that the image processing apparatus 100 illustrated in FIG. , a scene type information acquisition unit 701 and a scene determination index calculation unit 702 are provided. Furthermore, in the image processing apparatus 100 illustrated in FIG. 7, the image scene determination information 711 is stored in the storage unit 102 .

シーン種別情報取得部701は、画像情報121が、シーンの種別を示す画像シーン種別情報712を含む場合、画像情報121から画像シーン種別情報712を取得する。画像シーン種別情報712は、画像情報121によって示される画像122の主たる被写体を識別する情報である。例えば、画像122の主たる被写体とは、画像122において、被写体像の面積が最大の被写体である。 The scene type information obtaining unit 701 obtains the image scene type information 712 from the image information 121 when the image information 121 includes the image scene type information 712 indicating the type of the scene. The image scene type information 712 is information for identifying the main subject of the image 122 indicated by the image information 121 . For example, the main subject of the image 122 is the subject with the largest subject image area in the image 122 .

シーン判定指標算出部702は、画像情報121が画像シーン種別情報712を含む場合、画像シーン種別情報712によって示されるシーンの種別に関連付けられた指標をシーン判定指標Scにする。具体的には、シーン判定指標算出部702は、画像情報121が画像シーン種別情報712を含む場合、画像シーン判定情報711において、画像シーン種別情報712によって示されるシーンの種別に関連付けられた指標をシーン判定指標Scにする。 When the image information 121 includes the image scene type information 712, the scene determination index calculator 702 sets the index associated with the scene type indicated by the image scene type information 712 as the scene determination index Sc. Specifically, when the image information 121 includes the image scene type information 712 , the scene determination index calculation unit 702 calculates an index associated with the scene type indicated by the image scene type information 712 in the image scene determination information 711 . The scene determination index is set to Sc.

図8は、画像シーン判定情報711の一例を示す図である。画像シーン判定情報711においては、登録シーン種別情報と、指標とが関連付けられる。例えば、画像シーン判定情報711においては、登録シーン種別情報として、海、湖、川、青い魚、赤い魚、青い花、赤い花等の文字列が登録されている。さらに、画像シーン判定情報711においては、登録シーン種別情報である海との文字列と、指標である0.5との数値が関連付けられる。また、例えば、図8に例示する画像シーン判定情報711においては、シーン種別情報である赤い花との文字列と、指標である0.8との数値が関連付けられる。 FIG. 8 is a diagram showing an example of the image scene determination information 711. As shown in FIG. In the image scene determination information 711, registered scene type information and indices are associated. For example, in the image scene determination information 711, character strings such as sea, lake, river, blue fish, red fish, blue flower, and red flower are registered as registration scene type information. Further, in the image scene determination information 711, the character string "sea", which is the registered scene type information, is associated with the numerical value of 0.5, which is the index. Further, for example, in the image scene determination information 711 illustrated in FIG. 8, the character string "red flower" which is the scene type information is associated with the numerical value of 0.8 which is the index.

例えば、画像シーン判定情報711は、画像処理装置100のメーカー等によって登録される。または、画像処理装置100が、インターネットを介して画像処理装置100のメーカー等のサイトから画像シーン判定情報711をダウンロードしてもよい。 For example, the image scene determination information 711 is registered by the manufacturer of the image processing apparatus 100 or the like. Alternatively, the image processing apparatus 100 may download the image scene determination information 711 from the website of the manufacturer of the image processing apparatus 100 via the Internet.

図9は、本実施形態に係る画像処理装置100の動作の一例を示すフローチャートある。図9に例示するステップS901の処理は、図2に例示するステップS201の処理と同様であるため、詳細な説明を省略する。 FIG. 9 is a flow chart showing an example of the operation of the image processing apparatus 100 according to this embodiment. Since the processing of step S901 illustrated in FIG. 9 is the same as the processing of step S201 illustrated in FIG. 2, detailed description thereof will be omitted.

ステップS901において画像取得部111が画像情報121を取得した場合、ステップS902においてシーン判定指標算出部702は、画像情報121が画像シーン種別情報712を含むか否かを判定する。ステップS902において画像情報121が画像シーン種別情報712を含まない場合、制御部103は、処理を図2に例示するステップS202に移行する。一方、ステップS902において画像情報121が画像シーン種別情報712を含む場合、制御部103は処理をステップS903に移行する。 When the image acquisition unit 111 acquires the image information 121 in step S901, the scene determination index calculation unit 702 determines whether the image information 121 includes the image scene type information 712 in step S902. When the image information 121 does not include the image scene type information 712 in step S902, the control unit 103 shifts the processing to step S202 illustrated in FIG. On the other hand, if the image information 121 includes the image scene type information 712 in step S902, the control unit 103 shifts the process to step S903.

ステップS903においてシーン判定指標算出部702は、画像シーン種別情報712に関連付けられた指標を、シーン判定指標Scにする。具体的には、シーン判定指標算出部702は、画像シーン判定情報711において画像シーン種別情報712と同一の登録シーン種別情報に関連付けられた指標を、シーン判定指標Scにする。そして、制御部103は、処理をステップS904に移行する。ステップS904~ステップS908の処理は、図2に例示するステップS204~ステップS208の処理と同様であるため、詳細な説明を省略する。 In step S903, the scene determination index calculation unit 702 sets the index associated with the image scene type information 712 as the scene determination index Sc. Specifically, the scene determination index calculation unit 702 sets an index associated with the same registered scene type information as the image scene type information 712 in the image scene determination information 711 as the scene determination index Sc. Then, the control unit 103 shifts the processing to step S904. Since the processing of steps S904 to S908 is the same as the processing of steps S204 to S208 illustrated in FIG. 2, detailed description thereof will be omitted.

ステップS908において彩度補正係数決定部116が彩度補正係数αを決定した場合、ステップS909において彩度補正部117は、ステップS908で算出された彩度補正係数αに基づいて、注目領域の彩度成分124を補正する。具体的には、彩度補正部117は、注目領域の彩度成分にステップS908で算出された彩度補正係数αを適用することで注目領域の彩度成分124を補正する。そして、制御部103は、処理をステップS910に移行する。ステップS910~ステップS911の処理は、図2に例示するステップS210~S211の処理と同様であるため、詳細な説明を省略する。 If the saturation correction coefficient determination unit 116 determines the saturation correction coefficient α in step S908, the saturation correction unit 117 determines the saturation correction coefficient α calculated in step S908 based on the saturation correction coefficient α calculated in step S908. The degree component 124 is corrected. Specifically, the saturation correction unit 117 corrects the saturation component 124 of the attention area by applying the saturation correction coefficient α calculated in step S908 to the saturation component of the attention area. Then, the control unit 103 shifts the process to step S910. Since the processing of steps S910 to S911 is the same as the processing of steps S210 to S211 illustrated in FIG. 2, detailed description thereof will be omitted.

以上より、本実施形態に係る画像処理装置100は、画像情報121に画像シーン種別情報712が含まれる場合、画像シーン種別情報712に関連付けられた指標を利用して、輝度Yinが補正閾値以下である領域の彩度成分124を補正する。これにより、本実施形態に係る画像処理装置100は、指定されたシーンの画像に関して、輝度Yinが補正閾値以下である領域の彩度成分124を補正できる。従って、本実施形態に係る画像処理装置100は、指定されたシーンの画像に関して、画像の輝度の調整による低輝度領域の彩度の低下を補償できる。 As described above, when the image scene type information 712 is included in the image information 121, the image processing apparatus 100 according to the present embodiment uses the index associated with the image scene type information 712 to determine whether the luminance Yin is equal to or less than the correction threshold. Correct the saturation component 124 in a certain area. As a result, the image processing apparatus 100 according to the present embodiment can correct the saturation component 124 in the area where the luminance Yin is equal to or less than the correction threshold for the image of the designated scene. Therefore, the image processing apparatus 100 according to the present embodiment can compensate for the decrease in saturation in the low-luminance region due to the adjustment of the luminance of the image for the image of the designated scene.

(第三実施形態)
図10~図12を参照して、第三実施形態について説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。第一実施形態と実質的に共通の機能を有する構成及び処理を共通の符号で参照して説明を省略し、第一実施形態と異なる点を説明する。
(Third embodiment)
A third embodiment will be described with reference to FIGS. 10 to 12. FIG. In the drawings, the same or equivalent elements are denoted by the same reference numerals, and overlapping descriptions are omitted. Configurations and processes having substantially the same functions as those of the first embodiment will be referred to by common reference numerals, description thereof will be omitted, and differences from the first embodiment will be described.

図10は、本実施形態に係る画像処理装置100の一例を示す図である。図10に例示する画像処理装置100と、図1に例示する画像処理装置100との相違点は、図10に例示する画像処理装置100は、コンテンツ取得部1001を備え、且つ色相ヒストグラム生成部112とシーン判定指標算出部113とに替えて、シーン種別情報取得部1002とシーン判定指標算出部1003とを備える点にある。さらに、図10に例示する画像処理装置100は、記憶部102に、コンテンツシーン判定情報1011が記憶される。 FIG. 10 is a diagram showing an example of an image processing apparatus 100 according to this embodiment. The difference between the image processing apparatus 100 illustrated in FIG. 10 and the image processing apparatus 100 illustrated in FIG. 1 is that the image processing apparatus 100 illustrated in FIG. and the scene determination index calculation unit 113, a scene type information acquisition unit 1002 and a scene determination index calculation unit 1003 are provided. Further, the storage unit 102 of the image processing apparatus 100 illustrated in FIG. 10 stores content scene determination information 1011 .

コンテンツ取得部1001は、画像122を含むコンテンツ1012を取得する。例えば、コンテンツ1012は、デジタルテレビ放送の番組、映画等のデータである。また、コンテンツ1012は、インターネット等のネットワークから取得された番組、映画等のデータであってもよい。また、コンテンツ1012は、画像処理装置100に接続されたビデオカメラまたは録画装置等の外部機器に記憶されたデータであってもよい。 Content acquisition unit 1001 acquires content 1012 including image 122 . For example, the content 1012 is data such as digital television broadcast programs and movies. Also, the content 1012 may be data such as programs and movies acquired from a network such as the Internet. Also, the content 1012 may be data stored in an external device such as a video camera or recording device connected to the image processing apparatus 100 .

シーン種別情報取得部1002は、画像122を含むコンテンツ1012が、シーンの種別を示すコンテンツシーン種別情報1013を含む場合、当該コンテンツ1012からコンテンツシーン種別情報1013を取得する。コンテンツシーン種別情報1013は、コンテンツ1012に含まれる画像122によって示される主たるシーンの種別を識別する情報である。ここで、コンテンツ1012に含まれる画像122によって示される主たるシーンとは、画像122によって示されるシーンのうちで最も頻度が高いシーンである。 The scene type information acquisition unit 1002 acquires the content scene type information 1013 from the content 1012 when the content 1012 including the image 122 includes the content scene type information 1013 indicating the type of the scene. The content scene type information 1013 is information for identifying the type of main scene indicated by the image 122 included in the content 1012 . Here, the main scene represented by the image 122 included in the content 1012 is the scene represented by the image 122 with the highest frequency.

シーン判定指標算出部1003は、コンテンツ1012が、コンテンツシーン種別情報1013を含む場合、コンテンツシーン種別情報1013によって示されるシーンの種別に関連付けられた指標を、シーン判定指標Scにする。 When the content 1012 includes the content scene type information 1013, the scene determination index calculator 1003 sets the index associated with the scene type indicated by the content scene type information 1013 as the scene determination index Sc.

図11は、コンテンツシーン判定情報1011の一例を示す図である。コンテンツシーン判定情報1011においては、登録シーン種別情報と、指標とが関連付けられる。例えば、図11に例示するように、コンテンツシーン判定情報1011においては、登録シーン種別情報として、海中、湖畔等の文字列が登録されている。さらに、例えば、図11に例示するコンテンツシーン判定情報1011においては、登録シーン種別情報である海中との文字列と、指標である0.5との数値が関連付けられる。 FIG. 11 is a diagram showing an example of the content scene determination information 1011. As shown in FIG. In the content scene determination information 1011, registered scene type information is associated with an index. For example, as exemplified in FIG. 11, in the content scene determination information 1011, character strings such as "under the sea" and "by the lake" are registered as the registration scene type information. Furthermore, for example, in the content scene determination information 1011 illustrated in FIG. 11, the character string "under the sea", which is the registered scene type information, is associated with the numerical value of 0.5, which is the index.

例えば、コンテンツシーン判定情報1011は、画像処理装置100のメーカー等によって登録される。または、画像処理装置100が、インターネットを介して画像処理装置100のメーカー等のサイトからコンテンツシーン判定情報1011をダウンロードしてもよい。 For example, the content scene determination information 1011 is registered by the manufacturer of the image processing apparatus 100 or the like. Alternatively, the image processing apparatus 100 may download the content scene determination information 1011 from the site of the manufacturer of the image processing apparatus 100 via the Internet.

図12は、本実施形態に係る画像処理装置100で実行される動作の一例を示すフローチャートである。 FIG. 12 is a flowchart showing an example of operations performed by the image processing apparatus 100 according to this embodiment.

ステップS1201においてコンテンツ取得部1001は、画像情報121を含むコンテンツ1012を取得する。ステップS1202において画像取得部111は、コンテンツ1012に含まれる画像情報121を取得する。 In step S<b>1201 , the content acquisition unit 1001 acquires content 1012 including image information 121 . In step S<b>1202 , the image acquisition unit 111 acquires image information 121 included in the content 1012 .

ステップS1203においてシーン判定指標算出部702は、コンテンツ1012がコンテンツシーン種別情報1013を含むか否かを判定する。ステップS1203において画像情報121がコンテンツシーン種別情報1013を含まない場合、制御部103は、処理を図2に例示するステップS202に移行する。一方、ステップS1203において画像情報121がコンテンツシーン種別情報1013を含む場合、制御部103は処理をステップS1204に移行する。 In step S<b>1203 , the scene determination index calculation unit 702 determines whether the content 1012 includes the content scene type information 1013 . When the image information 121 does not include the content scene type information 1013 in step S1203, the control unit 103 shifts the processing to step S202 illustrated in FIG. On the other hand, if the image information 121 includes the content scene type information 1013 in step S1203, the control unit 103 shifts the process to step S1204.

ステップS1204において、シーン判定指標算出部1003は、コンテンツシーン判定情報1011において、ステップS1203で取得されたコンテンツシーン種別情報1013と同一の登録シーン種別情報に関連付けられた指標を、シーン判定指標Scにする。そして、制御部103は、処理をステップS1205に移行する。ステップS1205~ステップS1209の処理は、図2に例示するステップS204~ステップS208の処理と同様であるため、詳細な説明を省略する。 In step S1204, the scene determination index calculation unit 1003 sets an index associated with the same registered scene type information as the content scene type information 1013 acquired in step S1203 in the content scene determination information 1011 as a scene determination index Sc. . Then, the control unit 103 shifts the processing to step S1205. Since the processing of steps S1205 to S1209 is the same as the processing of steps S204 to S208 illustrated in FIG. 2, detailed description thereof will be omitted.

ステップS1209において彩度補正係数決定部116が彩度補正係数αを決定した場合、ステップS1210において彩度補正部117は、ステップS1209で決定された彩度補正係数αに基づいて、注目領域の彩度成分124を補正する。具体的には、彩度補正部117は、注目領域の彩度成分124に彩度補正係数αを適用することで注目領域の彩度成分124を補正する。そして、制御部103は、処理をステップS1211に移行する。ステップS1211~ステップS1212の処理は、図2に例示するステップS210~ステップS211の処理と同様であるため、詳細な説明を省略する。 If the saturation correction coefficient determination unit 116 determines the saturation correction coefficient α in step S1209, in step S1210 the saturation correction unit 117 determines the saturation correction coefficient α determined in step S1209 based on the saturation correction coefficient α determined in step S1209. The degree component 124 is corrected. Specifically, the saturation correction unit 117 corrects the saturation component 124 of the attention area by applying the saturation correction coefficient α to the saturation component 124 of the attention area. Then, the control unit 103 shifts the process to step S1211. Since the processing of steps S1211 and S1212 is the same as the processing of steps S210 and S211 illustrated in FIG. 2, detailed description thereof will be omitted.

以上より、本実施形態に係る画像処理装置100は、コンテンツ1012にコンテンツシーン種別情報1013が含まれる場合、コンテンツシーン種別情報1013に関連付けられた指標を利用して、輝度Yinが補正閾値以下である領域の彩度成分124を補正する。これにより、本実施形態に係る画像処理装置100は、指定されたシーンの画像122を含むコンテンツ1012に関して、輝度Yinが補正閾値以下である領域の彩度成分124を補正できる。従って、本実施形態に係る画像処理装置100は、指定されたシーンを含むコンテンツ1012に関して、画像の輝度の調整による低輝度領域の彩度の低下を補償できる。 As described above, when the content scene type information 1013 is included in the content 1012, the image processing apparatus 100 according to the present embodiment uses the index associated with the content scene type information 1013 to determine whether the luminance Yin is equal to or less than the correction threshold. Correct the saturation component 124 of the region. As a result, the image processing apparatus 100 according to the present embodiment can correct the saturation component 124 in the area where the luminance Yin is equal to or less than the correction threshold for the content 1012 including the image 122 of the designated scene. Therefore, the image processing apparatus 100 according to the present embodiment can compensate for a decrease in saturation in a low-luminance area due to adjustment of the luminance of the image with respect to the content 1012 including the specified scene.

(第四実施形態)
図13~図14を参照して、第四実施形態について説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。第一実施形態と実質的に共通の機能を有する構成及び処理を共通の符号で参照して説明を省略し、第一実施形態と異なる点を説明する。
(Fourth embodiment)
A fourth embodiment will be described with reference to FIGS. In the drawings, the same or equivalent elements are denoted by the same reference numerals, and overlapping descriptions are omitted. Configurations and processes having substantially the same functions as those of the first embodiment will be referred to by common reference numerals, description thereof will be omitted, and differences from the first embodiment will be described.

図13は、本実施形態に係る画像処理装置100の構成の一例を示す図である。図13に例示する画像処理装置100と、図1に例示する画像処理装置100との相違点は、図13に例示する画像処理装置100は、色相ヒストグラム生成部112とシーン判定指標算出部113とに替えて、物体識別部1301とシーン判定指標算出部1302とを備える点にある。 FIG. 13 is a diagram showing an example of the configuration of the image processing apparatus 100 according to this embodiment. The difference between the image processing apparatus 100 illustrated in FIG. 13 and the image processing apparatus 100 illustrated in FIG. 1 is that the image processing apparatus 100 illustrated in FIG. The point is that an object identification unit 1301 and a scene determination index calculation unit 1302 are provided instead.

物体識別部1301は、画像122に含まれる被写体像を識別する。シーン判定指標算出部1302は、物体識別部1301によって識別された被写体像によって示される被写体の種別、色及び大きさからなる群より選択される少なくとも一種からシーン判定指標Scを算出する。 An object identification unit 1301 identifies a subject image included in the image 122 . The scene determination index calculation unit 1302 calculates a scene determination index Sc from at least one selected from the group consisting of the type, color, and size of the subject indicated by the subject image identified by the object identification unit 1301 .

図14は、本実施形態に係る画像処理装置100で実行される動作の一例を示すフローチャートである。制御部103がステップS1401の処理を開始する時点において、記憶部102には、物体の特徴量と、物体の種別とが関連付けられて記憶されているものとする。図14に例示するステップS1401の処理は、図2に例示するステップS201の処理と同様であるため、詳細な説明を省略する。 FIG. 14 is a flowchart showing an example of operations performed by the image processing apparatus 100 according to this embodiment. It is assumed that when the control unit 103 starts the process of step S1401, the feature amount of the object and the type of the object are stored in the storage unit 102 in association with each other. Since the processing of step S1401 illustrated in FIG. 14 is the same as the processing of step S201 illustrated in FIG. 2, detailed description thereof will be omitted.

ステップS1401において画像取得部111が、画像122を示す画像情報121を取得した場合、ステップS1402において物体識別部1301は、画像122に対して画像処理を実行し、画像122に含まれる被写体像を識別する。 When the image acquisition unit 111 acquires the image information 121 indicating the image 122 in step S1401, the object identification unit 1301 performs image processing on the image 122 in step S1402 to identify the subject image included in the image 122. do.

ステップS1403においてシーン判定指標算出部1302は、ステップS1402において識別された被写体像の種別、色、及び大きさからなる群より選択される少なくとも一種からシーン判定指標Scを算出する。例えば、物体識別部1301は、画像122に含まれる被写体像の特徴量を検出する。物体識別部1301は、検出した特徴量から、画像122に含まれる被写体像の種別、色、及び大きさを識別する。 In step S1403, the scene determination index calculation unit 1302 calculates a scene determination index Sc from at least one selected from the group consisting of the type, color, and size of the subject image identified in step S1402. For example, the object identification unit 1301 detects the feature amount of the subject image included in the image 122 . The object identification unit 1301 identifies the type, color, and size of the subject image included in the image 122 from the detected feature amount.

例えば、シーン判定指標算出部1302が、画像122に含まれる被写体像が海中の魚であると判定したとする。その場合、シーン判定指標算出部1302は、画像122全体のうちで被写体像の割合が小さい程、海水の領域の割合が高いと判定し、シーン判定指標Scの値が大きくなるようにシーン判定指標Scを算出する。そして、制御部103は、処理をステップS1404に移行する。ステップS1404~ステップS1411の処理は、図2に例示するステップS204~ステップS211の処理と同様であるため、詳細な説明を省略する。 For example, assume that the scene determination index calculation unit 1302 determines that the subject image included in the image 122 is a fish in the sea. In this case, the scene determination index calculation unit 1302 determines that the smaller the ratio of the subject image in the entire image 122, the higher the ratio of the seawater region, and the scene determination index calculation unit 1302 calculates the scene determination index so that the value of the scene determination index Sc increases. Calculate Sc. Then, the control unit 103 shifts the processing to step S1404. Since the processing of steps S1404 to S1411 is the same as the processing of steps S204 to S211 illustrated in FIG. 2, detailed description thereof will be omitted.

以上より、本実施形態に係る画像処理装置100は、画像122に含まれる被写体像に応じて、輝度Yinが補正閾値以下である領域の彩度成分124を補正する。従って、本実施形態に係る画像処理装置100は、画像122に含まれる被写体像に応じて、画像の輝度の調整による低輝度領域の彩度の低下を補償できる。 As described above, the image processing apparatus 100 according to the present embodiment corrects the chroma component 124 in the area where the luminance Yin is equal to or less than the correction threshold, according to the subject image included in the image 122 . Therefore, the image processing apparatus 100 according to the present embodiment can compensate for the decrease in saturation in the low-luminance region due to the luminance adjustment of the image according to the subject image included in the image 122 .

本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態に夫々開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態に夫々開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present disclosure is not limited to the above-described embodiments, and various modifications are possible within the scope indicated in the claims. Embodiments obtained by appropriately combining technical means disclosed in different embodiments is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

100 画像処理装置、101 表示部、102 記憶部、103 制御部、111 画像取得部、112 色相ヒストグラム生成部、113 シーン判定指標算出部、114 輝度調整部、115 輝度連動補正決定部、116 彩度補正係数決定部、117 彩度補正部、121 画像情報、122 画像、123 色相ヒストグラム、124 彩度成分、701 シーン種別情報取得部、702 シーン判定指標算出部、711 画像シーン判定情報、712 画像シーン種別情報、1001 コンテンツ取得部、1002 シーン種別情報取得部、1003 シーン判定指標算出部、1011 コンテンツシーン判定情報、1012 コンテンツ、1013 コンテンツシーン種別情報、1301 物体識別部、1302 シーン判定指標算出部 100 image processing device, 101 display unit, 102 storage unit, 103 control unit, 111 image acquisition unit, 112 hue histogram generation unit, 113 scene determination index calculation unit, 114 brightness adjustment unit, 115 brightness-linked correction determination unit, 116 saturation Correction coefficient determination unit 117 Saturation correction unit 121 Image information 122 Image 123 Hue histogram 124 Saturation component 701 Scene type information acquisition unit 702 Scene determination index calculation unit 711 Image scene determination information 712 Image scene Type information 1001 content acquisition unit 1002 scene type information acquisition unit 1003 scene determination index calculation unit 1011 content scene determination information 1012 content 1013 content scene type information 1301 object identification unit 1302 scene determination index calculation unit

Claims (11)

画像に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標を算出するシーン判定指標算出部と、
前記複数の領域のうちの各領域の輝度を調整して前記各領域の出力輝度を決定する輝度調整部と、
前記輝度と前記出力輝度と前記シーン判定指標とに基づいて、前記各領域の彩度成分を補正する彩度補正部と、
を備える画像処理装置。
a scene determination index calculation unit that calculates a scene determination index indicating the number of regions that are blue-based or red-based among a plurality of regions included in an image;
a brightness adjustment unit that adjusts the brightness of each region among the plurality of regions to determine the output brightness of each region;
a saturation correction unit that corrects a saturation component of each region based on the luminance, the output luminance, and the scene determination index;
An image processing device comprising:
前記彩度補正部は、前記各領域について、前記輝度が補正閾値以下である領域の彩度を上げるように、前記輝度と前記出力輝度と前記シーン判定指標とに基づいて前記彩度成分を補正する、請求項1に記載の画像処理装置。 The saturation correction unit corrects the saturation component based on the luminance, the output luminance, and the scene determination index so as to increase the saturation of the regions having the luminance equal to or lower than the correction threshold for each of the regions. 2. The image processing apparatus according to claim 1, wherein: 前記各領域について、前記輝度と前記出力輝度と前記シーン判定指標とに基づいて彩度補正係数を決定し、前記彩度補正係数は、前記輝度が前記補正閾値以下である場合に前記輝度が低いほど大きい値である彩度補正係数決定部をさらに備え、
前記彩度補正部は、前記各領域の彩度成分に前記彩度補正係数を適用して前記彩度成分を補正する、請求項2に記載の画像処理装置。
determining a saturation correction coefficient for each region based on the luminance, the output luminance, and the scene determination index, and determining the saturation correction coefficient for the luminance when the luminance is equal to or less than the correction threshold further comprising a saturation correction coefficient determination unit having a value as large as
3. The image processing apparatus according to claim 2, wherein said saturation correction unit applies said saturation correction coefficient to said saturation component of each region to correct said saturation component.
前記彩度補正係数決定部は、前記各領域について、前記輝度が前記補正閾値以下である場合に前記輝度が低いほど大きい値である輝度連動係数にさらに基づいて前記彩度補正係数を決定する、請求項3に記載の画像処理装置。 The saturation correction coefficient determination unit determines the saturation correction coefficient for each region further based on a luminance-linked coefficient, which is a value that increases as the luminance decreases when the luminance is equal to or less than the correction threshold. The image processing apparatus according to claim 3. 前記画像の色相の区間毎の度数を示す色相ヒストグラムを生成する色相ヒストグラム生成部と、
前記シーン判定指標算出部は、前記色相ヒストグラムによって示される青系統色又は赤系統色の複数の区間の度数の積算値と、前記色相ヒストグラムによって示される度数の総数との比から前記シーン判定指標を算出する、請求項1~4のいずれか1項に記載の画像処理装置。
a hue histogram generation unit that generates a hue histogram indicating the frequency of each hue section of the image;
The scene determination index calculation unit calculates the scene determination index from a ratio of an integrated value of frequencies of a plurality of intervals of blue-based colors or red-based colors indicated by the hue histogram to the total number of frequencies indicated by the hue histogram. The image processing apparatus according to any one of claims 1 to 4, wherein the image processing apparatus calculates.
前記シーン判定指標算出部は、前記画像を示す画像情報が、シーンの種別を示す画像シーン種別情報を含む場合、前記シーンの種別に関連付けられた指標を前記シーン判定指標にする、請求項1~5のいずれか1項に記載の画像処理装置。 Claims 1 to 3, wherein, when image information indicating the image includes image scene type information indicating a scene type, the scene determination index calculation unit uses an index associated with the scene type as the scene determination index. 6. The image processing device according to any one of 5. 前記シーン判定指標算出部は、前記画像を含むコンテンツが、シーンの種別を示すコンテンツシーン種別情報を含む場合、前記シーンの種別に関連付けられた指標を前記シーン判定指標にする、請求項1~6のいずれか1項に記載の画像処理装置。 Claims 1 to 6, wherein, when the content including the image includes content scene type information indicating a scene type, the scene determination index calculation unit uses an index associated with the scene type as the scene determination index. The image processing device according to any one of . 前記画像に含まれる被写体像を識別する物体識別部をさらに備え、
前記シーン判定指標算出部は、前記被写体像によって示される被写体の種別、色及び大きさからなる群より選択される少なくとも一種から前記シーン判定指標を算出する、請求項1~7のいずれか1項に記載の画像処理装置。
further comprising an object identification unit that identifies a subject image included in the image;
8. The scene determination index calculator according to any one of claims 1 to 7, wherein the scene determination index calculation unit calculates the scene determination index from at least one selected from the group consisting of the type, color, and size of the subject indicated by the subject image. The image processing device according to .
前記彩度成分は、青色差成分と、赤色差成分とを含み、
前記彩度補正部は、前記各領域について、前記青色差成分、及び前記赤色差成分からなる群より選択される少なくとも一種に前記彩度補正係数を適用して前記彩度成分を補正する、請求項1~8のいずれか1項に記載の画像処理装置。
The saturation component includes a blue difference component and a red difference component,
wherein the saturation correction unit corrects the saturation component by applying the saturation correction coefficient to at least one selected from the group consisting of the blue color difference component and the red color difference component for each of the regions. Item 9. The image processing device according to any one of items 1 to 8.
画像に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標を算出する工程と、
前記複数の領域のうちの各領域の輝度を調整して前記各領域の出力輝度を決定する工程と、
前記輝度と前記出力輝度と前記シーン判定指標とに基づいて、前記各領域の前記彩度成分を補正する工程と、
を含む彩度補償方法。
a step of calculating a scene determination index indicating the number of areas that are blue-based colors or red-based colors among a plurality of areas included in the image;
adjusting the brightness of each region of the plurality of regions to determine the output brightness of each region;
correcting the saturation component of each region based on the luminance, the output luminance, and the scene determination index;
Saturation compensation method including.
コンピュータに、
画像に含まれる複数の領域のうちで青系統色又は赤系統色である領域の多さを示すシーン判定指標を算出する機能と、
前記複数の領域のうちの各領域の輝度を調整して前記各領域の出力輝度を決定する機能と、
前記輝度と前記出力輝度と前記シーン判定指標とに基づいて、前記各領域の前記彩度成分を補正する機能と、
を実行させるプログラム。
to the computer,
A function of calculating a scene determination index indicating the number of areas that are blue-based colors or red-based colors among a plurality of areas included in an image;
a function of adjusting the brightness of each region of the plurality of regions to determine the output brightness of each region;
a function of correcting the saturation component of each region based on the luminance, the output luminance, and the scene determination index;
program to run.
JP2021177035A 2021-10-29 2021-10-29 Image processing device, saturation compensation method, and program Pending JP2023066444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021177035A JP2023066444A (en) 2021-10-29 2021-10-29 Image processing device, saturation compensation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021177035A JP2023066444A (en) 2021-10-29 2021-10-29 Image processing device, saturation compensation method, and program

Publications (1)

Publication Number Publication Date
JP2023066444A true JP2023066444A (en) 2023-05-16

Family

ID=86326013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021177035A Pending JP2023066444A (en) 2021-10-29 2021-10-29 Image processing device, saturation compensation method, and program

Country Status (1)

Country Link
JP (1) JP2023066444A (en)

Similar Documents

Publication Publication Date Title
US8103119B2 (en) Image processing device, image processing method, image processing program product, and image-capturing device
US9723285B2 (en) Multi-area white-balance control device, multi-area white-balance control method, multi-area white-balance control program, computer in which multi-area white-balance control program is recorded, multi-area white-balance image-processing device, multi-area white-balance image-processing method, multi-area white-balance image-processing program, computer in which multi-area white-balance image-processing program is recorded, and image-capture apparatus
AU2013381285B2 (en) Color adjustment device, image display device, and color adjustment method
EP1819143A1 (en) Color adjusting device and method
KR101927968B1 (en) METHOD AND DEVICE FOR DISPLAYING IMAGE BASED ON METADATA, AND RECORDING MEDIUM THEREFOR
KR20070090224A (en) Method of electronic color image saturation processing
JP2004192614A (en) Image processing device, image processing method, program and recording medium
JP2008277899A (en) White balance adjustment device, imaging device, and white balance adjusting program
JP2015156615A (en) Image processing system, image processing method, control program, and recording medium
KR100888429B1 (en) Image brightness controlling apparatus and method thereof
KR20190073516A (en) Image processing apparatus, digital camera, image processing program, and recording medium
WO2022120799A9 (en) Image processing method and apparatus, electronic device, and storage medium
JP2000099717A (en) Picture quality adjusting device, its method and recording medium recorded with image adjusting program
WO2023000868A1 (en) Image processing method and apparatus, device, and storage medium
JP2014192859A (en) Color correction method, program, and device
JP4359662B2 (en) Color image exposure compensation method
JP2023066444A (en) Image processing device, saturation compensation method, and program
JP2012083848A (en) Image processing device, image processing method, imaging device, and image processing program
CN114266803A (en) Image processing method, image processing device, electronic equipment and storage medium
JP6413210B2 (en) Image processing apparatus, imaging apparatus, and program
JP5050141B2 (en) Color image exposure evaluation method
JP2001045303A (en) Image thresholding method
CN113706665B (en) Image processing method and device
JP2019165398A (en) Image processing apparatus, image processing method and program
JP2023044689A (en) Image processing unit