JP5598185B2 - Conspicuous image generating apparatus and conspicuous image generating program - Google Patents

Conspicuous image generating apparatus and conspicuous image generating program Download PDF

Info

Publication number
JP5598185B2
JP5598185B2 JP2010199207A JP2010199207A JP5598185B2 JP 5598185 B2 JP5598185 B2 JP 5598185B2 JP 2010199207 A JP2010199207 A JP 2010199207A JP 2010199207 A JP2010199207 A JP 2010199207A JP 5598185 B2 JP5598185 B2 JP 5598185B2
Authority
JP
Japan
Prior art keywords
conspicuous
image
evaluation
color difference
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010199207A
Other languages
Japanese (ja)
Other versions
JP2012058849A (en
Inventor
哲司 山田
貫 北野
芳樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwasaki Denki KK
Original Assignee
Iwasaki Denki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwasaki Denki KK filed Critical Iwasaki Denki KK
Priority to JP2010199207A priority Critical patent/JP5598185B2/en
Publication of JP2012058849A publication Critical patent/JP2012058849A/en
Application granted granted Critical
Publication of JP5598185B2 publication Critical patent/JP5598185B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、対象物の目立ちの度合いを評価する技術に関する。   The present invention relates to a technique for evaluating the degree of conspicuousness of an object.

従来、照明や自然光によって作り出される光環境を評価する技術として、評価対象の光環境を撮像した撮像画像に基づいて、光環境の輝度分布を示す輝度分布画像を生成し、この輝度分布画像を参照して光環境を評価する技術が知られている。
近年では、光環境について、人間が感じる明るさ知覚の分布を定量的に示した明るさ画像を輝度分布画像から生成し、明るさ知覚の画像に基づいて光環境を評価する技術も知られている。この技術では、予め定めた輝度と明るさ知覚との対応関係に基づいて、輝度分布画像の輝度を明るさ知覚に変換して評価対象の明るさ知覚を定量的に示す画像を生成している(例えば、特許文献1参照)。
Conventionally, as a technique for evaluating the light environment created by illumination or natural light, a brightness distribution image showing the brightness distribution of the light environment is generated based on the captured image of the light environment to be evaluated, and this brightness distribution image is referenced. A technique for evaluating the light environment is known.
In recent years, there has also been known a technique for generating a brightness image that quantitatively shows the distribution of brightness perception felt by humans from the brightness distribution image and evaluating the light environment based on the brightness perception image. Yes. In this technology, based on the correspondence between predetermined brightness and brightness perception, the brightness of the brightness distribution image is converted into brightness perception to generate an image that quantitatively represents the brightness perception of the evaluation target. (For example, refer to Patent Document 1).

国際公開2006/132014号パンフレットInternational Publication No. 2006/132014 Pamphlet

しかしながら、光環境において、評価対象が人間に知覚されやすいかどうか、すなわち、光環境の中で評価対象が目立っているかどうかは、評価対象の明るさ知覚だけで判別することはできない。
例えば、評価対象の輝度が低い場合であっても、評価対象の色が周囲と異なっているときには、その色の異なりによっては、当該評価対象が目立っていると知覚され得る。
より具体的には、均一高輝度を有する、同一色の面が視野全体に広がっている場合、明るさは知覚されうるが、目立ち知覚は検出されない。なぜなら、目立ちにおいては、輝度の絶対量は重視されず、あくまで対比の有無が重要だからである。
本発明は、上述した事情に鑑みてなされたものであり、評価対象の目立ちを色の差異を反映して定量的に評価できる目立ち画像生成装置及び目立ち画像生成プログラムを提供することを目的とする。
However, whether or not the evaluation object is easily perceived by humans in the light environment, that is, whether or not the evaluation object is conspicuous in the light environment cannot be determined only by the perception of the brightness of the evaluation object.
For example, even when the luminance of the evaluation target is low, when the color of the evaluation target is different from the surroundings, it can be perceived that the evaluation target is conspicuous depending on the difference in the color.
More specifically, when a surface of the same color having uniform high brightness extends over the entire field of view, brightness can be perceived, but noticeable perception is not detected. This is because, in conspicuousness, the absolute amount of luminance is not important, and the presence or absence of comparison is important.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a conspicuous image generation device and a conspicuous image generation program that can quantitatively evaluate the conspicuousness of an evaluation object by reflecting a difference in color. .

上記目的を達成するために、本発明は、評価対象を撮像した撮像画像の各画素の値を、座標間の2点間のユークリッド距離が知覚的な色差に対応するように設計された均等色度図、或いは均等色空間の座標に変換し、前記評価対象の座標と周囲の座標ユークリッド距離に基づく色差が無い場合に目立ちが無いと評価し、前記評価対象の座標と前記周囲の座標ユークリッド距離に基づく色差対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価する色差目立ち評価部と、前記色差目立ち評価部の評価結果に基づいて、前記撮像画像の色差による目立ちの分布を示す目立ち画像を生成する画像化部とを備えることを特徴とする目立ち画像生成装置を提供する。 In order to achieve the above object, the present invention provides a uniform color designed so that the Euclidean distance between two points between coordinates corresponds to a perceptual color difference between the values of each pixel of a captured image obtained by capturing an evaluation target. degree view, or converted into the coordinates of a uniform color space, and evaluated that there is no noticeable when the color difference based on the Euclidean distance of the evaluated coordinates and surrounding coordinate is not, the coordinates coordinates and the periphery of the evaluation When the color difference contrast amount based on the Euclidean distance is large, the color difference conspicuous evaluation unit that highly evaluates the conspicuousness of the evaluation object according to the degree of the size, and the imaging based on the evaluation result of the color difference conspicuous evaluation unit A conspicuous image generating apparatus comprising: an imaging unit that generates a conspicuous image indicating a conspicuous distribution due to color difference of an image.

また本発明は、上記目立ち画像生成装置において、前記色差目立ち評価部は、前記評価対象及び前記周囲の色差を、Wavelet解析により均等色度図或いは均等色空間の前記座標の座標成分ごとの対比量を求めて座標間のユークリッド距離として算出した後、Wavelet解析により前記色差対比量を示すークリッド距離対比量を求め、当該ユークリッド距離対比量に基づいて目立ちを評価することを特徴とする。 The present invention, in the above-mentioned noticeable image generating apparatus, the color difference noticeable evaluation unit, the color difference of the evaluation object and the surroundings, even the chromaticity diagram by Wavelet analysis, or comparison of each coordinate component of the coordinate of the uniform color space after calculating seeking amount as the Euclidean distance between the coordinates, determine the Euclidean distance contrast amount representing the chrominance contrast amount by Wavelet analysis, and evaluating the conspicuous based on the Euclidean distance contrast amount.

また本発明は、上記目立ち画像生成装置において、前記評価対象を撮像した撮像画像に対し、前記評価対象と周囲の輝度が等しい場合に目立ちが無いと評価し、前記評価対象と前記周囲の輝度対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価する輝度目立ち評価部を備え、前記画像化部は、前記色差目立ち評価部と前記輝度目立ち評価部の評価結果に基づいて、前記撮像画像の色差及び輝度の目立ちの分布を示す目立ち画像を生成することを特徴とする。   According to the present invention, in the conspicuous image generation apparatus, the captured image obtained by capturing the evaluation object is evaluated as being inconspicuous when the evaluation object and the surrounding luminance are equal, and the evaluation object is compared with the surrounding luminance. A luminance conspicuous evaluation unit that highly evaluates the conspicuousness of the evaluation object according to the degree of the size when the amount is large, and the imaging unit evaluates the color difference conspicuous evaluation unit and the luminance conspicuous evaluation unit Based on the result, a conspicuous image showing a distribution of conspicuous color difference and luminance of the captured image is generated.

また本発明は、上記目的を達成するために、コンピューターを、評価対象を撮像した撮像画像の各画素の値を、座標間の2点間のユークリッド距離が知覚的な色差に対応するように設計された均等色度図、或いは均等色空間の座標に変換し、前記評価対象の座標と周囲の座標ユークリッド距離に基づく色差が無い場合に目立ちが無いと評価し、前記評価対象の座標と前記周囲の座標ユークリッド距離に基づく色差対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価する手段、及び、前記色差目立ち評価部の評価結果に基づいて、前記撮像画像の色差による目立ちの分布を示す目立ち画像を生成する手段として機能させることを特徴とする目立ち画像生成プログラムを提供する。 In order to achieve the above object, the present invention is designed such that the value of each pixel of a captured image obtained by capturing an evaluation target is set so that the Euclidean distance between two points between coordinates corresponds to a perceptual color difference. Converted to a uniform chromaticity diagram or coordinates of a uniform color space, and evaluated that there is no noticeable color difference based on the Euclidean distance between the coordinates of the evaluation target and the surrounding coordinates, and the coordinates of the evaluation target and the coordinates When the color difference contrast amount based on the Euclidean distance of the surrounding coordinates is large, based on the evaluation result of the color difference conspicuous evaluation unit, means for highly evaluating the conspicuousness of the evaluation object according to the degree of the size, A conspicuous image generation program is provided that functions as means for generating a conspicuous image indicating a conspicuous distribution due to a color difference of the captured image.

本発明によれば、評価対象を撮像した撮像画像に対し、前記評価対象と周囲の色差が無い場合に目立ちが無いと評価し、前記評価対象と前記周囲の色差対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価し、この評価結果に基づいて、撮像画像から目立ちを反映した目立ち画像を生成する構成としたため、評価対象が周囲に対して、色の違いにより、どの程度目立っているかを目立ち画像から定量的に把握することができる。   According to the present invention, for a captured image obtained by imaging the evaluation object, it is evaluated that there is no noticeable color difference between the evaluation object and the surrounding area, and when the evaluation object and the surrounding color difference contrast amount are large, In accordance with the degree of the size, the evaluation object is highly evaluated for its conspicuousness, and based on the evaluation result, a conspicuous image reflecting the conspicuousness is generated from the captured image. It is possible to quantitatively grasp how conspicuous from the conspicuous image by the difference.

本発明の実施形態に係る目立ち評価システムの構成を示す図である。It is a figure which shows the structure of the conspicuous evaluation system which concerns on embodiment of this invention. 目立ち画像生成装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a conspicuous image generation apparatus. 色差目立ち評価部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a color difference conspicuous evaluation part. 画素と周囲画素の関係を示す図である。It is a figure which shows the relationship between a pixel and a surrounding pixel. Δu’中間画像、Δv’中間画像、並びにΔu'v'色差画像の説明図である。It is explanatory drawing of (DELTA) u 'intermediate image, (DELTA) v' intermediate image, and (DELTA) u'v 'color difference image. 輝度目立ち評価部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a brightness conspicuous evaluation part. 画像化部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an imaging part. マグニチュード推定法に用いた刺激のサンプルを示す図である。It is a figure which shows the sample of the stimulus used for the magnitude estimation method. ターゲット領域のサイズ及び色度を可変したときのマグニチュード推定法による評価結果の一例を示す図であり、(A)はターゲット領域のサイズを可変した場合、(B)は色度を可変した場合を示す。It is a figure which shows an example of the evaluation result by a magnitude estimation method when the size and chromaticity of a target area are changed, (A) changes the size of a target area, (B) shows the case where chromaticity is changed. Show. ターゲット領域のサイズ及び輝度比を可変したときのマグニチュード推定法による評価結果の一例を示す図であり、(A)はターゲット領域のサイズを可変した場合、(B)は輝度比を可変した場合を示す。It is a figure which shows an example of the evaluation result by a magnitude estimation method when the size and luminance ratio of a target area are varied, (A) is a case where the size of a target area is varied, (B) is a case where a luminance ratio is varied. Show. 試験に用いた色のxy色度図の座標と輝度である。It is a coordinate and brightness | luminance of the xy chromaticity diagram of the color used for the test. 目立ち画像生成処理のフローチャートである。It is a flowchart of a conspicuous image generation process. ウェーブレット分解を説明するための図である。It is a figure for demonstrating wavelet decomposition. ウェーブレット分解を用いた周囲画素との対比の一例を示す図である。It is a figure which shows an example of contrast with the surrounding pixel using wavelet decomposition. ウェーブレット分解のレベルに応じた目立ち画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of the conspicuous image according to the level of wavelet decomposition. 一色の背景に円板を配置した光環境を撮影した撮像画像データを模したサンプル図であり、円板のサイズ、及び色を可変して示すとともに、各撮像画像データの輝度分布を示す図である。It is a sample figure imitating the picked-up image data which imaged the light environment which arranged the disk on the background of one color, and shows the luminance distribution of each picked-up image data while showing the size and color of the disk in a variable manner. is there. 図16における撮像画像データを対象に目立ちを評価した目立ち画像のサンプル図である。It is a sample figure of a conspicuous image which evaluated conspicuousness about the picked-up image data in FIG. 本発明の変形例に係る目立ち画像生成処理のフローチャートである。It is a flowchart of the conspicuous image generation process which concerns on the modification of this invention. 本発明の他の変形例に係る目立ち画像生成処理のフローチャートである。It is a flowchart of the conspicuous image generation process which concerns on the other modification of this invention. 本発明の他の変形例に係る目立ち画像生成処理のフローチャートである。It is a flowchart of the conspicuous image generation process which concerns on the other modification of this invention.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る目立ち評価システム1の構成を示す図である。
目立ち評価システム1は、カメラ7と、目立ち画像生成装置11と、表示装置13とを備えている。
カメラ7は、目立ちの評価対象を含む光環境3を撮像し、撮像画像のデジタルデータ(以下、「撮像画像データ5」と言う)を目立ち画像生成装置11に入力する。この撮像画像データ5には、光環境3の撮像画像の印刷画をスキャナー装置で読み取ってデジタルデータ化したデータを用いることもできる。または、撮像画像データ5には、光環境3をコンピュータグラフィックス(CG)で再現し、レンダリングしたデータを用いることもできる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a conspicuous evaluation system 1 according to the present embodiment.
The conspicuous evaluation system 1 includes a camera 7, a conspicuous image generating device 11, and a display device 13.
The camera 7 captures the light environment 3 including the evaluation target of conspicuousness and inputs digital data of the captured image (hereinafter referred to as “captured image data 5”) to the conspicuous image generating device 11. As the captured image data 5, data obtained by reading a print image of the captured image of the light environment 3 with a scanner device and converting it into digital data can be used. Alternatively, the captured image data 5 may be data obtained by reproducing the light environment 3 with computer graphics (CG) and rendering it.

目立ち画像生成装置11は、撮像画像データ5に基づいて目立ち画像データ9を生成し表示装置13に出力する。目立ち画像データ9は、光環境3に含まれる評価対象の目立ちを定量化して示す目立ち画像のデータである。この目立ち画像には、人が評価対象を視認したときに感じられる目立ちの程度を、擬似カラーを用いて領域ごとに色づけして表現したカラーマッピング画像が用いられる。
表示装置13は、目立ち画像データ9に基づく目立ち画像を表示するものであり、この表示により、ユーザーは、光環境3の評価対象の目立ちを定量的に把握できる。なお、この目立ち画像データ9をプリンター装置に出力して画像化しても良い。
The conspicuous image generating device 11 generates conspicuous image data 9 based on the captured image data 5 and outputs it to the display device 13. The conspicuous image data 9 is conspicuous image data that quantifies and shows the conspicuousness of the evaluation target included in the light environment 3. As the conspicuous image, a color mapping image is used in which the degree of conspicuousness felt when a person visually recognizes the evaluation target is expressed by coloring each region using a pseudo color.
The display device 13 displays a conspicuous image based on the conspicuous image data 9, and this display allows the user to quantitatively grasp the conspicuousness of the evaluation target of the light environment 3. Note that the conspicuous image data 9 may be output to a printer device to be imaged.

図2は、目立ち画像生成装置11の機能的構成を示すブロック図である。
目立ち画像生成装置11は、画像入力部21と、目立ち評価部23と、画像化部25と、画像出力部27とを備えている。画像入力部21は、撮像画像データ5を出力するカメラ7に接続され、このカメラ7から出力された撮像画像データ5を目立ち評価部23に出力する。この画像入力部21には、カメラ7の他にも、撮像画像データ5を出力する任意の機器を接続できる。目立ち評価部23は、撮像画像データ5に基づいて評価対象の目立ちを評価し、目立ち評価結果を画像化部25に出力する。画像化部25は、目立ち評価結果に基づいて、評価対象の目立ちを画像化した目立ち画像データ9を生成し、画像出力部27に出力する。画像出力部27は、目立ち画像データ9を表示装置13に出力する。
また、目立ち評価部23は、評価対象の色と周囲の色との色差に基づいて目立ちを評価する色差目立ち評価部29と、評価対象の輝度と周囲の輝度の輝度対比に基づいて目立ちを評価する輝度目立ち評価部30とを備え、評価対象の色及び輝度の両方を用いて総合的に目立ちを評価する。
なお、この目立ち画像生成装置11は、CPUやRAM、ROMを備えた、いわゆるコンピューターに、上記の各機能ブロックを実現するための目立ち画像生成プログラム15(図1)を実行させることで実施される。
FIG. 2 is a block diagram illustrating a functional configuration of the conspicuous image generation apparatus 11.
The conspicuous image generation apparatus 11 includes an image input unit 21, a conspicuous evaluation unit 23, an imaging unit 25, and an image output unit 27. The image input unit 21 is connected to the camera 7 that outputs the captured image data 5, and outputs the captured image data 5 output from the camera 7 to the conspicuous evaluation unit 23. In addition to the camera 7, any device that outputs the captured image data 5 can be connected to the image input unit 21. The conspicuous evaluation unit 23 evaluates the conspicuousness of the evaluation object based on the captured image data 5 and outputs the conspicuous evaluation result to the imaging unit 25. The imaging unit 25 generates the conspicuous image data 9 obtained by imaging the conspicuity of the evaluation target based on the conspicuous evaluation result, and outputs the conspicuous image data 9 to the image output unit 27. The image output unit 27 outputs the conspicuous image data 9 to the display device 13.
Further, the conspicuous evaluation unit 23 evaluates conspicuousness based on a color difference conspicuous evaluation unit 29 that evaluates conspicuousness based on the color difference between the evaluation target color and surrounding colors, and a contrast between the evaluation target luminance and the surrounding luminance. And a brightness conspicuousness evaluation unit 30 that performs conspicuousness evaluation comprehensively using both the color and brightness of the evaluation target.
The conspicuous image generation apparatus 11 is implemented by causing a so-called computer having a CPU, RAM, and ROM to execute a conspicuous image generation program 15 (FIG. 1) for realizing the above functional blocks. .

図3は、色差目立ち評価部29の機能的構成を示す図である。
色差目立ち評価部29は、評価対象と周囲との色差に基づいて目立ちを評価するために、カラー画像(RGB情報)である撮像画像の各画素の値を色座標情報に変換して目立ちを評価する。色座標情報には、座標間の2点間の距離が知覚的な色差に対応するよう設計された均等色度図或いは均等色空間の座標情報が用いられる。本実施形態では均等色度図であるu’v’色度図の座標情報を用いる。
FIG. 3 is a diagram illustrating a functional configuration of the color difference conspicuous evaluation unit 29.
The color difference conspicuous evaluation unit 29 evaluates the conspicuousness by converting the value of each pixel of the captured image, which is a color image (RGB information), into color coordinate information in order to evaluate the conspicuousness based on the color difference between the evaluation target and the surroundings. To do. As the color coordinate information, a uniform chromaticity diagram or coordinate information of a uniform color space designed so that the distance between two points between coordinates corresponds to a perceptual color difference is used. In the present embodiment, coordinate information of a u′v ′ chromaticity diagram that is a uniform chromaticity diagram is used.

かかる色差目立ち評価部29の機能的構成について説明すると、図3に示すように、色差目立ち評価部29は、u’画像生成部31及びv’画像生成部33と、第1Wavelet(ウェーブレット)分解部35と、Δu’中間画像生成部36及びΔv’中間画像生成部37と、Δu’v’色差画像生成部38と、第2Wavelet分解部39と、係数処理部40と、を備えている。
u’画像生成部31は撮像画像データ5からu’画像を生成し、またv’画像生成部33は撮像画像データ5からv’画像を生成し、第1Wavelet分解部35に出力する。これらu’画像生成部31及びv’画像生成部33は、それぞれカメラ7から取得されるRGB情報を色度座標(u’,v’)に変換する近似マトリクス情報に基づいて撮像画像データ5の各画素のRGB値をu’色度成分及びv’色度成分のそれぞれに分解した画像に変換する。近似マトリクス情報は較正実験により求められ、色差目立ち評価部29に予め格納されている。
The functional configuration of the color difference conspicuous evaluation unit 29 will be described. As shown in FIG. 3, the color difference conspicuous evaluation unit 29 includes a u ′ image generation unit 31 and a v ′ image generation unit 33, and a first wavelet decomposition unit. 35, a Δu ′ intermediate image generation unit 36 and a Δv ′ intermediate image generation unit 37, a Δu′v ′ color difference image generation unit 38, a second Wavelet decomposition unit 39, and a coefficient processing unit 40.
The u ′ image generation unit 31 generates a u ′ image from the captured image data 5, and the v ′ image generation unit 33 generates a v ′ image from the captured image data 5 and outputs the v ′ image to the first Wavelet decomposition unit 35. The u ′ image generation unit 31 and the v ′ image generation unit 33 each of the captured image data 5 based on approximate matrix information for converting RGB information acquired from the camera 7 into chromaticity coordinates (u ′, v ′). The RGB value of each pixel is converted into an image decomposed into u ′ chromaticity component and v ′ chromaticity component. The approximate matrix information is obtained by a calibration experiment and is stored in advance in the color difference conspicuous evaluation unit 29.

第1Wavelet分解部35は、u’画像及びv’画像のそれぞれの各画素について、該画素(以下、「対象画素」と言う)を取り囲む画素(以下、「周囲画素」と言う)との各々との色度成分差を反映した色度成分対比量(u’対比量、及びv’対比量)を算出する。周囲画素Pは、図4に示すように、対象画素Oを中心とする半径Rの円の円周上に位置する画素として定義される。すなわち、対象画素Oを取り囲む周囲画素Pから成る色度成分と対象画素Oの色度成分対比が色度成分対比量として求められる。このとき、u’色度成分及びv’色度成分のそれぞれにおいて、対象画素Oが周囲画素Pよりも値が大きい場合(正対比)に色度成分対比量の符号が正となり、値が小さい場合(逆対比)に色度成分対比量の符号が負となる。また、この色度成分対比量は、周囲画素Pの全てに対して対象画素Oの色度成分対比が大きい場合に、その絶対値は最大となり、対象画素Oとの色度成分対比が小さい画素が周囲画素Pに含まれるほど、絶対値は小さくなる。また、周囲画素Pの全てが対象画素Oと値が同じ場合には、色度成分対比量の絶対値が最小となる。   The first Wavelet decomposition unit 35, for each pixel of the u ′ image and the v ′ image, each of a pixel (hereinafter referred to as “surrounding pixel”) surrounding the pixel (hereinafter referred to as “target pixel”). The chromaticity component contrast amount (u ′ contrast amount and v ′ contrast amount) reflecting the chromaticity component difference is calculated. As shown in FIG. 4, the surrounding pixel P is defined as a pixel located on the circumference of a circle having a radius R centered on the target pixel O. That is, the chromaticity component contrast of the target pixel O and the chromaticity component composed of the surrounding pixels P surrounding the target pixel O are obtained as the chromaticity component contrast amount. At this time, in each of the u ′ chromaticity component and the v ′ chromaticity component, when the target pixel O has a larger value than the surrounding pixel P (positive contrast), the sign of the chromaticity component contrast amount becomes positive and the value is small. In this case (reverse contrast), the sign of the chromaticity component contrast amount is negative. Further, when the chromaticity component contrast amount of the target pixel O is large with respect to all of the surrounding pixels P, the absolute value of the chromaticity component contrast amount is maximum, and the chromaticity component contrast amount with the target pixel O is small. Is included in the surrounding pixels P, the absolute value becomes smaller. Further, when all the surrounding pixels P have the same value as the target pixel O, the absolute value of the chromaticity component contrast amount is minimized.

さらに色度成分対比量(u’対比量、及びv’対比量)は、対象画素Oと周囲画素Pの間の距離によっても値が変わる。例えば、対象画素Oの周囲に同じ値の画素が連続している状態を想定すると、この連続範囲内の画素が周囲画素Pに設定されたときには、色度成分対比量の絶対値は小さくなる。これとは逆に、連続範囲外に周囲画素Pが設定されたときには、色度成分対比量の絶対値は大きくなる。かかる対象画素Oと周囲画素Pまでの距離の違いを色度成分対比量に反映すべく、本実施形態では、半径Rの大きさをレベル1〜N(本実施形態ではN=9)の多段階に定義し、これらのレベルごとに、色度成分対比量を求めることとしている。なお、同じ画素値が連続している範囲は、撮像画像に写った一つの物体と推定される。すなわち、半径Rをレベル1〜Nに分けて色度成分対比量を求めることは、評価対象のサイズに応じた色度成分対比量を求めているとも言える。   Further, the value of the chromaticity component contrast amount (u ′ contrast amount and v ′ contrast amount) also varies depending on the distance between the target pixel O and the surrounding pixel P. For example, assuming a state in which pixels having the same value continue around the target pixel O, when a pixel within this continuous range is set as the surrounding pixel P, the absolute value of the chromaticity component contrast amount becomes small. On the contrary, when the surrounding pixel P is set outside the continuous range, the absolute value of the chromaticity component contrast amount increases. In order to reflect the difference in distance between the target pixel O and the surrounding pixel P in the chromaticity component contrast amount, in this embodiment, the radius R is set to levels 1 to N (N = 9 in this embodiment). It is defined in stages, and a chromaticity component contrast amount is obtained for each level. Note that a range in which the same pixel values are continuous is estimated as one object shown in the captured image. That is, it can be said that obtaining the chromaticity component contrast amount by dividing the radius R into levels 1 to N obtains the chromaticity component contrast amount according to the size of the evaluation target.

第1Wavelet分解部35は、Wavelet解析を用いてレベルごとの対比量を算出し、レベルごとのWavelet分解画像(細部画像)を、u’画像及びv’画像ごとにN枚ずつ生成する。この細部画像では、各画素の値が色度成分対比量に相当する。   The first Wavelet decomposition unit 35 calculates the amount of comparison for each level using Wavelet analysis, and generates N Wavelet decomposition images (detailed images) for each level for each u ′ image and v ′ image. In this detailed image, the value of each pixel corresponds to a chromaticity component contrast amount.

ところで、色度座標においては、輝度とは異なり正対比及び逆対比の違いによる目立ちの符号分けが意味をなさない。すなわち、輝度対比においては、対象画素Oの輝度が周囲画素Pの輝度よりも大きい場合には対象画素Oが明るくて目立ち(正対比)、これとは逆に、対象画素Oの輝度が周囲画素Pの輝度よりも小さい場合には対象画素Oが暗くて目立つ(逆対比)こととなる。このため、輝度対比においては、目立ちが正対比と逆対比のいずれに依るものかを正負の符号によって区別することは十分に意味がある。これに対し、u’色度成分及びv’色度成分のそれぞれにおいては、正対比及び逆対比の違いは対象画素Oと周囲画素Pの色度座標上の位置関係を表しているだけで、目立ちの評価に直接影響する違いではない。換言すれば、色度座標においては、対象画素Oと周囲画素Pの対比量に正負の符号を付したままであると、同じ目立ち知覚であっても異なる目立ちの評価になることから、対比量の絶対値に基づいて目立ちを評価する必要がある。
そこで、色度成分対比量として、u’画像及びv’画像のそれぞれにおいて、対象画素Oと周囲画素Pの間の差の絶対値を算出し、この色度対比量Qに基づいて、細部画像を生成する手法が考えられる。
By the way, in the chromaticity coordinates, unlike the luminance, the conspicuous code division based on the difference between the direct contrast and the reverse contrast does not make sense. That is, in the luminance contrast, when the luminance of the target pixel O is larger than the luminance of the surrounding pixel P, the target pixel O is bright and conspicuous (contrast contrast). Conversely, the luminance of the target pixel O is the surrounding pixel. When the luminance is lower than P, the target pixel O is dark and conspicuous (reverse contrast). For this reason, in luminance contrast, it is meaningful to distinguish whether the conspicuity depends on the positive contrast or the reverse contrast by the sign of positive or negative. On the other hand, in each of the u ′ chromaticity component and the v ′ chromaticity component, the difference between the direct contrast and the reverse contrast merely represents the positional relationship on the chromaticity coordinates of the target pixel O and the surrounding pixel P. It is not a difference that directly affects the evaluation of conspicuousness. In other words, in the chromaticity coordinates, if the contrast amount of the target pixel O and the surrounding pixel P is left with a positive or negative sign, it becomes an evaluation of different conspicuousness even if it is the same conspicuous perception. It is necessary to evaluate the conspicuousness based on the absolute value of.
Therefore, the absolute value of the difference between the target pixel O and the surrounding pixel P in each of the u ′ image and the v ′ image is calculated as the chromaticity component contrast amount, and the detail image is based on the chromaticity contrast amount Q. The method of generating

しかしながら、Wavelet解析においては、細部画像における負の値を全て正の値に変換してしまうと、その後にWavelet合成しても、Wavelet分解前の画像(本実施形態ではu’画像、及びv’画像)には戻らない。すなわち、全て正の値に変換した細部画像に基づいて色の目立ちを評価すると、撮像画像データ5における色の目立ちを評価しているとは言い難く、正確な評価結果が得られない。   However, in the Wavelet analysis, if all the negative values in the detail image are converted to positive values, an image before Wavelet decomposition (the u ′ image and the v ′ in the present embodiment) is obtained even if Wavelet synthesis is performed thereafter. (Image) will not return. That is, if the color conspicuousness is evaluated based on the detail image converted to all positive values, it is difficult to say that the color conspicuousness in the captured image data 5 is evaluated, and an accurate evaluation result cannot be obtained.

そこで、本実施形態では、u’画像、及びv’画像のそれぞれの色度成分対比量(u’対比量、及びv’対比量)に基づいて色の目立ちを評価するのではなく、対象画素Oと周囲画素Pの色差を示すu’v’色度図上でのユークリッド距離Dに基づいて色の目立ちを評価することとしている。
このユークリッド距離Dは、対象画素Oと周囲画素Pのu’画像における差Δu’、及びv’画像における差Δv’を用いて、次式(1)で求められる。

なお、式(1)において、添字i、jは、それぞれu’画像及びv’画像における画素の位置座標(図5)を示す変数である。
Therefore, in the present embodiment, instead of evaluating color conspicuousness based on the chromaticity component contrast amounts (u ′ contrast amount and v ′ contrast amount) of the u ′ image and the v ′ image, the target pixel is not evaluated. The conspicuousness of the color is evaluated based on the Euclidean distance D on the u′v ′ chromaticity diagram indicating the color difference between O and the surrounding pixel P.
The Euclidean distance D is obtained by the following equation (1) using the difference Δu ′ in the u ′ image between the target pixel O and the surrounding pixel P and the difference Δv ′ in the v ′ image.

In Expression (1), subscripts i and j are variables indicating the pixel position coordinates (FIG. 5) in the u ′ image and the v ′ image, respectively.

式(1)から明らかなように、ユークリッド距離Dは符号が負になることはない。このため、u’画像、及びv’画像の負の値を含む細部画像を正符号に変換し、目立ちを評価する必要が無いことから、正確に色差による目立ちを評価できる。   As is clear from Equation (1), the Euclidean distance D does not have a negative sign. For this reason, it is not necessary to convert the detail image including the negative value of the u ′ image and the v ′ image into a positive sign and evaluate the conspicuousness, and therefore the conspicuousness due to the color difference can be accurately evaluated.

ユークリッド距離Dを用いた目立ち評価のための構成について説明すると、図3において、色差目立ち評価部29のΔu’中間画像生成部36は、第1Wavelet分解部35でWavlet変換されたu’画像の1〜Nレベルの細部画像を、近似画像(バイアス)を除いてWavelet再合成し、Δu’v’色差画像生成部38に出力する。またΔv’中間画像生成部37は、同様に、v’画像の1〜Nレベルの細部画像を、近似画像(バイアス)を除いてWavelet再合成し、Δu’v’色差画像生成部38に出力する。Wavelet変換は、多重解像度解析といわれるように、各解像度(周波数)での信号の変化量を解析する処理であることから、1〜Nレベルの細部画像から近似画像(バイアス)を除いて再合成することで、各レベルでの信号の変化分のみの抽出が可能になる。具体的には、図5(A)に示すように、u’画像、及びv’画像のそれぞれにおいて、周囲画素Pの値が異なる場合でも、近似画像(バイアス)を除いてWavelet再合成することで、図5(B)に示すように、周囲画素Pの値を共に所定の一定値(本実施形態ではゼロ)にして対象画素Oと周囲画素Pとの差Δu’、Δv’を表現した画像をΔu’中間画像、及びΔv’中間画像として生成することができる。
Δu’v’色差画像生成部38は、図5(C)に示すように、Δu’中間画像、及びΔv’中間画像の各画素の差Δu’、Δv’と(1)式とに基づいて、対象画素Oの値を上述のユークリッド距離Dで表示したΔu’v’色差画像81を生成し、このΔu’v’色差画像81に基づいてWavelet解析により色の目立ちを評価すべく、第2Wavelet分解部39に出力する。
The configuration for the conspicuous evaluation using the Euclidean distance D will be described. In FIG. 3, the Δu ′ intermediate image generation unit 36 of the color difference conspicuous evaluation unit 29 uses 1 of the u ′ image that has been wavelet transformed by the first Wavelet decomposition unit 35. The N-level detail image is wavelet recombined excluding the approximate image (bias), and output to the Δu′v ′ color difference image generation unit 38. Similarly, the Δv ′ intermediate image generation unit 37 re-synthesizes the Wavelet 1-N level detailed images of the v ′ image, excluding the approximate image (bias), and outputs the result to the Δu′v ′ color difference image generation unit 38. To do. Wavelet transform is a process of analyzing the amount of change in signal at each resolution (frequency), so-called multi-resolution analysis. Therefore, re-synthesis is performed by removing approximate images (bias) from 1 to N level detail images. By doing so, it becomes possible to extract only the change of the signal at each level. Specifically, as shown in FIG. 5A, wavelet recombination is performed except for the approximate image (bias) even if the values of the surrounding pixels P are different in each of the u ′ image and the v ′ image. Thus, as shown in FIG. 5B, the values of the surrounding pixels P are both set to a predetermined constant value (zero in this embodiment) to express the differences Δu ′ and Δv ′ between the target pixel O and the surrounding pixels P. Images can be generated as Δu ′ intermediate images and Δv ′ intermediate images.
As shown in FIG. 5C, the Δu′v ′ color difference image generation unit 38 is based on the Δu ′ intermediate image and the differences Δu ′ and Δv ′ between the pixels of the Δv ′ intermediate image and the equation (1). The second wavelet is generated in order to generate a Δu′v ′ color difference image 81 in which the value of the target pixel O is displayed at the above-described Euclidean distance D, and to evaluate the color conspicuity by wavelet analysis based on the Δu′v ′ color difference image 81. The data is output to the decomposition unit 39.

第2Wavelet分解部39は、第1Wavelet分解部35と同様にして、Δu’v’色差画像81に対するWavelet解析により、1〜NレベルのWavelet分解画像を生成し、これらN枚のWavelet分解画像を係数処理部40に出力する。各レベルのWavelet分解画像の各画素値は、そのレベルでのユークリッド距離対比量Qを示す。このユークリッド距離対比量Qは、そのレベルでの対象画素Oと周囲画素Pの色差の対比量を示すものである。また、後に詳述するが、かかるWavelet分解を用いてユークリッド距離対比量Qを算出することで、対象画素Oと周囲画素Pとのユークリッド距離の対比に加え、対象画素Oと周囲画素Pとの間に存在する各画素と、対象画素Oとのユークリッド距離の対比をも反映した値がユークリッド距離対比量Qとして求められる。   Similar to the first Wavelet decomposition unit 35, the second Wavelet decomposition unit 39 generates Wavelet decomposition images of 1 to N levels by Wavelet analysis on the Δu′v ′ color difference image 81, and uses these N Wavelet decomposition images as coefficients. The data is output to the processing unit 40. Each pixel value of the Wavelet decomposition image at each level indicates the Euclidean distance contrast amount Q at that level. The Euclidean distance contrast amount Q indicates the contrast amount of the color difference between the target pixel O and the surrounding pixel P at that level. Further, as will be described in detail later, by calculating the Euclidean distance contrast amount Q using the Wavelet decomposition, in addition to the comparison of the Euclidean distance between the target pixel O and the surrounding pixel P, the target pixel O and the surrounding pixel P can be compared. A value reflecting the contrast of the Euclidean distance between each pixel existing in between and the target pixel O is obtained as the Euclidean distance contrast amount Q.

係数処理部40は、第2Wavelet分解部39から出力されたN枚のWavelet分解画像データの各画素のユークリッド距離対比量Qを目立ちの程度を示す値に変換する係数処理を行いWavelet合成し、色差目立ち画像85として画像化部25に出力する。係数処理としては、1〜Nの各レベルのWavelet分解画像において、各画素のユークリッド距離対比量Q1〜QNのそれぞれに、そのレベルに応じた重回帰係数α1〜αNを乗じる。これにより、レベルごとに、Wavelet分解画像の各画素の値を、ユークリッド距離対比量Qの中間生成値IQ1〜IQNに変換した画像データが生成される。
中間生成値IQ1〜IQNは、各画素のユークリッド距離対比量Qの目立ちの程度を示す値であり、マグニチュード推定法により得られた値である。なお、重回帰係数α及びマグニチュード推定法の詳細については後述する。
そして係数処理部40は、係数処理したN枚のWavelet分解画像データをWavelet合成し、色目立ち画像85として画像化部25に出力する。この色目立ち画像85は、Δu’v’色差画像の各画素の値を、各レベルの中間生成値IQ1〜IQNを合算した値(以下、「色差目立ち予測値MQ」と言う)に変換した画像に相当する。
The coefficient processing unit 40 performs coefficient processing for converting the Euclidean distance contrast amount Q of each pixel of the N wavelet decomposed image data output from the second wavelet decomposition unit 39 into a value indicating the degree of conspicuousness, and performs wavelet composition, and color difference The image is output to the imaging unit 25 as a conspicuous image 85. As the coefficient processing, in the Wavelet decomposed image of each level of 1 to N, each of the Euclidean distance contrast amounts Q1 to QN of each pixel is multiplied by multiple regression coefficients α1 to αN corresponding to the level. As a result, image data obtained by converting the value of each pixel of the Wavelet decomposition image into the intermediate generation values IQ1 to IQN of the Euclidean distance contrast amount Q is generated for each level.
The intermediate generation values IQ1 to IQN are values indicating the degree of conspicuousness of the Euclidean distance contrast amount Q of each pixel, and are values obtained by the magnitude estimation method. Details of the multiple regression coefficient α and the magnitude estimation method will be described later.
Then, the coefficient processing unit 40 wavelet synthesizes the N wavelet decomposed image data subjected to the coefficient processing, and outputs the result to the imaging unit 25 as a color noticeable image 85. The color noticeable image 85 is an image obtained by converting the value of each pixel of the Δu′v ′ color difference image into a value obtained by adding the intermediate generation values IQ1 to IQN of each level (hereinafter referred to as “color difference noticeable predicted value MQ”). It corresponds to.

このように、対象画素Oと周囲画素Pの色差を、u’v’色度図上でのユークリッド距離Dで表したΔu’v’色差画像81を生成し、このΔu’v’色差画像81に対してWavlet分解、及び再合成を含むWavelet解析を施して色の目立ちを評価する構成とした。これにより、対象画素Oと周囲画素Pの色度座標上の正対比及び逆対比の違いによる符号の違いを解消するために符号を揃える(絶対値をとる)必要がないため、色の目立ちを正確に評価することができる。   In this way, a Δu′v ′ color difference image 81 in which the color difference between the target pixel O and the surrounding pixel P is represented by the Euclidean distance D on the u′v ′ chromaticity diagram is generated, and this Δu′v ′ color difference image 81 is generated. A wavelet analysis including recombination and wavelet decomposition was performed on the image to evaluate color conspicuousness. As a result, it is not necessary to align the signs (take absolute values) in order to eliminate the difference in the sign due to the difference between the direct contrast and the reverse contrast on the chromaticity coordinates of the target pixel O and the surrounding pixel P. Accurate evaluation is possible.

また、u’画像及びv’画像のそれぞれごとに、Wavelet解析して色差目立ち画像85を生成する場合、u’画像のu’色度成分対比量及びv’画像のv’色度成分対比量のそれぞれごとに上記重回帰係数αが必要となる。このため、色の目立ちは、分解レベル数の2倍の数の重回帰係数αを説明変数に用いて評価される。
これに対して、ユークリッド距離Dを用いることで、Wavelet解析対象の画像をΔu’v’色差画像81のみとすることができ、重回帰係数αの数は分解レベル数分となるから、説明変数の数を半減でき、説明変数の1つ当たりの信頼度を高めることができる。
Further, when generating the color difference conspicuous image 85 by wavelet analysis for each of the u ′ image and the v ′ image, the u ′ chromaticity component contrast amount of the u ′ image and the v ′ chromaticity component contrast amount of the v ′ image. The multiple regression coefficient α is required for each of the above. For this reason, the color conspicuousness is evaluated using the multiple regression coefficient α, which is twice the number of decomposition levels, as an explanatory variable.
In contrast, by using the Euclidean distance D, the wavelet analysis target image can be only the Δu′v ′ color difference image 81, and the number of multiple regression coefficients α is equal to the number of decomposition levels. And the reliability per explanatory variable can be increased.

図6は、輝度目立ち評価部30の機能的構成を示すブロック図である。
輝度目立ち評価部30は、対数輝度分布画像生成部45と、Wavelet分解部47と、係数処理部49とを備えている。
対数輝度分布画像生成部45は、撮像画像データ5に基づいて光環境3の輝度分布を示す輝度分布画像を生成し、該輝度分布画像の各画素の輝度値の対数をとって対数輝度分布画像を生成し、Wavelet分解部47に出力する。
FIG. 6 is a block diagram illustrating a functional configuration of the luminance conspicuous evaluation unit 30.
The luminance conspicuous evaluation unit 30 includes a log luminance distribution image generation unit 45, a Wavelet decomposition unit 47, and a coefficient processing unit 49.
The logarithmic luminance distribution image generation unit 45 generates a luminance distribution image indicating the luminance distribution of the light environment 3 based on the captured image data 5, and takes the logarithm of the luminance value of each pixel of the luminance distribution image to obtain a logarithmic luminance distribution image. Is output to the Wavelet decomposition unit 47.

輝度分布画像の生成には、幅広い輝度レンジにて輝度値を生成できるように、例えば写真測光法(photographic photometry)が用いられる。すなわち、対数輝度分布画像生成部45は、露出条件(例えばシャッタースピード)を異ならせて光環境3を撮像した複数の撮像画像データ5を取得し、各撮像画像データ5について、撮像画像の各画素値の階調値を輝度値に変換して輝度データを生成し、各撮像画像データ5の輝度データを合成して輝度分布画像を生成する。   For example, photographic photometry is used to generate a luminance distribution image so that luminance values can be generated in a wide luminance range. That is, the logarithmic luminance distribution image generation unit 45 acquires a plurality of captured image data 5 obtained by capturing the light environment 3 with different exposure conditions (for example, shutter speed), and for each captured image data 5, each pixel of the captured image. Luminance data is generated by converting the gradation value of the value into a luminance value, and the luminance data of each captured image data 5 is synthesized to generate a luminance distribution image.

Wavelet分解部47は、色差目立ち評価部29の第1Wavelet分解部35と同様にWavelet分解を用いて、対数輝度分布画像の各画素について、該画素の周囲画素Pの各々との輝度対比を反映した輝度対比量Lを、周囲画素Pまでの距離に相当する複数のレベル1〜N(本実施形態ではN=9)のそれぞれについて算出する。この輝度対比量Lの値は、対象画素Oの輝度が周囲画素Pよりも高い場合(正対比)に正となり、輝度が低い場合(逆対比)には負となる。また、輝度対比量Lの値は、周囲画素Pの全てに対して対象画素Oの輝度対比が大きい場合に、その絶対値が最大となり、対象画素Oとの輝度対比が小さい画素が周囲画素Pに含まれるほど、絶対値が小さくなる。また、周囲画素Pの全てが対象画素Oと輝度が同じ場合には、輝度対比の絶対値が最小となる。   The Wavelet decomposition unit 47 uses the Wavelet decomposition in the same manner as the first Wavelet decomposition unit 35 of the color difference conspicuous evaluation unit 29 to reflect the luminance contrast of each pixel of the log luminance distribution image with each of the surrounding pixels P of the pixel. The luminance contrast amount L is calculated for each of a plurality of levels 1 to N (N = 9 in this embodiment) corresponding to the distance to the surrounding pixel P. The value of the brightness contrast amount L is positive when the brightness of the target pixel O is higher than that of the surrounding pixels P (positive contrast), and is negative when the brightness is low (reverse contrast). In addition, the luminance contrast amount L has a maximum absolute value when the luminance contrast of the target pixel O is large with respect to all the surrounding pixels P, and a pixel having a small luminance contrast with the target pixel O is the surrounding pixel P. The absolute value becomes smaller as it is included. Further, when all the surrounding pixels P have the same luminance as the target pixel O, the absolute value of the luminance contrast is minimized.

係数処理部49は、Wavelet分解部47から出力されたN枚の画像データをWavelet合成し、輝度目立ち画像86として画像化部25に出力する。
係数処理部49は、Wavelet分解部47から出力されたN枚のWavelet分解画像データの各画素の輝度対比量Lを目立ちの程度を示す数値に変換する係数処理を行いWavelet合成し、輝度目立ち画像86として画像化部25に出力する。この係数処理としては、1〜Nの各レベルのWavelet分解画像において、各画素の輝度対比量L1〜LNのそれぞれに、そのレベルに応じた輝度対比量Lについての重回帰係数β1〜βNを乗じる。これにより、レベルごとに、Wavelet分解画像の各画素の値を、輝度対比の中間生成値IL1〜ILNに変換した画像データが生成される。
中間生成値IL1〜ILNは、各画素の輝度対比量Lの目立ちの程度を示す値でありマグニチュード推定法により得られた値である。なお、重回帰係数β及びマグニチュード推定法の詳細については後述する。
そして係数処理部49は、係数処理したN枚のWavelet分解画像データをWavelet合成し、輝度目立ち画像86として画像化部25に出力する。この輝度目立ち画像86は、Wavelet分解画像データの各画素の値を、各レベルの中間生成値IL1〜ILNを合算した値(以下、「輝度目立ち予測値ML」と言う)に変換した画像に相当する。
The coefficient processing unit 49 wavelet synthesizes the N pieces of image data output from the wavelet decomposition unit 47, and outputs the result to the imaging unit 25 as a luminance noticeable image 86.
The coefficient processing unit 49 performs coefficient processing for converting the luminance contrast amount L of each pixel of the N wavelet decomposed image data output from the wavelet decomposition unit 47 into a numerical value indicating the degree of conspicuousness, and wavelet synthesizes the luminance noticeable image. 86 is output to the imaging unit 25. As the coefficient processing, in the Wavelet decomposed image of each level of 1 to N, each of the luminance contrast amounts L1 to LN of each pixel is multiplied by multiple regression coefficients β1 to βN for the luminance contrast amount L corresponding to the level. . As a result, image data in which the value of each pixel of the Wavelet decomposition image is converted into intermediate generation values IL1 to ILN for luminance comparison is generated for each level.
The intermediate generation values IL1 to ILN are values indicating the degree of conspicuousness of the luminance contrast amount L of each pixel, and are values obtained by the magnitude estimation method. Details of the multiple regression coefficient β and the magnitude estimation method will be described later.
Then, the coefficient processing unit 49 wavelet synthesizes the N wavelet decomposed image data subjected to the coefficient processing, and outputs the result to the imaging unit 25 as a luminance noticeable image 86. The luminance conspicuous image 86 corresponds to an image obtained by converting the value of each pixel of the Wavelet decomposition image data into a value obtained by adding the intermediate generation values IL1 to ILN of each level (hereinafter referred to as “luminance conspicuous prediction value ML”). To do.

図7は、画像化部25の機能的構成を示すブロック図である。
画像化部25は、色差目立ち評価部29から出力された色目立ち画像85と、輝度目立ち評価部30から出力された輝度目立ち画像86とを合成して、対象画素Oと周囲画素Pの色差及び輝度差の両方を統合的に判断した目立ち度を示す目立ち画像を生成し、画像出力部27に出力する。具体的には、画像化部25は、輝度目立ち予測値符号変換部65と、色差・輝度目立ち合成部67と、多段階評価値変換部69と、評価値符号変換部71とを備えている。
FIG. 7 is a block diagram showing a functional configuration of the imaging unit 25.
The imaging unit 25 combines the color conspicuous image 85 output from the color difference conspicuous evaluation unit 29 and the luminance conspicuous image 86 output from the luminance conspicuous evaluation unit 30 to obtain the color difference between the target pixel O and the surrounding pixels P and A conspicuous image indicating a conspicuous degree in which both luminance differences are determined in an integrated manner is generated and output to the image output unit 27. Specifically, the imaging unit 25 includes a luminance conspicuous prediction value code conversion unit 65, a color difference / luminance conspicuity synthesis unit 67, a multistage evaluation value conversion unit 69, and an evaluation value code conversion unit 71. .

輝度目立ち予測値符号変換部65は、負符号を取らない色差目立ちと輝度目立ちとの合算を可能にするため、輝度目立ち画像の各画素で輝度目立ち予測値MLの絶対値をとり、負符号の輝度目立ち予測値MLを正符号に変化し、輝度・色差目立ち合成部67に出力する。
色差・輝度目立ち合成部67は、輝度目立ち画像の輝度目立ち予測値MLと、色目立ち画像85の色差目立ち予測値MQとを画素ごとに合算して、色及び輝度を反映した目立ち値Uに変換し、多段階評価値変換部69に出力する。
The luminance conspicuous prediction value code conversion unit 65 takes the absolute value of the luminance conspicuous prediction value ML at each pixel of the luminance conspicuous image in order to enable the summation of the color difference conspicuous and the luminance conspicuous without taking a negative sign. The predicted luminance conspicuation value ML is changed to a positive sign and is output to the luminance / color difference conspicuous composition unit 67.
The color difference / luminance conspicuous composition unit 67 adds the luminance conspicuous predicted value ML of the luminance conspicuous image and the color difference conspicuous predicted value MQ of the color conspicuous image 85 for each pixel, and converts it into a conspicuous value U reflecting the color and luminance. And output to the multistage evaluation value conversion unit 69.

なお、本実施形態では、画像化部25が色差目立ち予測値MQと輝度目立ち予測値MLとを加算して目立ち値Uを求めているが、これに限らない。すなわち、目立ち値U≒f(色差目立ち予測値MQ、輝度目立ち予測値ML)を十分に満たす関数fであれば、任意の関数fを用いることができる。   In the present embodiment, the imaging unit 25 obtains the conspicuous value U by adding the color difference conspicuous predicted value MQ and the luminance conspicuous predicted value ML, but is not limited thereto. That is, any function f can be used as long as the function f sufficiently satisfies the conspicuous value U≈f (color difference conspicuous predicted value MQ, luminance conspicuous predicted value ML).

多段階評価値変換部69は、目立ち画像の各画素の目立ち値Uを多段階評価値(本実施形態では13段階)に変換し、各評価値に擬似カラーを対応付けて目立ちの程度を色づけして表現したカラーマッピング画像たる目立ち画像を生成し、評価値符号変換部71に出力する。
評価値符号変換部71は、輝度目立ち予測値符号変換部65で正符号化した画素の多段階評価値に負符号を付与して、輝度の正対比及び逆対比を区別した目立ち画像を生成し、画像出力部27に出力する。これにより、撮像画像について目立ちの分布を示した目立ち画像の目立ち画像データ9が画像出力部27から例えば表示装置13等の外部出力装置に出力される。
The multi-level evaluation value conversion unit 69 converts the conspicuous value U of each pixel of the conspicuous image into a multi-level evaluation value (13 levels in the present embodiment), and associates each evaluation value with a pseudo color to color the degree of conspicuity. A conspicuous image that is a color mapping image expressed as described above is generated and output to the evaluation value code converter 71.
The evaluation value code conversion unit 71 assigns a negative sign to the multi-stage evaluation value of the pixel that has been positively encoded by the luminance conspicuous prediction value code conversion unit 65, and generates a conspicuous image that distinguishes the normal contrast and the reverse contrast of the luminance. And output to the image output unit 27. Thereby, the conspicuous image data 9 of the conspicuous image indicating the conspicuous distribution of the captured image is output from the image output unit 27 to an external output device such as the display device 13.

ここで、目立ち値Uから多段階評価値への変換は、予め実験により求められた関係が用いられる。より具体的には、被験者に対して評価刺激を提示し、その評価刺激から感じられる目立ちを、「非常に良く目立つ」、「良く目立つ」、「目立つ」、「やや目立つ」、「かろうじて目立つ」、「目立たない」、「視認できない」の7つの評価語句、及び、これら評価語句の各々の中間の13段階で評価させた。この評価刺激は、上記輝度目立ち予測値ML及び色差目立ち予測値MQ(すなわち、目立ち値U)が既知の刺激である。このような評価試験を多数の被験者に対し多数の評価刺激を用いて行い、これらの評価刺激の目立ち値Uと13段階の評価との相関関係を求めている。この相関関係が多段階評価値変換部69による目立ち値Uから13段階評価値への変換に用いられる。   Here, for the conversion from the conspicuous value U to the multi-stage evaluation value, a relationship obtained in advance through experiments is used. More specifically, the evaluation stimulus is presented to the subject, and the conspicuous feeling felt from the evaluation stimulus is “very conspicuous”, “well conspicuous”, “conspicuous”, “slightly conspicuous”, “slightly conspicuous” 7 evaluation phrases of “inconspicuous” and “invisible”, and 13 grades in the middle of each of these evaluation phrases. This evaluation stimulus is a stimulus whose brightness noticeable prediction value ML and color difference noticeable prediction value MQ (that is, the noticeable value U) are known. Such an evaluation test is performed on a large number of subjects using a large number of evaluation stimuli, and the correlation between the conspicuous value U of these evaluation stimuli and the 13-level evaluation is obtained. This correlation is used for the conversion from the conspicuous value U to the 13-level evaluation value by the multi-level evaluation value conversion unit 69.

次いで、ユークリッド距離対比量Qと色差目立ち予測値MQの相関関係、及び、輝度対比量Lと輝度目立ち予測値MLの相関関係を求めるために本実施形態で採用した上述のマグニチュード推定法について説明する。
マグニチュード推定法においては、はじめに、被験者に基準刺激を観察させる。被験者には、この基準刺激の目立ちの度合いを100点とするよう、予め指示する。次いで、被験者に対して評価刺激を提示し、この評価刺激の目立ちの程度を点数で評価させた。このとき、評価0点は、評価刺激のターゲットが視認できなかった場合に限り応答するものとし、負の値は評価には用いないものとした。また、評価点数の上限は特に設けなかった。係るマグニチュード推定法により得られた点数が評価刺激に対する目立ち予測値となる。
Next, the above-described magnitude estimation method employed in this embodiment in order to obtain the correlation between the Euclidean distance contrast amount Q and the color difference noticeable prediction value MQ and the correlation between the brightness contrast amount L and the brightness noticeable prediction value ML will be described. .
In the magnitude estimation method, first, the subject is allowed to observe the reference stimulus. The subject is instructed beforehand so that the degree of conspicuousness of the reference stimulus is 100 points. Next, an evaluation stimulus was presented to the subject, and the degree of conspicuousness of the evaluation stimulus was evaluated by a score. At this time, an evaluation of 0 points is assumed to respond only when the target of the evaluation stimulus cannot be visually recognized, and a negative value is not used for the evaluation. There was no particular upper limit for the evaluation score. The score obtained by the magnitude estimation method is a conspicuous predicted value for the evaluation stimulus.

基準刺激には、図8(A)に示すように、視野角が一辺90.0[deg]の正方形(17[cd/m2])の背景領域70の中心に、視野角が直径20.0[deg](輝度50[cd/m2])の円形のターゲット領域72を描画したサンプルを用いた。背景領域70及びターゲット領域72の色はともに無彩色とした。
ユークリッド距離対比量Qと色差目立ち予測値MQの相関関係を求める実験においては、背景領域70とターゲット領域72との色差(ユークリッド距離)と、ターゲット領域72のサイズの違いが目立ちに与える影響を調べるべく、ターゲット領域72の色度(例えば図8(B))やサイズを可変したものを評価刺激として被験者に提示した。このとき、輝度対比の影響を除くべく、基準刺激及び評価刺激のいずれも、背景領域70及びターゲット領域72が共に20.0[cd/m2]となるように輝度を調整した。
また輝度対比量Lと輝度目立ち予測値MLの相関関係を求める実験においては、背景領域70とターゲット領域72との輝度比と、ターゲット領域72のサイズの違いが目立ちに与える影響を調べるべく、ターゲット領域72の輝度やサイズを可変したもの(例えば図8(C))を評価刺激として被験者に提示した。このとき、色差の影響を除くべく、基準刺激及び評価刺激のいずれも、背景領域70及びターゲット領域72の色はともに無彩色(図11の色7)とした。
As shown in FIG. 8 (A), the reference stimulus has a viewing angle at the center of a background area 70 of a square (17 [cd / m 2 ]) with a viewing angle of 90.0 [deg] on one side and a diameter of 20. A sample in which a circular target region 72 of 0 [deg] (luminance 50 [cd / m 2 ]) was drawn was used. The background area 70 and the target area 72 are both achromatic.
In the experiment for obtaining the correlation between the Euclidean distance contrast amount Q and the color difference conspicuous predicted value MQ, the influence of the difference in the color difference (Euclidean distance) between the background region 70 and the target region 72 and the size of the target region 72 is noticeable. Therefore, the chromaticity (for example, FIG. 8B) and the size of the target region 72 are presented to the subject as evaluation stimuli. At this time, in order to remove the influence of the luminance contrast, the luminance of both the reference stimulus and the evaluation stimulus was adjusted so that the background region 70 and the target region 72 were both 20.0 [cd / m 2 ].
Further, in the experiment for obtaining the correlation between the luminance contrast amount L and the luminance conspicuous predicted value ML, in order to examine the influence of the luminance ratio between the background region 70 and the target region 72 and the difference in the size of the target region 72 on the target, What changed the brightness | luminance and size of the area | region 72 (for example, FIG.8 (C)) was shown to the test subject as an evaluation stimulus. At this time, in order to remove the influence of the color difference, the background region 70 and the target region 72 are both achromatic (color 7 in FIG. 11) in both the reference stimulus and the evaluation stimulus.

このマグニチュード推定法による評価試験は、被験者が座位した位置から160[mm]離れたPCモニタに基準刺激及び評価刺激を映し出し、これを被験者が観察することで行われている。このとき、暗幕により被験者の周囲を遮蔽することで、被験者の周囲を暗室環境としている。   The evaluation test by the magnitude estimation method is performed by projecting the reference stimulus and the evaluation stimulus on a PC monitor that is 160 [mm] away from the position where the subject is sitting, and observing the reference stimulus and the evaluation stimulus. At this time, the periphery of the subject is set as a dark room environment by shielding the periphery of the subject with a dark screen.

図9は、ターゲット領域72のサイズ及び色度を可変したときのマグニチュード推定法による評価結果の一例を示す図であり、図9(A)はターゲット領域72のサイズを可変した場合、図9(B)は色差を示すユークリッド距離Dを可変した場合を示す。図9(A)の実験結果は、図11にxy色度図の座標で示した色2を背景領域70の色とし、ターゲット領域72の色を、色1、色3〜色6としたときの結果である。なお、図11においてYは輝度[cd/m2]を示す。
同図に示す結果から、ターゲット領域72の色に拘わらず、ターゲット領域72のサイズが大きくなるほど評価点が高くなる傾向が読み取れる。この傾向は、背景領域70の色が色2以外の他の色1〜7でも同じであった。
FIG. 9 is a diagram illustrating an example of an evaluation result by the magnitude estimation method when the size and chromaticity of the target region 72 are varied. FIG. 9A illustrates a case where the size of the target region 72 is varied. B) shows a case where the Euclidean distance D indicating the color difference is varied. The experimental result of FIG. 9A shows that the color 2 indicated by the coordinates of the xy chromaticity diagram in FIG. 11 is the color of the background region 70 and the color of the target region 72 is the color 1, color 3 to color 6. Is the result of In FIG. 11, Y represents luminance [cd / m 2 ].
From the results shown in the figure, it can be seen that, regardless of the color of the target region 72, the evaluation score tends to increase as the size of the target region 72 increases. This tendency was the same even when the color of the background region 70 was other colors 1 to 7 other than the color 2.

図9(B)は、ターゲット領域72と背景領域70との色差を上記ユークリッド距離Dで表し、このユークリッド距離Dを横軸、評価点の平均値を縦軸としてターゲット領域のサイズごとにプロットしたものである。この図からは、ユークリッド距離Dが大きくなるほど評価点が高くなる傾向が認められる。なお、例えば背景領域70を色1、ターゲット領域72を色2とした場合と、背景領域70を色2、ターゲット領域72を色1とした場合など、背景領域70とターゲット領域72とで色を入れ替えた場合、それぞれユークリッド距離Dは同一となる。このため同図では、ユークリッド距離D及びターゲットサイズが同一でも、それぞれのユークリッド距離Dについて複数の評価点がプロットされている。   In FIG. 9B, the color difference between the target area 72 and the background area 70 is expressed by the Euclidean distance D, and the Euclidean distance D is plotted for each size of the target area with the horizontal axis and the average value of the evaluation points as the vertical axis. Is. From this figure, it is recognized that the evaluation score tends to increase as the Euclidean distance D increases. For example, when the background area 70 is color 1 and the target area 72 is color 2, and when the background area 70 is color 2 and the target area 72 is color 1, the color between the background area 70 and the target area 72 is changed. When they are replaced, the Euclidean distance D is the same. For this reason, in the same figure, even if the Euclidean distance D and the target size are the same, a plurality of evaluation points are plotted for each Euclidean distance D.

図10は、ターゲット領域72のサイズ及び輝度比を可変したときのマグニチュード推定法による評価結果の一例を示す図であり、図10(A)はターゲット領域72のサイズを可変した場合、図10(B)は輝度比を可変した場合を示す。
同図に示す結果から、ターゲット領域72のサイズが大きくなるほど、或いは、輝度比が大きくなるほど評価点が高くなることが読み取れる。
FIG. 10 is a diagram illustrating an example of an evaluation result by the magnitude estimation method when the size and luminance ratio of the target region 72 are varied. FIG. 10A illustrates a case where the size of the target region 72 is varied. B) shows a case where the luminance ratio is varied.
From the results shown in the figure, it can be seen that the evaluation point increases as the size of the target region 72 increases or the luminance ratio increases.

ユークリッド距離対比量Qについての重回帰係数α、及び、輝度についての重回帰係数βは、上記のマグニチュード推定法による評価結果に対して重回帰分析を行うことで導出される。
すなわちユークリッド距離対比量Qの重回帰係数αを導出する場合は、マグニチュード推定法において、t番目に被験者に与えた評価刺激をDQt、この評価刺激DQtに対する評価点の平均点をCQtとする。そして、色差目立ち評価部29と同様にして、u’画像及びv’画像をそれぞれ生成した後、Δu’v’色差画像を生成し、これをレベル9までWavelet分解して9枚の画像(細部画像)を得る。そして、細部画像の中心の画素の値(ユークリッド距離対比量)を説明変数とし、評価平均点CQtを被説明変数として重回帰分析を実行する。これにより、レベルごとに人間の知覚を反映したα1〜α9の9個の重回帰係数が得られる。これらレベルは、同一色差(もしくは同一ユークリッド距離Dもしくは同一画素値)が連続する範囲(サイズ)を示しており、該サイズ及びユークリッド距離対比量Qと目立ちとが上記重回帰係数αにより対応付けられると言える。
The multiple regression coefficient α for the Euclidean distance contrast amount Q and the multiple regression coefficient β for luminance are derived by performing multiple regression analysis on the evaluation results obtained by the magnitude estimation method.
That is, when deriving the multiple regression coefficient α of the Euclidean distance contrast amount Q, in the magnitude estimation method, the evaluation stimulus given to the subject at the t-th time is DQt, and the average score of the evaluation points for this evaluation stimulus DQt is CQt. Then, in the same manner as the color difference conspicuous evaluation unit 29, u ′ image and v ′ image are respectively generated, Δu′v ′ color difference image is generated, and this is wavelet decomposed to level 9 to obtain nine images (details). Image). Then, the multiple regression analysis is executed with the value of the pixel at the center of the detail image (Euclidean distance contrast amount) as the explanatory variable and the evaluation average point CQt as the explained variable. As a result, nine multiple regression coefficients α1 to α9 that reflect human perception for each level are obtained. These levels indicate a range (size) in which the same color difference (or the same Euclidean distance D or the same pixel value) continues, and the size and the Euclidean distance contrast amount Q are conspicuous with the multiple regression coefficient α. It can be said.

また、輝度の重回帰係数βを導出する場合は、輝度についてのマグニチュード推定法において、t番目に被験者に与えた評価刺激をDLt、この評価刺激DLtに対する評価点の平均点をCLtとする。ここで、ターゲット領域輝度/背景領域輝度が1.00以下となるような評価刺激DLtに対する評価平均点CLtについては負符号を加えた。評価平均点CLtに負符号を加えることで、ターゲット領域輝度/背景領域輝度が1.00以上となる刺激(正対比刺激)及びその対比(正対比)により生じる目立ち(正対比目立ち)と、ターゲット領域輝度/背景領域輝度が1.00以下となる刺激(逆対比刺激)及びその対比(逆対比)により生じる目立ち(逆対比目立ち)との違いが符号により表現される。   In the case of deriving the multiple regression coefficient β of luminance, in the magnitude estimation method for luminance, DLt is the evaluation stimulus given to the subject for the tth time, and CLt is the average score of evaluation points for this evaluation stimulus DLt. Here, a negative sign is added to the evaluation average point CLt for the evaluation stimulus DLt in which the target area luminance / background area luminance is 1.00 or less. By adding a negative sign to the evaluation average point CLt, the target area luminance / background area luminance is 1.00 or more, the stimulus (positive contrast stimulus) and the conspicuousness (positive contrast conspicuousness) caused by the contrast (positive contrast), the target The difference between the stimulus (reverse contrast stimulus) in which the region brightness / background region brightness is 1.00 or less and the conspicuousness (reverse contrast conspicuousness) caused by the contrast (reverse contrast conspicuousness) is expressed by a sign.

そして、輝度目立ち評価部30の対数輝度分布画像生成部45と同様にして、評価刺激DLtの対数輝度分布画像を生成し、また、Wavelet分解部47と同様にして、対数輝度分布画像をレベル9までWavelet分解し、計9枚の画像(細部画像)を得る。そして、細部画像の中心の画素の値(対数輝度対比量)を説明変数とし、評価平均点CLtを被説明変数として重回帰分析を実行する。これにより、各レベルについて、人間の知覚を反映したβ1〜β9までの9個の重回帰係数が得られる。なお、これらレベルは、上記のように、同一輝度が連続する範囲(サイズ)を示しており、該サイズ及び輝度対比量Lと目立ちとが上記重回帰係数βにより対応付けられると言える。   Then, a logarithmic luminance distribution image of the evaluation stimulus DLt is generated in the same manner as the logarithmic luminance distribution image generation unit 45 of the luminance conspicuous evaluation unit 30, and the logarithmic luminance distribution image is set to level 9 in the same manner as the Wavelet decomposition unit 47. Wavelet decomposition until a total of nine images (detailed images) are obtained. Then, the multiple regression analysis is executed with the value of the center pixel of the detail image (logarithmic luminance contrast amount) as the explanatory variable and the evaluation average point CLt as the explanatory variable. Thereby, for each level, nine multiple regression coefficients from β1 to β9 reflecting human perception are obtained. Note that these levels indicate a range (size) in which the same luminance continues as described above, and it can be said that the size, luminance contrast amount L, and conspicuousness are associated by the multiple regression coefficient β.

次いで、目立ち画像生成装置11による目立ち画像生成処理を説明する。
図12は、目立ち画像生成処理のフローチャートである。
目立ち画像生成装置11は、撮像画像データ5が入力されると(ステップS1)、色差についての目立ちと輝度についての目立ちとを、それぞれ個別に評価する。
すなわち、色差の目立ち評価においては、色差目立ち評価部29のu’画像生成部31及びv’画像生成部33のそれぞれが撮像画像データ5に基づいてu’画像及びv’画像を生成する(ステップS2、S3)。次に、第1Wavelet分解部35がu’画像及びv’画像のそれぞれを9レベルまでWavelet分解し(ステップS4、S5)、Δu’中間画像生成部36、及びΔv’中間画像生成部37が近似画像(バイアス)を除いてWavelet再合成し、それぞれΔu’中間画像、及びΔv’中間画像を生成する(ステップS6、S7)。次いで、Δu’v’色差画像生成部38は、Δu’中間画像、及びΔv’中間画像の各画素Δu’、Δv’と(1)式とに基づいて、各画素の色差をユークリッド距離Dで表示したΔu’v’色差画像81を生成する(ステップS8)。
Next, the conspicuous image generation processing by the conspicuous image generation device 11 will be described.
FIG. 12 is a flowchart of the conspicuous image generation process.
When the captured image data 5 is input (step S1), the conspicuous image generation device 11 individually evaluates conspicuous color difference and conspicuous luminance.
In other words, in the color difference conspicuous evaluation, each of the u ′ image generating unit 31 and the v ′ image generating unit 33 of the color difference conspicuous evaluating unit 29 generates a u ′ image and a v ′ image based on the captured image data 5 (steps). S2, S3). Next, the first Wavelet decomposition unit 35 Wavelet decomposes each of the u ′ image and the v ′ image to 9 levels (steps S4 and S5), and the Δu ′ intermediate image generation unit 36 and the Δv ′ intermediate image generation unit 37 approximate. The Wavelet is re-synthesized excluding the image (bias) to generate a Δu ′ intermediate image and a Δv ′ intermediate image, respectively (steps S6 and S7). Next, the Δu′v ′ color difference image generation unit 38 calculates the color difference of each pixel at the Euclidean distance D based on the Δu ′ intermediate image and each pixel Δu ′, Δv ′ of the Δv ′ intermediate image and the equation (1). The displayed Δu′v ′ color difference image 81 is generated (step S8).

次いで、第2Wavelet分解部39がΔu’v’色差画像81に対するWavelet解析により、9レベルのWavelet分解画像を生成する(ステップS9)。
第1Wavelet分解部35及び第2Wavelet分解部39によるWavelet分解には、例えばsymlet6などの略対称な形状の関数が直交系のWaveletとして用いられ、図5(A)に示すu’画像及びv’画像、図5(C)に示すΔu’v’色差画像81それぞれに対し、レベルを1つずつ上げながらレベルN(本実施形態ではN=9)までWavelet分解が行われる。
例えば第2Wavelet分解部39において、レベル1のWavelet分解では、図13に示すように、Δu’v’色差画像81が、LL(Lv1)(L:Low-pass components)、HL(Lv1)(H:High-pass components)、LH(Lv1)、HH(Lv1)の4つのサブバンド画像(細部画像)83LL、83HL、83LH、及び83HHに分解される。
LL(Lv1)のサブバンド画像83LLは、Δu’v’色差画像81におけるユークリッド距離Dの変化の低周波数成分を抽出したものであり、Δu’v’色差画像81の画像サイズを1/4倍に縮小したような粗い画像に相当する。
また、HL(Lv1)、LH(Lv1)、HH(Lv1)のサブバンド画像83HL、83LH、83HHは、それぞれΔu’v’色差画像81におけるユークリッド距離Dの変化のうち、垂直方向の高周波成分、水平方向の高周波成分、斜め方向の高周波成分を抽出したものである。これらのサブバンド画像83HL、83LH、83HHは、それぞれの画素の値が、Δu’v’色差画像81の各画素についての垂直方向、水平方向、及び斜め方向のレベル1におけるユークリッド距離対比量Q1を与えている。
さらに、例えば図14(A)に示すように、ドーナツ形状(但し半径<R)にユークリッド距離Dの画素が分布している場合には、該ドーナツ形状の中心の対象画素Oと、この対象画素Oから半径R離れた、ドーナツ形状の外側の周囲画素Pとの間には、ユークリッド距離Dの対比がないものの、対象画素Oから周囲画素Pを含む範囲にはドーナツ形状により対比が発生している。この場合でも、symlet6のような関数を用いたWavelet分解によれば、分解後のユークリッド距離対比量Qが単純にゼロにはならず、図14(B)に示すように、コンボリューションにより対象画素Oと周囲画素Pとのユークリッド距離対比量Qが算出されるため、あるレベルで相当量の対比が算出される。
ユークリッド距離D以外にも、例えば色度成分や輝度の信号値がドーナツ形状(但し半径<R)に分布している場合、symlet6のような関数を用いたWavelet分解によれば、あるレベルで相当量の対比が算出される。
Next, the second Wavelet decomposition unit 39 generates a 9-level Wavelet decomposition image by Wavelet analysis on the Δu′v ′ color difference image 81 (step S9).
In the Wavelet decomposition performed by the first Wavelet decomposition unit 35 and the second Wavelet decomposition unit 39, for example, a substantially symmetrical function such as symlet6 is used as an orthogonal Wavelet, and the u ′ image and the v ′ image shown in FIG. For each Δu′v ′ color difference image 81 shown in FIG. 5C, wavelet decomposition is performed up to level N (N = 9 in this embodiment) while increasing the level one by one.
For example, in the second wavelet decomposition unit 39, in the level 1 wavelet decomposition, as shown in FIG. 13, the Δu′v ′ color difference image 81 is converted into LL (Lv1) (L: Low-pass components), HL (Lv1) (H : High-pass components), LH (Lv1), and HH (Lv1) subband images (detailed images) 83LL, 83HL, 83LH, and 83HH.
The subband image 83LL of LL (Lv1) is obtained by extracting a low frequency component of the change in the Euclidean distance D in the Δu′v ′ color difference image 81, and the image size of the Δu′v ′ color difference image 81 is ¼ times. Corresponds to a coarse image that has been shrunk.
In addition, subband images 83HL, 83LH, and 83HH of HL (Lv1), LH (Lv1), and HH (Lv1) are high-frequency components in the vertical direction among changes in Euclidean distance D in Δu′v ′ color difference image 81, respectively. The high-frequency component in the horizontal direction and the high-frequency component in the oblique direction are extracted. In these subband images 83HL, 83LH, 83HH, the value of each pixel represents the Euclidean distance contrast amount Q1 at level 1 in the vertical, horizontal, and diagonal directions for each pixel of the Δu′v ′ color difference image 81. Giving.
Further, for example, as shown in FIG. 14A, when pixels of the Euclidean distance D are distributed in a donut shape (radius <R), the target pixel O at the center of the donut shape and the target pixel Although there is no contrast of the Euclidean distance D with the surrounding pixel P outside the donut shape, which is away from the radius R from O, the contrast occurs due to the donut shape in the range including the surrounding pixel P from the target pixel O. Yes. Even in this case, according to Wavelet decomposition using a function such as symlet6, the Euclidean distance contrast amount Q after decomposition does not simply become zero. As shown in FIG. Since the Euclidean distance contrast amount Q between O and the surrounding pixels P is calculated, a considerable amount of contrast is calculated at a certain level.
In addition to the Euclidean distance D, for example, when signal values of chromaticity components and luminance are distributed in a donut shape (where radius <R), according to Wavelet decomposition using a function such as symlet 6, it corresponds to a certain level. A quantity contrast is calculated.

次のレベル2のWavelet分解では、図13に示すように、LL(Lv1)のサブバンド画像83LLに関してWavelet分解が施され、LL(Lv2)、HL(Lv2)、LH(Lv2)、及びHH(Lv2)の4つのサブバンド画像83LL、83HL、83LH、及び83HHに分解される。
以降同様にして、レベル1からレベルを1つずつ上げながらレベルNに達するまで、次々とLL(Lvn(n=1〜N))のサブバンド画像83LLのみにWavelet分解が施され、これにより、各レベルについてサブバンド画像83LL、83HL、83LH、及び83HHが生成される。
In the next level 2 wavelet decomposition, as shown in FIG. 13, wavelet decomposition is performed on the subband image 83LL of LL (Lv1), and LL (Lv2), HL (Lv2), LH (Lv2), and HH ( Lv2) are subdivided into four subband images 83LL, 83HL, 83LH, and 83HH.
Thereafter, in the same manner, the Wavelet decomposition is performed on only the subband image 83LL of LL (Lvn (n = 1 to N)) one after another until the level N is reached while increasing the level one by one. Sub-band images 83LL, 83HL, 83LH, and 83HH are generated for each level.

このとき、LL(Lvn(n=1〜N))のサブバンド画像83LLに対してWavelet分解が繰り返されることで、Wavelet分解のたびに、Δu’v’色差画像81を順次1/4倍に縮小したような粗いサブバンド画像83LLが生成される。この結果、Wavelet分解のレベルが上がるほど、Waveletの関数に対して画像が相対的に大きくなることから、Δu’v’色差画像81の各画素については、レベルが上がるほど、より遠くの周囲画素Pとのユークリッド距離Dの対比が求められる。   At this time, by repeating Wavelet decomposition on the subband image 83LL of LL (Lvn (n = 1 to N)), the Δu′v ′ color difference image 81 is sequentially increased to 1/4 times each time Wavelet decomposition is performed. A coarse sub-band image 83LL that has been reduced is generated. As a result, the higher the level of Wavelet decomposition, the larger the image relative to the Wavelet function. For each pixel of the Δu′v ′ color difference image 81, the higher the level, the farther the surrounding pixels. A comparison of the Euclidean distance D with P is obtained.

前掲図12に戻り、ステップS9において、NレベルまでのWavelet分解が行われると、係数処理部40は、Δu’v’色差画像81の全画素について各レベルの水平方向、垂直方向、及び斜め方向のユークリッド距離対比量Qと、そのレベルに対応した重回帰係数αに基づいて、Δu’v’色差画像81の全画素について、各レベルのユークリッド距離対比量Qの中間生成値IQ1〜IQNを求める(ステップS10)。
例えば、レベル3のWavelet分解で得られたサブバンド画像83LL、83HL、83LH、及び83HHを対象とした場合、図15に示すように、LL(Lv3)のサブバンド画像83LLの全画素値を「0」とし、また、斜線で示したHL(Lv3)、LH(Lv3)及びHH(Lv3)の全画素に対し、それぞれレベル3に対応する重回帰係数α3が乗じられる。
そして、レベル3の各サブバンド画像83LL、83HL、83LH、及び83HHが、Wavelet分解に用いられた直交ウェーブレット(例えばsymlet6)によりWavelet合成される。
以降、原画像レベル(0レベル)まで1つずつレベルを下げながらWavelet合成が繰り返されるが、このとき、各レベルにおけるサブバンド画像83HL、83LH、及び83HHの全画素の値を「0」として合成が繰り返される。
この結果、Δu’v’色差画像81の全画素に、レベル3相当のユークリッド距離対比量Qについての中間生成値IQ3が格納されたレベル3相当の色差目立ち画像85が得られる。
これと同様にして、1〜Nレベルについて、各レベル相当の色差目立ち画像を生成し、それぞれのレベル相当の色差目立ち画像を合成することで(各目立ち画像の対応する画素の値を加算することで)、Δu’v’色差画像81の全画素に中間生成値IQが格納された色差目立ち画像85のデータが生成される(ステップS11)。
Returning to FIG. 12, when Wavelet decomposition up to the N level is performed in step S <b> 9, the coefficient processing unit 40 performs horizontal, vertical, and diagonal directions at each level for all pixels of the Δu′v ′ color difference image 81. The intermediate generation values IQ1 to IQN of the Euclidean distance contrast amount Q of each level are obtained for all the pixels of the Δu′v ′ color difference image 81 based on the Euclidean distance contrast amount Q and the multiple regression coefficient α corresponding to the level. (Step S10).
For example, when subband images 83LL, 83HL, 83LH, and 83HH obtained by wavelet decomposition at level 3 are targeted, as shown in FIG. 15, all pixel values of the subband image 83LL of LL (Lv3) are expressed as “ In addition, the multiple regression coefficients α3 corresponding to level 3 are respectively multiplied to all the pixels of HL (Lv3), LH (Lv3), and HH (Lv3) indicated by diagonal lines.
Then, the level 3 sub-band images 83LL, 83HL, 83LH, and 83HH are wavelet-combined by orthogonal wavelets (for example, symbolet6) used in the wavelet decomposition.
Thereafter, wavelet synthesis is repeated while decreasing the level one by one to the original image level (0 level). At this time, the values of all the pixels of the subband images 83HL, 83LH, and 83HH at each level are synthesized as “0”. Is repeated.
As a result, a color difference noticeable image 85 corresponding to level 3 in which the intermediate generation value IQ3 for the Euclidean distance contrast amount Q corresponding to level 3 is stored in all pixels of the Δu′v ′ color difference image 81 is obtained.
Similarly, color difference noticeable images corresponding to the respective levels are generated for levels 1 to N, and the color difference noticeable images corresponding to the respective levels are synthesized (adding values of corresponding pixels of the respective noticeable images). Thus, data of the color difference noticeable image 85 in which the intermediate generation value IQ is stored in all the pixels of the Δu′v ′ color difference image 81 is generated (step S11).

次いで輝度目立ち評価について説明すると、輝度目立ち評価部30の対数輝度分布画像生成部45が撮像画像データ5に基づいて対数輝度分布画像を生成する(ステップS12)。次いで、Wavelet分解部47が、色差目立ち評価部29の第2Wavelet分解部39と同様にして、対数輝度分布画像を、symlet6を用いてレベル9までWavelet分解し、各レベルでの輝度対比量Lを求める(ステップS13)。
次いで、係数処理部49が各レベルでのサブバンド画像83に、レベルに対応する重回帰係数β1〜β9を乗じることで中間生成値IL1〜IL9を求め、Wavelet合成部51が、これら各レベルのサブバンド画像83をWavelet合成して(ステップS14)、対数輝度分布画像の全画素に輝度目立ち予測値MLが格納された輝度目立ち画像を生成する(ステップS15)。
Next, the luminance noticeability evaluation will be described. The logarithmic brightness distribution image generation unit 45 of the brightness noticeability evaluation unit 30 generates a logarithmic brightness distribution image based on the captured image data 5 (step S12). Next, the Wavelet decomposition unit 47 performs Wavelet decomposition of the logarithmic luminance distribution image to level 9 using the symbol 6 in the same manner as the second Wavelet decomposition unit 39 of the color difference conspicuous evaluation unit 29, and calculates the luminance contrast amount L at each level. Obtained (step S13).
Next, the coefficient processing unit 49 multiplies the sub-band image 83 at each level by the multiple regression coefficients β1 to β9 corresponding to the level to obtain intermediate generation values IL1 to IL9, and the Wavelet synthesis unit 51 selects each level. The subband image 83 is wavelet synthesized (step S14), and a luminance noticeable image in which the luminance noticeable prediction value ML is stored in all the pixels of the logarithmic luminance distribution image is generated (step S15).

次いで、画像化部25の輝度目立ち予測値符号変換部65により、輝度目立ち画像において、負符号の輝度目立ち予測値MLを全て正にした輝度目立ち画像を生成し(ステップS16)、また、符号変換前の輝度目立ち画像の各画素の正負符号を示した輝度目立ち画像の符号マトリクスを生成する(ステップS17)
その後、色差・輝度目立ち合成部67により、符号変換された輝度目立ち予測値MLと色差目立ち予測値MQとを加算して目立ち値Uを算出し、多段階評価値変換部69により、目立ち値Uを13段階評価値に変換して目立ち画像を生成する(ステップS18)。次いで、輝度の正対比と逆対比による目立ちの違いを明示すべく、評価値符号変換部71がステップS17において生成した符号マトリクスを目立ち画像に積算し、輝度目立ち予測値MLが負符号だった画素の13段階評価値に負符号を加える(ステップS19)。これにより、撮像画像の全画素に、「+13」から「−13」までの多段階評価値が格納された目立ち画像生成され、係る目立ち画像のデータが画像出力部27から出力される(ステップS20)。この目立ち画像においては、評価値ごとに擬似カラーに色分けされる。これにより、撮像画像に写した評価対象の目立ちを定量的に把握することが可能となる。
Next, the luminance conspicuous prediction value code conversion unit 65 of the imaging unit 25 generates a luminance conspicuous image in which the luminance conspicuous prediction values ML of the negative signs are all positive in the luminance conspicuous image (step S16). A code matrix of the luminance conspicuous image indicating the sign of each pixel of the previous luminance conspicuous image is generated (step S17).
Thereafter, the color difference / luminance conspicuous composition unit 67 adds the sign-converted luminance conspicuous prediction value ML and the color difference conspicuous prediction value MQ to calculate the conspicuous value U, and the multistage evaluation value conversion unit 69 calculates the conspicuous value U. Is converted into a 13-step evaluation value to generate a conspicuous image (step S18). Next, in order to clearly show the difference between the luminance contrast and the contrast, the evaluation value code conversion unit 71 adds the code matrix generated in step S17 to the image, and the pixel whose luminance conspicuous predicted value ML is a negative sign. A negative sign is added to the 13-stage evaluation value (step S19). As a result, a conspicuous image in which multi-stage evaluation values from “+13” to “−13” are stored in all pixels of the captured image is generated, and data of the conspicuous image is output from the image output unit 27 (step S20). ). In this conspicuous image, each evaluation value is color-coded into a pseudo color. Thereby, it becomes possible to quantitatively grasp the conspicuousness of the evaluation object captured in the captured image.

図16は、一色の背景91に円板92を配置した光環境3を撮影した撮像画像データ5を模したサンプル図であり、円板92のサイズ、及び色度を可変して示すとともに、各撮像画像データ5の輝度分布を示す図である。また、図17は、各撮像画像データ5の目立ちを評価した目立ち画像のサンプル図である。
これらの図において、円板92が上記評価対象の対象画素Oに相当し、背景91が周囲画素Pに相当する。これらの図に示すように、円板92と背景91の色差が一定の場合には、円板92のサイズが大きくなるほど円板92が目立つと評価され、また円板92のサイズが同じ場合には、円板92と背景91の色差が大きくなるほど目立つと評価されることが分る。すなわち、この目立ち評価によれば、評価対象の円板92と背景91の色差と、円板92のサイズとの両方を加味した目立ちが統合的に評価されていることが分る。
FIG. 16 is a sample diagram simulating the captured image data 5 obtained by photographing the light environment 3 in which the disk 92 is arranged on the background 91 of one color, and shows the size and chromaticity of the disk 92 variably. It is a figure which shows the luminance distribution of the captured image data. FIG. 17 is a sample diagram of conspicuous images in which the conspicuousness of each captured image data 5 is evaluated.
In these drawings, the disk 92 corresponds to the target pixel O to be evaluated, and the background 91 corresponds to the surrounding pixel P. As shown in these figures, when the color difference between the disc 92 and the background 91 is constant, it is evaluated that the disc 92 is more conspicuous as the size of the disc 92 increases, and when the size of the disc 92 is the same. It can be seen that the higher the color difference between the disk 92 and the background 91, the more it is evaluated to stand out. That is, according to this conspicuous evaluation, it is understood that the conspicuousness considering both the color difference between the disc 92 and the background 91 to be evaluated and the size of the disc 92 is evaluated in an integrated manner.

以上説明したように本実施形態によれば、評価対象を撮像した撮像画像に対し、評価対象と周囲の色差が無い場合に目立ちが無いと評価し、評価対象と周囲の色差対比量たるユークリッド距離対比量Qが大の場合に、その大きさの度合いに応じて評価対象の目立ちを高く評価し、この評価に基づいて、撮像画像から色差目立ち画像85を生成する構成とした。
この構成により、評価対象と周囲との色の対比に基づいた目立ちを、色差目立ち画像85から定量的に評価することができる。
As described above, according to the present embodiment, when there is no color difference between the evaluation target and the surroundings, the Euclidean distance that is the contrast amount between the evaluation target and the surroundings is evaluated with respect to the captured image obtained by capturing the evaluation target. When the contrast amount Q is large, the evaluation object is highly evaluated for its conspicuousness according to the degree of its size, and based on this evaluation, a color difference conspicuous image 85 is generated from the captured image.
With this configuration, the conspicuousness based on the color contrast between the evaluation object and the surroundings can be quantitatively evaluated from the color difference conspicuous image 85.

特に本実施形態によれば、評価対象及び周囲の色差を、Wavelet解析によりu’v’色度図上での座標成分ごとの対比量を求め、座標間のユークリッド距離Dとして算出した後、Wavelet解析により色差対比量を示すユークリッド距離対比量Qを求め、当該ユークリッド距離対比量Qに基づいて目立ちを評価する構成とした。
この構成により、撮像画像データ5を色度成分ごとのu’画像及びv’画像に分け、それぞれについてWavelet解析により目立ちを評価する場合に比べ、色の目立ちを説明する説明変数及び重回帰係数αの数を減らすことができるため、説明変数1つあたりの信頼性を高めることができる。また、u’画像、及びv’画像の負の値を含む細部画像を正の値に変換する必要がない。このため、Wavelet合成による元の画像の復元性を損なうことは無く、撮像画像データ5に含まれる評価対象の色の目立ちを正確に評価できる。
In particular, according to the present embodiment, the color difference between the object to be evaluated and the surrounding color is calculated as a Euclidean distance D between coordinates after obtaining a contrast amount for each coordinate component on the u′v ′ chromaticity diagram by wavelet analysis, and then wavelet. The Euclidean distance contrast amount Q indicating the color difference contrast amount is obtained by analysis, and the conspicuousness is evaluated based on the Euclidean distance contrast amount Q.
With this configuration, the captured image data 5 is divided into u ′ images and v ′ images for each chromaticity component, and compared with the case where the conspicuousness is evaluated by wavelet analysis for each, explanatory variables and multiple regression coefficients α that explain the conspicuousness of the color Therefore, the reliability per explanatory variable can be increased. Further, it is not necessary to convert a detail image including a negative value of the u ′ image and the v ′ image into a positive value. For this reason, the restoration property of the original image by Wavelet synthesis is not impaired, and the conspicuousness of the color to be evaluated included in the captured image data 5 can be accurately evaluated.

また本実施形態によれば、評価対象を撮像した撮像画像に対し、評価対象と周囲の輝度が等しい場合に目立ちが無いと評価し、評価対象と周囲の輝度対比が大の場合に、その大きさの度合いに応じて評価対象の目立ちを高く評価し、色差の目立ちと輝度の目立ちの評価結果に基づいて、撮像画像の色度及び輝度の目立ちの分布を示す目立ち画像を生成した。これにより、色度及び輝度のそれぞれの違いによる目立ちを定量的に評価することができる。
特に、従来技術においては、評価対象を輝度により評価する際、その明るさによって目立ちを評価しているため、評価対象が暗いほど目立たないと評価される。しかし実際には、評価対象の周囲が明るい場合、評価対象が暗いほど逆対比により目立っており、このように従来技術では実際とは異なる評価結果がでてしまうことがある。また、評価対象が明るい場合でも、周囲が同等に明るい場合には、評価対象は目立たなくなるものの、従来技術では目立つという評価結果がでてしまう。このような従来技術に対して本実施形態によれば、周囲との輝度対比により輝度の目立ちが評価されるため、評価対象の目立ちを正確に評価することができる。
Further, according to the present embodiment, when the evaluation target and the surrounding luminance are equal to the captured image obtained by capturing the evaluation target, the evaluation is not noticeable. The conspicuousness of the evaluation object was highly evaluated according to the degree of the degree, and based on the evaluation results of the conspicuousness of the color difference and the conspicuousness of the brightness, a conspicuous image showing the distribution of the conspicuousness of the chromaticity and the brightness of the captured image was generated. Thereby, the conspicuousness due to the difference in chromaticity and luminance can be quantitatively evaluated.
In particular, in the prior art, when evaluating an evaluation object based on luminance, the conspicuousness is evaluated based on the brightness. Therefore, the darker the evaluation object is, the less conspicuous it is. However, in reality, when the periphery of the evaluation target is bright, the darker the evaluation target, the more conspicuous the contrast becomes. Thus, in the conventional technique, an evaluation result different from the actual result may be obtained. Further, even when the evaluation target is bright, if the surroundings are equally bright, the evaluation target becomes inconspicuous, but an evaluation result that is conspicuous in the conventional technique is obtained. According to this embodiment with respect to such a conventional technique, the conspicuousness of the brightness is evaluated based on the brightness contrast with the surroundings, so that the conspicuousness of the evaluation target can be accurately evaluated.

また、本実施形態では、輝度の逆対比による目立ちを負符号で示し、輝度の正対比による目立ちを正符号で示すことで、これらを分けて目立ち画像に画像化している。これにより、評価対象が正対比及び逆対比のいずれによって目立っているのかを判別することができる。   Further, in the present embodiment, the conspicuousness due to the inverse contrast of luminance is indicated by a negative sign, and the conspicuousness due to the direct contrast of luminance is indicated by a positive sign, so that these are separately imaged into conspicuous images. Thereby, it can be discriminated whether the evaluation object is conspicuous by the direct contrast or the reverse contrast.

なお、上述した各実施形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。   The above-described embodiments merely show one aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.

例えば、上述した実施形態では、評価対象の色と周囲の色との色差にu’v’色度図上のユークリッド距離Dを用いる構成としたが、例えばuv色度図等の他の均等色度図を用いても良い。
さらに、均等色度図に代えて、均等色空間での座標を用いても良い。
詳述すると、通常、光環境3の輝度分布は複雑であり、評価対象と周囲の輝度が同じでない場合が多々あるが、このu’v’色度図は、輝度が異なる色の比較については、考慮されていない。すなわち、色度図上の2点間の距離が知覚的な色の差に等しいことが保証されていない。
そこで、輝度が異なる色の比較においても、その色空間の2点間の距離が知覚的な色の差に等しいように設計された均等色空間での座標をu’v’色度図に代えて用いる構成とし、色の目立ちを正確に表示し、目立ち評価の精度を高めるようにしても良い。
For example, in the above-described embodiment, the Euclidean distance D on the u′v ′ chromaticity diagram is used for the color difference between the color to be evaluated and the surrounding color. However, other equivalent colors such as the uv chromaticity diagram are used. A degree diagram may be used.
Further, coordinates in a uniform color space may be used instead of the uniform chromaticity diagram.
More specifically, the luminance distribution of the light environment 3 is usually complicated, and there are many cases where the luminance to be evaluated and the surrounding luminance are not the same, but this u'v 'chromaticity diagram shows the comparison of colors with different luminance. Not considered. That is, it is not guaranteed that the distance between two points on the chromaticity diagram is equal to the perceptual color difference.
Therefore, in the comparison of colors having different luminances, the coordinates in the uniform color space designed so that the distance between the two points in the color space is equal to the perceptual color difference are replaced with the u′v ′ chromaticity diagram. It is also possible to display the color conspicuously and improve the conspicuousness evaluation accuracy.

図18は、均等色空間としてL***表色系(JIS Z8729)を用いたときの目立ち画像生成処理のフローチャートである。均等色空間としてL***表色系を用いた場合、色度座標(u’、v’)を知覚色度指数a*、b*とし、また、輝度Lを知覚明度指数L*として処理が行われる。
すなわち、図18に示すように、撮像画像データ101が入力された後(ステップS101)、色差の目立ち評価においては、色差目立ち評価部29は、a*画像及びb*画像を生成し(ステップS102、S103)、それぞれを9レベルまでWavelet分解した後(ステップS104、S105)、近似画像(バイアス)を除いてWavelet再合成することでΔa*中間画像、及びΔb*中間画像を生成する(ステップS106、S107)。次いで、色差目立ち評価部29は、Δa*中間画像、及びΔb*中間画像の各画素の値Δa*、Δb*に基づいて、対象画素Oと周囲画素PとのL***表色系での色差をユークリッド距離Dで表示したΔa**色差画像を生成する(ステップS108)。
FIG. 18 is a flowchart of conspicuous image generation processing when the L * a * b * color system (JIS Z8729) is used as the uniform color space. When the L * a * b * color system is used as the uniform color space, the chromaticity coordinates (u ′, v ′) are the perceptual chromaticity indices a * and b *, and the luminance L is the perceptual lightness index L *. As follows.
That is, as shown in FIG. 18, after the captured image data 101 is input (step S101), in the color difference conspicuous evaluation, the color difference conspicuous evaluation unit 29 generates an a * image and a b * image (step S102). , S103), wavelet decomposed to 9 levels (steps S104, S105), and remove the approximate image (bias) and re-synthesize the wavelet to generate Δa * intermediate image and Δb * intermediate image (step S106). , S107). Next, the color difference conspicuous evaluation unit 29 determines the L * a * b * color of the target pixel O and the surrounding pixels P based on the values Δa * and Δb * of each pixel of the Δa * intermediate image and Δb * intermediate image. A Δa * b * color difference image in which the color difference in the system is displayed with the Euclidean distance D is generated (step S108).

そして、このΔa**色差画像に基づいて、色の目立ちを評価すべく、色差目立ち評価部29は、Δa**色差画像に対するWavelet解析により、9レベルのWavelet分解画像を生成し(ステップS109)、Δa**色差画像の全画素について各レベルの水平方向、垂直方向、及び斜め方向のユークリッド距離対比量Qと、そのレベルに対応した重回帰係数に基づいて、各レベルのユークリッド距離対比量Qの中間生成値IQ1〜IQNを求める(ステップS110)。
そして、色差目立ち評価部29は、それぞれのレベルの画像を合成することで(各目立ち画像の対応する画素の値を加算することで)、Δa**色差画像の全画素に中間生成値IQが格納された色目立ち画像のデータを生成する(ステップS111)。
Then, in order to evaluate the color conspicuousness based on the Δa * b * color difference image, the color difference conspicuous evaluation unit 29 generates a 9-level Wavelet decomposition image by wavelet analysis on the Δa * b * color difference image (step S109), the Euclidean distance of each level based on the Euclidean distance contrast amount Q in the horizontal, vertical and diagonal directions of each level and the multiple regression coefficient corresponding to that level for all pixels of the Δa * b * color difference image. Intermediate generation values IQ1 to IQN of the contrast amount Q are obtained (step S110).
Then, the color difference conspicuous evaluation unit 29 synthesizes the images of the respective levels (by adding the values of the corresponding pixels of each conspicuous image), thereby generating an intermediate generation value IQ for all the pixels of the Δa * b * color difference image. Is generated (step S111).

一方、輝度目立ち評価部30は、撮像画像データ5に基づいて明度L*画像を生成し(ステップS112)、上記ステップS105、S106と同様にして、9レベルまでWavelet分解した後(ステップS113)、近似画像(バイアス)を除いてWavelet再合成することでΔL*中間画像を生成する(ステップS114)。なお、これらステップS113、S114の処理は省略することもできる。
次いで、輝度目立ち評価部30は、ΔL*中間画像を、symlet6を用いてレベル9までWavelet分解し、各レベルでの輝度対比量に相当する明度対比量を求め(ステップS115)、各レベルでのサブバンド画像83に、レベルに対応する重回帰係数を乗じることで中間生成値IL1〜IL9を求めた後、これら各レベルのサブバンド画像83をWavelet合成して(ステップS116)、明度L*画像の全画素に明度目立ち予測値が格納された明度目立ち画像を生成する(ステップS117)。
On the other hand, the luminance conspicuous evaluation unit 30 generates a lightness L * image based on the captured image data 5 (step S112), and after performing Wavelet decomposition to 9 levels in the same manner as in steps S105 and S106 (step S113), A ΔL * intermediate image is generated by re-synthesis of Wavelet, excluding the approximate image (bias) (step S114). Note that the processing in these steps S113 and S114 can be omitted.
Next, the luminance conspicuous evaluation unit 30 wavelet decomposes ΔL * intermediate image to level 9 using symlet 6 to obtain a brightness contrast amount corresponding to the luminance contrast amount at each level (step S115). After the intermediate generation values IL1 to IL9 are obtained by multiplying the subband image 83 by the multiple regression coefficients corresponding to the levels, the subband images 83 of these levels are wavelet synthesized (step S116), and the lightness L * image A lightness conspicuous image in which lightness conspicuous predicted values are stored in all the pixels is generated (step S117).

そして、画像化部25が、明度目立ち画像において、負符号の明度目立ち予測値を全て正にした明度目立ち画像を生成し(ステップS117)、また、符号変換前の明度目立ち画像の各画素の正負符号を示した符号マトリクスを生成する(ステップS118)
その後、画像化部25は、符号変換された明度目立ち予測値と色差目立ち予測値とを単純に加算して目立ち値を算出し、この目立ち値を13段階評価値に変換して目立ち画像を生成する(ステップS119)。次いで、画像化部25は、明度の正対比と逆対比による目立ちの違いを明示すべく、ステップS118において生成した符号マトリクスを目立ち画像に積算し、明度目立ち予測値が負符号だった画素の13段階評価値に負符号を加える(ステップS120)。これにより、撮像画像の全画素に、「+13」から「−13」までの多段階評価値が格納された目立ち画像生成され、係る目立ち画像のデータが画像出力部27から出力される(ステップS121)。
Then, the imaging unit 25 generates a lightness noticeable image in which all of the lightness noticeable prediction values of the negative signs are positive in the lightness noticeable image (step S117), and the sign of each pixel of the lightness noticeable image before code conversion is also determined. A code matrix indicating the code is generated (step S118).
Thereafter, the imaging unit 25 simply adds the sign-converted lightness conspicuous predicted value and the color difference conspicuous predicted value to calculate a conspicuous value, and converts this conspicuous value into a 13-level evaluation value to generate a conspicuous image (Step S119). Next, the imaging unit 25 adds the code matrix generated in step S118 to the conspicuous image to clarify the difference in conspicuity due to the positive contrast and reverse contrast of the lightness, and 13 of the pixels whose lightness conspicuous predicted value is a negative sign. A negative sign is added to the stage evaluation value (step S120). As a result, a conspicuous image is generated in which multistage evaluation values from “+13” to “−13” are stored in all pixels of the captured image, and data of the conspicuous image is output from the image output unit 27 (step S121). ).

なお、この図18に示す目立ち画像処理において、L***色空間を用いた場合、色度と明度を分ける必要はなく、知覚色度指数a*、b*に、知覚明度指数L*を加えた3つを変数としたユークリッド距離Dを算出して色差画像を生成しても良い。
図19は、かかる目立ち画像処理のフローチャートである。なお、この図において、図18と同一の処理については同じ符号を付して、その説明を省略する。
この図に示すように、ステップS208において、色差目立ち評価部29は、Δa*中間画像、Δb*中間画像、並びに、ΔL*明度差画像の各画素の値Δa*、Δb*、ΔL*に基づいて、対象画素Oと周囲画素PとのL***色空間での色差をユークリッド距離Dで表示したΔE*ab色差画像を生成し(ステップS208)、このΔE*ab色差画像に基づいてWavelet解析を用いて色の目立ちを評価する。
このΔE*ab色差画像に基づいて生成された色目立ち画像には、既に明度の目立ちが反映されているため、正の値のみの明度目立ち画像(図18のステップS118)、単純加算で正の値のみの目立ち画像生成(図18のステップS120)は、それぞれ不要となる。
In the conspicuous image processing shown in FIG. 18, when the L * a * b * color space is used, it is not necessary to separate the chromaticity and the lightness, and the perceptual lightness index L * is included in the perceptual chromaticity indices a * and b *. A color difference image may be generated by calculating the Euclidean distance D using three variables including * as variables.
FIG. 19 is a flowchart of such conspicuous image processing. In this figure, the same processes as those in FIG. 18 are denoted by the same reference numerals and description thereof is omitted.
As shown in this figure, in step S208, the color difference conspicuous evaluation unit 29 is based on Δa * intermediate image, Δb * intermediate image, and values Δa * , Δb * , ΔL * of each pixel of the ΔL * brightness difference image. Then, a ΔE * ab color difference image in which the color difference in the L * a * b * color space between the target pixel O and the surrounding pixel P is displayed with the Euclidean distance D is generated (step S208), and based on this ΔE * ab color difference image Then, color noticeability is evaluated using Wavelet analysis.
Since the conspicuousness of brightness is already reflected in the color conspicuous image generated based on this ΔE * ab color difference image, the lightness conspicuous image of only positive values (step S118 in FIG. 18), and positive by simple addition. The conspicuous image generation of only the values (step S120 in FIG. 18) is not necessary.

なお、均等色空間としてL***表色系を例示したが、例えばL***表色系等の均等色空間に分類される他の表色系を用いても良いことは勿論である。 Although the L * a * b * color system is illustrated as the uniform color space, other color systems classified into the uniform color space such as the L * u * v * color system may be used. Of course.

また、均等色空間の座標に基づいて、鮮やかさを示す彩度、色合いを示す色相、及び明るさを示す明度を算出し、これらのユークリッド距離を色差として目立ちを評価しても良い。
図20は、かかる目立ち画像処理のフローチャートである。なお、この図において、図18、図19と同一の処理については同じ符号を付して、その説明を省略する。
この図に示すように、撮像画像データが入力されると、色差目立ち評価部29は、均等色空間の座標に基づいて、C*彩度画像及びH*色相画像を生成し(ステップS302、S303)、それぞれをWavelet分解し(ステップS304、S305)、近似画像(バイアス)を除いてWavelet再合成することでΔC*彩度差画像、及びΔH*色相差画像を生成する(ステップS306、S307)。
そして、これらΔC*彩度差画像、ΔH*色相差画像、並びにΔL*明度差画像の各画素の値ΔC*、ΔH*、ΔL*に基づいて、均等色空間から求められた彩度、色相及び明度の3次元空間での色差をユークリッド距離Dで表示したΔE*色差画像を生成し(ステップS308)、このΔE*色差画像に基づいてWavelet解析を用いて色の目立ちを評価することとなる。
Further, based on the coordinates of the uniform color space, saturation indicating vividness, hue indicating hue, and brightness indicating brightness may be calculated, and the conspicuity may be evaluated using these Euclidean distances as color differences.
FIG. 20 is a flowchart of such conspicuous image processing. In this figure, the same processes as those in FIGS. 18 and 19 are denoted by the same reference numerals, and the description thereof is omitted.
As shown in this figure, when captured image data is input, the color difference conspicuous evaluation unit 29 generates a C * saturation image and an H * hue image based on the coordinates of the uniform color space (steps S302 and S303). ), Wavelet decomposition is performed (steps S304 and S305), and the wavelet is re-synthesized by removing the approximate image (bias) to generate a ΔC * saturation difference image and a ΔH * hue difference image (steps S306 and S307). .
Then, based on the values ΔC * , ΔH * , ΔL * of each pixel of the ΔC * saturation difference image, ΔH * hue difference image, and ΔL * brightness difference image, the saturation and hue obtained from the uniform color space. Then, a ΔE * color difference image in which the color difference in the three-dimensional space of brightness is displayed with the Euclidean distance D is generated (step S308), and color conspicuity is evaluated using Wavelet analysis based on this ΔE * color difference image. .

上述した実施形態では、ウェーブレット変換を用いて、対数輝度分布画像の各画素について輝度対比量Lを求める場合を例示したが、これに限らず、例えば、対数輝度分布画像に対する大きさ(フィルターの適用範囲(画素数))を各レベルに応じて異ならせた複数のNフィルターを用いてもレベルごとの輝度対比量Lを求めることができる。   In the above-described embodiment, the case where the luminance contrast amount L is obtained for each pixel of the logarithmic luminance distribution image using the wavelet transform has been exemplified. However, the present invention is not limited to this. Even if a plurality of N filters having different ranges (number of pixels) according to each level are used, the luminance contrast amount L for each level can be obtained.

また本発明の目立ち評価システム1の応用例としては、広告や看板、道路交通標識、視線誘導灯などの周囲に対して目立たせる事が望まれる対象物が、その設置環境で目立っているかを評価する事が可能になる。
他にも、例えば、液晶ディスプレイの色むらを利用者から見たときの目立ちを評価することで、利用者が許容できる液晶ディスプレイの色むらの判定に利用でき、過度の品質を防ぐことも可能である。
As an application example of the conspicuous evaluation system 1 of the present invention, it is evaluated whether an object that is desired to be conspicuous with respect to surroundings such as advertisements, signs, road traffic signs, and gaze guidance lights is conspicuous in the installation environment. It becomes possible to do.
In addition, for example, by evaluating the conspicuousness of liquid crystal display when viewed from the user, it can be used to determine the color unevenness of the liquid crystal display acceptable to the user, and it is possible to prevent excessive quality It is.

上述した目立ち画像生成プログラム15を、例えばCDやDVDなどのコンピューター読み取り可能な記録媒体に記録して実施しても良く、また、インターネットなどの電気通信回線を介して配布するなどの実施をすることも可能である。   The above-mentioned conspicuous image generation program 15 may be recorded on a computer-readable recording medium such as a CD or DVD, and may be distributed via an electric communication line such as the Internet. Is also possible.

1 評価システム
3 光環境
5 撮像画像データ
9 目立ち画像データ
11 目立ち画像生成装置
15 目立ち画像生成プログラム
23 目立ち評価部
25 画像化部
29 色差目立ち評価部
30 輝度目立ち評価部
35 第1Wavelet分解部
38 Δu’v’色差画像生成部
39 第2Wavelet分解部
40、49 係数処理部
47 Wavelet分解部
43 加算部
67 色差・輝度目立ち合成部
69 目立ち画像生成部
81 Δu’v’色差画像
83 サブバンド画像
85 目立ち画像
L 輝度対比量
Q ユークリッド距離対比量(色差対比量)
P 周囲画素
U 目立ち値
ML 輝度目立ち予測値
MQ 色差目立ち予測値
α、β 重回帰係数
DESCRIPTION OF SYMBOLS 1 Evaluation system 3 Light environment 5 Captured image data 9 Conspicuous image data 11 Conspicuous image generation apparatus 15 Conspicuous image generation program 23 Conspicuous evaluation part 25 Imaging part 29 Color difference conspicuous evaluation part 30 Luminance conspicuous evaluation part 35 1st Wavelet decomposition part 38 (DELTA) u ' v ′ color difference image generation unit 39 second wavelet decomposition unit 40, 49 coefficient processing unit 47 wavelet decomposition unit 43 addition unit 67 color difference / luminance conspicuous synthesis unit 69 conspicuous image generation unit 81 Δu′v ′ color difference image 83 subband image 85 conspicuous image L Luminance contrast amount Q Euclidean distance contrast amount (color difference contrast amount)
P Surrounding pixels U Conspicuous value ML Luminance conspicuous predicted value MQ Color difference conspicuous predicted value α, β Multiple regression coefficient

Claims (4)

評価対象を撮像した撮像画像の各画素の値を、座標間の2点間のユークリッド距離が知覚的な色差に対応するように設計された均等色度図、或いは均等色空間の座標に変換し、前記評価対象の座標と周囲の座標ユークリッド距離に基づく色差が無い場合に目立ちが無いと評価し、前記評価対象の座標と前記周囲の座標ユークリッド距離に基づく色差対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価する色差目立ち評価部と、
前記色差目立ち評価部の評価結果に基づいて、前記撮像画像の色差による目立ちの分布を示す目立ち画像を生成する画像化部と
を備えることを特徴とする目立ち画像生成装置。
Converts the value of each pixel of the captured image obtained by imaging the evaluation target into a uniform chromaticity diagram designed so that the Euclidean distance between two points corresponds to a perceptual color difference, or coordinates in a uniform color space , it was evaluated that there is no noticeable when the color difference based on the Euclidean distance of the evaluated coordinates and surrounding coordinate is not, the coordinates and color differences contrast amount based on the Euclidean distance of the periphery of the coordinates of the object of evaluation in the case of a large A color difference conspicuity evaluation unit that highly evaluates the conspicuity of the evaluation object according to the degree of the size;
A conspicuous image generating apparatus comprising: an imaging unit that generates a conspicuous image indicating a conspicuous distribution due to the color difference of the captured image based on an evaluation result of the color difference conspicuous evaluation unit.
前記色差目立ち評価部は、
前記評価対象及び前記周囲の色差を、Wavelet解析により均等色度図或いは均等色空間の前記座標の座標成分ごとの対比量を求めて座標間のユークリッド距離として算出した後、Wavelet解析により前記色差対比量を示すークリッド距離対比量を求め、当該ユークリッド距離対比量に基づいて目立ちを評価する
ことを特徴とする請求項1に記載の目立ち画像生成装置。
The color difference conspicuous evaluation unit is
After the color difference of the evaluation object and the surroundings, was calculated as the Euclidean distance between equal chromaticity diagram, or seeking contrast amount of each coordinate component of the coordinate of the uniform color space coordinates by Wavelet analysis, the color difference by Wavelet Analysis seeking Euclidean distance contrast amount indicating the contrast amount, the image generating apparatus conspicuous according to claim 1, characterized in that to evaluate the conspicuous based on the Euclidean distance contrast amount.
前記評価対象を撮像した撮像画像に対し、前記評価対象と周囲の輝度が等しい場合に目立ちが無いと評価し、前記評価対象と前記周囲の輝度対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価する輝度目立ち評価部を備え、
前記画像化部は、
前記色差目立ち評価部と前記輝度目立ち評価部の評価結果に基づいて、前記撮像画像の色差及び輝度の目立ちの分布を示す目立ち画像を生成する
ことを特徴とする請求項1又は2に記載の目立ち画像生成装置。
When the evaluation object and the surrounding luminance are equal to the captured image obtained by imaging the evaluation object, the evaluation is not noticeable, and the degree of size when the evaluation object and the surrounding luminance contrast amount are large And a brightness conspicuous evaluation unit that highly evaluates the conspicuousness of the evaluation object according to
The imaging unit
The conspicuous image according to claim 1 or 2, wherein a conspicuous image showing a distribution of conspicuous color difference and luminance of the captured image is generated based on the evaluation results of the color difference conspicuous evaluation unit and the luminance conspicuous evaluation unit. Image generation device.
コンピューターを、
評価対象を撮像した撮像画像の各画素の値を、座標間の2点間のユークリッド距離が知覚的な色差に対応するように設計された均等色度図、或いは均等色空間の座標に変換し、前記評価対象の座標と周囲の座標ユークリッド距離に基づく色差が無い場合に目立ちが無いと評価し、前記評価対象の座標と前記周囲の座標ユークリッド距離に基づく色差対比量が大の場合に、その大きさの度合いに応じて前記評価対象の目立ちを高く評価する手段、及び、
前記色差目立ち評価部の評価結果に基づいて、前記撮像画像の色差による目立ちの分布を示す目立ち画像を生成する手段
として機能させることを特徴とする目立ち画像生成プログラム。
Computer
Converts the value of each pixel of the captured image obtained by imaging the evaluation target into a uniform chromaticity diagram designed so that the Euclidean distance between two points corresponds to a perceptual color difference, or coordinates in a uniform color space , it was evaluated that there is no noticeable when the color difference based on the Euclidean distance of the evaluated coordinates and surrounding coordinate is not, the coordinates and color differences contrast amount based on the Euclidean distance of the periphery of the coordinates of the object of evaluation in the case of a large A means for highly evaluating the conspicuousness of the evaluation object according to the degree of the size, and
A conspicuous image generation program that functions as means for generating a conspicuous image indicating a conspicuous distribution due to color difference of the captured image based on an evaluation result of the color difference conspicuous evaluation unit.
JP2010199207A 2010-09-06 2010-09-06 Conspicuous image generating apparatus and conspicuous image generating program Expired - Fee Related JP5598185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010199207A JP5598185B2 (en) 2010-09-06 2010-09-06 Conspicuous image generating apparatus and conspicuous image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199207A JP5598185B2 (en) 2010-09-06 2010-09-06 Conspicuous image generating apparatus and conspicuous image generating program

Publications (2)

Publication Number Publication Date
JP2012058849A JP2012058849A (en) 2012-03-22
JP5598185B2 true JP5598185B2 (en) 2014-10-01

Family

ID=46055916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199207A Expired - Fee Related JP5598185B2 (en) 2010-09-06 2010-09-06 Conspicuous image generating apparatus and conspicuous image generating program

Country Status (1)

Country Link
JP (1) JP5598185B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6409336B2 (en) * 2013-06-18 2018-10-24 岩崎電気株式会社 Lighting device and lighting system
JP7507554B2 (en) * 2019-11-20 2024-06-28 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3972914B2 (en) * 2004-03-29 2007-09-05 富士ゼロックス株式会社 Image impression evaluation apparatus, image impression evaluation method, and image impression evaluation program
JP4972004B2 (en) * 2008-01-30 2012-07-11 国立大学法人東京工業大学 Image conversion method and program
JP5095501B2 (en) * 2008-05-27 2012-12-12 富士フイルム株式会社 Attention degree calculating device, method, and program
JP5083053B2 (en) * 2008-06-09 2012-11-28 岩崎電気株式会社 Conspicuous image generation device and conspicuous image generation program

Also Published As

Publication number Publication date
JP2012058849A (en) 2012-03-22

Similar Documents

Publication Publication Date Title
Zhang et al. Hazerd: an outdoor scene dataset and benchmark for single image dehazing
Ghani et al. Underwater image quality enhancement through integrated color model with Rayleigh distribution
Ghani et al. Underwater image quality enhancement through Rayleigh-stretching and averaging image planes
Rizzi et al. From retinex to automatic color equalization: issues in developing a new algorithm for unsupervised color equalization
TWI431549B (en) Image processing apparatus and method and computer program product
Janssen Computational image quality
Tremeau et al. Color in image and video processing: most recent trends and future research directions
RU2444786C2 (en) Apparatus and method for extending dynamic range in digital images
CN101080022B (en) Imaging device
Delaigle et al. Human visual system features enabling watermarking
JP5483819B2 (en) Method and system for generating an immersive feeling for a two-dimensional stop image, or a factor adjusting method, an image content analyzing method, and a scaling parameter predicting method for generating an immersive feeling
JP2015156607A (en) Image processing method, image processing apparatus, and electronic device
Chandler et al. Seven challenges for image quality research
JP6550138B2 (en) Video processing device
Huang et al. Enhancing color representation for the color vision impaired
CN110706196B (en) Clustering perception-based no-reference tone mapping image quality evaluation algorithm
Zhao et al. No-reference quality index of tone-mapped images based on authenticity, preservation, and scene expressiveness
JP2018205037A (en) Evaluation device, evaluation program, and method for evaluation
JP5598185B2 (en) Conspicuous image generating apparatus and conspicuous image generating program
JP2005043174A (en) Color irregularity inspection apparatus
JP2011002336A (en) Device and program for generating conspicuous image
JP6021053B2 (en) Video visibility quantification device, video visibility quantification method, and program
Gao et al. Color image attribute and quality measurements
JP5083053B2 (en) Conspicuous image generation device and conspicuous image generation program
CN114222033A (en) Adaptive Euler video amplification method based on empirical mode decomposition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

R150 Certificate of patent or registration of utility model

Ref document number: 5598185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees