JP7345126B1 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7345126B1
JP7345126B1 JP2023069254A JP2023069254A JP7345126B1 JP 7345126 B1 JP7345126 B1 JP 7345126B1 JP 2023069254 A JP2023069254 A JP 2023069254A JP 2023069254 A JP2023069254 A JP 2023069254A JP 7345126 B1 JP7345126 B1 JP 7345126B1
Authority
JP
Japan
Prior art keywords
image
region
interest
correction
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023069254A
Other languages
Japanese (ja)
Inventor
一夫 市川
清 田中
翔 横山
芳樹 田中
洵太 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinshu University NUC
Chukyo Medical Co Ltd
Original Assignee
Shinshu University NUC
Chukyo Medical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinshu University NUC, Chukyo Medical Co Ltd filed Critical Shinshu University NUC
Priority to JP2023069254A priority Critical patent/JP7345126B1/en
Application granted granted Critical
Publication of JP7345126B1 publication Critical patent/JP7345126B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】年齢に応じた色補正を行うとともに、色補正後の画像中の白飛びの割合を小さくできる画像処理装置、画像処理方法、又はプログラムを提供する。【解決手段】画像処理装置としての演算装置5は、撮影部2が撮影した画像中の注目領域を検出し、検出した注目領域に対して年齢に応じた色補正を行い、色補正後の注目領域とそれ以外の領域とを含む局所補正画像を出力する。画像は例えば眼科手術画像である。注目領域は例えば眼球中央の円領域である。【選択図】図1The present invention provides an image processing device, an image processing method, or a program that can perform color correction according to age and reduce the proportion of overexposure in an image after color correction. SOLUTION: A computing device 5 serving as an image processing device detects a region of interest in an image photographed by a photographing section 2, performs color correction on the detected region of interest according to age, and performs color correction on the detected region of interest in accordance with the age of the user. A locally corrected image including the area and other areas is output. The image is, for example, an eye surgery image. The region of interest is, for example, a circular region at the center of the eyeball. [Selection diagram] Figure 1

Description

特許法第30条第2項適用 公益社団法人日本眼科手術学会、眼科手術、2023年第36巻臨時創刊号、2022年12月28日 第46回日本眼科手術学会学術総会、2023年1月29日Application of Article 30, Paragraph 2 of the Patent Law Japanese Society of Ophthalmological Surgery, Ophthalmic Surgery, 2023, Volume 36, Extraordinary First Issue, December 28, 2022 46th Academic Meeting of the Japanese Society of Ophthalmological Surgery, January 29, 2023 Day

本開示は、画像を見る対象者の年齢に応じた色補正を該画像に対して行う画像処理装置、画像処理方法又はプログラムに関する。 The present disclosure relates to an image processing device, an image processing method, or a program that performs color correction on an image according to the age of a person viewing the image.

人間の視覚特性は加齢に伴い変化する。具体的には、高齢になるほど色が暗く、又は黄色っぽく見えるようになると考えられている。加齢に伴う視覚特性の変化に関し、下記特許文献1には、人間の年齢に伴って変化する視覚特性の劣化を補償するように該画像を補正することが記載されている。 Human visual characteristics change with age. Specifically, it is thought that the older one gets, the darker or yellower the color becomes. Regarding changes in visual characteristics due to aging, Patent Document 1 listed below describes correcting the image to compensate for the deterioration of visual characteristics that changes with human age.

特許第3552413号公報Patent No. 3552413

ところが、特許文献1の方法では、高齢ほど、画像の補正量が大きくなり、その結果、補正後の画像に白飛びが発生しやすくなる。 However, in the method of Patent Document 1, the older the person is, the larger the amount of image correction becomes, and as a result, blown-out highlights are more likely to occur in the corrected image.

本開示は上記事情に鑑みてなされ、年齢に応じた色補正を行うとともに、色補正後の画像中の白飛びの割合を小さくできる画像処理装置、画像処理方法、又はプログラムを提供することを課題とする。 The present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to provide an image processing device, an image processing method, or a program that can perform color correction according to age and reduce the proportion of overexposure in images after color correction. shall be.

本開示の画像処理装置は、
画像を取得する画像取得部と、
前記画像中の注目領域を検出する検出部と、
前記検出部が検出した前記注目領域に対して、前記画像を見る対象者の年齢に応じた色補正を行う補正部と、
前記色補正後の前記注目領域とそれ以外の領域とを含む局所補正画像を出力する出力部と、
を備える。
The image processing device of the present disclosure includes:
an image acquisition unit that acquires an image;
a detection unit that detects a region of interest in the image;
a correction unit that performs color correction on the attention area detected by the detection unit according to the age of a subject viewing the image;
an output unit that outputs a locally corrected image including the color-corrected region of interest and other regions;
Equipped with

本開示の画像処理方法は、
画像を取得する画像取得ステップと、
前記画像中の注目領域を検出する検出ステップと、
前記検出ステップで検出した前記注目領域に対して、前記画像を見る対象者の年齢に応じた色補正を行う補正ステップと、
前記色補正後の前記注目領域とそれ以外の領域とを含む局所補正画像を出力する出力ステップと、
を備える。
The image processing method of the present disclosure includes:
an image acquisition step of acquiring an image;
a detection step of detecting a region of interest in the image;
a correction step of performing color correction on the region of interest detected in the detection step according to the age of the subject viewing the image;
outputting a locally corrected image including the color-corrected region of interest and other regions;
Equipped with

本開示のプログラムは、
画像を取得する画像取得ステップと、
前記画像中の注目領域を検出する検出ステップと、
前記検出ステップで検出した前記注目領域に対して、前記画像を見る対象者の年齢に応じた色補正を行う補正ステップと、
前記色補正後の前記注目領域とそれ以外の領域とを含む局所補正画像を出力する出力ステップと、
をコンピュータに実行させる。
The program of this disclosure is
an image acquisition step of acquiring an image;
a detection step of detecting a region of interest in the image;
a correction step of performing color correction on the region of interest detected in the detection step according to the age of the subject viewing the image;
outputting a locally corrected image including the color-corrected region of interest and other regions;
have the computer execute it.

本開示の画像処理装置、画像処理方法、及びプログラムによれば、画像の全体に対しては色補正を行わずに、画像の注目領域に対して色補正を行うので、補正後の画像中の白飛びの割合を小さくできる。 According to the image processing device, image processing method, and program of the present disclosure, color correction is performed on the attention area of the image without performing color correction on the entire image. The percentage of overexposure can be reduced.

表示システムの構成図である。FIG. 1 is a configuration diagram of a display system. 演算装置が実行する画像補正処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of image correction processing executed by the arithmetic device. 図2のステップS11の詳細のフローチャートである。3 is a detailed flowchart of step S11 in FIG. 2. FIG. 図2のステップS1で取得する原画像の一例である。This is an example of an original image acquired in step S1 of FIG. 2. 図2のステップS2で得られるマスク処理後の画像の一例である。This is an example of an image after mask processing obtained in step S2 of FIG. 2. 図2のステップS3で得られる画素値変換後の画像の一例である。This is an example of an image after pixel value conversion obtained in step S3 of FIG. 2. 図2のステップS4で得られるグレースケール画像の一例である。This is an example of a grayscale image obtained in step S4 of FIG. 2. 図2のステップS5で得られる2値化画像の一例である。This is an example of a binarized image obtained in step S5 of FIG. 2. 図2のステップS6で得られる第1のノイズ除去処理後の2値化画像の一例である。It is an example of the binarized image obtained in step S6 of FIG. 2 after the first noise removal process. 図2のステップS7で得られる第2のノイズ除去処理後の2値化画像の一例である。It is an example of the binarized image obtained in step S7 of FIG. 2 after the second noise removal process. 図2のステップS9で得られるマスクの一例である。This is an example of a mask obtained in step S9 of FIG. 2. 図2のステップS10で得られる注目領域の抽出画像の一例である。This is an example of an extracted image of the region of interest obtained in step S10 of FIG. 2. 図2のステップS11で得られる色補正後の注目領域画像の一例であるThis is an example of the attention area image after color correction obtained in step S11 of FIG. 2. 図2のステップS12で得られる、色補正後の注目領域とそれ以外の領域とを含む局所補正画像の一例である。This is an example of a locally corrected image including a color-corrected region of interest and other regions obtained in step S12 of FIG. 2. 大律2値化法を説明するために、画像の濃度ヒストグラム(輝度分布)を例示した図である。FIG. 2 is a diagram illustrating a density histogram (luminance distribution) of an image in order to explain the general binarization method. 図2のステップS1で取得する原画像の輝度分布を例示した図である。3 is a diagram illustrating a luminance distribution of an original image acquired in step S1 of FIG. 2. FIG. 図16の輝度分布を示す画像に対して、注目領域のみを色補正した場合の輝度分布を例示した図である。17 is a diagram illustrating a brightness distribution when only the attention area is color-corrected for the image showing the brightness distribution of FIG. 16. FIG. 図16の輝度分布を示す画像に対して、画像全体を色補正した場合の輝度分布を例示した図である。17 is a diagram illustrating a brightness distribution when the entire image is color-corrected for the image showing the brightness distribution of FIG. 16. FIG.

以下、本開示の実施形態を図面を参照しつつ説明する。図1は本実施形態の表示システム1を示している。表示システム1は、例えば白内障手術などの眼科手術の動画(眼科手術を受けている被術眼の動画)を術中にリアルタイムで表示するシステムとして構成される。なお、白内障手術は、白内障を患った眼の水晶体の一部又は全部を除去し、除去した水晶体の代わりに眼内レンズを眼内に挿入する手術である。 Embodiments of the present disclosure will be described below with reference to the drawings. FIG. 1 shows a display system 1 of this embodiment. The display system 1 is configured as a system that displays a video of an ophthalmic surgery such as cataract surgery (a video of a patient's eye undergoing ophthalmic surgery) in real time during the surgery. Note that cataract surgery is a surgery in which part or all of the crystalline lens of an eye suffering from cataract is removed, and an intraocular lens is inserted into the eye in place of the removed crystalline lens.

表示システム1は、撮影部2と入力部3と表示部4と演算装置5とを備えている。撮影部2は、眼科手術中に被術眼の各時点の画像を逐次撮影する。すなわち、撮影図2は眼科手術中に被術眼の動画を撮影する。撮影部2は被術眼を正面から見た動画を撮影する。撮影部2で撮影された動画は演算装置5に送られる。撮影部2が撮影する画像を構成する各画素の色は例えばRGB表示系の色で表される。RGB表示系では、R(赤)、G(緑)、B(青)の三原色の組み合わせにより、色が表現される。RGBの各原色の階調数又は輝度の階調数は例えば256階調としてよい。この場合、原色ごとに、階調値が例えば0~255で示される。階調値が大きいほど、高輝度であることを示す。すなわち、階調値が最小値「0」であることは、輝度が最も低いことを示す。反対に、階調値が最大値「255」であることは、輝度が最も高いことを示す。なお、256階調以外の階調数でもよい。また、輝度を256階調で表したとき、輝度が「0」であることは画素の色が「黒」であること示す。輝度が「255」であることは画素の色が「白」であることを示す。 The display system 1 includes a photographing section 2, an input section 3, a display section 4, and a calculation device 5. The photographing unit 2 sequentially photographs images of the patient's eye at each point in time during ophthalmic surgery. That is, in photographic diagram 2, a moving image of the patient's eye is photographed during an ophthalmic surgery. The photographing unit 2 photographs a moving image of the eye to be treated viewed from the front. The moving image photographed by the photographing section 2 is sent to the arithmetic device 5. The color of each pixel constituting the image photographed by the photographing unit 2 is represented by, for example, an RGB display system color. In the RGB display system, colors are expressed by a combination of three primary colors: R (red), G (green), and B (blue). The number of gradations of each primary color of RGB or the number of gradations of brightness may be, for example, 256 gradations. In this case, the gradation value is indicated, for example, from 0 to 255 for each primary color. The larger the gradation value, the higher the brightness. That is, the minimum gradation value "0" indicates that the brightness is the lowest. On the other hand, the maximum gradation value of "255" indicates that the brightness is the highest. Note that the number of gradations other than 256 gradations may be used. Further, when the brightness is expressed in 256 gradations, the brightness of "0" indicates that the color of the pixel is "black". The brightness of "255" indicates that the color of the pixel is "white".

入力部3は例えばボタンやテンキー、マウスなど既知の構造を備え、ユーザからの入力を受け付ける部位である。具体的には、入力部3は、画像を見る対象者の年齢などの入力を受け付ける。入力部3に入力された入力内容は演算装置5に送られる。 The input unit 3 has a known structure such as buttons, a numeric keypad, and a mouse, and is a part that receives input from the user. Specifically, the input unit 3 receives input such as the age of the person viewing the image. The input contents input to the input section 3 are sent to the arithmetic device 5.

表示部4は画像を表示する部位である。表示部4は例えば液晶ディスプレイであるが、プラズマディスプレイ、有機ELディスプレイなど他の方式のディスプレイでもよい。また、表示部4はヘッドマウント型のディスプレイでもよい。表示部4はカラー画像を表示可能に構成される。表示部4での色の表示系は例えばRGB表示系である。 The display unit 4 is a part that displays images. The display unit 4 is, for example, a liquid crystal display, but may be a display of another type such as a plasma display or an organic EL display. Further, the display unit 4 may be a head-mounted display. The display unit 4 is configured to be able to display color images. The color display system on the display unit 4 is, for example, an RGB display system.

演算装置5は表示システム1の全体的制御を司る部位である。演算装置5は、通常のコンピュータと同様の構成を有し、すなわちCPU6、RAM、ROM等から構成される。なお、演算装置5が本開示の画像処理装置に相当する。 The arithmetic unit 5 is a part that controls the entire display system 1. The arithmetic unit 5 has the same configuration as a normal computer, that is, it is composed of a CPU 6, RAM, ROM, and the like. Note that the arithmetic device 5 corresponds to the image processing device of the present disclosure.

演算装置5は記憶部7を備える。記憶部7は、不揮発性記憶部であり、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。非遷移的実体的記憶媒体は半導体メモリ又は磁気ディスクなどによって実現される。なお、記憶部7は、演算装置5に内蔵された内蔵記憶部として構成されてもよいし、演算装置5に外付けされた外付記憶部として構成されてもよい。記憶部7には、CPU6が実行する処理のプログラム8など各種データが記憶されている。 The arithmetic device 5 includes a storage section 7 . The storage unit 7 is a non-volatile storage unit, and is a non-transitory tangible storage medium that non-temporarily stores computer-readable programs and data. A non-transient physical storage medium is realized by a semiconductor memory, a magnetic disk, or the like. Note that the storage section 7 may be configured as a built-in storage section built into the arithmetic device 5, or may be configured as an external storage section externally attached to the arithmetic device 5. The storage unit 7 stores various data such as a program 8 for processing executed by the CPU 6.

次に、演算装置5のCPU6がプログラム8に基づいて実行する処理の詳細を説明する。図2、図3はその処理の一例を示すフローチャートである。なお、図2、図3の処理は例えば眼科手術中に実行される。図2の処理を開始すると、CPU6は、撮影部2が撮影した現時点の画像を取得する(S1)。図4はステップS1で取得する画像を例示している。図4の画像は、白内障手術中の被術眼の正面画像であり、具体的には、眼球の中央領域(瞳孔、虹彩及び角膜の領域)に手術器具を挿入して、水晶体を砕いている最中の画像である。なお、ステップS1が本開示の画像取得ステップに相当する。ステップS1を実行するCPU6が画像取得部に相当する。 Next, details of the process executed by the CPU 6 of the arithmetic device 5 based on the program 8 will be explained. FIGS. 2 and 3 are flowcharts showing an example of the process. Note that the processes in FIGS. 2 and 3 are executed, for example, during an ophthalmologic surgery. When the process of FIG. 2 is started, the CPU 6 acquires the current image photographed by the photographing unit 2 (S1). FIG. 4 illustrates an example of an image acquired in step S1. The image in Figure 4 is a frontal image of the patient's eye during cataract surgery. Specifically, a surgical instrument is inserted into the central area of the eyeball (pupil, iris, and cornea area) to crush the crystalline lens. This is an image in the middle. Note that step S1 corresponds to the image acquisition step of the present disclosure. The CPU 6 that executes step S1 corresponds to an image acquisition section.

画像を見る対象者(具体的には白内障手術の術者)が注目する画像中の領域である注目領域を、被術眼の中央の円形領域(瞳孔、虹彩及び角膜の領域)として、ステップS2以降の処理で、その注目領域をステップS1で取得した画像から検出(抽出)する。注目領域は、眼球(被術眼)の、術者により手術の処置が行わる部位(術部、処置部)である。なお、注目領域の円は例えば虹彩外側の円である。 In step S2, the attention area, which is the area in the image that the subject viewing the image (specifically, the cataract surgeon) focuses on, is set as the central circular area (pupil, iris, and cornea area) of the eye to be operated on. In subsequent processing, the region of interest is detected (extracted) from the image acquired in step S1. The region of interest is a region (operation site, treatment region) of the eyeball (operated eye) where the surgeon performs the surgical treatment. Note that the circle of the attention area is, for example, a circle outside the iris.

具体的には、先ず、ステップS1で取得した画像の中央付近以外を隠す処理(マスク処理)をする(S2)。図5はステップS2のマスク処理をした後の画像を例示している。マスク処理された画像は、眼球の中央の円形領域(瞳孔、虹彩及び角膜の領域)を少なくとも含んでいる。 Specifically, first, a process (mask process) is performed to hide areas other than the center of the image acquired in step S1 (S2). FIG. 5 exemplifies the image after the masking process in step S2. The masked image includes at least the central circular area of the eyeball (pupil, iris, and cornea area).

次に、マスク処理後の画像の各画素値を、所定のしきい値を境にして最小画素値(256階調の場合「0」)又は最大画素値(256階調の場合「255」)のいずれかに変換する(S3)。具体的には、各画素のRGBのそれぞれの値を、しきい値より小さい場合には最大画素値(=「255」)に、しきい値以上の場合には最小画素値(=「0」)に変換する。例えば、画素のRGB値=(125、200、50)、しきい値=130の場合には、RGB値=(0、255、0)に変換する。 Next, each pixel value of the image after mask processing is set to the minimum pixel value (“0” in the case of 256 gradations) or the maximum pixel value (“255” in the case of 256 gradations) with a predetermined threshold as the boundary. (S3). Specifically, the RGB values of each pixel are set to the maximum pixel value (="255") if they are smaller than the threshold, and to the minimum pixel value (="0") when they are greater than or equal to the threshold. ). For example, if the RGB value of the pixel = (125, 200, 50) and the threshold value = 130, it is converted to the RGB value = (0, 255, 0).

このように、ステップS3では、画像中の暗い領域(低輝度領域)を明るくし、明るい領域(高輝度領域)を暗くする、輝度反転処理を行う。これは、一般的に眼球中央領域(注目領域)は周辺領域(強膜の領域)よりも暗いので、眼球中央領域を周辺領域よりも明るくするためである。なお、しきい値は、画素値変換した際に、眼球中央領域は明るくなり、周辺領域は暗くなるように、予め定められた値としてよい。図6は、図5の画像に対してステップS3の画素値変換を行った後の画像を示している。 In this way, in step S3, brightness inversion processing is performed to brighten dark areas (low brightness areas) in the image and darken bright areas (high brightness areas). This is because the central region of the eyeball (region of interest) is generally darker than the peripheral region (sclera region), so the central region of the eyeball is made brighter than the peripheral region. Note that the threshold value may be a predetermined value so that when the pixel values are converted, the central area of the eyeball becomes brighter and the peripheral area becomes darker. FIG. 6 shows an image after performing pixel value conversion in step S3 on the image in FIG.

次に、ステップS3後の画像をグレースケールの画像に変換する(S4)。図7は、図6の画像をグレースケール変換した画像である。 Next, the image after step S3 is converted into a grayscale image (S4). FIG. 7 is an image obtained by converting the image in FIG. 6 to gray scale.

次に、ステップS4により得られたグレースケール画像の各画素の色を白又は黒のいずれかにする2値化処理を行う(S5)。具体的には、グレースケールの画像の各画素値を、しきい値以上の場合には白色を示す値(例えば「255」)、しきい値より小さい場合には黒色を示す値(例えば「0」)となるよう変換する。2値化処理の手法は公知のいずれの手法でもよいが、例えば大律法を用いてよい。大律法は判別分析法の一つであり、画像の濃度ヒストグラムに基づいて最適なしきい値を自動的に求める手法である。例えば、図15に示すように、画像の濃度ヒストグラムを、あるしきい値Tを境にクラス0とクラス1に分けたとき、以下のようなしきい値Tを求める手法である。
・クラス0とクラス1が離れている。
・それぞれのクラス内のデータ群がまとまっている。
Next, a binarization process is performed to change the color of each pixel of the grayscale image obtained in step S4 to either white or black (S5). Specifically, each pixel value of a grayscale image is set to a value indicating white (for example, "255") when it is equal to or greater than the threshold value, and a value indicating black when it is smaller than the threshold value (for example, "0"). ”). Any known method may be used for the binarization process, and for example, the Grand Law may be used. The grand law is one of the discriminant analysis methods, and is a method for automatically determining the optimal threshold value based on the density histogram of an image. For example, as shown in FIG. 15, when the density histogram of an image is divided into class 0 and class 1 based on a certain threshold value T, the following method is used to obtain the threshold value T.
・Class 0 and class 1 are far apart.
・Data groups within each class are grouped together.

眼球の正面画像においては、眼球中央領域(瞳孔、虹彩及び角膜の円形領域)と周辺領域(強膜の領域)との間で濃度差(輝度差)が生じやすい。そのため、大律法を用いることで、中央領域と周辺領域とを区分するのに適したしきい値が得られやすい。図8は、図7の画像に対して2値化処理した後の画像を示している。図8に示すように、眼球中央領域は白色となり、周辺領域は黒色となる2値化画像が得られる。 In a frontal image of an eyeball, a density difference (brightness difference) is likely to occur between the central region of the eyeball (pupil, iris, and circular region of the cornea) and the peripheral region (sclera region). Therefore, by using the grand law, it is easy to obtain a threshold suitable for dividing the central region and the peripheral region. FIG. 8 shows an image after the image in FIG. 7 has been binarized. As shown in FIG. 8, a binarized image is obtained in which the central area of the eyeball is white and the peripheral area is black.

なお、ステップS3~S5が本開示の2値化処理ステップに相当する。ステップS3~S5を実行するCPU6が2値化処理部に相当する。 Note that steps S3 to S5 correspond to the binarization processing step of the present disclosure. The CPU 6 that executes steps S3 to S5 corresponds to a binarization processing section.

次に、ステップS5により得られた2値化画像中のノイズ領域を除去する(S6、S7)。具体的には、先ず、第1のノイズ除去処理として例えば2値化画像に対して公知のモルフォロジー変換を適用する(S6)。例えば、モルフォロジー変換のオープニング処理を2値化画像に適用することで、2値化画像中のノイズを除去できる。なお、上記オープニング処理は、収縮の後に膨張をする処理である。図9は、図8の画像に対してモルフォロジー変換を適用した後の画像を示している。 Next, noise areas in the binarized image obtained in step S5 are removed (S6, S7). Specifically, first, as a first noise removal process, for example, a known morphological transformation is applied to the binarized image (S6). For example, noise in the binarized image can be removed by applying opening processing of morphological transformation to the binarized image. Note that the above-mentioned opening process is a process in which expansion is performed after contraction. FIG. 9 shows the image after applying morphological transformation to the image of FIG.

次に、第2のノイズ除去処理として、ステップS6後の2値化画像中の各領域の面積に基づいてノイズを除去する(S7)。具体的には、2値化画像中の画素値が「255」(白色)の領域の輪郭を取得し、その輪郭で囲まれた各領域の面積を求める。このとき、同じ白色領域であっても、連続していない各領域は別の領域として面積を求める。面積は例えば領域に含まれる画素数とすればよい。そして、面積が最大となる白色領域を残し、それ以外の白色領域はノイズとして除去する。具体的には、最大面積以外の面積の白色領域の色を背景色(黒色)に反転させる。図10は、図9の2値化画像に対して面積に基づくノイズ除去を実行した後の画像を示している。なお、ステップS6、S7はノイズ除去ステップに相当する。ステップS6、S7を実行するCPU6がノイズ除去部に相当する。 Next, as a second noise removal process, noise is removed based on the area of each region in the binarized image after step S6 (S7). Specifically, the outline of an area with a pixel value of "255" (white) in the binarized image is obtained, and the area of each area surrounded by the outline is determined. At this time, even if the white area is the same, each non-contiguous area is treated as a separate area and its area is calculated. The area may be, for example, the number of pixels included in the area. Then, the white region with the largest area is left, and the other white regions are removed as noise. Specifically, the color of the white area having an area other than the maximum area is inverted to the background color (black). FIG. 10 shows an image after performing area-based noise removal on the binarized image of FIG. Note that steps S6 and S7 correspond to a noise removal step. The CPU 6 that executes steps S6 and S7 corresponds to a noise removal section.

次に、ステップS7にて得られた2値化画像中の円(注目領域に対応する形状)を検出する(S8)。言い換えれば、2値化画像中の円の特徴を有した要素を検出する。円の検出は例えばハフ変換に基づいて行うとしてよい。なお、ステップS8が本開示の形状検出ステップに相当する。ステップS8を実行するCPU6が形状検出部に相当する。 Next, a circle (shape corresponding to the region of interest) in the binarized image obtained in step S7 is detected (S8). In other words, elements having circular features in the binarized image are detected. For example, the detection of circles may be performed based on the Hough transform. Note that step S8 corresponds to the shape detection step of the present disclosure. The CPU 6 that executes step S8 corresponds to the shape detection section.

次に、ステップS8で検出した円以外の領域(言い換えれば、円の外側の領域)を隠したマスクを生成する(S9)。ここでは、ステップS8で検出した円要素に応じた直径及び中心位置の円を設定し、その円の内側領域が開き、その円の外側領域を隠したマスクを生成する。図11は、図10の画像に基づいて生成されたマスクを例示している。なお、ステップS9が本開示の生成ステップに相当する。ステップS9を実行するCPU6が生成部に相当する。 Next, a mask is generated that hides the area other than the circle detected in step S8 (in other words, the area outside the circle) (S9). Here, a circle with a diameter and center position corresponding to the circular element detected in step S8 is set, and a mask is generated in which the inner region of the circle is opened and the outer region of the circle is hidden. FIG. 11 illustrates a mask generated based on the image of FIG. 10. Note that step S9 corresponds to the generation step of the present disclosure. The CPU 6 that executes step S9 corresponds to a generation unit.

次に、ステップS9で生成したマスクを、ステップS1で取得した原画像に適用する(S10)。なお、ステップS10がマスク処理ステップに相当する。ステップS10を実行するCPU6がマスク処理部に相当する。 Next, the mask generated in step S9 is applied to the original image acquired in step S1 (S10). Note that step S10 corresponds to a mask processing step. The CPU 6 that executes step S10 corresponds to a mask processing section.

図12は、図4の画像に、図11のマスクを適用した後の画像を示している。上述のステップS2~S10により、ステップS1で取得した原画像から注目領域が検出(抽出)されることになる。ステップS2~S10による注目領域の検出は自動で行われる。なお、ステップS2~S10が本開示の検出ステップに相当する。ステップS2~S10を実行するCPU6が検出部に相当する。 FIG. 12 shows an image after applying the mask of FIG. 11 to the image of FIG. 4. Through steps S2 to S10 described above, a region of interest is detected (extracted) from the original image acquired in step S1. Detection of the region of interest in steps S2 to S10 is performed automatically. Note that steps S2 to S10 correspond to the detection step of the present disclosure. The CPU 6 that executes steps S2 to S10 corresponds to the detection section.

次に、ステップS2~S10で抽出された注目領域に対して、画像を見る対象者の年齢に応じた色補正を行う(S11)。ここでは、対象者が表示部4に表示される画像を見た場合に、若年者(例えば20歳の人)が知覚する色(輝度も含む)と同様に知覚されるように、注目領域の各画素値を補正する。また、ステップS11では、原画像の、注目領域以外の領域に対しては色補正を行わない。なお、ステップS11が補正ステップに相当する。ステップS11を実行するCPU6が補正部に相当する。 Next, the region of interest extracted in steps S2 to S10 is subjected to color correction according to the age of the person viewing the image (S11). Here, the attention area is set so that when the subject views the image displayed on the display unit 4, the image is perceived in the same way as the color (including brightness) perceived by a young person (for example, a 20-year-old person). Correct each pixel value. Further, in step S11, color correction is not performed on areas other than the attention area of the original image. Note that step S11 corresponds to a correction step. The CPU 6 that executes step S11 corresponds to a correction section.

図3はステップS11の色補正の詳細のフローチャートを例示している。図3の処理に移行すると、CPU6は、画像を見る対象者の年齢を設定する(S20)。具体的には、CPU6は、入力部3から入力される対象者の年齢情報を取得し、取得した年齢情報で示される年齢を対象年齢として設定する。年齢情報は、対象者の正確な年齢でもよいし、大まかな年齢(例えば60歳代)でもよいし、対象者が生まれた年(西暦など)でもよい。また、例えば、20歳以下を若年者、20歳より高齢を高齢者としたとき、対象者は高齢者としてよい。この場合、ステップS20では、20歳よりも高い年齢を設定する。 FIG. 3 illustrates a detailed flowchart of the color correction in step S11. Shifting to the process of FIG. 3, the CPU 6 sets the age of the person viewing the image (S20). Specifically, the CPU 6 acquires the age information of the target person input from the input unit 3, and sets the age indicated by the acquired age information as the target age. The age information may be the exact age of the subject, the approximate age (eg, 60's), or the year the subject was born (eg, according to the Western calendar). Further, for example, when a person under the age of 20 is defined as a young person, and a person older than 20 years old is defined as an elderly person, the target person may be an elderly person. In this case, in step S20, an age higher than 20 years old is set.

次に、ステップS2~S10で抽出された注目領域の各画素の色の表示系を、RGB表示系からXYZ表示系に変換する(S21)。各画素の値(R、G、B)を、XYZ表示系における三刺激値(X、Y、Z)に変換する。ここで、R(赤)、G(緑)、B(青)からX、Y、Zへの変換は以下の式(E1)から(E3)で表される。
X=a11R+a12G+a13B (E1)
Y=a21R+a22G+a23B (E2)
Z=a31R+a32G+a33B (E3)
Next, the color display system of each pixel in the region of interest extracted in steps S2 to S10 is converted from the RGB display system to the XYZ display system (S21). The values of each pixel (R, G, B) are converted into tristimulus values (X, Y, Z) in the XYZ display system. Here, conversion from R (red), G (green), and B (blue) to X, Y, and Z is expressed by the following equations (E1) to (E3).
X=a 11 R+a 12 G+a 13 B (E1)
Y=a 21 R+a 22 G+a 23 B (E2)
Z=a 31 R+a 32 G+a 33 B (E3)

係数a11、a12、a13、a21、a22、a23、a31、a32、a33はそれぞれRのXへの寄与度、GのXへの寄与度、BのXへの寄与度、RのYへの寄与度、GのYへの寄与度、BのYへの寄与度、RのZへの寄与度、GのZへの寄与度、BのZへの寄与度を示す量であるとみなされる。このa11からa33の9個のパラメータは既知の定数であり、例えば、a11=0.4124、a12=0.3576、a13=0.1805、a21=0.2126、a22=0.7152、a23=0.0722、a31=0.0193、a32=0.1192、a33=0.9505と定められている。 The coefficients a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 , a 32 , and a 33 are the contribution of R to X, the contribution of G to X, and the contribution of B to X, respectively. Contribution, contribution of R to Y, contribution of G to Y, contribution of B to Y, contribution of R to Z, contribution of G to Z, contribution of B to Z is considered to be a quantity that represents These nine parameters a 11 to a 33 are known constants, for example, a 11 =0.4124, a 12 =0.3576, a 13 =0.1805, a 21 =0.2126, a 22 =0.7152, a 23 =0.0722, a 31 =0.0193, a 32 =0.1192, and a 33 =0.9505.

ここでX、X、X、Y、Y、Y、Z、Z、Zを次の式(E4)から(E6)により定義する。さらに、これらを用いると式(E7)から(E9)が得られる。
=a11R、X=a12G、X=a13B (E4)
=a21R、Y=a22G、Y=a23B (E5)
=a31R、Z=a32G、Z=a33B (E6)
X=X+X+X (E7)
Y=Y+Y+Y (E8)
Z=Z+Z+Z (E9)
Here, X R , X G , X B , Y R , Y G , Y B , Z R , Z G , and Z B are defined by the following formulas (E4) to (E6). Furthermore, by using these, formulas (E7) to (E9) can be obtained.
X R = a 11 R, X G = a 12 G, X B = a 13 B (E4)
Y R = a 21 R, Y G = a 22 G, Y B = a 23 B (E5)
Z R = a 31 R, Z G = a 32 G, Z B = a 33 B (E6)
X=X R +X G +X B (E7)
Y= YR + YG + YB (E8)
Z=Z R +Z G +Z B (E9)

次に、色補正として、加齢による水晶体の黄変に伴う水晶体の光透過性の変化(低下)の影響を小さくするように、ステップS21の変換により得られた三刺激値X、Y、Zを補正する(S22)。ここでは、ステップS20で取得した対象年齢での水晶体の光透過性と、若年者の年齢として予め定められた基準年齢(例えば20歳)での水晶体の光透過性とに基づいて、対象者が画像を見たときの色覚が、基準年齢の人の色覚に近づくように、三刺激値X、Y、Zを補正する。具体的には、基準年齢での水晶体の光透過性に対する対象年齢での水晶体の光透過性の比である水晶体透過比に基づく色覚変化(色覚低下)を打ち消すように、三刺激値X、Y、ZのそれぞれにおけるR、G、B成分X、Y、Z(n=R、G、B)を個別に調節(補正)する。より具体的には、以下の式(E10)、(E11)、(E12)により、補正三刺激値X‘、Y‘、Z‘を求める。
X‘=X/K (X)+X/K (X)+X/K (X) (E10)
Y‘=Y/K (Y)+Y/K (Y)+Y/K (Y) (E11)
Z‘=Z/K (Z)+Z/K (Z)+Z/K (Z) (E12)
Next, as a color correction, the tristimulus values X, Y, Z obtained by the conversion in step S21 are used to reduce the influence of changes (decrease) in light transmittance of the crystalline lens due to yellowing of the crystalline lens due to aging. is corrected (S22). Here, based on the light transmittance of the crystalline lens at the target age obtained in step S20 and the light transmittance of the crystalline lens at a predetermined reference age (for example, 20 years old) as the age of a young person, the target person is The tristimulus values X, Y, and Z are corrected so that the color vision when viewing the image approaches that of a person of a reference age. Specifically, the tristimulus values , Z, respectively, are individually adjusted ( corrected ). More specifically, the corrected tristimulus values X', Y', and Z' are determined by the following equations (E10), (E11), and (E12).
X'=X R /K R (X) +X G /K G (X) +X B /K B (X) (E10)
Y'=Y R /K R (Y) +Y G /K G (Y) +Y B /K B (Y) (E11)
Z'=Z R /K R (Z) +Z G /K G (Z) +Z B /K B (Z) (E12)

ここで、K (X)、K (X)、K (X)、K (Y)、K (Y)、K (Y)、K (Z)、K (Z)、K (Z)は実効成分比として定義される値であり、以下のように求められる。 Here, K R (X) , K G (X) , K B (X) , K R (Y), K G (Y) , K B (Y) , K R (Z) , K G (Z) , K B (Z) is a value defined as an effective component ratio, and is determined as follows.

加齢による色覚低下を考えない場合、上述のX、Y、Z(n=R、G、B)は、表示部4の分光分布により以下の式(E13)から(E15)で表される。
=kΣS(λ)x(λ)f(λ) (E13)
=kΣS(λ)y(λ)f(λ) (E14)
=kΣS(λ)z(λ)f(λ) (E15)
When the decline in color vision due to aging is not considered, the above-mentioned X n , Y n , Z n (n=R, G, B) are expressed by the following equations (E13) to (E15) depending on the spectral distribution of the display section 4. be done.
X n = kΣS (λ) x (λ) f n (λ) (E13)
Y n = kΣS (λ) y (λ) f n (λ) (E14)
Z n = kΣS (λ) z (λ) f n (λ) (E15)

上式(E13)~(E15)においてλは可視光の波長である。S(λ)はD65白色点の波長λに対する分光分布である。x(λ)、y(λ)、z(λ)はそれぞれ波長λでのX、Y、Zの等色関数である。f(λ)(n=R、G、B)、すなわち、f(λ)、f(λ)、f(λ)はそれぞれ表示部4における赤色、緑色、青色の分光分布である。kは適当な定数である。Σにおける和の範囲は可視光波長域全体が含まれるように定められ、具体的には例えばλ=380からλ=780までとしてよい。 In the above equations (E13) to (E15), λ is the wavelength of visible light. S(λ) is the spectral distribution of the D65 white point with respect to the wavelength λ. x(λ), y(λ), and z(λ) are color matching functions of X, Y, and Z at wavelength λ, respectively. f n (λ) (n=R, G, B), that is, f R (λ), f G (λ), and f B (λ) are the spectral distributions of red, green, and blue in the display section 4, respectively. . k is a suitable constant. The range of the sum in Σ is determined to include the entire visible light wavelength range, and specifically may be, for example, from λ=380 to λ=780.

以上は若者の健常者の場合であるが、これが加齢により以下のように変化する。周知のPokornyらの研究によれば、A歳の水晶体の光透過性に対するA歳(ただし、AはA以上とすればよい)の水晶体の光透過性の比である水晶体透過比Fは次の式(E16)で記述される。なお、^はべき乗、Lは水晶体の光学密度である。
F(λ、A、A)=10^{-L(λ、A)}/10^{-L(λ、A)}=10^{L(λ、A)-L(λ、A)} (E16)
The above is a case of a young healthy person, but this changes with age as follows. According to the well-known research by Pokorny et al., A: the lens transmission ratio, which is the ratio of the light transmittance of the crystalline lens of a 2 - year-old ( A2 may be greater than or equal to A1 ) to the light transmittance of the crystalline lens of a 1-year-old. F is described by the following equation (E16). Note that ^ is a power, and L is the optical density of the crystalline lens.
F(λ, A 2 , A 1 )=10^{-L(λ, A 2 )}/10^{-L(λ, A 1 )}=10^{L(λ, A 1 )-L( λ, A 2 )} (E16)

水晶体の光学密度Lは、Aを年齢とすると、Aが20より大きく60以下の場合、次の式(E17)で、Aが60より大きい場合は式(E18)であらわされる。なお、TL1、TL2は適当な定数である。
L(λ、A)=TL1(1+0.02(A-32))+TL2 (E17)
L(λ、A)=TL1(1.56+0.0667(A-60))+TL2 (E18)
The optical density L of the crystalline lens is expressed by the following formula (E17) when A is greater than 20 and 60 or less, and by formula (E18) when A is greater than 60, where A is the age. Note that T L1 and T L2 are appropriate constants.
L(λ, A)=T L1 (1+0.02(A-32))+T L2 (E17)
L(λ, A)=T L1 (1.56+0.0667(A-60))+T L2 (E18)

上記Fを用いると、加齢により式(E13)から(E15)は次の式(E19)から(E21)に変化する。
=kΣS(λ)x(λ)f(λ)F(λ、A、A) (E19)
=kΣS(λ)y(λ)f(λ)F(λ、A、A) (E20)
=kΣS(λ)z(λ)f(λ)F(λ、A、A) (E21)
When the above F is used, equations (E13) to (E15) change to the following equations (E19) to (E21) due to aging.
X n * = kΣS (λ) x (λ) f n (λ) F (λ, A 2 , A 1 ) (E19)
Y n * = kΣS (λ) y (λ) f n (λ) F (λ, A 2 , A 1 ) (E20)
Z n * = kΣS (λ) z (λ) f n (λ) F (λ, A 2 , A 1 ) (E21)

式(E19)から(E21)で示されるX 、Y 、Z は、A歳の人が知覚する色(三刺激値X、Y、Z)と同一の色を、A歳の人が見た場合に知覚する色の三刺激値(つまり、A歳が知覚する色の再現)を示している。ここで、Aを基準年齢とし、AをステップS10で取得した対象年齢とする。この場合、X 、Y 、Z は、基準年齢Aの人の色覚を基準としたときの対象年齢Aの人の色覚を再現した色を示す。また、上記式(E13)から(E15)で示される色(X、Y、Z)を、基準年齢の人が知覚する色であるとする。 X n * , Y n * , Z n * shown in equations (E19) to (E21) are the same colors as the colors (tristimulus values X n , Y n , Z n ) perceived by a 1- year-old person. A shows the tristimulus values of colors perceived by a 2 -year-old (in other words, the reproduction of colors perceived by a 2- year-old). Here, A 1 is the reference age, and A 2 is the target age obtained in step S10. In this case, X n * , Y n * , and Z n * represent colors that reproduce the color vision of a person of target age A 2 when the color vision of a person of reference age A 1 is used as a reference. Further, it is assumed that the colors (X n , Y n , Z n ) shown by the above equations (E13) to (E15) are colors perceived by a person of the standard age.

そして、基準年齢Aの人が知覚するX、Y、Z(n=R、G、B)に対する、対象者が知覚するX 、Y 、Z (n=R、G、B)の比として、実効成分比を定義する。すなわち、実効成分比は以下の式(E22)から(E24)で定義される。
(X)=X /X (E22)
(Y)=Y /Y (E23)
(Z)=Z /Z (E24)
Then , X n * , Y n * , Z n * ( n=R , G, B). That is, the effective component ratio is defined by the following equations (E22) to (E24).
K n (X) = X n * /X n (E22)
K n (Y) = Y n * / Y n (E23)
K n (Z) = Z n * / Z n (E24)

実効成分比K (X)、K (Y)、K (Z)は、加齢(基準年齢と対象年齢の年齢差)に伴う水晶体の黄変による色覚変化(色覚低下)を示す黄変フィルタである。この実効成分比K (X)、K (Y)、K (Z)(n=R、G、B)が、上記式(E10)から(E12)中に用いられる。式(E10)から(E12)の黄変補正では、実効成分比K (X)、K (Y)、K (Z)(黄変フィルタ)の影響を打ち消すために、三刺激値X、Y、ZのそれぞれにおけるR、G、B成分X、Y、Z(n=R、G、B)に、実効成分比K (X)、K (Y)、K (Z)の逆数を補正係数として乗算している。このように、実効成分比K (X)、K (Y)、K (Z)の逆数である補正係数は、各刺激値X、Y、ZのR、G、B成分X、Y、Zごとに設定される。 The effective component ratios K n (X) , K n (Y) , and K n (Z) are yellow, which indicates a change in color vision (deterioration of color vision) due to yellowing of the lens due to aging (age difference between reference age and target age). It is a strange filter. These effective component ratios K n (X) , K n (Y) , K n (Z) (n=R, G, B) are used in the above equations (E10) to (E12). In the yellowing correction of formulas (E10) to (E12 ) , the tristimulus value , Y , and Z respectively, the effective component ratios K n ( X ) , K n ( Y ), K n ( The reciprocal of Z) is multiplied as a correction coefficient. In this way, the correction coefficients, which are the reciprocals of the effective component ratios K n (X) , K n (Y) , and K n (Z) , are the R, G, and B components of each stimulus value X, Y, and Z. It is set for each Y n and Z n .

黄変補正係数(実効成分比K (X)、K (Y)、K (Z)の逆数)は、基準年齢Aと対象年齢Aの組み合わせごとに予め演算されて、図1に示す記憶部7に予め記憶されてよい。または、ステップS12の処理時に式(E22)から(E24)に基づいて実効成分比K (X)、K (Y)、K (Z)及びその逆数である黄変補正係数を演算してもよい。なお、入力部3による入力操作により、基準年齢Aを任意の年齢に設定できるようにしてもよい。 The yellowing correction coefficient (the reciprocal of the effective component ratio K n (X) , K n (Y) , K n (Z) ) is calculated in advance for each combination of reference age A 1 and target age A 2 , and is shown in FIG. The information may be stored in advance in the storage unit 7 shown in FIG. Alternatively, during the process of step S12, the effective component ratios K n (X) , K n (Y) , K n (Z) and their inverse yellowing correction coefficients are calculated based on equations (E22) to (E24). It's okay. Note that the reference age A 1 may be set to an arbitrary age through an input operation using the input unit 3 .

式(E4)から(E9)を参照すると、黄変補正を行う前の三刺激値X、Y、ZにおけるR、G、Bの寄与度を示す9個の数値はa11、a12、a13、a21、a22、a23、a31、a32、a33である。これに対して、式(E10)から(E12)で示される黄変補正後の三刺激値X‘、Y’、Z‘におけるR、G、Bの寄与度を示す9個の数値はa11/K (X)、a12/K (X)、a13/K (X)、a21/K (Y)、a22/K (Y)、a23/K (Y)、a31/K (Z)、a32/K (Z)、a33/K (Z)である。すなわち、黄変補正では、三刺激値X、Y、ZのそれぞれにおけるRGB表示系のR、G、Bの寄与度を示す9個の数値を個別に調節(補正)することと同義である。 Referring to equations (E4) to (E9), the nine numerical values indicating the contribution of R, G, and B to the tristimulus values X, Y, and Z before yellowing correction are a 11 , a 12 , a 13 , a 21 , a 22 , a 23 , a 31 , a 32 , and a 33 . On the other hand, the nine numerical values representing the contribution of R, G, and B in the tristimulus values X', Y', and Z' after yellowing correction shown by equations (E10) to (E12) are a 11 /K R (X) , a 12 /K G (X) , a 13 /K B (X) , a 21 /K R (Y) , a 22 /K G (Y) , a 23 /K B (Y ) , a 31 /K R (Z) , a 32 /K G (Z) , and a 33 /K B (Z) . That is, yellowing correction is synonymous with individually adjusting (correcting) nine numerical values indicating the contribution of R, G, and B of the RGB display system in each of the tristimulus values X, Y, and Z.

以上のようにしてステップS12の黄変補正を行う。次に、以下の式(E25)から(E27)により、黄変補正後の各画素の値を三刺激値X‘、Y’、Z‘からRGB表示系の値(R‘、G‘、B‘)に変換する(S23)。
R‘=b11X‘+b12Y‘+b13Z‘ (E25)
G‘=b21X‘+b22Y‘+b23Z‘ (E26)
B‘=b31X‘+b32Y‘+b33Z‘ (E27)
The yellowing correction in step S12 is performed as described above. Next, using the following equations (E25) to (E27), the value of each pixel after yellowing correction is calculated from the tristimulus values X', Y', Z' to the RGB display system values (R', G', B ') (S23).
R'=b 11 X'+b 12 Y'+b 13 Z' (E25)
G'=b 21 X'+b 22 Y'+b 23 Z' (E26)
B'=b 31 X'+b 32 Y'+b 33 Z' (E27)

係数b11、b12、b13、b21、b22、b23、b31、b32、b33はそれぞれXのRへの寄与度、YのRへの寄与度、ZのRへの寄与度、XのGへの寄与度、YのGへの寄与度、ZのGへの寄与度、XのBへの寄与度、YのBへの寄与度、ZのBへの寄与度を示す量であるとみなされる。このb11からb33の9個のパラメータは既知の定数であり、例えば、b11=3.2406、b12=-1.5372、b13=-0.4986、b21=-0.9689、b22=1.8758、b23=0.0415、b31=0.0557、b32=-0.2040、b33=1.0570と定められている。 The coefficients b 11 , b 12 , b 13 , b 21 , b 22 , b 23 , b 31 , b 32 , and b 33 are the contribution of X to R, the contribution of Y to R, and the contribution of Z to R, respectively. Contribution, contribution of X to G, contribution of Y to G, contribution of Z to G, contribution of X to B, contribution of Y to B, contribution of Z to B is considered to be a quantity that represents These nine parameters from b 11 to b 33 are known constants, for example, b 11 = 3.2406, b 12 = -1.5372, b 13 = -0.4986, b 21 = -0.9689. , b 22 =1.8758, b 23 =0.0415, b 31 =0.0557, b 32 =-0.2040, b 33 =1.0570.

図13は、図12の注目領域の画像に対してステップS11の色補正を行った後の画像を示している。図2に戻って、次に、ステップS11の色補正後の注目領域の画像を、ステップS1で取得した原画像と合成する(S12)。具体的には、原画像の注目領域を、色補正後の注目領域に置き換える。図14は、原画像に、色補正後の注目領域を合成することに得られた画像(局所補正画像)を示している。 FIG. 13 shows an image after performing color correction in step S11 on the image of the region of interest in FIG. Returning to FIG. 2, next, the image of the region of interest after color correction in step S11 is combined with the original image acquired in step S1 (S12). Specifically, the region of interest in the original image is replaced with the region of interest after color correction. FIG. 14 shows an image (locally corrected image) obtained by combining the color-corrected region of interest with the original image.

次に、ステップS12で得られた局所補正画像を表示部4に出力して表示させる(S13)。これにより、局所補正画像が対象者(術者)に提示される。なお、ステップS12、S13が出力ステップに相当する。ステップS12、S13を実行するCPU6が出力部に相当する。 Next, the locally corrected image obtained in step S12 is output to the display unit 4 for display (S13). Thereby, the locally corrected image is presented to the subject (operator). Note that steps S12 and S13 correspond to output steps. The CPU 6 that executes steps S12 and S13 corresponds to an output section.

その後、ステップS1に戻って、次の時点の画像に対して上述のステップS1~S13を行う。このように、撮影部2が撮影する動画を構成する各時点の画像に対してステップS1~S13が繰り返される。 After that, the process returns to step S1, and the above-described steps S1 to S13 are performed on the image at the next point in time. In this way, steps S1 to S13 are repeated for images at each point in time constituting the moving image shot by the shooting unit 2.

以上のように、本実施形態では、注目領域のみに色補正を行うので、色補正後の画像中の白飛びの割合を小さくできる。ここで、下記表1は、同一の原画像に対して、画像全体に色補正を行った場合と、注目領域のみに色補正を行った場合とで、補正後の画像全体に対する白飛び領域の割合を各年齢ごとに示している。なお、表1中の「白飛び減少割合」は、白飛び割合(全体補正)と白飛び割合(局所補正)との差である。表1に示すように、注目領域のみの局所補正では、全体補正に比べて、白飛び割合が減少しており、特に高齢ほど、その減少割合が大きい。 As described above, in this embodiment, since color correction is performed only on the region of interest, it is possible to reduce the proportion of overexposure in the image after color correction. Here, Table 1 below shows the difference between overexposed areas for the entire corrected image when color correction is applied to the entire image and when color correction is performed only to the area of interest for the same original image. The percentages are shown for each age group. Note that the "whiteout reduction rate" in Table 1 is the difference between the whiteout rate (overall correction) and the whiteout rate (local correction). As shown in Table 1, local correction of only the region of interest reduces the overexposure ratio compared to overall correction, and the reduction ratio is particularly large as the age increases.

Figure 0007345126000002
Figure 0007345126000002

また、図16は、ステップS1で取得する原画像の輝度分布を例示している。図16中の符号「101」は、原画像中の、眼球中央の円形領域(注目領域)の輝度分布を示している。符号「102」は、原画像中の、注目領域以外の領域の輝度分布を示している。 Moreover, FIG. 16 illustrates the brightness distribution of the original image acquired in step S1. The reference numeral "101" in FIG. 16 indicates the brightness distribution of a circular region (region of interest) at the center of the eyeball in the original image. Reference numeral "102" indicates the brightness distribution of an area other than the attention area in the original image.

図17は、ステップS1~S12により得られた補正画像、すなわち、原画像の注目領域のみを色補正した場合の輝度分布を例示している。図17中の符号「201」は、局所補正画像中の、眼球中央の円形領域(注目領域)の輝度分布を示している。符号「202」は、局所補正画像中の、注目領域以外の領域の輝度分布を示している。図16の符号「102」の輝度分布と、図17の符号「202」の輝度分布とは互いに同じである。 FIG. 17 exemplifies the brightness distribution when only the corrected image obtained in steps S1 to S12, that is, the region of interest of the original image, is color corrected. The reference numeral "201" in FIG. 17 indicates the brightness distribution of a circular region (region of interest) at the center of the eyeball in the locally corrected image. The code “202” indicates the brightness distribution of an area other than the attention area in the locally corrected image. The luminance distribution of symbol "102" in FIG. 16 and the luminance distribution of symbol "202" in FIG. 17 are the same.

図18は、図16の輝度分布で示される原画像の全体(つまり、注目領域と、それ以外の領域との双方)に対して、ステップS11と同様の色補正を行った場合の輝度分布を例示している。図18中の符号「301」は、全体補正画像中の、眼球中央の円形領域(注目領域)の輝度分布を示している。符号「302」は、全体補正画像中の、注目領域以外の領域の輝度分布を示している。図17の符号「201」の輝度分布と、図18の符号「301」の輝度分布とは互いに同じである。なお、図17、図18は、対象者の年齢を70歳として色補正を行った場合の輝度分布を示している。 FIG. 18 shows the brightness distribution when the same color correction as in step S11 is performed on the entire original image (that is, both the attention area and other areas) shown by the brightness distribution in FIG. Illustrated. Reference numeral "301" in FIG. 18 indicates the brightness distribution of a circular region (region of interest) at the center of the eyeball in the entire corrected image. Reference numeral "302" indicates the brightness distribution of an area other than the attention area in the entire corrected image. The luminance distribution of symbol "201" in FIG. 17 and the luminance distribution of symbol "301" in FIG. 18 are the same. Note that FIGS. 17 and 18 show the luminance distribution when color correction is performed with the age of the subject being 70 years old.

図18に示すように、画像の全体に色補正を行うと、注目領域とそれ以外の領域との輝度差(特に、高輝度(高画素値)側の輝度差)が大きい。これに対して、画像の注目領域のみに色補正を行うと、図17に示すように、注目領域とそれ以外の領域との輝度差が、図18に比べて小さい。 As shown in FIG. 18, when color correction is performed on the entire image, the difference in brightness between the region of interest and other regions (particularly the difference in brightness on the high brightness (high pixel value) side) is large. On the other hand, when color correction is performed only on the region of interest in the image, the difference in brightness between the region of interest and other regions is smaller than that in FIG. 18, as shown in FIG.

このように、本実施形態の局所補正では、注目領域とそれ以外の領域との間で輝度差が大きくなるという不自然さを低減できる。 In this manner, the local correction according to the present embodiment can reduce the unnaturalness of a large brightness difference between the region of interest and other regions.

また、本実施形態では、眼科手術画像中の注目領域に色補正を行うので、術者が高齢者であったとしても、術者に眼科手術を行わせやすくできる。注目領域として眼球中央の円形領域を色補正するので、術者に白内障手術(水晶体の除去、眼内レンズの挿入など)を行わせやすくできる。 Furthermore, in this embodiment, since color correction is performed on the region of interest in the ophthalmologic surgery image, it is possible to facilitate the ophthalmologic surgery even if the operator is an elderly person. Since the circular region at the center of the eyeball is color-corrected as the region of interest, it is easier for the surgeon to perform cataract surgery (removal of crystalline lens, insertion of intraocular lens, etc.).

また、上記実施形態では、注目領域を自動で検出するので、撮影部2が撮影した動画をリアルタイムで色補正することができる。また、2値化画像中のノイズ領域を除去したうえで注目領域に対応する形状を検出するので、その検出精度を高くできる。 Furthermore, in the embodiment described above, since the region of interest is automatically detected, it is possible to perform color correction on the moving image photographed by the photographing unit 2 in real time. Further, since the shape corresponding to the region of interest is detected after removing the noise region in the binarized image, the detection accuracy can be increased.

なお、本開示は上記実施形態に限定されず種々の変更が可能である。例えば、上記実施形態では、眼科手術画像を色補正する例を示したが、眼以外の部位の手術画像を色補正してもよい。また、例えば手術以外の処置時(例えば眼の検査時)の眼画像を色補正してもよい。また、手術又は検査以外の画像に対して色補正を行ってもよい。 Note that the present disclosure is not limited to the above embodiments, and various changes are possible. For example, in the embodiment described above, an example in which an ophthalmic surgery image is color-corrected is shown, but a surgical image of a site other than the eye may be color-corrected. Further, for example, an eye image obtained during a treatment other than surgery (for example, during an eye examination) may be color-corrected. Furthermore, color correction may be performed on images other than those for surgery or examination.

上記実施形態では、色補正として黄変補正を例示したが、色補正の手法は本実施形態の手法に限定されない。また、黄変補正に加えて又は代えて、加齢に伴う瞳孔径の縮小の影響を打ち消す補正(縮瞳補正)を行ってもよい。この場合、特許第7120556号公報に記載のγ補正を行ってよい。 In the above embodiment, yellowing correction is exemplified as color correction, but the color correction method is not limited to the method of this embodiment. Further, in addition to or in place of the yellowing correction, a correction (miosis correction) may be performed to cancel the effect of reduction in pupil diameter due to aging. In this case, the γ correction described in Japanese Patent No. 7120556 may be performed.

また、上記実施形態では、局所補正画像を表示部4に出力する例を示したが、局所補正画像を画像投影装置(プロジェクタ)に出力してもよいし、局所補正画像を紙媒体等に印刷する画像印刷装置に出力してもよい。 Further, in the above embodiment, an example was shown in which the locally corrected image is output to the display unit 4, but the locally corrected image may be output to an image projection device (projector), or the locally corrected image may be printed on a paper medium or the like. The image may be output to an image printing device.

1 表示システム
2 撮影部
3 入力部
4 表示部
5 演算装置(画像処理装置)
6 CPU
7 記憶部
8 プログラム
1 Display system 2 Photographing section 3 Input section 4 Display section 5 Arithmetic device (image processing device)
6 CPU
7 Storage section 8 Program

Claims (10)

画像を取得する画像取得部と、
前記画像中の注目領域を検出する検出部と、
前記検出部が検出した前記注目領域に対して、前記画像を見る対象者の年齢に応じた色補正を行う補正部と、
前記色補正後の前記注目領域とそれ以外の領域とを含む局所補正画像を出力する出力部と、
を備える画像処理装置。
an image acquisition unit that acquires an image;
a detection unit that detects a region of interest in the image;
a correction unit that performs color correction on the attention area detected by the detection unit according to the age of a subject viewing the image;
an output unit that outputs a locally corrected image including the color-corrected region of interest and other regions;
An image processing device comprising:
前記画像は手術画像である請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the image is a surgical image. 前記画像は眼の画像である請求項1又は2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the image is an image of an eye. 前記検出部は、前記注目領域として前記画像中の円領域を検出する請求項3に記載の画像処理装置。 The image processing device according to claim 3, wherein the detection unit detects a circular area in the image as the region of interest. 前記画像は動画であり、
前記補正部は、前記動画の各時点の画像に対して前記色補正を行う請求項1に記載の画像処理装置。
the image is a video;
The image processing device according to claim 1, wherein the correction unit performs the color correction on images at each time point of the moving image.
前記検出部は、前記画像に2値化処理を行う2値化処理部を備え、前記2値化処理がされた前記画像である2値化画像に基づいて前記注目領域を検出する請求項1に記載の画像処理装置。 1 . The detection unit includes a binarization processing unit that performs a binarization process on the image, and detects the region of interest based on a binarized image that is the image that has been subjected to the binarization process. The image processing device described in . 前記検出部は、
前記2値化画像中の前記注目領域に対応する形状を検出する形状検出部と、
前記形状検出部が検出した前記形状以外の領域を隠したマスクを生成する生成部と、
前記2値化処理を行う前の前記画像に前記マスクを適用するマスク処理部と、
を備える請求項6に記載の画像処理装置。
The detection unit includes:
a shape detection unit that detects a shape corresponding to the region of interest in the binarized image;
a generation unit that generates a mask that hides a region other than the shape detected by the shape detection unit;
a mask processing unit that applies the mask to the image before performing the binarization process;
The image processing device according to claim 6, comprising:
前記検出部は、前記2値化画像中のノイズ領域を除去するノイズ除去部を備え、
前記形状検出部は、前記ノイズ領域を除去した後の前記2値化画像に基づいて前記注目領域に対応する形状を検出する請求項7に記載の画像処理装置。
The detection unit includes a noise removal unit that removes a noise region in the binarized image,
The image processing device according to claim 7, wherein the shape detection unit detects a shape corresponding to the region of interest based on the binarized image after removing the noise region.
画像を取得する画像取得ステップと、
前記画像中の注目領域を検出する検出ステップと、
前記検出ステップで検出した前記注目領域に対して、前記画像を見る対象者の年齢に応じた色補正を行う補正ステップと、
前記色補正後の前記注目領域とそれ以外の領域とを含む局所補正画像を出力する出力ステップと、
を備える画像処理方法。
an image acquisition step of acquiring an image;
a detection step of detecting a region of interest in the image;
a correction step of performing color correction on the region of interest detected in the detection step according to the age of the subject viewing the image;
outputting a locally corrected image including the color-corrected region of interest and other regions;
An image processing method comprising:
画像を取得する画像取得ステップと、
前記画像中の注目領域を検出する検出ステップと、
前記検出ステップで検出した前記注目領域に対して、前記画像を見る対象者の年齢に応じた色補正を行う補正ステップと、
前記色補正後の前記注目領域とそれ以外の領域とを含む局所補正画像を出力する出力ステップと、
をコンピュータに実行させるプログラム。
an image acquisition step of acquiring an image;
a detection step of detecting a region of interest in the image;
a correction step of performing color correction on the region of interest detected in the detection step according to the age of the subject viewing the image;
outputting a locally corrected image including the color-corrected region of interest and other regions;
A program that causes a computer to execute.
JP2023069254A 2023-04-20 2023-04-20 Image processing device, image processing method and program Active JP7345126B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023069254A JP7345126B1 (en) 2023-04-20 2023-04-20 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023069254A JP7345126B1 (en) 2023-04-20 2023-04-20 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP7345126B1 true JP7345126B1 (en) 2023-09-15

Family

ID=87972059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023069254A Active JP7345126B1 (en) 2023-04-20 2023-04-20 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7345126B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001251641A (en) 2000-03-06 2001-09-14 Nippon Hoso Kyokai <Nhk> Color television receiver and eyeglass for television watching
JP2018138142A (en) 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Medical signal processing device and medical observation system
JP7120556B1 (en) 2022-04-08 2022-08-17 株式会社中京メディカル IMAGE CORRECTION METHOD, IMAGE CORRECTION APPARATUS, AND PROGRAM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001251641A (en) 2000-03-06 2001-09-14 Nippon Hoso Kyokai <Nhk> Color television receiver and eyeglass for television watching
JP2018138142A (en) 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Medical signal processing device and medical observation system
JP7120556B1 (en) 2022-04-08 2022-08-17 株式会社中京メディカル IMAGE CORRECTION METHOD, IMAGE CORRECTION APPARATUS, AND PROGRAM

Similar Documents

Publication Publication Date Title
CN110505459B (en) Image color correction method, device and storage medium suitable for endoscope
US10846832B2 (en) Display of images
Zhou et al. Color retinal image enhancement based on luminosity and contrast adjustment
Hubbard et al. Brightness, contrast, and color balance of digital versus film retinal images in the age-related eye disease study 2
Sawides et al. Visual performance with real-life tasks under adaptive-optics ocular aberration correction
Mitra et al. Enhancement and restoration of non-uniform illuminated fundus image of retina obtained through thin layer of cataract
Reddy et al. Retinal fundus image enhancement using piecewise gamma corrected dominant orientation based histogram equalization
Kumar et al. Luminosity and contrast enhancement of retinal vessel images using weighted average histogram
JP7345126B1 (en) Image processing device, image processing method and program
Devi et al. Dehazing buried tissues in retinal fundus images using a multiple radiance pre-processing with deep learning based multiple feature-fusion
JP6818284B1 (en) Image processing equipment, image processing system, and image processing method
JP7120556B1 (en) IMAGE CORRECTION METHOD, IMAGE CORRECTION APPARATUS, AND PROGRAM
Tanaka PuRet: Material appearance enhancement considering pupil and retina behaviors
JP2018023602A (en) Fundus image processing device
US10895749B2 (en) Electronic glasses and method operating them
CN116245766A (en) Image enhancement processing method and device, electronic equipment and readable storage medium
Vonghirandecha et al. Contrast and color balance enhancement for non-uniform illumination retinal images
JP2004351059A (en) Ophthalmologic image processing apparatus
WO2017111580A1 (en) Eye examination system comprising a fundus camera and an analyzing system
JP2017033356A (en) Image processor, image processing method, and image processing program
Kedjar et al. A unified color and contrast age-dependent visual content adaptation
Tanaka et al. Parameter estimation of PuRet algorithm for managing appearance of material objects on display devices
Triantaphillidou et al. Image Quality Loss and Compensation for Visually Impaired Observers
Hasal et al. Image enhancement in retinopathy of prematurity
JP6439515B2 (en) Fundus image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230425

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230425

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230825

R150 Certificate of patent or registration of utility model

Ref document number: 7345126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350