JPH0837604A - Image processor - Google Patents
Image processorInfo
- Publication number
- JPH0837604A JPH0837604A JP7114939A JP11493995A JPH0837604A JP H0837604 A JPH0837604 A JP H0837604A JP 7114939 A JP7114939 A JP 7114939A JP 11493995 A JP11493995 A JP 11493995A JP H0837604 A JPH0837604 A JP H0837604A
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- unit
- data
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Endoscopes (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、撮像手段により被写体
を撮像して得られた画像信号を画像記録再生装置に記録
する場合に、画像記録再生装置で再現される画像の画質
を改善する画像処理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image for improving the image quality of an image reproduced by an image recording / reproducing apparatus when an image signal obtained by capturing an image of a subject by an image capturing means is recorded in the image recording / reproducing apparatus. Regarding a processing device.
【0002】[0002]
【従来の技術】従来より管腔内に挿入する細長な挿入部
を備え、この挿入部の先端の被写体を撮像し、被写体画
像をモニタに表示し、観察、治療する電子内視鏡が広く
用いられている。2. Description of the Related Art Conventionally, an electronic endoscope has been widely used which has a slender insertion portion to be inserted into a lumen, images a subject at the tip of the insertion portion, displays the subject image on a monitor, and observes and treats the subject. Has been.
【0003】この電子内視鏡により撮像された電子内視
鏡画像を記録するための画像記録装置があり、例えば内
視鏡画像を記録するビデオプリンタ、又は画像記録装置
内に内蔵したCRT上に再現された内視鏡画像を撮影し
フィルム画像として記録するフィルムレコーダ等が使わ
れていた。There is an image recording device for recording an electronic endoscopic image picked up by this electronic endoscope, for example, on a video printer for recording the endoscopic image or on a CRT built in the image recording device. A film recorder or the like has been used that captures a reproduced endoscopic image and records it as a film image.
【0004】そして、従来例にあっては、ビデオプリン
タ又はフィルムレコーダ等多様な画像記録装置が使われ
ている一方で、作業者は通常、電子内視鏡に接続された
モニタに再現された内視鏡画像を観察している。In the conventional example, while various image recording devices such as a video printer or a film recorder are used, an operator usually reproduces the image on a monitor connected to the electronic endoscope. Observing the endoscopic image.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、作業者
が通常観察している内視鏡画像の色、又は鮮鋭感と、多
様な画像記録装置で再現される色、又は鮮鋭感の間に
は、多様な画像記録装置に於ける画像再現過程の違いに
より、人間が知覚する色の差(色差)、又は鮮鋭感の差
が発生する。この色差、又は鮮鋭感の差によって、作業
者は画像記録装置により再現される画像に違和感を感じ
ることがあった。However, there is a difference between the color or sharpness of an endoscopic image normally observed by an operator and the color or sharpness reproduced by various image recording devices. Due to the difference in image reproduction process in various image recording devices, a difference in color (color difference) perceived by humans or a difference in sharpness occurs. Due to this color difference or difference in sharpness, an operator may feel a sense of discomfort in the image reproduced by the image recording apparatus.
【0006】又、以上のような色差を測色的に改善し、
画像記録装置による周波数伝達特性(以下、MTF)の
劣化を改善したとしても、モニタに再現された内視鏡画
像に対する作業者の記憶等によって、作業者が所望する
色と鮮鋭感が、測色的に色差を改善し、MTFの劣化を
改善した結果とは異なる場合もある。このような場合、
作業者が所望する色、又は鮮鋭感を得るため画質調整を
行うが、画像記録装置に入力される複数の映像信号は電
子内視鏡に依存した色空間であって、人間の知覚色を表
す知覚色空間でないこと、又画像記録装置の画像再現過
程が複雑であることから、作業者が複数の映像信号を調
整して所望の色、及び鮮鋭感を再現するのは容易ではな
かった。Further, the above color difference is colorimetrically improved,
Even if the deterioration of the frequency transfer characteristic (hereinafter referred to as MTF) by the image recording device is improved, the color and sharpness desired by the operator can be measured by the memory of the operator for the endoscopic image reproduced on the monitor. In some cases, the color difference may be improved and the deterioration of the MTF may be improved. In such a case,
The image quality is adjusted to obtain the desired color or sharpness by the operator, but the plurality of video signals input to the image recording device are color spaces dependent on the electronic endoscope and represent human perceived colors. Since it is not a perceptual color space and the image reproduction process of the image recording apparatus is complicated, it is not easy for an operator to reproduce a desired color and sharpness by adjusting a plurality of video signals.
【0007】さらに、特に内視鏡画像のように、色分布
に特徴がある画像で、微妙な色調の変化の再現を必要と
する分野については、補正対象となる画像の色分布に関
して集中的により高精度の補正及び微妙な調整が必要で
ある。近年では、色差の補正を行う汎用装置が提案され
ているが、風景や人物像等、広範囲の色に関して平均的
に画質を改善する装置であり、内視鏡画像に求められて
いる高精度な補正、及び微妙な調整は十分であるとは言
い難い。Furthermore, particularly in an image such as an endoscopic image, which is characterized by a color distribution and in which a subtle change in color tone needs to be reproduced, the color distribution of the image to be corrected is intensively focused. High-precision correction and subtle adjustment are required. In recent years, a general-purpose device that corrects color differences has been proposed, but it is a device that improves the image quality on a wide range of colors, such as landscapes and human images, on average, and has the high accuracy required for endoscopic images. It is hard to say that the correction and the fine adjustment are sufficient.
【0008】本発明は、上記事情に鑑みてなされたもの
であり、撮像装置からの映像信号を入力するモニタに再
現された画像の色と、画像記録装置により再現される画
像の色の差を測色的に改善し、又はモニタに再現された
画像の鮮鋭感と、画像記録装置により再現される画像の
鮮鋭感の差をMTFの差に於いて改善する画像処理装置
の提供を目的とする。The present invention has been made in view of the above circumstances, and determines the difference between the color of an image reproduced on a monitor which inputs a video signal from an image pickup device and the color of an image reproduced by an image recording device. An object of the present invention is to provide an image processing apparatus which improves the difference in sharpness of an image reproduced colorimetrically or reproduced on a monitor and the sharpness of an image reproduced by an image recording apparatus in terms of MTF difference. .
【0009】又、モニタに再現された画像に対する作業
者の記憶、観察条件等によって、作業者が目標とする画
質が、測色的に色差が改善され、又は鮮鋭感が補正され
た結果から変動した場合にも、作業者が目標とする好ま
しい色、又は好ましい鮮鋭感を再現することを可能にす
る画像処理装置の提供を目的とする。Further, the image quality targeted by the operator varies from the result of colorimetrically improving the color difference or correcting the sharpness depending on the memory, the observation conditions, etc. of the operator with respect to the image reproduced on the monitor. Even in such a case, it is an object of the present invention to provide an image processing apparatus that enables an operator to reproduce a desired color or a desired sharpness.
【0010】[0010]
【課題を解決するための手段及び作用】本発明の画像処
理装置は、被写体を撮像して画像信号を出力する撮像手
段と、前記撮像手段の出力する画像信号を記録媒体に記
録する画像記録手段と、前記撮像手段から出力される画
像信号が入力されて前記被写体の画像を表示する画像表
示手段とを備えた画像処理装置において、前記撮像手段
から出力された画像信号に基づき前記画像表示手段に表
示される画像と、前記画像記録手段から得られた画像と
の画質を等価にする画像処理データに基づき、前記撮像
手段から出力される画像信号を処理する画像信号処理手
段を備え、画像信号処理手段が、前記撮像手段から出力
された画像信号に基づき前記画像表示手段に表示される
画像と、前記画像記録手段から得られた画像との画質を
等価にする画像処理データに基づき、前記撮像手段から
出力される画像信号を処理することで、撮像手段からの
映像信号を入力する画像表示手段に再現された画像の色
と、画像記録手段により再現される画像の色の差を測色
的に改善し、又は表示手段に再現された画像の鮮鋭感と
画像記録手段により再現される画像の鮮鋭感の差をMT
Fの差に於いて改善することを可能にすると共に、画像
表示手段に再現された画像に対する作業者の記憶等によ
って、作業者が目標とする画質が、測色的に色差が改善
され、又は鮮鋭感が補正された結果から変動した場合に
も、作業者が目標とする好ましい色、又は好ましい鮮鋭
感を再現することを可能にするを可能とする。The image processing apparatus of the present invention comprises an image pickup means for picking up an image of a subject and outputting an image signal, and an image recording means for recording the image signal output by the image pickup means on a recording medium. And an image display unit for displaying an image of the subject by inputting an image signal output from the image pickup unit, wherein the image display unit displays the image signal based on the image signal output from the image pickup unit. Image signal processing means for processing the image signal output from the image pickup means based on image processing data that equalizes the image quality of the displayed image and the image obtained from the image recording means is provided. Image processing means for equalizing the image quality of the image displayed on the image display means based on the image signal output from the imaging means and the image obtained from the image recording means. By processing the image signal output from the image pickup means based on the data, the color of the image reproduced on the image display means for inputting the video signal from the image pickup means and the color of the image reproduced by the image recording means. Is improved colorimetrically, or the difference between the sharpness of the image reproduced on the display means and the sharpness of the image reproduced by the image recording means is MT.
It is possible to improve the difference in F, and the image quality targeted by the operator is improved colorimetrically by the operator's memory of the image reproduced on the image display means, or Even when the sharpness varies from the corrected result, it is possible to allow the operator to reproduce the target preferable color or the desired sharpness.
【0011】[0011]
【実施例】以下、図面を参照して本発明の実施例を説明
する。Embodiments of the present invention will be described below with reference to the drawings.
【0012】図1ないし図11は本発明の第1実施例に
係り、図1は第1実施例の画像処理装置を備えた内視鏡
システムの構成を示す構成図、図2は図1の内視鏡シス
テムの詳細な構成を示すブロック構成図、図3は図1の
画像処理装置の構成を示す構成図、図4は図3の中央処
理装置の画像処理部のソフトウエアの構成を示すソフト
ウエア構成図、図5は図4の色変換部のソフトウエアの
構成を示すソフトウエア構成図、図6は図4の色変換部
の処理の流れを説明するフローチャート、図7は図4の
色変換部で使用されるCIE1976(L*u*v*)色
空間に於ける一般的な内視鏡画像の色分布を説明する概
念図、図8は図4の鮮鋭感補正部のソフトウエアの構成
を示すソフトウエア構成図、図9は図4の鮮鋭感補正部
による鮮鋭感補正の概念を説明する説明図、図10は図
4の鮮鋭感補正部の処理の流れを説明するフローチャー
ト、図11は図4の鮮鋭感補正部による鮮鋭感補正を説
明する説明図である。1 to 11 relate to a first embodiment of the present invention, FIG. 1 is a block diagram showing the configuration of an endoscope system including an image processing apparatus of the first embodiment, and FIG. 2 is a diagram of FIG. FIG. 3 is a block diagram showing a detailed configuration of the endoscope system, FIG. 3 is a configuration diagram showing a configuration of the image processing apparatus of FIG. 1, and FIG. 4 is a configuration of software of an image processing unit of the central processing unit of FIG. FIG. 5 is a software configuration diagram, FIG. 5 is a software configuration diagram showing the software configuration of the color conversion unit of FIG. 4, FIG. 6 is a flowchart explaining the processing flow of the color conversion unit of FIG. 4, and FIG. FIG. 8 is a conceptual diagram illustrating the color distribution of a general endoscopic image in the CIE1976 (L * u * v * ) color space used in the color conversion unit. FIG. 8 is software of the sharpness correction unit in FIG. FIG. 9 is a software configuration diagram showing the configuration of FIG. Figure Legend for explaining the concept of FIG. 10 is a flow chart, FIG. 11 is a flowchart for explaining a processing procedure sharpness correcting unit of FIG. 4 is an explanatory view illustrating a sharpness correction by sharpness correction unit of FIG.
【0013】図1に示すように、内視鏡システム1は、
被写体を撮像する撮像部を備えた電子内視鏡装置2(撮
像手段)と、撮像された内視鏡画像に対して色変換処理
及び/又は鮮鋭感補正処理を行う画像処理装置3(画像
信号処理手段)と、内視鏡画像を記録する内視鏡画像記
録装置4(画像記録再生手段)から構成される。As shown in FIG. 1, the endoscope system 1 includes
An electronic endoscope apparatus 2 (imaging unit) including an imaging unit that images a subject, and an image processing apparatus 3 (image signal that performs color conversion processing and / or sharpness correction processing on a captured endoscopic image. Processing means) and an endoscopic image recording device 4 (image recording / reproducing means) for recording an endoscopic image.
【0014】電子内視鏡装置2は、被写体を撮像する撮
像手段である電子内視鏡6と、この電子内視鏡6に照明
光を供給する光源部7A及び撮像手段に対する信号処理
を行う信号処理部7Bを内蔵した観察装置7と、この観
察装置7から出力される画像信号を表示する観察用モニ
タ8(画像表示手段)とから構成される。The electronic endoscope apparatus 2 is a signal for performing signal processing on the electronic endoscope 6 which is an image pickup means for picking up an image of a subject, a light source section 7A for supplying illumination light to the electronic endoscope 6 and the image pickup means. The observation device 7 has a built-in processing unit 7B and an observation monitor 8 (image display means) for displaying an image signal output from the observation device 7.
【0015】上記電子内視鏡6は生体9内に挿入される
細長の挿入部11と、この挿入部11の後端に形成され
た操作部12と、この操作部12から延出されたユニバ
ーサルケーブル13とから構成され、このユニバーサル
ケーブル13の先端に設けたコネクタ14を観察装置7
に接続することができる。The electronic endoscope 6 has an elongated insertion part 11 to be inserted into a living body 9, an operation part 12 formed at a rear end of the insertion part 11, and a universal part extended from the operation part 12. The observation device 7 includes a connector 14 that is composed of a cable 13 and is provided at the end of the universal cable 13.
Can be connected to.
【0016】上記挿入部11内にはライトガイド15が
挿通され(図1の円内の電子内視鏡6の先端拡大図参
照)、コネクタ14を観察装置7に接続することによ
り、光源部7Aから照明光が入射端面に供給される。そ
して照明光がライトガイド15によって伝送され、電子
内視鏡6の先端部16側の端面から前方に出射され、生
体9内の対象部位を照明する。この照明された対象部位
は先端部16に設けた対物レンズ17によってその結像
位置に配置されたCCD18に結像され、光電変換され
る。この対物レンズ17とCCD18とで撮像手段とし
ての撮像部19を形成する。A light guide 15 is inserted into the insertion portion 11 (see an enlarged view of the tip of the electronic endoscope 6 in a circle in FIG. 1), and a connector 14 is connected to the observation device 7 to thereby form a light source portion 7A. Illuminating light is supplied to the incident end surface. Then, the illumination light is transmitted by the light guide 15 and is emitted forward from the end face of the electronic endoscope 6 on the side of the distal end portion 16 to illuminate the target site in the living body 9. The illuminated target portion is imaged by the objective lens 17 provided on the tip portion 16 on the CCD 18 arranged at the image forming position, and photoelectrically converted. The objective lens 17 and the CCD 18 form an image pickup section 19 as an image pickup means.
【0017】上記CCD18で光電変換された画像信号
は、観察装置7内の信号処理部7Bにより、信号処理さ
れて画像信号が生成され、この画像信号は観察用モニタ
8に出力されると共に、画像処理装置3に出力され、画
像処理装置3により画像処理された画像が内視鏡画像記
録装置4に記録される。The image signal photoelectrically converted by the CCD 18 is subjected to signal processing by the signal processing section 7B in the observation device 7 to generate an image signal, which is output to the observation monitor 8 and the image. The image output to the processing device 3 and image-processed by the image processing device 3 is recorded in the endoscope image recording device 4.
【0018】次に、観察装置7に於ける光源部7Aと信
号処理部7Bの構成について説明する。Next, the structures of the light source section 7A and the signal processing section 7B in the observation device 7 will be described.
【0019】図2に示すように、光源部7Aは、紫外光
から赤外光に至る広帯域の光を発光するランプ21を備
えている。このランプ21としては、一般的なキセノン
ランプやストロボランプ等を用いることができ、このキ
セノンランプやストロボランプ等は、可視光のみならず
紫外光及び赤外光を大量に発光する。As shown in FIG. 2, the light source section 7A is provided with a lamp 21 that emits light in a wide band from ultraviolet light to infrared light. A general xenon lamp, a strobe lamp, or the like can be used as the lamp 21, and the xenon lamp, the strobe lamp, or the like emits not only visible light but also a large amount of ultraviolet light and infrared light.
【0020】このランプ21は、電源22によって電力
が供給されて発光するようになっている。そして、上記
ランプ21の前方には、モータ23によって回転駆動さ
れる回転フィルタ24が配設されている。この回転フィ
ルタ24には通常観察用の赤(R)、緑(G)、青
(B)の各波長領域の光を透過するフィルタが周方向に
沿って配列されている。Power is supplied to the lamp 21 from a power source 22 so that the lamp 21 emits light. A rotary filter 24, which is rotationally driven by a motor 23, is arranged in front of the lamp 21. Filters that transmit light in the respective wavelength regions of red (R), green (G), and blue (B) for normal observation are arranged on the rotary filter 24 along the circumferential direction.
【0021】又、モータ23はモータドライバ25によ
って回転が制御されて駆動されるようになっている。上
記回転フィルタ24を透過し、R,G,Bの各波長領域
の光に時系列的に分離された光は、さらにライトガイド
15の入射端に入射され、このライトガイド15を介し
て電子内視鏡6の先端部16側の出射端面に導かれ、こ
の出射端面から前方に出射されて、観察部位等を照明す
るようになっている。The rotation of the motor 23 is controlled by a motor driver 25 and is driven. The light that has passed through the rotary filter 24 and is time-sequentially separated into lights in the R, G, and B wavelength regions is further incident on the incident end of the light guide 15, and the light is guided through the light guide 15 to the inside of the electron. The endoscope 6 is guided to the emission end face on the side of the distal end portion 16 and emitted forward from this emission end face to illuminate an observation site or the like.
【0022】この照明光による観察部位等の被検体(被
写体)からの戻り光は、対物レンズ17によって、CC
D18上に結像され、光電変換されるようになってい
る。このCCD18には、信号線26を介して信号処理
部7B内のドライバ31からの駆動パルスが印加され、
この駆動パルスによって光電変換された被検体の画像に
対応した電気信号(映像信号)の読み出しが行われるよ
うになっている。The return light from the subject (subject) such as the observation site due to the illumination light is transmitted by the objective lens 17 to the CC
An image is formed on D18 and photoelectrically converted. A drive pulse from a driver 31 in the signal processing unit 7B is applied to the CCD 18 via a signal line 26,
An electric signal (video signal) corresponding to the image of the subject photoelectrically converted by the drive pulse is read out.
【0023】このCCD18から読み出された電気信号
は、信号線27を介して、信号処理部7B内に設けられ
たプリアンプ32に入力されるようになっている。尚、
このプリアンプ32は電子内視鏡6内に設けて構成して
も良い。The electric signal read from the CCD 18 is input to the preamplifier 32 provided in the signal processing section 7B via the signal line 27. still,
The preamplifier 32 may be provided in the electronic endoscope 6 and configured.
【0024】信号処理部7Bでは、プリアンプ32で増
幅された映像信号は、プロセス回路33に入力されてγ
補正及びホワイトバランス等の信号処理を施され、A/
Dコンバータ34によって、ディジタル信号に変換され
るようになっている。In the signal processing unit 7B, the video signal amplified by the preamplifier 32 is input to the process circuit 33 to be γ.
Signal processing such as correction and white balance is performed, and A /
It is adapted to be converted into a digital signal by the D converter 34.
【0025】このディジタルの映像信号は、セレクト回
路35によって、例えば赤(R)、緑(G)、青(B)
の各色に対応する3つのメモリ(1)36a、メモリ
(2)36b、メモリ(3)36cに選択的に記憶され
るようになっている。上記メモリ(1)36a、メモリ
(2)36b、メモリ(3)36cに記憶されたR,
G,B色信号は、同時に読み出され、D/Aコンバータ
37によって、アナログ信号に変換され、入出力インタ
ーフェース38を介してR,G,B色信号として観察用
モニタ8に出力され、この観察用モニタ8によって、観
察部位がカラー表示されるようになっている。尚、以
下、インターフェースという表現をI/Fと表す。This digital video signal is, for example, red (R), green (G), blue (B) by the selection circuit 35.
Are selectively stored in the three memories (1) 36a, memory (2) 36b, and memory (3) 36c corresponding to the respective colors. R stored in the memory (1) 36a, the memory (2) 36b, and the memory (3) 36c,
The G and B color signals are simultaneously read out, converted into analog signals by the D / A converter 37, and output to the observation monitor 8 as R, G and B color signals via the input / output interface 38, and this observation is performed. The observation part is displayed in color by the monitor 8. In the following, the expression “interface” is referred to as “I / F”.
【0026】又、信号処理部7B内には、システム全体
のタイミングを作るタイミングジェネレータ39が設け
られ、このタイミングジェネレータ39によってモータ
ドライバ25、ドライバ31、セレクト回路35等の上
記の各回路間の同期がとられている。A timing generator 39 is provided in the signal processing unit 7B to generate the timing of the entire system, and the timing generator 39 synchronizes the above-mentioned circuits such as the motor driver 25, the driver 31, and the selection circuit 35. Has been taken.
【0027】この実施例では、メモリ(1)36a、メ
モリ(2)36b、メモリ(3)36cの出力端及びタ
イミングジェネレータ39の同期信号出力端は、画像処
理装置3と接続されている。In this embodiment, the output terminals of the memory (1) 36a, the memory (2) 36b, the memory (3) 36c and the sync signal output terminal of the timing generator 39 are connected to the image processing apparatus 3.
【0028】次に、画像処理装置3の構成を説明する。
図3に示すように、画像処理装置3は、プログラム等が
格納されたROM45と、このROM45に格納された
プログラムに従って処理を実行する中央処理装置40
と、中央処理装置40に対してデータ等を入力する情報
入力装置41と、中央処理装置40の処理によるデータ
等の格納を行うRAMより構成される主記憶装置42
と、信号処理部7BからのR,G,B画像データを入力
する画像入力I/F43と、画像処理装置3により画像
処理されたデータを記憶する外部記憶装置44と、内視
鏡画像を記録する内視鏡画像記録装置4と接続されデー
タの入出力を行う画像記録装置I/F46とを備えて構
成され、これらの各装置はバス48によって接続されて
いる。Next, the structure of the image processing apparatus 3 will be described.
As shown in FIG. 3, the image processing apparatus 3 includes a ROM 45 that stores programs and the like, and a central processing unit 40 that executes processing in accordance with the programs stored in the ROM 45.
And an information input device 41 for inputting data and the like to the central processing unit 40, and a main storage device 42 composed of a RAM for storing data and the like by the processing of the central processing unit 40.
An image input I / F 43 for inputting R, G, B image data from the signal processing unit 7B, an external storage device 44 for storing data image-processed by the image processing device 3, and an endoscope image recorded. And an image recording device I / F 46 which is connected to the endoscope image recording device 4 for inputting / outputting data, and these devices are connected by a bus 48.
【0029】上記情報入力装置41は、キーボード等で
構成され、電子内視鏡6の種別等のデータ等を入力でき
るようになっている。画像入力I/F43は、画像処理
部7B内のメモリ(1)36a、メモリ(2)36b、
メモリ(3)36cに接続され、タイミングジェネレー
タ39によって同期がとられ、これらの画像データの受
信を行うようになっている。The information input device 41 is composed of a keyboard and the like, and can input data such as the type of the electronic endoscope 6 and the like. The image input I / F 43 includes a memory (1) 36a, a memory (2) 36b, and a memory (2) 36b in the image processing unit 7B.
It is connected to the memory (3) 36c, is synchronized by the timing generator 39, and receives these image data.
【0030】中央処理装置40は、ROM45に記憶さ
れたプログラムにより動作する画像処理部47を有し、
この画像処理部47は、図4に示すように、内視鏡画像
記録装置4により再現される画像の色が観察用モニタ8
に表示される画像の色と一致するように色変換を行う色
変換部50と、及び又は内視鏡画像記録装置4により再
現される画像の鮮鋭感補正処理を行う鮮鋭感補正部51
等からなる。The central processing unit 40 has an image processing unit 47 which operates according to a program stored in the ROM 45,
As shown in FIG. 4, the image processing unit 47 displays the color of the image reproduced by the endoscopic image recording device 4 on the observation monitor 8.
The color conversion unit 50 that performs color conversion so as to match the color of the image displayed on the display, and / or the sharpness correction unit 51 that performs the sharpness correction process of the image reproduced by the endoscopic image recording apparatus 4.
Etc.
【0031】尚、図4では、色変換部50が、鮮鋭感補
正部51の前段に位置するが、この位置を逆にすること
も可能である。In FIG. 4, the color conversion unit 50 is located in front of the sharpness correction unit 51, but this position can be reversed.
【0032】ところで、主記憶装置42に比べ外部記憶
装置44は、記憶可能なデータの容量が大きいが、デー
タの入出力の速度は遅いという特徴がある。従って、外
部記憶装置44には、色変換処理や鮮鋭感補正処理等で
必要な大量のパラメータデータ等を記憶しておき、必要
なときにだけに読み出されたり、或いは色変換処理や鮮
鋭感補正処理等で発生した大量のデータを記憶しておく
ために使用される。尚、外部記憶装置44は、例えばハ
ードディスク、光磁気ディスク、フラッシュメモリ等に
より構成され、主記憶装置42はRAM等の半導体メモ
リにより構成される。By the way, the external storage device 44 is characterized in that the storage capacity of the external storage device 44 is larger than that of the main storage device 42, but the input / output speed of the data is slow. Therefore, the external storage device 44 stores a large amount of parameter data or the like necessary for color conversion processing, sharpness correction processing, etc., and is read out only when necessary, or color conversion processing or sharpness correction is performed. It is used to store a large amount of data generated by correction processing and the like. The external storage device 44 is composed of, for example, a hard disk, a magneto-optical disk, a flash memory, etc., and the main storage device 42 is composed of a semiconductor memory such as RAM.
【0033】次に、中央処理装置40の画像処理部47
における色変換部50について説明する。Next, the image processing section 47 of the central processing unit 40.
The color conversion unit 50 in FIG.
【0034】図3に於いて、画像処理装置3では、画像
入力I/F43を介して入力された画像データは、一旦
主記憶装置42内に記憶される。又、画像データを構成
するRGBデータを主記憶装置42から読み出した後、
さらに中央処理装置40に転送され、中央処理装置によ
り色変換部50が実行され、色変換結果は一旦主記憶装
置42に記憶された後、画像記録装置I/F46を介し
て画像記録装置4へ出力される。In FIG. 3, in the image processing device 3, the image data input via the image input I / F 43 is temporarily stored in the main storage device 42. In addition, after reading the RGB data forming the image data from the main storage device 42,
Further, the color conversion result is transferred to the central processing unit 40, the color conversion unit 50 is executed by the central processing unit, the color conversion result is temporarily stored in the main storage device 42, and then is transferred to the image recording device 4 via the image recording device I / F 46. Is output.
【0035】色変換処理を図3の中央処理装置40で実
行する場合に於いて、ROM45内に記憶されたプログ
ラムに相当する色変換部50のソフトウエア構成は、図
5に示すように、RGBデータR,G,BをCIE19
76(L*u*v*)色空間座標L*,u*,v*へ変換し出
力する色空間座標変換部60と、色空間座標変換部60
から出力されたCIE1976(L*u*v*)色空間座
標L*,u*,v*に対して3×3の行列演算を実行しC
IE1976(L*u*v*)色空間座標L*',u*',
v*'を出力する行列演算部61と、行列演算部61から
出力されたCIE1976(L*u*v*)色空間座標
L*',u*',v*'を規格化されたRGBデータR',
G',B'へ変換する色空間座標逆変換部62とから構成
される。When the color conversion processing is executed by the central processing unit 40 of FIG. 3, the software configuration of the color conversion unit 50 corresponding to the program stored in the ROM 45 is RGB as shown in FIG. Data R, G, B are converted to CIE19
76 (L * u * v * ) color space coordinate conversion unit 60 for converting and outputting to L * , u * , v * color space coordinates, and color space coordinate conversion unit 60
The CIE1976 (L * u * v * ) color space coordinates L * , u * , v * output from the CIE 1976 (3 * 3) matrix operation are executed to C.
IE1976 (L * u * v * ) color space coordinates L * ', u * ',
Matrix operation unit 61 that outputs v * ', and CIE1976 (L * u * v * ) color space coordinates L * ', u * ', v * ' standardized RGB data output from the matrix operation unit 61 R ',
The color space coordinate reverse conversion unit 62 for converting into G ′ and B ′.
【0036】尚、RGBデータは、8ビットに規格化さ
れているものとして以下説明するが、規格化数は8ビッ
トに限定されるものではなく、8ビットより多くても、
又は少なくてもよい。The RGB data will be described below as being standardized to 8 bits, but the standardization number is not limited to 8 bits, and even if the standardization number is more than 8 bits,
Or it may be small.
【0037】そして、色変換部50の色空間座標変換部
60は、入力されたRGBデータR,G,Bを、観察用
モニタ8上で知覚される色を表現するところの、CIE
1976(L*u*v*)色空間座標L*,u*,v*へ変換
する。Then, the color space coordinate conversion unit 60 of the color conversion unit 50 expresses the inputted RGB data R, G, B as a color perceived on the observation monitor 8 by CIE.
Convert to 1976 (L * u * v * ) color space coordinates L * , u * , v * .
【0038】詳細には、色空間座標変換部60では、図
6に示すように、ステップS1でRGBデータR,G,
BからCIE(XYZ)三刺激値X,Y,Zへの変換を
行い、続いてステップS2でCIE(XYZ)三刺激値
X,Y,ZからCIE1976(L*u*v*)色空間座
標L*,u*,v*への変換を行う。この時のステップS
1での変換式を式(1)(文献1:東京大学出版会,色
彩科学ハンドブック,936ページ)及びステップS2
での変換式を式(2)(文献1:東京大学出版会,色彩
科学ハンドブック,139〜140ページ)に示す。More specifically, in the color space coordinate conversion section 60, as shown in FIG. 6, the RGB data R, G,
Conversion from B to CIE (XYZ) tristimulus values X, Y, Z is performed, and subsequently, in step S2, CIE (XYZ) tristimulus values X, Y, Z to CIE1976 (L * u * v * ) color space coordinates. Convert to L * , u * , v * . Step S at this time
The conversion formula in 1 is represented by formula (1) (Reference 1: The University of Tokyo Press, Color Science Handbook, page 936) and step S2.
The conversion formula in (1) is shown in Formula (2) (Reference 1: The University of Tokyo Press, Color Science Handbook, pages 139 to 140).
【0039】[0039]
【数1】 [Equation 1]
【数2】 尚、式(1)に於ける行列要素は、NTSCが定める受
像三原色のxy色度座標を使った場合の係数であり、受
像三原色が変化すれば、それに応じて行列要素は改めて
決定される。そしてモニタのγ特性を考慮して、RGB
データを補正し、補正後のRGBデータを式(1)に適
用することもできる。[Equation 2] The matrix elements in the equation (1) are coefficients when the xy chromaticity coordinates of the image-receiving three primary colors defined by NTSC are used, and if the image-receiving three primary colors change, the matrix elements are determined again. Then, considering the γ characteristic of the monitor, RGB
It is also possible to correct the data and apply the corrected RGB data to the equation (1).
【0040】次に、色空間座標変換部60から行列演算
部61に処理が移行し、図6のステップS3に示すよう
に、CIE1976均等色空間内に於ける3×3の行列
Mによる行列演算により、CIE1976(L*u
*v*)色空間座標L*,u*,v*をCIE1976(L*
u*v*)色空間座標L*',u*',v*'へ変換する。この
時の変換式を式(3)に示す。Next, the processing shifts from the color space coordinate conversion unit 60 to the matrix calculation unit 61, and as shown in step S3 of FIG. 6, the matrix calculation by the 3 × 3 matrix M in the CIE1976 uniform color space. CIE1976 (L * u
* v * ) color space coordinates L * , u * , v * are converted to CIE1976 (L *
u * v * ) Convert to color space coordinates L * ', u * ', v * '. The conversion formula at this time is shown in Formula (3).
【0041】[0041]
【数3】 続いて、行列演算部61から出力されるCIE1976
(L*u*v*)色空間座標L*',u*',v*'は、色空間
座標逆変換部62に於いて、図6のステップS4及びス
テップS5を経て、RGBデータR',G',B'へ変換
される。つまりステップS4では、ステップS2の逆変
換が行われ、CIE1976(L*u*v*)色空間座標
L*',u*',v*'からCIE(XYZ)三刺激値X',
Y',Z'への変換が行われる。そしてステップS5で
は、ステップS1の逆変換が行われ、CIE(XYZ)
三刺激値X',Y',Z'からRGBデータR',G',B'
への変換が行われる。(Equation 3) Then, the CIE1976 output from the matrix calculation unit 61.
The (L * u * v * ) color space coordinates L * ', u * ', v * 'are converted into RGB data R'through the color space coordinate inverse conversion unit 62 through steps S4 and S5 of FIG. , G ', B'. That is, in step S4, the inverse transformation of step S2 is performed, and the CIE1976 (L * u * v * ) color space coordinates L * ', u * ', v * 'are converted to CIE (XYZ) tristimulus values X',
Conversion into Y'and Z'is performed. Then, in step S5, the inverse conversion of step S1 is performed, and CIE (XYZ)
RGB data R ', G', B'from tristimulus values X ', Y', Z '.
Is converted to.
【0042】続いて、ステップS6ではRGBデータ
R',G',B'が、所定の範囲内(例えば、規格化数が
8ビットの場合、0〜255等)に収まるかを判定し、
RGBデータR',G',B'が所定の範囲内であれば、
そのままRGBデータR',G',B'を出力して処理を
終了する。また、RGBデータR',G',B'が所定の
範囲外であった時ステップS7に進み、ステップS7で
四捨五入、或いは規格化範囲の下限、上限に於ける切り
捨て、切り上げ等の規格化処理が行われ、最終的には、
色空間座標逆変換部62から規格化されたRGBデータ
R',G',B'が出力され処理を終了する。Then, in step S6, it is determined whether the RGB data R ', G', B'is within a predetermined range (for example, 0 to 255 when the standardization number is 8 bits).
If the RGB data R ′, G ′, B ′ are within a predetermined range,
The RGB data R ′, G ′, B ′ is output as it is, and the processing is ended. Further, when the RGB data R ′, G ′, B ′ is out of the predetermined range, the process proceeds to step S7 and is rounded off in step S7, or the standardization process such as rounding down or rounding up at the lower and upper limits of the standardized range is performed. Is done, and finally,
The normalized RGB data R ′, G ′, B ′ is output from the color space coordinate reverse conversion unit 62, and the process is terminated.
【0043】次に、式(3)に於ける行列Mの行列要素
(mij)を決定する方法を、図7を用いて説明する。Next, a method of determining the matrix element (mij) of the matrix M in the equation (3) will be described with reference to FIG.
【0044】図7は、RGBデータR',G',B'によ
り、観察用モニタ8上に表示される画像の色と、画像記
録装置4に同じRGBデータR',G',B'を入力して
再現される再現画像の色との関係を、CIE1976
(L*u*v*)色空間座標で表現したものである。FIG. 7 shows the RGB data R ′, G ′, B ′, the color of the image displayed on the observation monitor 8 and the same RGB data R ′, G ′, B ′ in the image recording device 4. The relationship between the colors of the reproduced image that is input and reproduced is CIE1976.
(L * u * v * ) color space coordinates.
【0045】図7に於いて、点P(L*',u*',v*')
は、RGBデータR',G',B'を、観察用モニタ8に
入力し表示された色を観察した時に知覚される色を表現
するところの、CIE1976(L*u*v*)色空間座
標である。又、点Q(L*,u*,v*)は、RGBデー
タR',G',B'を画像記録装置4に入力して、再現さ
れた再現画像を観察した時に知覚される色の、CIE1
976(L*u*v*)色空間座標である。又、点Q
(L*,u*,v*)を観察用モニタ8上に表示するため
に、観察用モニタ8へ入力しなければならないRGBデ
ータは、R,G,Bであるとする。In FIG. 7, point P (L * ', u * ', v * ')
Is a CIE1976 (L * u * v * ) color space in which RGB data R ′, G ′, B ′ is expressed as a color perceived when the displayed color is observed by inputting it to the observation monitor 8. Coordinates. Further, the point Q (L * , u * , v * ) is a color that is perceived when the reproduced reproduction image is observed by inputting the RGB data R ′, G ′, B ′ to the image recording device 4. , CIE1
976 (L * u * v * ) color space coordinates. Also, point Q
In order to display (L * , u * , v * ) on the observation monitor 8, RGB data that must be input to the observation monitor 8 are R, G, and B.
【0046】ここで、CIE1976(L*u*v*)色
空間に於ける2点間のユークリッド距離が表す意味につ
いて簡単に説明する。Here, the meaning represented by the Euclidean distance between two points in the CIE1976 (L * u * v * ) color space will be briefly described.
【0047】CIE1976(L*u*v*)色空間は均
等知覚色空間とも呼ばれており、CIE1976(L*
u*v*)色空間に於ける2点間のユークリッド距離は、
人間が知覚する色差に相当する。つまり、同じRGBデ
ータR',G',B'を観察用モニタ8と画像記録装置4
に入力しても、点Pと点Q間のユークリッド距離に相当
する色差が発生する。The CIE1976 (L * u * v * ) color space is also called a uniform perceptual color space, and the CIE1976 (L *
u * v * ) Euclidean distance between two points in the color space is
It corresponds to the color difference perceived by humans. That is, the same RGB data R ′, G ′, and B ′ are output to the observation monitor 8 and the image recording device 4.
Even if it is input to, a color difference corresponding to the Euclidean distance between the points P and Q occurs.
【0048】そこで、点Pと点Qの関係を言い換える
と、RGBデータR,G,Bを観察用モニタ8に入力し
て表示される色を表わすところのCIE1976(L*
u*v*)色空間座標Qを、再現画像上に於いて再現する
には、点Pで表わされる色を観察用モニタ8上で表示す
るためのRGBデータR',G',B'を画像記録装置4
に入力すればよいことになる。したがって、CIE19
76(L*u*v*)色空間座標Qで表わされているとこ
ろの、観察用モニタ8に表示されている色を、再現画像
上でも再現するには、CIE1976(L*u*v*)色
空間座標Pを予測し、CIE1976(L*u*v*)色
空間座標Pを、観察用モニタ8で表示するためのRGB
データR',G',B'へ変換し、このRGBデータR',
G',B'を画像記録装置4に入力すればよい。Therefore, in other words, the relationship between the points P and Q is paraphrased. The CIE1976 (L *) which represents the colors displayed by inputting the RGB data R, G, B to the observation monitor 8 .
u * v * ) In order to reproduce the color space coordinate Q on the reproduced image, RGB data R ′, G ′, B ′ for displaying the color represented by the point P on the observation monitor 8 are used. Image recording device 4
You just have to type in. Therefore, CIE19
In order to reproduce the color displayed on the observation monitor 8 which is represented by the 76 (L * u * v * ) color space coordinate Q on the reproduced image, CIE1976 (L * u * v *). * ) RGB for predicting the color space coordinates P and displaying the CIE1976 (L * u * v * ) color space coordinates P on the observation monitor 8.
This RGB data R ', converted into data R', G ', B'
It suffices to input G ′ and B ′ to the image recording device 4.
【0049】そして、点Qから点Pを予測するには、点
Qと点Pの関係に代表される、CIE1976(L*u*
v*)色空間全域にわたる多数の色空間座標データをデ
ータ1、及びデータ2として、予め用意しておき、デー
タ1からデータ2への予測係数を公知の技術である重回
帰分析によって求め、決定された行列を使った行列演算
を行えばよい。このとき、データ1及びデータ2は、各
々、重回帰分析に於ける、説明変数、及び目的変数に相
当する。In order to predict the point P from the point Q, the CIE1976 (L * u *) represented by the relationship between the point Q and the point P is used .
v * ) A large number of color space coordinate data over the entire color space are prepared in advance as data 1 and data 2, and the prediction coefficient from data 1 to data 2 is obtained and determined by multiple regression analysis, which is a known technique. The matrix operation may be performed using the created matrix. At this time, the data 1 and the data 2 respectively correspond to the explanatory variable and the objective variable in the multiple regression analysis.
【0050】データ1とデータ2の写像関係は、フィル
ムの現像処理等を含む画像記録装置4の色再現過程と観
察用モニタ8の色再現過程等の違いにより、CIE19
76(L*u*v*)色空間では、一般に非線型写像モデ
ルで表わされる。したがって、重回帰分析には、2次以
上の項を含んだ非線型重回帰モデルが一般的に用いられ
る。The mapping relationship between the data 1 and the data 2 depends on the difference between the color reproduction process of the image recording apparatus 4 including the film development process and the color reproduction process of the observation monitor 8 and the like.
In the 76 (L * u * v * ) color space, it is generally represented by a nonlinear mapping model. Therefore, for the multiple regression analysis, a non-linear multiple regression model including terms of the second or higher order is generally used.
【0051】ところが、一般的な内視鏡画像(染色剤が
塗布されていない内視鏡画像等)を多数サンプルとして
用意し、これらの画像について、CIE1976(L*
u*v*)色空間に於ける度数分布を調べると、図7に於
いて一般的な内視鏡画像の色分布として示すように、あ
る範囲内に集中することがわかる。このようなCIE1
976(L*u*v*)色空間内のある限定された範囲内
では、データ1とデータ2に関する写像関係を線型とし
て近似することが可能となる。したがって、重回帰分析
に於ける重回帰モデルとして、1次項だけを使った線型
重回帰モデルを使うことができる。However, a large number of general endoscopic images (eg, endoscopic images not coated with a stain) are prepared as samples, and CIE1976 (L *
When the frequency distribution in the u * v * ) color space is examined, it is found that they are concentrated within a certain range, as shown in FIG. 7 as a color distribution of a general endoscopic image. CIE1 like this
Within a limited range within the 976 (L * u * v * ) color space, it is possible to approximate the mapping relationship for data 1 and data 2 as a linear one. Therefore, as the multiple regression model in the multiple regression analysis, a linear multiple regression model using only the primary term can be used.
【0052】次に、各々、重回帰分析に於ける説明変数
と目的変数に相当する、データ1とデータ2の作成方法
について説明する。Next, a method of creating data 1 and data 2 corresponding to the explanatory variable and the objective variable in the multiple regression analysis will be described.
【0053】一般的な内視鏡画像の色分布を含む、多数
の再現画像の色票を作成し、そして測色計等によってC
IE1976(L*u*v*)色空間座標を測定してお
き、このデータを基にデータ1を作成する。一方、色票
を作成する際に画像記録装置4に入力されたRGBデー
タから、観察用モニタ8上のCIE1976(L*u*v
*)色空間座標を式(1)、及び式(2)により算出
し、データ2とする。A color chip of a large number of reproduced images including a color distribution of a general endoscopic image is prepared, and C is measured by a colorimeter or the like.
The IE1976 (L * u * v * ) color space coordinates are measured, and data 1 is created based on this data. On the other hand, from the RGB data input to the image recording device 4 when creating the color chart, CIE1976 (L * u * v) on the observation monitor 8 is used.
* ) The color space coordinates are calculated according to equations (1) and (2) and used as data 2.
【0054】作成されたデータ1とデータ2を使って、
線型重回帰モデルに基づいた重回帰分析により、行列M
を算出し、行列演算部61では、算出された行列Mを使
った行列演算が行われる。そして、重回帰分析により決
定された行列Mを使った行列演算を行う行列演算部61
は、色差最小の意味に於いて作用することになる。Using the created data 1 and data 2,
By the multiple regression analysis based on the linear multiple regression model, the matrix M
And the matrix calculation unit 61 performs matrix calculation using the calculated matrix M. Then, a matrix calculation unit 61 that performs a matrix calculation using the matrix M determined by the multiple regression analysis.
Will work in the sense of minimum color difference.
【0055】次に、中央処理装置40の画像処理部47
における鮮鋭感補正部51について説明する。Next, the image processing section 47 of the central processing unit 40.
The sharpness correction unit 51 in FIG.
【0056】鮮鋭感補正処理を図3の中央処理装置40
で実行する場合に於いて、ROM45内に記憶されたプ
ログラムに相当する鮮鋭感補正部51のソフトウエアの
構成は、図8に示すように、入力されたR,G,B各原
画像データに対してフィルタリングを適用するフィルタ
リング実行部65と、処理結果の値を調整するデータ変
換部66とから構成されている。The sharpness correction processing is performed by the central processing unit 40 of FIG.
In the case of executing the above, the software configuration of the sharpness correction unit 51 corresponding to the program stored in the ROM 45 is the same as that of the input original image data of R, G, B as shown in FIG. A filtering execution unit 65 that applies filtering to the data conversion unit 66 and a data conversion unit 66 that adjusts the value of the processing result.
【0057】以下に、内視鏡画像をCRT画面上に表示
し、写真・スライドとして撮影する装置の鮮鋭感補正処
理について説明する。ここで、画像に於ける各画素の値
をR(x,y),G(x,y)及びB(x,y)とす
る。The sharpness correction processing of the apparatus for displaying an endoscopic image on the CRT screen and taking a picture or a slide will be described below. Here, the value of each pixel in the image is R (x, y), G (x, y) and B (x, y).
【0058】画像撮影装置に於いて、周波数伝達特性
(Modulation Transfer Function:以下、MTFと記
す)は、図9(a)に示すようにすべての周波数帯域に
於いて1.0となることが望まれる(これを以下、理想
MTFとする)。一方、例えばCRT画面上に表示した
原画像を写真・スライドに撮影する装置(以下、写真撮
影装置とする)等に於いては、そのMTFは一般に図9
(b)に示すようなものとなる。このようなMTFの劣
化は画質の鮮鋭感不足の原因となる。In the image photographing apparatus, the frequency transfer characteristic (Modulation Transfer Function: hereinafter referred to as MTF) is desired to be 1.0 in all frequency bands as shown in FIG. 9 (a). (This is hereinafter referred to as an ideal MTF). On the other hand, in a device (hereinafter, referred to as a photo-taking device) for taking a photograph / slide of an original image displayed on a CRT screen, its MTF is generally as shown in FIG.
As shown in (b). Such deterioration of the MTF causes a lack of sharpness in image quality.
【0059】そこで、鮮鋭感補正部51では、原画像に
対しフィルタリングを用いてMTFを補正し、より観察
に適した画像を得ることを可能にする処理を行う。Therefore, the sharpness correction unit 51 corrects the MTF of the original image by using filtering to perform a process for obtaining an image more suitable for observation.
【0060】はじめに、図9(b)に示したMTFを図
9(a)に示した理想MTFに補正する方法について説
明する。ここでは、公知の技術である逆フィルタリング
を空間周波数領域上に於いて適用する。First, a method for correcting the MTF shown in FIG. 9B to the ideal MTF shown in FIG. 9A will be described. Here, a known technique, inverse filtering, is applied in the spatial frequency domain.
【0061】原画像をf(x,y)、写真撮影装置のM
TFを与える点広がり関数(PointSpread Function:以
下、PSFと記す)をh(x,y)とすると、得られる
撮影画像g(x,y)は g(x,y)=f(x,y)*h(x,y) … (4) と表される。*はたたみ込み演算を表す。又、ここでは
PSFを位置に不変と仮定する。これを空間周波数領域
上での演算として表すと G(u,v)=F(u,v)・H(u,v) … (5) となる。ここで、F(u,v),H(u,v)及びG
(u,v)は、それぞれf(x,y),h(x,y)及
びg(x,y)のフーリエ変換を示す。又、H(u,
v)は図9(b)に示したMTFと同等である。式
(5)の両辺に1/H(u,v)を乗ずると、 G′(u,v)=G(u,v)/H(u,v) =(F(u,v)・H(u,v))/H(u,v) =F(u,v) … (6) が得られ、これは図9(a)のMTFを備える写真撮影
装置による撮影結果と一致する。すなわち、写真撮影装
置の撮像系に於けるPSFと逆の空間周波数特性をもつ
フィルタ(以下、補正フィルタと記す) M(u,v)=1/H(u,v) … (7) を予め原画像f(x,y)のフーリエ変換であるF
(u,v)に乗じ、その処理結果 F′(u,v)=F(u,v)・M(u,v) … (8) を逆フーリエ変換した撮影用原画像f′(x,y)を撮
影することで、理想MTFによる撮影画像を実現するこ
とが可能となる。The original image is f (x, y), and M of the photographic device is
Letting h (x, y) be a point spread function (hereinafter referred to as PSF) that gives TF, the obtained captured image g (x, y) is g (x, y) = f (x, y) * H (x, y) ... (4). * Represents a convolution operation. It is also assumed here that the PSF is position invariant. When this is expressed as a calculation in the spatial frequency domain, it becomes G (u, v) = F (u, v) · H (u, v) (5). Where F (u, v), H (u, v) and G
(U, v) denote the Fourier transform of f (x, y), h (x, y) and g (x, y), respectively. In addition, H (u,
v) is equivalent to the MTF shown in FIG. Multiplying both sides of Expression (5) by 1 / H (u, v), G ′ (u, v) = G (u, v) / H (u, v) = (F (u, v) · H (U, v)) / H (u, v) = F (u, v) (6) is obtained, which coincides with the photographing result by the photographing apparatus having the MTF of FIG. 9A. That is, a filter having a spatial frequency characteristic opposite to that of the PSF in the imaging system of the photographic device (hereinafter referred to as a correction filter) M (u, v) = 1 / H (u, v) (7) is previously set. F, which is the Fourier transform of the original image f (x, y)
(U, v) is multiplied, and the processing result F ′ (u, v) = F (u, v) · M (u, v) (8) is inverse-Fourier-transformed. By photographing y), it becomes possible to realize a photographed image by the ideal MTF.
【0062】写真撮影装置のPSFは、予め点画像或い
は線画像等を撮影した結果より導出しておけばよい。The PSF of the photographing device may be derived in advance from the result of photographing a point image or a line image.
【0063】そこで、図8に示したフィルタリング実行
部65に於いては、RGB各原画像データに対し、空間
周波数領域上に於けるフィルタリングを実行する。Therefore, the filtering execution unit 65 shown in FIG. 8 executes the filtering in the spatial frequency domain for each RGB original image data.
【0064】その処理の流れを図10を用いて説明す
る。図10に示すように、フィルタリング実行部65に
於いては、それぞれRGB各原画像データが入力され、
ステップS11に於ける2次元フーリエ変換が適用され
る。これは、前出の式(4)中のf(x,y)から式
(5)中のF(u,v)への変換に対応する。続いて、
ステップS12に於いてフィルタリングを行う。The process flow will be described with reference to FIG. As shown in FIG. 10, in the filtering execution unit 65, the respective RGB original image data are input,
The two-dimensional Fourier transform in step S11 is applied. This corresponds to the conversion from f (x, y) in the equation (4) to F (u, v) in the equation (5). continue,
Filtering is performed in step S12.
【0065】ステップS12に於いて用いるフィルタの
係数値は、図3におけるROM45または外部記憶装置
41に予め記憶されており、ここでは、図9(b)に於
けるMTFを補正することにより理想MTFを実現する
ために、図11(a)に示す周波数伝達特性をもつ補正
フィルタM(u,v)(いわゆる逆フィルタに相当す
る)を用いる。フィルタの係数値は、各周波数帯域に於
いて式(7)を満たすように定められている。The coefficient values of the filter used in step S12 are stored in advance in the ROM 45 in FIG. 3 or the external storage device 41. Here, the ideal MTF is corrected by correcting the MTF in FIG. 9B. In order to realize the above, a correction filter M (u, v) having a frequency transfer characteristic shown in FIG. 11A (corresponding to a so-called inverse filter) is used. The coefficient value of the filter is determined so as to satisfy the equation (7) in each frequency band.
【0066】尚、 H(u,v)=0 … (9) すなわち、撮影画像に於いて完全に失われる周波数帯域
が存在する場合は、例えば M(u,v)=1.0 … (10) にする等の例外処理を行えばよい。ステップS12に於
ける処理は、前出の式(8)に対応し、フィルタリング
処理結果F′(u,v)を生成する。H (u, v) = 0 (9) That is, when there is a frequency band that is completely lost in the captured image, for example, M (u, v) = 1.0 (10) ) Exception processing such as The processing in step S12 corresponds to the above-mentioned expression (8) and generates the filtering processing result F ′ (u, v).
【0067】続いて、F′(u,v)に対し、ステップ
S13に於いて逆フーリエ変換を適用することにより撮
影用原画像f′(x,y)を得る。Subsequently, an inverse Fourier transform is applied to F '(u, v) in step S13 to obtain a photographing original image f' (x, y).
【0068】以上に示したステップS11〜S13に於
ける処理を、RGB各データの原画像r(x,y),g
(x,y)及びb(x,y)と、それぞれのデータに対
するPSFであるhr(u,v),hg(u,v)及び
hb(u,v)に対して適用し、撮影用原画像R′,
G′及びB′を得る。The processing in steps S11 to S13 described above is performed by the original image r (x, y), g of each RGB data.
(X, y) and b (x, y), and PSFs hr (u, v), hg (u, v), and hb (u, v) that are PSFs for the respective data, and are used as originals for photographing. Image R ',
Obtain G'and B '.
【0069】続いて、データ変換部66に対し、RGB
各データに於ける撮影用原画像R′,G′及びB′を入
力する。データ変換部66に於いては、フィルタリング
により表示範囲を超えた値をもつデータを変換するため
の後処理を実行する。すなわち、小数点以下のデータに
対する四捨五入や、表示可能範囲が例えば0〜255で
ある場合の0未満又は256以上の値の切り捨て等を行
う。この処理を適用後の各撮影用画像R′,G′及び
B′を処理結果として出力する。Then, the data converter 66 is supplied with RGB signals.
Original images R ', G', and B'for shooting in each data are input. The data conversion unit 66 executes post-processing for converting data having a value exceeding the display range by filtering. That is, the data below the decimal point is rounded off, or the value less than 0 or 256 or more when the displayable range is, for example, 0 to 255 is rounded down. The respective photographed images R ', G'and B'after applying this processing are output as processing results.
【0070】このように本実施例の電子内視鏡システム
によれば、色空間座標変換部60に於いては、入力され
たRGBデータR,G,Bを、観察用モニタ8上に於け
る再現色を表わす、CIE1976(L*u*v*)色空
間座標L*,u*,v*に変換し、行列演算部61により
CIE1976(L*u*v*)色空間座標L*,u*,v*
をCIE1976(L*u*v*)色空間座標L*',
u*',v*'へ変換し、行列演算手段61から出力される
CIE1976(L*u*v*)色空間座標L*',u*',
v*'を色空間座標逆変換部62により、RGBデータ
R',G',B'へ変換し、そして、このRGBデータ
R',G',B'をRGBデータR,G,Bの代わりに、
画像記録装置4へ入力することにより、観察用モニタ8
に再現される色と再現画像の色の色差が、CIE197
6(L*u*v*)色空間に於ける色差最小の意味に於い
て改善される。As described above, according to the electronic endoscope system of the present embodiment, the RGB data R, G, B input in the color space coordinate conversion section 60 are displayed on the observation monitor 8. CIE1976 (L * u * v * ) color space coordinates L * , u * , v * representing a reproduced color are converted into CIE1976 (L * u * v * ) color space coordinates L * , u by the matrix calculation unit 61. * , V *
CIE1976 (L * u * v * ) color space coordinates L * ′,
CIE1976 (L * u * v * ) color space coordinates L * ', u * ', which are converted into u * ', v * ' and output from the matrix calculation means 61.
v * 'is converted into RGB data R', G ', B'by the color space coordinate inverse conversion unit 62, and this RGB data R', G ', B'is replaced with RGB data R, G, B'. To
By inputting into the image recording device 4, the observation monitor 8
The color difference between the color reproduced in and the color of the reproduced image is CIE197.
It is improved in the sense of minimum color difference in the 6 (L * u * v * ) color space.
【0071】また、内視鏡画像のCIE1976(L*
u*v*)色空間に於ける色分布は局在するという特性を
利用することで、行列演算部61に於ける行列演算を3
×3の小規模な演算で実行することが可能となり、演算
コストを低減することが可能となる。In addition, CIE1976 (L *
u * v * ) By utilizing the characteristic that the color distribution in the color space is localized, the matrix calculation in the matrix calculation unit 61 is performed by 3
It becomes possible to execute by small-scale calculation of × 3, and it becomes possible to reduce the calculation cost.
【0072】尚、本実施例に於いては、CIE1976
(L*u*v*)色空間を用いているが、CIE1976
(L*a*b*)色空間や、さらに、CIEが推奨する色
空間の代わりに、例えば、文献2((出版)ADDISION W
ESLEY,INTERRACTVE COMPUTERGRAPHICS,BURGER,GILLIES
333〜338ページ)に記載されている、色の三属
性、すなわち色相、彩度、明度の3軸で構成されるHS
VやHLS色空間等の知覚色空間を用いても、同様に、
観察用モニタ8に再現される色と再現画像の色差が改善
される。In this embodiment, CIE1976
(L * u * v * ) color space is used, but CIE1976
Instead of the (L * a * b * ) color space or the color space recommended by CIE, for example, reference 2 ((publishing) ADDISION W
ESLEY, INTERRACTVE COMPUTERGRAPHICS, BURGER, GILLIES
HS composed of three attributes of color, that is, the three axes of hue, saturation, and brightness, as described on pages 333 to 338).
Even if a perceptual color space such as V or HLS color space is used,
The color difference between the color reproduced on the observation monitor 8 and the reproduced image is improved.
【0073】また、鮮鋭感補正部51においては、図1
0に示したステップS11〜S13に於ける処理を、R
GB各データの原画像r(x,y),g(x,y)及び
b(x,y)と、それぞれのデータに対するPSFであ
るhr(x,y),hg(x,y)及びhb(x,y)
に対して適用し、撮影用原画像R′,G′及びB′を得
ているので、観察用モニタ8に再現される内視鏡画像の
鮮鋭感と、内視鏡画像記憶装置4により再現される内視
鏡画像の鮮鋭感との差をMTFの差において改善するこ
とができる。In addition, in the sharpness correction unit 51, as shown in FIG.
The processing in steps S11 to S13 shown in FIG.
Original images r (x, y), g (x, y) and b (x, y) of each GB data, and hr (x, y), hg (x, y) and hb which are PSFs for the respective data. (X, y)
Since the original images for photographing R ′, G ′ and B ′ have been obtained by applying the same to the above, the sharpness of the endoscopic image reproduced on the observation monitor 8 and the endoscopic image storage device 4 reproduce it. It is possible to improve the difference between the sharpness of the endoscopic image and the MTF difference.
【0074】尚、原画像f(x,y)に於いてノイズ成
分が混入している場合には、理想的な逆フィルタを適用
した場合にノイズ成分を強調する結果となることがあ
る。この場合は、ノイズ成分は一般に高周波帯域に含ま
れることより、適用するフィルタの空間周波数特性を、
例えば図11(b)に示すように変更する。高周波帯域
に於ける補正の度合いを制御することにより、不要なノ
イズ成分の強調を防ぎつつ、実用上必要な周波数帯域に
於けるMTFの補正を行うことが可能となる。When a noise component is mixed in the original image f (x, y), the noise component may be emphasized when the ideal inverse filter is applied. In this case, since the noise component is generally included in the high frequency band, the spatial frequency characteristic of the applied filter is
For example, the change is made as shown in FIG. By controlling the degree of correction in the high frequency band, it becomes possible to correct the MTF in the frequency band practically required while preventing unnecessary noise components from being emphasized.
【0075】上記鮮鋭感補正部51に於いては、写真撮
影装置のMTFを理想MTF或いはそれに近似したMT
Fとすることにより、撮影画像の鮮鋭感を補正する方法
について説明したが、ここで、フィルタ係数を変更し、
より積極的にMTFを制御することにより、観察に好適
な画像を得る方法について説明する。In the sharpness correction section 51, the MTF of the photographic device is an ideal MTF or an MT close to it.
Although the method of correcting the sharpness of the captured image by setting it to F has been described, here, by changing the filter coefficient,
A method for obtaining an image suitable for observation by controlling the MTF more positively will be described.
【0076】一般に、低周波成分は画像全体の明暗情報
を構成し、画像の鮮鋭感に影響を与える周波数成分はあ
る程度の高周波帯域に存在する。又、さらなる高周波帯
域では画像情報成分よりもノイズ成分が支配的となる。
そこで、フィルタリング実行部65に於いて使用するフ
ィルタの空間周波数特性(M′(u,v)とする)を、
低周波帯域では理想MTFに、鮮鋭感に影響を与える高
周波帯域では、 H(u,v)・M′(u,v)≧1.0 … (11) となるように、ノイズ成分が支配的となる高周波帯域で
は H(u,v)・M′(u,v)≦1.0 … (12) となるように設定する。図11(c)はこのような性質
を備える空間周波数特性の例である。図9(b)に於い
て示したMTFに対し図11(c)の空間周波数特性を
もつフィルタを適用した結果、得られるMTFは図11
(d)に示すようなものとなり、撮影画像はより鮮鋭感
が強調されたものとなる。In general, the low frequency component constitutes the brightness information of the entire image, and the frequency component affecting the sharpness of the image exists in a high frequency band to some extent. Further, in the higher frequency band, the noise component is dominant over the image information component.
Therefore, the spatial frequency characteristic of the filter used in the filtering execution unit 65 (denoted as M ′ (u, v)) is
In the low frequency band, the ideal MTF is dominant, and in the high frequency band that affects the sharpness, the noise component is dominant such that H (u, v) · M ′ (u, v) ≧ 1.0 (11) In the high frequency band, H (u, v) · M ′ (u, v) ≦ 1.0 (12) is set. FIG. 11C is an example of the spatial frequency characteristic having such a property. As a result of applying the filter having the spatial frequency characteristic of FIG. 11C to the MTF shown in FIG. 9B, the MTF obtained is as shown in FIG.
As shown in (d), the sensed image is more sharpened.
【0077】M′(u,v)は、前述した写真撮影装置
に於いて使用するカメラ、フィルムの違いによるPSF
の変更に加え、周波数帯域及び空間周波数特性の増減分
が調整される。M '(u, v) is the PSF due to the difference in the camera and film used in the above-mentioned photographic device.
In addition to the change, the increase / decrease of the frequency band and the spatial frequency characteristic is adjusted.
【0078】さらに、原画像が例えば内視鏡による撮像
画像であれば、使用した内視鏡の機種に基づく個体撮像
素子の画素数等の情報によりM′(u,v)の制御を行
ってもよい。解像度の違いに基づき式(11)及び式
(12)をそれぞれ適用する周波数帯域を変更すること
から、より好ましい撮影画像が得られる。Further, if the original image is, for example, an image picked up by an endoscope, M '(u, v) is controlled by information such as the number of pixels of the solid-state image pickup element based on the model of the endoscope used. Good. Since the frequency bands to which the equations (11) and (12) are applied are changed based on the difference in resolution, a more preferable captured image can be obtained.
【0079】尚、フィルタリング実行部65の変形例と
して、以下に説明するデジタルフィルタであるFIRフ
ィルタを用いることができる。すなわち、フィルタリン
グ実行部65に於いては、RGB各原画像データに対
し、FIRフィルタによるフィルタリングを実行する。As a modification of the filtering execution unit 65, a FIR filter which is a digital filter described below can be used. That is, the filtering execution unit 65 executes filtering by the FIR filter on each of the RGB original image data.
【0080】はじめに、フィルタリングの原理の概略を
説明する。FIRフィルタによるフィタリングは、上述
した空間周波数領域でのフィルタリングに於ける、式
(6)或いは式(8)に対応する演算処理を、空間領域
にて行うものである。First, the outline of the principle of filtering will be described. In the filtering by the FIR filter, the arithmetic processing corresponding to the equation (6) or the equation (8) in the above filtering in the spatial frequency domain is performed in the spatial domain.
【0081】画像のたたみ込み定理により、式(8)は f′(x,y)=f(x,y)*m(x,y) … (13) と表せる。*はたたみ込み演算を表す。すなわち、撮影
用原画像f′(x,y)は、原画像f(x,y)と、補
正フィルタM(u,v)の逆フーリエ変換m(x,y)
とのたたみ込み演算により実現される。m(x,y)は
本実施例に於けるFIRフィルタの係数値に相当するも
のである。実際のFIRフィルタによるフィルタリング
は、マスクサイズn1×n2(n1,n2は0でない正
数)のマスク演算となる。これは、m(x,y)から、
M(u,v)の空間周波数特性を実用上十分な精度で再
現し得る大きさのウィンドウを切りだしたものに相当す
る。フィルタリング実行部65は、それぞれRGB各原
画像データが入力され、式(13)に対応するフィルタ
リングを行う。From the image convolution theorem, the equation (8) can be expressed as f '(x, y) = f (x, y) * m (x, y) (13). * Represents a convolution operation. That is, the original image f ′ (x, y) for photographing is the original image f (x, y) and the inverse Fourier transform m (x, y) of the correction filter M (u, v).
It is realized by the convolution operation with and. m (x, y) corresponds to the coefficient value of the FIR filter in this embodiment. The actual filtering by the FIR filter is a mask operation of mask size n1 × n2 (n1 and n2 are positive numbers that are not 0). This is from m (x, y)
This corresponds to a cut-out window of a size capable of reproducing the spatial frequency characteristic of M (u, v) with practically sufficient accuracy. The filtering execution unit 65 receives the RGB original image data, and performs filtering corresponding to Expression (13).
【0082】続いて、データ変換部66に対し、RGB
各データに於ける撮影用原画像R′,G′及びB′を入
力する。データ変換部66に於いては、フィルタリング
により表示範囲を超えた値をもつデータを変換するため
の後処理を実行する。すなわち、小数点以下のデータに
対する四捨五入や、表示可能範囲が例えば0〜255で
ある場合の0未満又は256以上の値の切り捨て等を行
う。この処理を適用後の各撮影用画像R′,G′及び
B′を処理結果として出力する。Then, the data converter 66 is supplied with RGB signals.
Original images R ', G', and B'for shooting in each data are input. The data conversion unit 66 executes post-processing for converting data having a value exceeding the display range by filtering. That is, the data below the decimal point is rounded off, or the value less than 0 or 256 or more when the displayable range is, for example, 0 to 255 is rounded down. The respective photographed images R ', G'and B'after applying this processing are output as processing results.
【0083】フィルタリング実行部65の変形例に於い
て適用するFIRフィルタの係数を設定する際は、例え
ば、写真撮影装置のMTFを理想MTFに補正する場合
には、前述の補正フィルタMr(u,v),Mg(u,
v)及びMb(u,v)のそれぞれの逆フーリエ変換で
あるmr(x,y),mg(x,y)及びmb(x,
y)をFIRフィルタの係数として、フィルタリング実
行部65に送出する。When setting the coefficient of the FIR filter applied in the modification of the filtering execution unit 65, for example, when correcting the MTF of the photographic device to the ideal MTF, the correction filter Mr (u, v), Mg (u,
v) and Mb (u, v) are the respective inverse Fourier transforms mr (x, y), mg (x, y) and mb (x,
y) is sent to the filtering execution unit 65 as the coefficient of the FIR filter.
【0084】尚、原画像f(x,y)に於いてノイズ成
分が混入している場合には、理想的な逆フィルタを適用
した場合にノイズ成分を強調する結果となることがあ
る。この場合は、ノイズ成分は一般に高周波帯域に含ま
れることにより、適用するFIRフィルタの空間周波数
特性を例えば図11(e)に示すように変更する。高周
波帯域に於ける補正の度合いを制御することにより、不
要なノイズ成分の強調を防ぎつつ、実用上必要な周波数
帯域に於けるMTFの補正を行うことが可能となる。When a noise component is mixed in the original image f (x, y), the noise component may be emphasized when the ideal inverse filter is applied. In this case, since the noise component is generally included in the high frequency band, the spatial frequency characteristic of the applied FIR filter is changed, for example, as shown in FIG. By controlling the degree of correction in the high frequency band, it becomes possible to correct the MTF in the frequency band practically required while preventing unnecessary noise components from being emphasized.
【0085】さらに、ノイズに対する統計的な性質が既
知の場合、逆フィルタの適用ではなく、ウィーナフィル
タ或いは最小2乗フィルタ等を適用してもよい。Further, when the statistical property of noise is known, a Wiener filter or a least squares filter may be applied instead of the inverse filter.
【0086】又、FIRフィルタの係数を変更し、より
積極的にMTFを制御することにより、観察に好適な画
像を得ることができる。By changing the coefficient of the FIR filter and controlling the MTF more positively, an image suitable for observation can be obtained.
【0087】一般に、低周波成分は画像全体の明暗情報
を構成し、画像の鮮鋭感に影響を与える周波数成分はあ
る程度の高周波帯域に存在する。又、さらなる高周波帯
域では画像情報成分よりもノイズ成分が支配的となる。
そこで、フィルタリング実行部65に於いて使用するF
IRフィルタの空間周波数特性(M′(u,v)とす
る)を、低周波帯域では理想MTFに、鮮鋭感に影響を
与える高周波帯域では前出の式(11)となるように、
ノイズ成分が支配的となる高周波帯域では式(12)と
なるように設定する。すなわち、図11(c)に示した
空間周波数特性をもつFIRフィルタを用いればよい。
図9(b)に於いて示したMTFに対し図11(c)の
空間周波数特性をもつFIRフィルタを適用した結果、
得られるMTFは上記と同様に図11(d)に示すよう
なものとなり、撮影画像はより鮮鋭感が強調されたもの
となる。In general, the low frequency component constitutes the light and dark information of the entire image, and the frequency component affecting the sharpness of the image exists in a high frequency band to some extent. Further, in the higher frequency band, the noise component is dominant over the image information component.
Therefore, the F used in the filtering execution unit 65
The spatial frequency characteristic of the IR filter (M ′ (u, v) is expressed by the above equation (11) in the low frequency band and in the high frequency band which affects the sharpness,
In the high frequency band where the noise component is dominant, it is set so as to become the expression (12). That is, the FIR filter having the spatial frequency characteristic shown in FIG. 11C may be used.
As a result of applying the FIR filter having the spatial frequency characteristic of FIG. 11C to the MTF shown in FIG. 9B,
The obtained MTF is as shown in FIG. 11 (d) in the same manner as described above, and the photographed image has a sharpened feeling.
【0088】M′(u,v)は、前述した写真撮影装置
に於いて使用するカメラ、フィルムの違いによるPSF
の変更に加え、周波数帯域及び空間周波数特性の増減分
が調整される。M '(u, v) is the PSF due to the difference in the camera and film used in the above-mentioned photographic device.
In addition to the change, the increase / decrease of the frequency band and the spatial frequency characteristic is adjusted.
【0089】さらに、原画像が例えば内視鏡による撮影
画像であれば、使用した内視鏡の機種に基づく個体撮像
素子の画素数等の情報によりM′(u,v)の制御を行
ってもよい。解像度の違いに基づき式(11)及び式
(12)をそれぞれ適用する周波数帯域を変更すること
から、より好ましい撮影画像が得られる。Further, if the original image is, for example, an image picked up by an endoscope, M '(u, v) is controlled based on information such as the number of pixels of the solid-state image pickup device based on the model of the endoscope used. Good. Since the frequency bands to which the equations (11) and (12) are applied are changed based on the difference in resolution, a more preferable captured image can be obtained.
【0090】従って、この変形例においても同様な効果
を得ることができる。Therefore, similar effects can be obtained also in this modification.
【0091】次に第2実施例について説明する。図12
及び図13は第2実施例に係り、図12は第2実施例の
鮮鋭感補正部による鮮鋭感補正を説明する説明図、図1
3は図12の鮮鋭感補正を行う鮮鋭感補正部のソフトウ
エアの構成を示すソフトウエア構成図である。第2実施
例は第1実施例と鮮鋭感補正部51の処理構成が異なる
のみであるので、異なる点のみ説明する。Next, the second embodiment will be described. 12
1 and FIG. 13 relate to the second embodiment, and FIG. 12 is an explanatory diagram for explaining the sharpness correction by the sharpness correction unit of the second embodiment.
FIG. 3 is a software configuration diagram showing the software configuration of the sharpness correction unit that performs the sharpness correction of FIG. Since the second embodiment is different from the first embodiment only in the processing configuration of the sharpness correction unit 51, only the different points will be described.
【0092】第2実施例の鮮鋭感補正部51は、鮮鋭感
の補正処理にともない発生する、撮像画像のSN比の劣
化を抑制するものであり、以下にこの第2実施例の鮮鋭
感補正部51について説明する。The sharpness correction unit 51 of the second embodiment suppresses the deterioration of the SN ratio of the picked-up image caused by the correction processing of the sharpness, and the sharpness correction of the second embodiment will be described below. The section 51 will be described.
【0093】画像f(x,y)に対するノイズ成分の混
入は、f(x,y)に対して無相関で、加法的であるも
のと仮定する。すなわち、ノイズのない原画像をf0
(x,y)、ノイズをν(x,y)とすると f(x,y)=f0(x,y)+ν(x,y) … (14) と表される。ノイズ成分は主として高周波帯域に分布し
ており、画像の鮮鋭感を与える周波数帯域に混在してい
る場合が多々ある。この場合には鮮鋭感の増強はノイズ
の強調を引き起こすこととなる。原画像に於けるSN比
が十分高ければ、この問題は無視できるものであるが、
加法的ノイズの性質により、SN比は画像中の明るい部
位(明部)と暗い部位(暗部)により異なっている。し
たがって、画像中の明部では無視できる程度のノイズ感
の増加でも、暗部では目立つものとなり、撮影画像の画
質をかえって劣化させる結果となる場合がある。It is assumed that the mixing of the noise component into the image f (x, y) is uncorrelated with f (x, y) and is additive. That is, the original image without noise is f0
If (x, y) and noise are ν (x, y), then f (x, y) = f0 (x, y) + ν (x, y) (14) The noise component is mainly distributed in the high frequency band, and is often mixed in the frequency band that gives the sharpness of the image. In this case, the enhancement of sharpness causes the enhancement of noise. If the SN ratio in the original image is high enough, this problem can be ignored,
Due to the property of additive noise, the S / N ratio differs depending on the bright part (bright part) and the dark part (dark part) in the image. Therefore, even if the amount of noise that can be ignored in the bright portion of the image is increased, it may be noticeable in the dark portion, which may rather deteriorate the image quality of the captured image.
【0094】一方、画像中に於いて鮮鋭感が望まれる部
位は、ある程度の明るさをもつ領域であるものが一般的
である。On the other hand, the region where sharpness is desired in the image is generally a region having a certain degree of brightness.
【0095】そこで本実施例の鮮鋭感補正部51では、
画像の明部では鮮鋭感を十分に補正し、暗部では補正の
程度を抑制することによりノイズ感の少ない撮影画像を
得るように処理がなされる。Therefore, in the sharpness correction unit 51 of this embodiment,
The bright portion of the image is sufficiently corrected for the sharpness, and the dark portion is processed so as to obtain a photographed image with less noise by suppressing the degree of the correction.
【0096】はじめに、鮮鋭感補正部51での処理概念
について説明する。First, the concept of processing in the sharpness correction unit 51 will be described.
【0097】本実施例に於いては原画像に対して、後に
詳述する鮮鋭感補正成分画像を重み付け加算する構成と
し、重み係数値を画像の明るさに関する情報に基づき制
御する。In this embodiment, a sharpness correction component image, which will be described in detail later, is weighted and added to the original image, and the weighting coefficient value is controlled based on the information regarding the brightness of the image.
【0098】原画像をf(x,y)、鮮鋭感補正成分画
像をfs(x,y)、重み係数値をwとする。鮮鋭感補
正成分とは、理想MTFに対して写真撮影装置のMTF
により失われた周波数帯域成分であり、第1実施例で説
明した図9(b)のMTFを例とした場合、図12
(a)に於ける斜線部に該当する画像情報を示す。又、
図11(c)に於いて示したMTFに対しては、図12
(d)に於ける斜線部に該当する画像情報を示す。Let f (x, y) be the original image, fs (x, y) be the sharpness correction component image, and w be the weighting coefficient value. The sharpness correction component is the MTF of the photographic device with respect to the ideal MTF.
12 is a frequency band component lost due to the MTF of FIG. 9B described in the first embodiment.
The image information corresponding to the shaded area in (a) is shown. or,
As for the MTF shown in FIG. 11C, FIG.
The image information corresponding to the shaded area in (d) is shown.
【0099】鮮鋭感補正成分画像は、フィルタリングに
より容易に得られる。第1実施例では補正フィルタM
(u,v)の作成について説明したが、本実施例に於い
ては、M(u,v)に基づく帯域通過フィルタリングを
原画像に対して適用する。すなわち、図11(a)に示
したM(u,v)を例とした場合、使用する帯域通過フ
ィルタMp(u,v)の空間周波数特性は図12(b)
に示すものとなる。これらは、 Mp(u,v)=M(u,v)−1.0 … (15) とすることにより得られるものである。The sharpness correction component image can be easily obtained by filtering. In the first embodiment, the correction filter M
Although the creation of (u, v) has been described, in the present embodiment, bandpass filtering based on M (u, v) is applied to the original image. That is, when M (u, v) shown in FIG. 11A is taken as an example, the spatial frequency characteristic of the bandpass filter Mp (u, v) used is shown in FIG. 12B.
It will be as shown in. These are obtained by setting Mp (u, v) = M (u, v) -1.0 (15).
【0100】作成したMp(u,v)を用いた帯域通過
フィルタリングの処理結果である鮮鋭感補正成分画像f
s(x,y)を、原画像f(x,y)に対し重み付け加
算した処理結果画像をf′(x,y)とすれば、f′
(x,y)は f′(x,y)=f(x,y)+w・fs(x,y) … (16) となり表される。式(16)に於いて、w=1.0とす
ればf′(x,y)は第1実施例の鮮鋭感補正部65及
びその変形例に於いて説明した理想MTFを得るための
撮影用原画像f′(x,y)に一致する。又、w<1.
0とすれば、鮮鋭感補正効果は抑制される結果となる。
したがって、wを各画素に対して画像の明るさに関する
情報に基づき変更することにより、画像中の明部と暗部
で鮮鋭感補正効果を制御することが可能となる。The sharpness correction component image f which is the processing result of the bandpass filtering using the created Mp (u, v).
If f '(x, y) is a processing result image obtained by weighting and adding s (x, y) to the original image f (x, y), f'
(X, y) is expressed as f ′ (x, y) = f (x, y) + w · fs (x, y) (16). In the equation (16), if w = 1.0, then f ′ (x, y) is an image for obtaining the ideal MTF described in the sharpness correction unit 65 of the first embodiment and its modification. It matches the original image f '(x, y). Also, w <1.
A value of 0 results in suppressing the sharpness correction effect.
Therefore, by changing w for each pixel based on the information on the brightness of the image, it becomes possible to control the sharpness correction effect in the bright portion and the dark portion in the image.
【0101】図12(c)は、重み係数値wの設定例で
ある。ここでは、明るさに関する情報成分として、次式
で表される画素ごとの輝度を用いるものとする。FIG. 12C shows an example of setting the weighting coefficient value w. Here, it is assumed that the luminance of each pixel represented by the following equation is used as the information component regarding the brightness.
【0102】 Y=0.3R+0.59G+0.11B … (17) 図12(c)に於いて、横軸は輝度Y(明るさ情報)、
縦軸は重み係数wを表しており、Yに対する閾値をTと
定め、Y<Tではw<1.0とし、Y≧Tではw=1.
0とすることにより、暗部のノイズ感の増加を抑制する
ことができる。このようなwの与え方は、wの値をYに
対する関数として例えば w=(1/2)×{1−cos(Y・π/T)} (0≦Y<T) w=1.0 (T≦Y) … (18) とすることにより実現される。式(17)及び(18)
を画素ごとに適用する。又、明るさに関する情報とし
て、輝度Yではなく例えばRGBいずれかの画像データ
を使用してもよい。Y = 0.3R + 0.59G + 0.11B (17) In FIG. 12C, the horizontal axis represents luminance Y (brightness information),
The vertical axis represents the weighting coefficient w, the threshold value for Y is defined as T, w <1.0 is set for Y <T, and w = 1.
By setting it to 0, it is possible to suppress an increase in the noise feeling in the dark part. Such a method of giving w is, for example, w = (1/2) × {1-cos (Y · π / T)} (0 ≦ Y <T) w = 1.0, where w is a function of Y. (T ≦ Y) ... (18). Formulas (17) and (18)
Is applied for each pixel. Further, as the information about the brightness, not the luminance Y but image data of any of RGB may be used.
【0103】次に、本実施例に於ける鮮鋭感補正部51
のソフトウエア構成について説明する。Next, the sharpness correction unit 51 in this embodiment.
The software configuration of will be described.
【0104】図13に示すように、第2実施例の鮮鋭感
補正部51は、入力されたRGB各データに対し、フィ
ルタリングを施すフィルタリング部71と、原画像とフ
ィルタリング処理結果画像との合成を行う合成部72
と、処理結果出力値を調整するデータ変換部73からな
っている。As shown in FIG. 13, the sharpness correction unit 51 of the second embodiment synthesizes the filtering unit 71 for filtering input RGB data and the original image and the filtering result image. Performing synthesis unit 72
And a data conversion unit 73 for adjusting the processing result output value.
【0105】フィルタリング部71に於いては、入力さ
れた原画像に於けるRGB各データに対し、前述の鮮鋭
感補正成分画像Rs(x,y),Gs(x,y)及びB
s(x,y)を生成するためのフィルタリングを適用す
る。フィルタリングの具体的な実現手段は、第1実施例
に於いて説明した空間周波数領域でのフィルタリング及
び第1実施例の鮮鋭感補正部の変形例に於いて説明した
デジタルフィルタであるFIRフィルタによるフィルタ
リングのいずれかを使用すればよい。In the filtering unit 71, the sharpness correction component images Rs (x, y), Gs (x, y) and B are applied to the RGB data in the input original image.
Apply filtering to generate s (x, y). Specific means for implementing the filtering are filtering in the spatial frequency domain described in the first embodiment and filtering by the FIR filter which is the digital filter described in the modification of the sharpness correction unit of the first embodiment. Either of these may be used.
【0106】重み係数値wは、画像の明るさに関する情
報に基づき設定され、ここでは、明るさに関する情報と
して、G画素の値を用いる構成とする。wの設定につい
ては、例えば関数 w=(1/2)×{1−cos(G(x,y)・π/T)} (0≦G(x,y)<T) w=1.0 (T≦G(x,y)) … (19) を用いればよい。The weight coefficient value w is set on the basis of the information on the brightness of the image, and here, the value of the G pixel is used as the information on the brightness. Regarding the setting of w, for example, the function w = (1/2) × {1-cos (G (x, y) · π / T)} (0 ≦ G (x, y) <T) w = 1.0 (T ≦ G (x, y)) (19) may be used.
【0107】合成部72に於いては、原画像に於けるR
GB各データ、フィルタリング部71より出力された鮮
鋭感補正成分画像Rs(x,y),Gs(x,y)及び
Bs(x,y)、重み係数値wを用いた演算 R′(x,y)=R(x,y)+w・Rs(x,y) … (20) G′(x,y)=G(x,y)+w・Gs(x,y) … (21) B′(x,y)=B(x,y)+w・Bs(x,y) … (22) が行われる。In the synthesizing unit 72, R in the original image
A calculation R '(x, using the respective GB data, the sharpness correction component images Rs (x, y), Gs (x, y) and Bs (x, y), and the weighting factor value w output from the filtering unit 71. y) = R (x, y) + w · Rs (x, y) (20) G ′ (x, y) = G (x, y) + w · Gs (x, y) (21) B ′ ( x, y) = B (x, y) + w · Bs (x, y) (22) is performed.
【0108】また、データ変換部73に於いては、各々
に対し入力されたR′(x,y),G′(x,y)及び
B′(x,y)が表示範囲を超えたデータを変換するた
めの後処理を実行する。すなわち、小数点以下のデータ
に対する四捨五入や、表示可能範囲が例えば0〜255
である場合の0未満又は256以上の値の切り捨て等を
行う。In the data conversion section 73, data in which R '(x, y), G' (x, y) and B '(x, y) input for each exceeds the display range. Perform post-processing to convert the. That is, rounding off the data below the decimal point, and the displayable range is, for example, 0 to 255.
If the value is less than 0 or a value of 256 or more is truncated.
【0109】その他の構成及び作用は第1実施例と同じ
である。Other configurations and operations are the same as those in the first embodiment.
【0110】このように第2実施例によれば、第1実施
例の効果に加え、合成部72で重み係数値wを用いた演
算処理を行うことで、鮮鋭感の補正処理にと伴う、撮影
画像のSN比の劣化を防止することができる。As described above, according to the second embodiment, in addition to the effect of the first embodiment, by performing the arithmetic processing using the weighting coefficient value w in the synthesizing unit 72, the sharpness correction processing is accompanied. It is possible to prevent deterioration of the SN ratio of the captured image.
【0111】尚、本実施例に於けるフィルタリング部7
1に於いて適用するフィルタの係数は、例えば空間周波
数領域でのフィルタリングを用いるのであれば帯域通過
フィルタMpr(u,v),Mpg(u,v)及びMp
b(u,v)に於ける各値に、ディジタルフィルムによ
るフィルタリングを用いるのであれば各補正フィルタの
特性を与えるフィルタ係数mpr(x,y),mpg
(x,y)及びmpb(x,y)に於ける各値にする。The filtering unit 7 in the present embodiment.
The filter coefficient applied in 1 is, for example, band-pass filters Mpr (u, v), Mpg (u, v) and Mp if filtering in the spatial frequency domain is used.
If digital film filtering is used for each value in b (u, v), filter coefficients mpr (x, y), mpg giving characteristics of each correction filter
(X, y) and mpb (x, y).
【0112】また、原画像が例えば内視鏡による撮像画
像であれば、使用した内視鏡の機種に基づく個体撮像素
子の画素数等の情報によりMp′(u,v)或いはm
p′(x,y)の制御を行ってもよい。解像度の違いに
基づき式(11)及び式(12)をそれぞれ適用する周
波数帯域を変更することから、より好ましい撮影画像が
得られる。If the original image is, for example, an image picked up by an endoscope, Mp '(u, v) or m depending on information such as the number of pixels of the solid-state image pickup element based on the model of the endoscope used.
You may control p '(x, y). Since the frequency bands to which the equations (11) and (12) are applied are changed based on the difference in resolution, a more preferable captured image can be obtained.
【0113】尚、本実施例に於いては鮮鋭感補正成分画
像を帯域通過フィルタリングにより生成したが、第1実
施例の鮮鋭感補正部及びその変形例に於いて説明した補
正フィルタM(u,v)による処理結果画像を用いて同
様の効果を実現することも可能である。In the present embodiment, the sharpness correction component image is generated by bandpass filtering. However, the correction filter M (u, It is also possible to achieve the same effect by using the processing result image according to v).
【0114】すなわち、原画像f(x,y)と補正フィ
ルタによる処理結果である鮮鋭感補正成分画像fs
(x,y)との、重み係数値wによる重み付け演算に於
いて、前出の式(16)を f′(x,y)=(1.0−w)・f(x,y)+w・fs(x,y) … (23) と置き換え、画像の明るさを表す情報成分により重み係
数値wを制御すればよい。重み係数値wの制御方法及び
設定方法は前述の方法により実現すればよい。That is, the sharpness correction component image fs which is the processing result of the original image f (x, y) and the correction filter.
In the weighting calculation with the weighting coefficient value w with (x, y), the above equation (16) is changed to f ′ (x, y) = (1.0−w) · f (x, y) + w Fs (x, y) ... (23), and the weighting coefficient value w may be controlled by the information component indicating the brightness of the image. The method of controlling and setting the weighting factor value w may be realized by the method described above.
【0115】又、本実施例に於いては重み係数値wの制
御を画像の画素ごとに行うものとしたが、例えば画像を
複数のブロックに分割し、明るさを表す情報成分の各ブ
ロックに於ける平均値により制御してもよい。この場合
は1つのブロック内に於ける各画素には同じ重み係数値
wが適用される。In the present embodiment, the weighting coefficient value w is controlled for each pixel of the image. However, for example, the image is divided into a plurality of blocks and each block of the information component representing the brightness is divided into blocks. You may control by the average value in. In this case, the same weighting factor value w is applied to each pixel in one block.
【0116】次に第3実施例について説明する。図14
及び図15は第3実施例に係り、図14は色変換部のソ
フトウエアの構成を示すソフトウエア構成図、図15は
図14の色変換部の処理の流れを説明するフローチャー
トである。第3実施例は第1実施例とほとんど同じであ
るので、異なる構成のみ説明し、同一の構成には同じ符
号をつけ説明は省略する。Next, a third embodiment will be described. 14
15 and FIG. 15 relate to the third embodiment, FIG. 14 is a software configuration diagram showing the software configuration of the color conversion unit, and FIG. 15 is a flowchart explaining the processing flow of the color conversion unit of FIG. Since the third embodiment is almost the same as the first embodiment, only different configurations will be described, the same configurations will be denoted by the same reference numerals, and description thereof will be omitted.
【0117】本実施例の第1実施例との主たる相違は、
第1実施例の色変換部50の色空間座標逆変換部62
(図5参照)の後段に異常値処理部を設けたことにあ
る。The main difference between this embodiment and the first embodiment is that
The color space coordinate inverse conversion unit 62 of the color conversion unit 50 of the first embodiment.
This is because an abnormal value processing unit is provided in the subsequent stage (see FIG. 5).
【0118】第1実施例で述べたように、図7に示され
ている一般的な内視鏡画像の色分布の色に関して色変換
の対象となるように、行列Mが決定されるが、内視鏡画
像には一般的な内視鏡画像の色分布とは異なる点が含ま
れる場合がある。このような色に対して色変換処理を行
った結果、RGBデータの規格化範囲を越えたRGBデ
ータ(異常値)が出力され、極端な色変わりを起こす可
能性がある。特に、ハレーション等が、極端な色変わり
の結果、赤い色に変換された場合、再現された再現画像
は、相当な違和感を与えるであろう。このような、再現
画像の印象が、ハレーション等の色変わり等により損な
われるのは望ましくない。As described in the first embodiment, the matrix M is determined so as to be the target of color conversion for the color of the color distribution of the general endoscopic image shown in FIG. The endoscopic image may include points different from the color distribution of a general endoscopic image. As a result of performing color conversion processing on such a color, RGB data (abnormal value) exceeding the standardized range of RGB data may be output, and an extreme color change may occur. In particular, when the halation or the like is converted into a red color as a result of an extreme color change, the reproduced image reproduced will give a considerable discomfort. It is not desirable that the impression of the reproduced image is impaired due to color change such as halation.
【0119】そこで、本実施例では、簡単な構成で、色
変換の対象とならない色を判定し、色変換対象外の色に
ついては、もとのRGBデータR,G,Bを出力するこ
とで、極端な色変わりを防止する。Therefore, in the present embodiment, with a simple configuration, a color that is not the target of color conversion is determined, and for colors that are not the target of color conversion, the original RGB data R, G, B are output. , Prevent extreme color changes.
【0120】図14に示すように、本実施例の色変換部
50は、色空間座標逆変換部62から出力されるRGB
データR',G',B'が、規格化範囲内であるかを判定
し、規格化範囲内である場合は、RGBデータR',
G',B'を出力し、規格化範囲外である場合は、RGB
データR,G,Bを出力する異常値処理部81を備えて
構成される。その他の構成は第1実施例と同じである。As shown in FIG. 14, the color conversion unit 50 of this embodiment has the RGB output from the color space coordinate inverse conversion unit 62.
It is determined whether or not the data R ′, G ′, B ′ is within the standardized range, and if it is within the standardized range, the RGB data R ′,
G ', B'is output, and if it is out of the standardized range, RGB
An abnormal value processing unit 81 for outputting the data R, G, B is provided. The other structure is the same as that of the first embodiment.
【0121】次に、このように構成された本実施例の作
用について、異常値処理部81を中心に説明する。Next, the operation of this embodiment thus constructed will be described focusing on the abnormal value processing section 81.
【0122】図15に示すように、色変換部50におけ
る処理は、第1実施例の図6で説明したステップS1〜
S5までは同一であるので説明は省略する。そして、ス
テップS5で色空間座標逆変換部62から出力されたR
GBデータR',G',B'が、ステップS21に於い
て、予め定められた規格化範囲内(例えば、8ビットに
規格化されている場合、0〜255等)に入っているか
どうかの判定が行われ、もし範囲外であれば、ステップ
S22に於いて、RGBデータR',G',B'はRGB
データR,G,Bに置き換えられて、結局、異常値処理
部81からは、もとのRGBデータR,G,Bが出力さ
れることになる。As shown in FIG. 15, the processing in the color conversion section 50 is performed in steps S1 to S1 described in FIG. 6 of the first embodiment.
The description up to S5 is omitted because it is the same. Then, the R output from the color space coordinate inverse conversion unit 62 in step S5.
It is determined whether or not the GB data R ′, G ′, B ′ is within the predetermined standardized range (for example, 0 to 255 when standardized to 8 bits) in step S21. If the determination is made and if it is out of the range, in step S22, the RGB data R ′, G ′, B ′ are RGB.
After being replaced with the data R, G, B, the abnormal value processing unit 81 eventually outputs the original RGB data R, G, B.
【0123】一方、色空間座標逆変換部62から出力さ
れたRGBデータR',G',B'が、規格範囲内の時
は、RGBデータR',G',B'がそのまま出力され
る。On the other hand, when the RGB data R ', G', B'output from the color space coordinate inverse conversion unit 62 is within the standard range, the RGB data R ', G', B'is output as it is. .
【0124】その他の作用は第1実施例と同じである。The other operations are the same as in the first embodiment.
【0125】このように本実施例によれば、第1実施例
の効果に加え、色変換の対象となる色については色変換
処理により色差の改善が可能となり、図14に示したよ
うに異常値処理部81を色空間座標逆変換部62の後段
に設け、RGBデータR,G,Bを異常値処理部81に
入力することで、色変換の対象とならない色について
は、RGBデータR',G',B'が規格化範囲内である
かの判定により識別し、もとのRGBデータR,G,B
を出力することで、極端な色変わりの防止を簡単な構成
で実現することが可能となる。As described above, according to this embodiment, in addition to the effect of the first embodiment, it is possible to improve the color difference for the color to be color-converted by the color conversion processing, and as shown in FIG. By providing the value processing unit 81 in the subsequent stage of the color space coordinate inverse conversion unit 62 and inputting the RGB data R, G, B to the abnormal value processing unit 81, the RGB data R ′ for the color that is not the target of color conversion. , G ′, B ′ are discriminated by determining whether they are within the standardized range, and the original RGB data R, G, B are identified.
By outputting, it is possible to prevent an extreme color change with a simple configuration.
【0126】次に第4実施例について説明する。図16
は第4実施例に係る色変換部の処理の流れを説明するフ
ローチャートである。第4実施例は第1実施例とほとん
ど同じであり、本実施例の第1実施例との相違は、第1
実施例の色変換部50の行列演算部61に於いて3×3
の行列演算を実行する代わりに、2次以上の項まで含め
た、例えば3×10の行列演算を実行することである。
その他の構成及び作用は第1実施例と同じであるので、
行列演算部61の作用についてのみ説明し、同一の構成
には同じ符号をつけ説明は省略する。Next, a fourth embodiment will be described. FIG.
11 is a flowchart illustrating a processing flow of a color conversion unit according to the fourth embodiment. The fourth embodiment is almost the same as the first embodiment, and the difference between this embodiment and the first embodiment is the first embodiment.
In the matrix calculation unit 61 of the color conversion unit 50 of the embodiment, 3 × 3
Instead of executing the matrix operation of, the matrix operation of, for example, 3 × 10 including the second-order and higher terms is executed.
Since other configurations and operations are the same as those in the first embodiment,
Only the operation of the matrix calculation unit 61 will be described, and the same configurations will be denoted by the same reference numerals and description thereof will be omitted.
【0127】第1実施例に於いて説明したように、一般
的な内視鏡画像に関するCIE1976(L*u*v*)
色空間に於ける色分布は、図7の一般的な内視鏡画像の
色分布に示すように、ある限定された範囲内に存在する
傾向にある。しかし、状況によっては、メチレンブルー
等の染色剤が散布された画像が入力されることもあり、
このような画像は、前述した色分布とは異なる傾向を示
すことが明らかである。As described in the first embodiment, CIE1976 (L * u * v * ) for general endoscopic images.
The color distribution in the color space tends to exist within a limited range as shown in the color distribution of the general endoscopic image in FIG. 7. However, depending on the situation, an image in which a stain such as methylene blue is sprayed may be input,
It is clear that such an image shows a tendency different from the color distribution described above.
【0128】したがって、一般的な内視鏡画像、及び染
色剤が散布された画像等、特定の状況にも対応した、行
列演算手段101に於ける行列要素を決定するには、3
×3の線型重回帰モデルでは、予測誤差が大きくなる可
能性がある。Therefore, in order to determine the matrix elements in the matrix calculating means 101 that can be adapted to a specific situation such as a general endoscopic image and an image in which a stain is scattered, 3
The prediction error may increase in the linear multiple regression model of × 3.
【0129】そこで本実施例の色変換部50では、染色
剤が散布された場合等、一般的な内視鏡画像が占有する
色空間以外の色分布をもつ画像が入力された場合にも対
応する、色差の改善を行う。Therefore, the color conversion unit 50 of the present embodiment also handles the case where an image having a color distribution other than the color space occupied by a general endoscopic image is input, such as the case where a stain is scattered. Yes, improve the color difference.
【0130】すなわち、図5を参照すると共に図16を
用いて、本実施例の行列演算部61に於ける作用を説明
すると、図16に示すように、色空間座標変換部60か
ら出力されたCIE1976(L*u*v*)色空間座標
L*,u*,v*は、ステップS31に於いて、2次項、
或いは3次項以上の値が作成される。続いて、ステップ
S32に於いて、以下に示す式(24)に示す行列演算
が実行され、CIE1976(L*u*v*)色空間座標
L*',u*',v*'が出力される。That is, referring to FIG. 5 and using FIG. 16, the operation of the matrix calculation unit 61 of the present embodiment will be described. As shown in FIG. 16, the output is from the color space coordinate conversion unit 60. The CIE1976 (L * u * v * ) color space coordinates L * , u * , v * are the quadratic term in step S31,
Alternatively, values of the third order or higher are created. Subsequently, in step S32, the matrix calculation shown in the following equation (24) is executed, and the CIE1976 (L * u * v * ) color space coordinates L * ', u * ', v * 'are output. It
【0131】[0131]
【数4】 尚、式(24)では、定数項を含めた2次項までの例を
示している。[Equation 4] Note that the equation (24) shows an example up to the quadratic term including the constant term.
【0132】行列演算手段101に於ける行列Mは、重
回帰モデルに2次以上の高次項を含めた、非線型重回帰
モデルを使って決定される。その他の作用は第1実施例
と同じである。The matrix M in the matrix calculating means 101 is determined using a non-linear multiple regression model in which multiple regression models include higher-order terms of second order or higher. Other functions are the same as those in the first embodiment.
【0133】このように本実施例によれば、第1実施例
の効果に加え、2次以上の高次項に基づく非線型重回帰
モデルを、行列決定の際に用いることにより、一般的な
内視鏡画像、及び染色剤が散布された画像等、特定の状
況にも対応した、行列Mを求めることができ、又、この
行列Mを使った、高次行列演算を行列演算部61に於い
て実行することにより、観察用モニタ8に再現される色
と再現画像の色の色差が、CIE1976(L*u
*v*)色空間に於ける色差最小の意味に於いて、一般的
な内視鏡画像、及び染色剤が塗布された画像等、特定の
状況にも対応した、色差の改善が達成できる。As described above, according to the present embodiment, in addition to the effect of the first embodiment, a non-linear multiple regression model based on higher-order terms of the second or higher order is used for matrix determination, so It is possible to obtain a matrix M corresponding to a specific situation such as an endoscopic image and an image in which a stain is scattered, and a matrix calculation unit 61 performs a high-order matrix calculation using this matrix M. The color difference between the color reproduced on the observation monitor 8 and the color of the reproduced image is CIE1976 (L * u
* v * ) In the meaning of the minimum color difference in the color space, it is possible to improve the color difference corresponding to a specific situation such as a general endoscopic image and an image coated with a stain.
【0134】次に第5実施例について説明する。図17
ないし図21は第5実施例に係り、図17は色変換部の
ソフトウエアの構成を示すソフトウエア構成図、図18
は図17の色変換部に適用される観察用モニタ色域と画
像記録装置色域の関係をu*v*平面で説明する概念図、
図19は図17の色変換部の処理の流れを説明するフロ
ーチャート、図20は図17の色変換部に適用される内
視鏡画像記憶装置色域データの構成と色相(H)彩度
(C)明度(V)の意味をCIE1976(L*u
*v*)色空間で説明する概念図、図21は図17の色域
圧縮部の変形例の構成を示すソフトウエア構成図であ
る。Next, a fifth embodiment will be described. FIG. 17
21 to 21 relate to the fifth embodiment, FIG. 17 is a software configuration diagram showing the software configuration of the color conversion unit, and FIG.
Conceptual diagram illustrating the relationships of the observation monitor gamut and the image recording apparatus gamut applied to the color conversion unit of FIG. 17 u * v * plane,
FIG. 19 is a flowchart for explaining the processing flow of the color conversion unit of FIG. 17, and FIG. 20 is a configuration of the gamut data of the endoscope image storage device applied to the color conversion unit of FIG. 17 and the hue (H) saturation ( C) Lightness (V) means CIE1976 (L * u
* v * ) A conceptual diagram described in the color space, and FIG. 21 is a software configuration diagram showing a configuration of a modified example of the color gamut compression unit in FIG.
【0135】第5実施例は第1実施例とほとんど同じで
あり、本実施例の第1実施例との相違は、図17に示す
ように、本実施例の色変換部50ではの色空間変換部6
0と行列演算部61との間に色域圧縮部86を付加した
ことにある。本実施例に於いて、色域圧縮部86以外の
構成、及び作用については、第1実施例と同じであるの
で、色域圧縮部86の作用を中心に説明する。The fifth embodiment is almost the same as the first embodiment, and the difference from the first embodiment is that the color space in the color conversion section 50 of the present embodiment is as shown in FIG. Converter 6
The color gamut compression unit 86 is added between 0 and the matrix calculation unit 61. In the present embodiment, the configuration and operation other than the color gamut compression unit 86 are the same as in the first embodiment, so the operation of the color gamut compression unit 86 will be mainly described.
【0136】観察用モニタ8で再現できる色の範囲(以
下、観察用モニタ色域)と、画像記録装置4によって再
現画像上の再現できる色の範囲(以下、画像記録装置色
域)を、CIE1976(L*u*v*)色空間のあるL*
に於ける切断平面(以下、u*v*平面)上に模式的に表
わしたのが、図18である。The range of colors that can be reproduced on the observation monitor 8 (hereinafter, observation color gamut) and the range of colors that can be reproduced on the image reproduced by the image recording device 4 (hereinafter, image recording device color gamut) are CIE1976. (L * u * v *) of color space L *
FIG. 18 schematically shows on a cutting plane (hereinafter, u * v * plane) in FIG.
【0137】図18に示すように、画像記録装置色域
が、観察用モニタ色域より狭い場合、観察用モニタ8上
に表示されている色のうち、画像記録装置色域外に位置
する色は、画像記録装置4では、CIE1976(L*
u*v*)色空間座標に於いて表現できない。As shown in FIG. 18, when the image recording device gamut is narrower than the observation monitor gamut, among the colors displayed on the observation monitor 8, the colors located outside the image recording device gamut are In the image recording device 4, the CIE1976 (L *
u * v * ) cannot be expressed in color space coordinates.
【0138】そして、このようなデータに対して、第1
実施例で述べた色変換処理を実行すると、行列演算部6
1に於ける行列Mを決定するための説明変数として、画
像記録装置色域外のデータを用いていないため、著しい
色再現誤差が発生する場合がある。Then, for such data, the first
When the color conversion processing described in the embodiment is executed, the matrix calculation unit 6
Since the data outside the color gamut of the image recording apparatus is not used as the explanatory variable for determining the matrix M in 1, a remarkable color reproduction error may occur.
【0139】そこで本実施例では、観察用モニタ色域が
画像記録装置色域に含まれるように、観察用モニタ色域
の圧縮処理を行い、画像記録装置4の色域内で適切な色
再現を行い、入力された内視鏡画像全体として、色差を
改善する。Therefore, in this embodiment, the observation monitor color gamut is compressed so that the observation monitor color gamut is included in the image recording apparatus color gamut, and an appropriate color reproduction is performed in the color gamut of the image recording apparatus 4. The color difference is improved for the entire input endoscopic image.
【0140】以下、第5実施例の作用について色域圧縮
部86を中心に説明する。The operation of the fifth embodiment will be described below centering on the color gamut compression section 86.
【0141】本発明で説明している観察用モニタ8と画
像記録装置4のように、色域が互いに異なる装置間に於
ける、色域の圧縮方法には、大きく分けて画像記録装置
色域外に存在する色に関してのみ座標変換を行う場合
と、全ての色に関して座標変換を行う場合がある。さら
に各々の場合について、色相、及び明度を変化させない
で、彩度方向に座標変換を行う場合、色相だけを保存し
たまま、明度、及び彩度方向に座標変換を行う場合等が
あり、そして座標変換の方法にも、線形変換、或いは非
線型変換があり、これらの組み合わせによる様々な方法
が提案されている。The color gamut compression method between devices having different color gamuts such as the observation monitor 8 and the image recording device 4 described in the present invention is roughly divided into the color gamut outside the image recording device. There is a case where the coordinate conversion is performed only for the color existing in, and a case where the coordinate conversion is performed for all the colors. Further, in each case, there is a case where the coordinate conversion is performed in the saturation direction without changing the hue and the lightness, a case where the coordinate conversion is performed in the lightness and the saturation direction while keeping only the hue, and the coordinate The conversion method also includes linear conversion or non-linear conversion, and various methods based on combinations thereof have been proposed.
【0142】以下、色域圧縮部86の動作の説明では、
例として、画像記録装置色域外の色に関してのみ、その
色相、及び明度を変化させないで、彩度方向に座標変換
を行う方法について説明する。Hereinafter, in the description of the operation of the color gamut compression unit 86,
As an example, a method of performing coordinate conversion in the saturation direction only with respect to a color outside the color gamut of the image recording apparatus without changing its hue and lightness will be described.
【0143】図19に示すように、色域圧縮部86で
は、色空間座標変換手段60から出力されたCIE19
76(L*u*v*)色空間座標L*,u*,v*は、ステッ
プS41に於いて、極座標変換によりH,C及びVへ変
換される。変換式を式(25)に示す。As shown in FIG. 19, in the color gamut compression unit 86, the CIE 19 output from the color space coordinate conversion means 60 is output.
The 76 (L * u * v * ) color space coordinates L * , u * , v * are converted into H, C, and V by polar coordinate conversion in step S41. The conversion formula is shown in formula (25).
【0144】[0144]
【数5】 極座標H,Cは図20に示すように、各々、u*v*平面
に於けるu*軸からの回転角、及びu*v*平面に於ける
原点からのユークリッド距離に相当する。極座標Hはメ
トリック・ヒューアングル(文献1:東京大学出版会,
色彩科学ハンドブック,142〜143ページ)と呼ば
れており、色の三属性の内、色相に相当し、又極座標C
はメトリック・クロマ(文献1:東京大学出版会,色彩
科学ハンドブック,142〜143ページ)と呼ばれて
おり、色の三属性の内、彩度に相当する。Vはメトリッ
ク・ライトネスと呼ばれており、V=L*であり、色の
三属性の内、明度に相当する。(Equation 5) Polar H, C, as shown in FIG. 20, respectively, u * v * rotation angle from at u * axis in the plane, and u * v * corresponding to the Euclidean distance from the at the origin in the plane. The polar coordinate H is a metric hugh angle (Reference 1: The University of Tokyo Press,
Color Science Handbook, pages 142-143), which is equivalent to the hue among the three attributes of color, and has polar coordinates C.
Is called Metric Chroma (Reference 1: The University of Tokyo Press, Color Science Handbook, pages 142-143) and corresponds to the saturation among the three attributes of color. V is called metric lightness, and V = L * , which corresponds to the lightness of the three color attributes.
【0145】図14に於けるステップS45から入力さ
れる画像記録装置色域データは、画像記録装置4の色域
データを表わしており、図3に於ける主記憶装置42、
或いは外部記憶装置44から読み出される。The color gamut data of the image recording device input from step S45 in FIG. 14 represents the color gamut data of the image recording device 4, and the main memory device 42,
Alternatively, it is read from the external storage device 44.
【0146】画像記録装置色域データは、図20に示す
ように、L*(V)方向に量子化されたu*v*平面毎
に、H方向にθ間隔で量子化されたu*v*平面に於ける
原点からのユークリッド距離Cg(H,V)のデータで
構成されている。このCg(H,V)が、各u*v*平面
に於ける画像記録装置4の色域を表すデータとなる。[0146] The image recording apparatus gamut data, as shown in FIG. 20, L * (V) for each quantized u * v * plane in the direction of quantized u * v at θ intervals in the H direction * It is composed of data of Euclidean distance Cg (H, V) from the origin on the plane. This Cg (H, V) becomes data representing the color gamut of the image recording device 4 on each u * v * plane.
【0147】ステップS41から出力されたH,C,V
と、ステップS45からの画像記録装置色域データとを
使って、ステップS42に於いて、色空間座標変換部6
1から出力されたCIE1976(L*u*v*)色空間
座標L*,u*,v*が画像記録装置4の色域に含まれて
いるか、それとも含まれていないかを判定する。H, C, V output from step S41
And the image recording device color gamut data from step S45, in step S42, the color space coordinate conversion unit 6
It is determined whether or not the CIE1976 (L * u * v * ) color space coordinates L * , u * , v * output from 1 are included in the color gamut of the image recording apparatus 4 or not included.
【0148】判定はステップS41から出力されたH,
Vによって、ステップS45での画像記録装置4の色域
データを参照する。Judgment is made based on H output from step S41,
The color gamut data of the image recording device 4 in step S45 is referred to by V.
【0149】そして参照された色域データCg(H,
V)とステップS41から出力されたCを比較して、C
g(H,V)<Cであれば、色空間座標変換部60から
出力されたCIE1976(L*u*v*)色空間座標
L*,u*,v*は、画像記録装置4の色域外に存在する
ことになり、彩度の変換が行われる。Then, the referred color gamut data Cg (H,
V) and C output from step S41 are compared to obtain C
If g (H, V) <C, the CIE1976 (L * u * v * ) color space coordinates L * , u * , v * output from the color space coordinate conversion unit 60 are the colors of the image recording device 4. It will exist outside the area, and the saturation will be converted.
【0150】又、Cg(H,V)≧Cであれば、色空間
座標変換部60から出力されたCIE1976(L*u*
v*)色空間座標L*,u*,v*は、画像記録装置4の色
域内に存在することになり、CIE1976(L*u*v
*)色空間座標L*,u*,v*が、そのままL*,u*,v
*として色域圧縮部86から出力される。If Cg (H, V) ≧ C, CIE1976 (L * u *) output from the color space coordinate conversion unit 60 .
v * ) color space coordinates L * , u * , v * are present in the color gamut of the image recording device 4, and CIE1976 (L * u * v
* ) Color space coordinates L * , u * , v * are directly L * , u * , v
It is output from the color gamut compression unit 86 as * .
【0151】ステップS42に於いて、色空間座標変換
部60から出力されたCIE1976(L*u*v*)色
空間座標L*,u*,v*が画像記録装置4の色域外にあ
ると判定された場合には、ステップS43で、極座標C
がC'へ変換される。In step S 42, the CIE1976 (L * u * v * ) color space coordinates L * , u * , v * output from the color space coordinate conversion unit 60 are outside the color gamut of the image recording device 4. If determined, in step S43, polar coordinates C
Is converted to C '.
【0152】変換方法は、画像記録装置色域データS1
5から参照したCg(H,V)をCとする。つまり、画
像記録装置4の色域外に存在する色は全て、画像記録装
置色域の最外郭へ、色相(H)、及び明度(V)を保存
したまま、彩度(C)方向へ移動することに相当する。The conversion method is the gamut data S1 of the image recording apparatus.
Let Cg be the Cg (H, V) referenced from 5. That is, all the colors existing outside the color gamut of the image recording device 4 move to the outermost part of the color gamut of the image recording device in the saturation (C) direction while preserving the hue (H) and the lightness (V). Equivalent to that.
【0153】ステップS44では、極座標H,C,Vに
対してCIE1976(L*u*v*)色空間座標L*,u
*,v*への逆変換を行い、行列演算部61へCIE19
76(L*u*v*)色空間座標L*,u*,v*を出力す
る。In step S44, the CIE1976 (L * u * v * ) color space coordinates L * , u with respect to the polar coordinates H, C, V.
Inverse conversion into * , v * is performed, and CIE 19
76 (L * u * v * ) color space coordinates L * , u * , v * are output.
【0154】その他の作用は第1実施例と同じである。The other operations are the same as those in the first embodiment.
【0155】このように本実施例によれば、第1実施例
の効果に加え、色域圧縮部86に於いて、CIE197
6(L*u*v*)色空間座標L*,u*,v*が、画像記録
装置色域に含まれるかを判定し、画像記録装置色域内に
含まれないデータに関しては、色相、及び明度を保存し
たまま、画像記録装置色域外郭へ移動するように、彩度
を変更することにより、画像記録装置色域外データに対
する色変換実行の結果、著しい色再現誤差を発生するこ
とを防止し、画像記録装置色域内で全体として、適切な
色再現を得ることができる。As described above, according to this embodiment, in addition to the effects of the first embodiment, in the color gamut compression unit 86, the CIE197 is used.
6 (L * u * v * ) color space coordinates L * , u * , v * are determined to be included in the image recording device color gamut, and for data not included in the image recording device color gamut, the hue, By changing the saturation so that it moves to the outside of the color gamut of the image recording device while keeping the lightness, it is possible to prevent a significant color reproduction error as a result of executing color conversion for the data outside the color gamut of the image recording device. However, it is possible to obtain appropriate color reproduction as a whole in the color gamut of the image recording apparatus.
【0156】尚、その他の色域圧縮方法を色域圧縮部8
6で用いても同様に、画像記録装置色域外データに対す
る色変換実行の結果、著しい色再現誤差を発生すること
を防止し、画像記録装置色域内で全体として、適切な色
再現を得ることができる。It should be noted that another color gamut compression method is applied to the color gamut compression unit 8.
Even when used in No. 6, it is possible to prevent the occurrence of a significant color reproduction error as a result of performing color conversion on the data outside the color gamut of the image recording device, and obtain an appropriate color reproduction as a whole within the color gamut of the image recording device. it can.
【0157】又、各々の色域圧縮方法には特有の性質が
あるため、変形例としての色域圧縮部86aを図21に
示すように構成しても良い。すなわち、図21に示すよ
うに、使用者が状況に応じて、例えば作業者はキーボー
ド等の情報入力装置41により色域圧縮方法を選択し、
選択された色域圧縮方法がパラメータ入力部91を介し
て切替部92に入力され、切替部92は入力されたパラ
メータにより、例えば圧縮方法が異なる3つの第1〜第
3圧縮部93、94、95の中から作業者が選択した圧
縮方法を実行する圧縮部を選択するように構成すること
も可能である。Further, since each color gamut compression method has a peculiar property, a color gamut compression section 86a as a modification may be constructed as shown in FIG. That is, as shown in FIG. 21, the user selects the color gamut compression method by the information input device 41 such as a keyboard according to the situation,
The selected color gamut compression method is input to the switching unit 92 via the parameter input unit 91, and the switching unit 92 uses, for example, three first to third compression units 93, 94 having different compression methods depending on the input parameters. It is also possible to configure so as to select the compression unit that executes the compression method selected by the operator from 95.
【0158】その結果、画像記録装置色域外データに対
する色変換実行により、著しい色再現誤差を発生するこ
とを防止し、画像記録装置色域内で全体として、作業者
の目的に応じて、色域圧縮の方法を切り換えることによ
り、適切な色再現を得ることができる。As a result, it is possible to prevent a remarkable color reproduction error from occurring by performing the color conversion on the data outside the color gamut of the image recording device, and to compress the color gamut within the color gamut of the image recording device as a whole according to the purpose of the operator. Appropriate color reproduction can be obtained by switching the method.
【0159】尚、図21では、例として3つの色域圧縮
方法を切り換える場合について示したが、3つに限定さ
れるものではない。Note that FIG. 21 shows a case where three color gamut compression methods are switched as an example, but the number of color gamut compression methods is not limited to three.
【0160】次に第6実施例について説明する。図22
及び図23は第6実施例に係り、図22は色変換部の行
列演算部の構成を示すソフトウエア構成図、図23は図
22の行列演算部に適用されるCIE1976(L*u*
v*)色空間に於いて複数に分割された領域について説
明する概念図である。Next, a sixth embodiment will be described. FIG.
23 and FIG. 23 relate to the sixth embodiment, FIG. 22 is a software configuration diagram showing the configuration of the matrix operation unit of the color conversion unit, and FIG. 23 is the CIE1976 (L * u *) applied to the matrix operation unit of FIG.
v * ) is a conceptual diagram illustrating a plurality of divided areas in a color space.
【0161】第6実施例は第1実施例とほとんど同じで
あり、本実施例の第1実施例との相違は色変換部50の
行列演算61の構成であり、図22に示すように、本実
施例の行列演算部61は、行列演算を行う第1〜第3行
列演算部101、102、103を複数かつ並列に設
け、又複数かつ並列に設けられた第1〜第3行列演算部
101、102、103からの複数の結果を、重み係数
設定部104によって設定された重み係数をW使った重
み付線形和演算により、1つの結果に合成出力する合成
部105を付加したことにある。したがって、本実施例
に於いては、第1〜第3行列演算部101、102、1
03、重み係数設定部104及び合成部105につい
て、その構成、作用を中心に説明する。The sixth embodiment is almost the same as the first embodiment, and the difference of the present embodiment from the first embodiment is the configuration of the matrix operation 61 of the color conversion section 50, as shown in FIG. The matrix calculation unit 61 of the present embodiment includes a plurality of first to third matrix calculation units 101, 102, and 103 that perform matrix calculation in parallel, and a plurality of first to third matrix calculation units provided in parallel. A plurality of results from 101, 102, and 103 are added to a combining unit 105 that combines and outputs one result by a weighted linear sum operation using W with the weighting coefficient set by the weighting coefficient setting unit 104. . Therefore, in this embodiment, the first to third matrix operation units 101, 102, 1
03, the weighting factor setting unit 104, and the synthesizing unit 105 will be described focusing on the configuration and action.
【0162】行列演算部61に於いて使われる、行列M
を決定するのに公知の技術である重回帰分析を使うこと
は、第1実施例で述べた。この重回帰分析に於いては、
説明変数に相当するデータと目的変数に相当するデータ
の関係に、非線型な特性が強く存在する場合、少なから
ず予測誤差が発生することが考えられ、この予測誤差が
色変換装置に於ける色差改善の精度を決定する主要な要
因の一つとなる。したがって、重回帰分析に於いて、よ
り高精度の予測を行うには、より高次の項を使った非線
型重回帰モデルを使うことが考えられるが、行列Mの要
素数が増加するに伴い、演算コストが増大する。Matrix M used in the matrix calculation unit 61
The use of multiple regression analysis, which is a well-known technique to determine the, is described in the first example. In this multiple regression analysis,
If there is a strong non-linear characteristic in the relationship between the data corresponding to the explanatory variable and the data corresponding to the objective variable, it is possible that a considerable amount of prediction error occurs, and this prediction error is caused by the color difference in the color conversion device. It is one of the main factors that determine the accuracy of improvement. Therefore, in multiple regression analysis, it is conceivable to use a nonlinear multiple regression model using higher-order terms in order to make more accurate predictions, but as the number of elements of matrix M increases The calculation cost increases.
【0163】そこで、本実施例では、CIE1976
(L*u*v*)色空間を複数の領域に分割し、各々の領
域内に於ける、説明変数と目的変数に相当するデータ対
の線形性を高めることにより、精度を維持しつつ、色変
換部50の演算コストを抑える。Therefore, in this embodiment, CIE1976
By dividing the (L * u * v * ) color space into a plurality of regions and increasing the linearity of the data pair corresponding to the explanatory variable and the objective variable in each region, accuracy is maintained, The calculation cost of the color conversion unit 50 is suppressed.
【0164】図22に示すように、第5実施例の行列演
算部61は、色空間座標変換手段60から出力されたC
IE1976(L*u*v*)色空間座標L*,u*,v*を
入力として行列演算を行う第1〜第3行列演算部10
1、102、103と、重み係数Wを設定する重み係数
設定部104と、第1〜第3行列演算部101、10
2、103から出力される複数のCIE1976(L*
u*v*)色空間座標を入力とし、重み係数設定部104
から出力される重み係数Wを使った、重み付線形和演算
を行うことにより、CIE1976(L*u*v*)色空
間座標L*',u*',v*'を出力する合成部105とを備
えて構成される。その他の構成は第1実施例と同じであ
る。As shown in FIG. 22, the matrix calculation unit 61 of the fifth embodiment outputs the C output from the color space coordinate conversion means 60.
IE1976 (L * u * v * ) color space coordinates L * , u * , and v * are input, and first to third matrix operation units 10 perform matrix operation.
1, 102, 103, a weighting factor setting unit 104 for setting the weighting factor W, and first to third matrix computing units 101, 10
2 and 103 output a plurality of CIE1976 (L *
u * v * ) The color space coordinates are input, and the weighting factor setting unit 104
The CIE1976 (L * u * v * ) color space coordinates L * ′, u * ′, v * ′ are output by performing a weighted linear sum operation using the weighting coefficient W output from And is configured. The other structure is the same as that of the first embodiment.
【0165】尚、本実施例の説明に於いては、3つの行
列演算部を設定しているが、3つに限定されるものでは
なく、3つ以上、或いは3つ以下でもよい。In the description of this embodiment, three matrix calculation units are set, but the number is not limited to three, and three or more or three or less may be set.
【0166】以下、本実施例の作用について、第1〜第
3行列演算部101、102、103、重み係数設定部
104と合成手部105を中心に説明する。Hereinafter, the operation of this embodiment will be described focusing on the first to third matrix computing units 101, 102, 103, the weighting coefficient setting unit 104, and the combining unit 105.
【0167】色空間座標変換部60から出力されたCI
E1976(L*u*v*)色空間座標L*,u*,v*は、
第1〜第3行列演算部101、102、103へ入力さ
れ、行列演算が実行される。第1〜第3行列演算部10
1、102、103から、CIE1976(L*u
*v*)色空間座標L*1 ,u*1 ,v*1 とL*2 ,u*2
,v*2 とL*3 ,u*3 ,v*3 が出力される。CI output from the color space coordinate conversion unit 60
E1976 (L * u * v * ) color space coordinates L * , u * , v * are
It is input to the first to third matrix calculation units 101, 102 and 103, and matrix calculation is executed. First to third matrix calculation unit 10
1, 102, 103 from CIE1976 (L * u
* v * ) color space coordinates L * 1, u * 1, v * 1 and L * 2, u * 2
, V * 2 and L * 3, u * 3, v * 3 are output.
【0168】次に、重み係数設定部104では、重み係
数Wが設定され、出力される。CIE1976(L*u*
v*)色空間座標L*1 ,u*1 ,v*1 とL*2 ,u*2 ,
v*2とL*3 ,u*3 ,v*3 及び重み係数Wが、合成部
105に入力され、式(26)に基づいた演算が行わ
れ、色空間座標逆変換手段102へ出力される。Next, the weighting factor setting unit 104 sets and outputs the weighting factor W. CIE1976 (L * u *
v * ) color space coordinates L * 1, u * 1, v * 1 and L * 2, u * 2,
The v * 2, L * 3, u * 3, v * 3 and the weighting factor W are input to the synthesizing unit 105, calculation based on the equation (26) is performed, and output to the color space coordinate inverse transforming unit 102. It
【0169】[0169]
【数6】 続いて、重み係数設定部104に於ける、重み係数W=
[w1,w2,w3]の設定方法について、図23を使っ
て説明する。(Equation 6) Subsequently, in the weighting factor setting unit 104, the weighting factor W =
A method of setting [w1, w2, w3] will be described with reference to FIG.
【0170】図23は、CIE1976(L*u*v*)
色空間であるL*で切断してできるu*v*平面に於い
て、複数に分割された領域を表わす。なお実際には、C
IE1976(L*u*v*)色空間に於いて領域が分割
されるため、各々の領域は立体となる。ここでは、簡便
のため、u*v*平面で説明を行う。又、図22に於い
て、3つの第1〜第3行列演算部101、102、10
3を設定しているため、図23に於いても、3つの領
域、領域1、領域2、領域3、及び各々の領域が接する
境界領域に分割して図示した。FIG. 23 shows the CIE1976 (L * u * v * ).
In the u * v * plane formed by cutting with L * which is a color space, it represents a region divided into a plurality of regions. Actually, C
Since the regions are divided in the IE1976 (L * u * v * ) color space, each region becomes a solid. Here, for the sake of simplicity, the description will be made on the u * v * plane. In addition, in FIG. 22, three first to third matrix operation units 101, 102, and 10 are provided.
Since 3 is set, FIG. 23 is also divided into three regions, a region 1, a region 2, a region 3, and a boundary region where each region is in contact with the boundary region.
【0171】重み係数設定部104では、色空間座標変
換部60から出力されるCIE1976(L*u*v*)
色空間座標L*,u*,v*がアドレスとなって、各々の
領域毎に設定されている、重み係数Wを参照する。各々
の領域で固有に設定されている重み係数wが、領域1で
は、w1 =1.0、w2 =w3 =0.0に設定されてい
る、又領域2では、w2 =1.0、w1 =w3 =0.0
に設定されている、そして領域3では、w3 =1.0、
w1 =w2 =0.0に設定されている。The weighting factor setting unit 104 outputs the CIE1976 (L * u * v * ) output from the color space coordinate conversion unit 60.
The color space coordinates L * , u * , v * serve as addresses, and the weighting coefficient W set for each area is referred to. The weighting factor w set uniquely in each area is set to w1 = 1.0 and w2 = w3 = 0.0 in the area 1, and w2 = 1.0 and w1 in the area 2. = W3 = 0.0
, And in region 3, w3 = 1.0,
It is set to w1 = w2 = 0.0.
【0172】第1〜第3行列演算部101、102、1
03に於ける行列は、分割された各々の領域内に存在す
るデータを使って決定されており、したがって、色空間
座標変換部60から出力されるCIE1976(L*u*
v*)色空間座標L*,u*,v*が領域1に存在する場
合、重み係数設定部104からはwL1=wu1=wv1=
1.0でそれ以外が0.0である重み係数が出力され、
結局、領域1に存在するデータを使って決定された行列
による演算が行われる第1行列演算部101の出力が、
そのまま色空間座標逆変換部62へ入力されることにな
る。同様に、色空間座標変換部60から出力されるCI
E1976(L*u*v*)色空間座標L*,u*,v*が領
域2、又は領域3に存在する場合も各々、第2行列演算
部102、及び第3行列演算部103の出力がそのま
ま、色空間座標逆変換部62へ入力されることになる。First to third matrix operation units 101, 102, 1
The matrix in 03 is determined by using the data existing in each of the divided areas. Therefore, the CIE1976 (L * u *) output from the color space coordinate conversion unit 60 is determined .
v * ) When the color space coordinates L * , u * , v * are present in the area 1, the weight coefficient setting unit 104 determines that wL1 = wu1 = wv1 =
A weighting coefficient that is 1.0 and 0.0 otherwise is output,
Eventually, the output of the first matrix operation unit 101, which performs the operation using the matrix determined using the data existing in the region 1,
It is directly input to the color space coordinate inverse conversion unit 62. Similarly, the CI output from the color space coordinate conversion unit 60
Even when the E1976 (L * u * v * ) color space coordinates L * , u * , and v * are present in the area 2 or the area 3, the outputs of the second matrix operation unit 102 and the third matrix operation unit 103, respectively. Is input to the color space coordinate reverse conversion unit 62 as it is.
【0173】以上のように、重み係数が各領域で設定さ
れた場合、内視鏡画像の色分布が各々の領域の内、一つ
に集中して存在する場合は、問題がないが、内視鏡画像
の色分布が複数の領域にまたがる場合、各領域の境界付
近の色では、疑似輪郭が発生する可能性がある。これは
各領域に於ける色変換に相当する写像方向が異なるた
め、領域間で滑らかに変化しないためである。As described above, when the weighting coefficient is set in each area, if the color distribution of the endoscopic image is concentrated in one of the areas, no problem occurs. When the color distribution of the endoscopic image extends over a plurality of areas, pseudo contours may occur in the colors near the boundaries of the areas. This is because the mapping direction corresponding to the color conversion in each area is different, so that the area does not change smoothly.
【0174】したがって、各領域が接する境界領域を設
け、境界領域に於いては、重み係数を、例えば、w1 =
w2 =w3 =1/3というように、領域1と領域2と領
域3が等しく影響するように設定する等、予め決定して
おくことで、各領域間に於ける写像方向の不連続性を平
滑化することができる。Therefore, a boundary area in which the respective areas are in contact is provided, and in the boundary area, the weighting factor is, for example, w1 =
By determining in advance such as setting w2 = w3 = 1/3 so that region 1, region 2, and region 3 have the same effect, the discontinuity in the mapping direction between regions can be determined. It can be smoothed.
【0175】このように本実施例によれば、第1実施例
の効果に加え、CIE1976(L*u*v*)色空間内
に設定した複数領域に対応した、第1〜第3行列演算部
101、102、103からの複数の出力を、各々の領
域に対応して設定された重み係数を使った線形和演算を
行うことにより、高精度な色差の改善を行う色変換部5
0のコストを低減することができる。As described above, according to this embodiment, in addition to the effects of the first embodiment, first to third matrix operations corresponding to a plurality of areas set in the CIE1976 (L * u * v * ) color space are performed. A color conversion unit 5 that performs highly accurate color difference improvement by performing a linear sum operation on a plurality of outputs from the units 101, 102, and 103 using a weighting coefficient set corresponding to each region.
The cost of 0 can be reduced.
【0176】又、各領域間に境界領域を設けて、境界領
域に於いては、例えば、w1 =w2=w3 =1/3とい
うように決定された重み係数を用いることによって、各
領域に於ける色変換結果を滑らかにつなぐことができ、
疑似輪郭の発生を抑えることができる。Further, a boundary area is provided between the respective areas, and in the boundary area, for example, by using a weighting coefficient determined as w1 = w2 = w3 = 1/3, each area is You can smoothly connect the color conversion results
Generation of pseudo contours can be suppressed.
【0177】次に第7実施例について説明する。図24
は第7実施例に係る色変換部のソフトウエアの構成を示
すソフトウエア構成図である。Next, the seventh embodiment will be described. FIG.
FIG. 19 is a software configuration diagram showing a software configuration of a color conversion unit according to the seventh embodiment.
【0178】第7実施例は第1実施例とほとんど同じで
あり、本実施例の第1実施例との主たる相違は色変換部
50の構成であり、本実施例の色変換部50は、第1実
施例の色変換部50に於ける色空間座標変換部60と行
列演算部61と色空間座標逆変換部62を、RGB行列
演算部だけで構成したことにある。The seventh embodiment is almost the same as the first embodiment, and the main difference from the first embodiment of the present embodiment is the configuration of the color conversion unit 50. The color conversion unit 50 of the present embodiment is The color space coordinate conversion unit 60, the matrix calculation unit 61, and the color space coordinate inverse conversion unit 62 in the color conversion unit 50 of the first embodiment are configured by only the RGB matrix calculation unit.
【0179】図5に於いて色空間座標変換部60へ入力
するRGBデータR,G,Bと、色空間座標逆変換部6
2から出力されるRGBデータR',G',B'とは1対
1の関係にある。したがって、RGBデータR,G,B
からRGBデータR',G',B'を予測する行列を作成
すれば、色空間座標変換部60、及び色空間座標逆変換
部62を省略でき、全体の構成を簡略化することができ
る。In FIG. 5, the RGB data R, G, B input to the color space coordinate conversion unit 60 and the color space coordinate inverse conversion unit 6 are shown.
There is a one-to-one relationship with the RGB data R ′, G ′, B ′ output from No. 2. Therefore, RGB data R, G, B
If a matrix for predicting the RGB data R ′, G ′, B ′ is created from, the color space coordinate conversion unit 60 and the color space coordinate inverse conversion unit 62 can be omitted, and the overall configuration can be simplified.
【0180】そこで、本実施例では、RGBデータR,
G,BからRGBデータR',G',B'へ変換する行列
を作成し、この行列を使った行列演算により、全体とし
て簡単な構成で、色差を改善する。Therefore, in this embodiment, the RGB data R,
A matrix for converting G, B into RGB data R ′, G ′, B ′ is created, and the matrix operation using this matrix improves the color difference with a simple configuration as a whole.
【0181】第7実施例の色変換部50は、図24に示
すように、RGBデータを入力とし、RGBデータ
R',G',B'を出力するRGB行列演算部111で構
成される。その他の構成は第1実施例と同じである。As shown in FIG. 24, the color conversion section 50 of the seventh embodiment comprises an RGB matrix calculation section 111 which receives RGB data as input and outputs RGB data R ′, G ′, B ′. The other structure is the same as that of the first embodiment.
【0182】次に、本実施例に於ける作用について、R
GB行列演算部111を中心に説明する。Next, regarding the operation in this embodiment, R
The GB matrix calculation unit 111 will be mainly described.
【0183】主記憶装置42から入力されたRGBデー
タは、RGB行列演算部111に於いて、式(27)に
基づいて、3×3の行列演算が行われ、RGBデータ
R',G',B'が出力される。The RGB data input from the main storage device 42 is subjected to 3 × 3 matrix calculation in the RGB matrix calculation unit 111 based on the equation (27), and RGB data R ′, G ′, B'is output.
【0184】[0184]
【数7】 続いて、RGB行列演算部111に於ける行列要素の決
定方法について説明する。(Equation 7) Next, a method of determining matrix elements in the RGB matrix calculation unit 111 will be described.
【0185】第1実施例で述べたように、CIE197
6(L*u*v*)色空間に於ける予測行列を作成するの
に使用した、データ1及びデータ2は、観察用モニタ8
上に再現されるCIE1976(L*u*v*)色空間座
標に関して、データ1はRGBデータR,G,Bと対応
しており、又データ2はRGBデータR',G',B'に
対応している。したがって、第1実施例では、データ1
とデータ2を使って、CIE1976(L*u*v*)色
空間に於いて行列を予測したが、RGBデータR,G,
B及びRGBデータR',G',B'を使って予測して、
RGB行列演算部111で使用する行列を決定する。そ
の他の作用は第1実施例と同じである。As described in the first embodiment, CIE197
Data 1 and Data 2 used to create the prediction matrix in the 6 (L * u * v * ) color space are the observation monitor 8
Regarding the CIE1976 (L * u * v * ) color space coordinates reproduced above, data 1 corresponds to RGB data R, G, B, and data 2 corresponds to RGB data R ', G', B '. It corresponds. Therefore, in the first embodiment, the data 1
And the data 2 were used to predict the matrix in the CIE1976 (L * u * v * ) color space, and the RGB data R, G,
Predict using B and RGB data R ', G', B ',
The matrix used in the RGB matrix calculation unit 111 is determined. Other functions are the same as those in the first embodiment.
【0186】このように本実施例によれば、第1実施例
の効果に加え、色変換部50を第1実施例における色空
間CIE1976(L*u*v*)色空間座標変換部部6
0と行列演算部61と色空間座標逆変換部62とを、R
GB行列演算手段111で構成することにより、簡略化
した構成で、色差を改善することができる。As described above, according to the present embodiment, in addition to the effects of the first embodiment, the color conversion unit 50 is provided with the color space CIE1976 (L * u * v * ) color space coordinate conversion unit 6 in the first embodiment.
0, the matrix calculation unit 61, and the color space coordinate inverse conversion unit 62
By configuring with the GB matrix calculating means 111, the color difference can be improved with a simplified configuration.
【0187】次に第8実施例について説明する。図25
及び図26は第8実施例に係り、図25は色変換部のソ
フトウエアの構成を示すソフトウエア構成図、図26は
図25の行列演算部の構成を示すソフトウエア構成図で
ある。Next, the eighth embodiment will be described. Figure 25
FIG. 26 relates to the eighth embodiment, FIG. 25 is a software configuration diagram showing the software configuration of the color conversion unit, and FIG. 26 is a software configuration diagram showing the configuration of the matrix calculation unit of FIG.
【0188】第8実施例は第1実施例とほとんど同じで
あり、本実施例の第1実施例との主たる相違は、色変換
部50の構成であり、パラメータ入力部と行列要素読出
し部、及び行列要素変更部を付加したことにある。な
お、本実施例に於ける構成は、パラメータ入力部と行列
要素変更部と行列要素読出し部以外、第1実施例と同じ
であるので、パラメータ入力部と行列要素変更部と行列
要素読出し部を中心に、その構成、作用について説明す
る。The eighth embodiment is almost the same as the first embodiment, and the main difference between the first embodiment and the first embodiment is the configuration of the color conversion section 50, which includes the parameter input section and the matrix element reading section. And the addition of the matrix element changing unit. The configuration of this embodiment is the same as that of the first embodiment except for the parameter input unit, the matrix element changing unit, and the matrix element reading unit. Therefore, the parameter input unit, the matrix element changing unit, and the matrix element reading unit are The configuration and operation will be mainly described.
【0189】行列演算部61の行列要素は、第1実施例
で述べたように、CIE1976(L*u*v*)色空間
に於いて、観察用モニタ8に再現される色と再現画像に
再現される色の色差が最小となるように決定されたが、
行列を決定するときに使ったデータ1、及びデータ2の
CIE1976(L*u*v*)色空間座標は、観察条
件、観察用モニタ8の発光特性、画像記録装置4に使わ
れる感光材料の種類等が異なると、それぞれ違ったCI
E1976(L*u*v*)色空間座標をもつことにな
り、その結果、データ1とデータ2を使って求めた行列
も違ったものになる。したがって、観察条件、観察用モ
ニタ8の発光特性、画像記録装置4に使われる記録材料
の種類等の組み合わせ毎に、異なった行列を用意する必
要がある。As described in the first embodiment, the matrix elements of the matrix calculation unit 61 are used to reproduce colors and reproduced images on the observation monitor 8 in the CIE1976 (L * u * v * ) color space. It was decided to minimize the color difference of the reproduced colors,
The CIE1976 (L * u * v * ) color space coordinates of the data 1 and the data 2 used when determining the matrix are the observation conditions, the emission characteristics of the observation monitor 8 and the photosensitive material used for the image recording device 4. Different types have different CIs
Since it has E1976 (L * u * v * ) color space coordinates, the matrix obtained using data 1 and data 2 will also be different. Therefore, it is necessary to prepare a different matrix for each combination of the observation conditions, the emission characteristics of the observation monitor 8, the type of recording material used in the image recording device 4, and the like.
【0190】そこで、本実施例では、観察条件、観察用
モニタ8の発光特性、画像記録装置4に使われる記録材
料の種類等をパラメータとして入力し、このパラメータ
に基づいて、行列演算に於ける行列Mを、適切な行列に
書換えることによって、観察条件、観察用モニタ8の発
光特性、画像記録装置4に使われる感光材料の種類等が
変化した場合にも対応した色差の改善を行う。Therefore, in this embodiment, the observation conditions, the light emission characteristics of the observation monitor 8, the type of recording material used in the image recording apparatus 4, etc. are input as parameters, and matrix operation is performed based on these parameters. By rewriting the matrix M into an appropriate matrix, the color difference can be improved even when the observation conditions, the light emission characteristics of the observation monitor 8, the type of the photosensitive material used in the image recording device 4, and the like change.
【0191】本実施例の色変換部50は、図25に示す
ように、作業者がキーボード等の情報入力装置41によ
り入力した観察条件、観察用モニタ8の発光特性、画像
記録装置4に使われる記録材料の種類等のデータをパラ
メータとして入力する、パラメータ入力部121と、パ
ラメータ入力部121から出力されるパラメータを受け
て、外部記憶装置44或いは主記憶装置42に記憶され
ている、観察条件、観察用モニタ8の発光特性、画像記
録装置4に使われる感光材料の種類等のパラメータの組
み合わせ毎に決定された、複数の行列から、適切な行列
を読み出す行列要素読出し部122と、行列演算部61
に使われる行列を行列要素読出し部122が読出した行
列に変更する行列要素変更部123とを備えて構成され
る。その他の構成は第1実施例と同じである。As shown in FIG. 25, the color conversion section 50 of this embodiment uses the observation conditions input by the operator through the information input device 41 such as a keyboard, the emission characteristics of the observation monitor 8 and the image recording device 4. The observation condition stored in the external storage device 44 or the main storage device 42 in response to a parameter input unit 121 for inputting data such as the type of recording material to be input as a parameter and a parameter output from the parameter input unit 121. A matrix element reading unit 122 for reading an appropriate matrix from a plurality of matrices determined for each combination of parameters such as the light emission characteristics of the observation monitor 8 and the type of photosensitive material used in the image recording device 4, and matrix calculation Part 61
And a matrix element changing unit 123 that changes the matrix used in the above to the matrix read by the matrix element reading unit 122. The other structure is the same as that of the first embodiment.
【0192】次に、本実施例の作用について説明する。
キーボード等の情報入力装置41から入力された観察条
件、観察用モニタ8の発光特性、画像記録装置4に使わ
れる感光材料の種類等のデータは、パラメータ入力部1
21に於いて、パラメータとして色変換部50に入力さ
れる。そして、パラメータ入力部121を介して入力さ
れたパラメータに基づいて、行列要素読出し部122
が、磁気ディスクや光ディスク等の外部記憶装置44、
或いは主記憶装置42から適切な行列要素を読出し、行
列要素変更部123が、行列演算部61で使われる行列
を、パラメータに基づいて読み出された適切な行列に変
更する。この結果、行列演算部61に於ける行列は、観
察条件、観察用モニタ8の発光特性、画像記録装置4に
使われる記録材料の種類等の組み合わせに適応した状態
になる。その他の作用は第1実施例と同じである。Next, the operation of this embodiment will be described.
Data such as the observation conditions input from the information input device 41 such as a keyboard, the emission characteristics of the observation monitor 8 and the type of photosensitive material used in the image recording device 4 are stored in the parameter input unit 1.
At 21, the color conversion unit 50 inputs the parameter. Then, based on the parameters input via the parameter input unit 121, the matrix element reading unit 122
External storage device 44 such as a magnetic disk or an optical disk,
Alternatively, an appropriate matrix element is read from the main storage device 42, and the matrix element changing unit 123 changes the matrix used in the matrix operation unit 61 to the appropriate matrix read based on the parameter. As a result, the matrix in the matrix calculation unit 61 is in a state adapted to the combination of the observation conditions, the emission characteristics of the observation monitor 8, the type of recording material used in the image recording apparatus 4, and the like. Other functions are the same as those in the first embodiment.
【0193】このように本実施例によれば、第1実施例
の効果に加え、観察条件、観察用モニタ8の発光特性、
内視鏡画像記録装置に使われる記録材料の種類等の組み
合わせが変化しても、パラメータ入力部121に於い
て、パラメータとしてこれらの条件を入力することによ
り、行列要素読出し部122が、外部記憶装置44、或
いは主記憶装置42からパラメータデータに基づいて適
切な行列要素を読出し、行列要素変更部123が行列演
算部61に使われる行列を行列要素読出し部122によ
り読み出された行列に変更することにより、観察用モニ
タ8と画像記録装置4との色差を改善できる。As described above, according to this embodiment, in addition to the effects of the first embodiment, the observation conditions, the light emission characteristics of the observation monitor 8,
Even if the combination such as the type of recording material used in the endoscopic image recording apparatus changes, the matrix element reading unit 122 causes the parameter storage unit 121 to input these conditions as parameters and the external storage An appropriate matrix element is read from the device 44 or the main storage device 42 based on the parameter data, and the matrix element changing unit 123 changes the matrix used by the matrix operation unit 61 to the matrix read by the matrix element reading unit 122. As a result, the color difference between the observation monitor 8 and the image recording device 4 can be improved.
【0194】又、行列演算部61の行列を書換えるので
はなく、図26に示すように行列演算部61を構成して
もよく、予め、観察条件、観察用モニタ8の発光特性、
画像記録装置4に使われる記録材料の種類等の組み合わ
せに対応した、複数の行列演算部126を設けて、これ
をパラメータ入力部121、及び切替手段127によ
り、複数の行列演算部126の中から、パラメータ入力
部121から入力されたパラメータに応じて、適切な行
列演算部を選択することによって、行列要素を読出して
変更するよりも高速に行列演算部61を動作させること
ができ、観察条件、観察用モニタ8の発光特性、内視鏡
画像記録装置に使われる記録材料の種類等の組み合わせ
に適用した色差の改善を行うことができる。Further, instead of rewriting the matrix of the matrix calculation unit 61, the matrix calculation unit 61 may be configured as shown in FIG. 26, and the observation conditions, the emission characteristics of the observation monitor 8,
A plurality of matrix operation units 126 corresponding to combinations of types of recording materials used in the image recording apparatus 4 are provided, and the matrix operation units 126 are selected from the plurality of matrix operation units 126 by the parameter input unit 121 and the switching unit 127. By selecting an appropriate matrix calculation unit according to the parameter input from the parameter input unit 121, the matrix calculation unit 61 can be operated faster than reading and changing the matrix element, and the observation condition, It is possible to improve the color difference applied to the combination of the emission characteristics of the observation monitor 8 and the type of recording material used in the endoscopic image recording apparatus.
【0195】なお、図26では、3つの行列演算部を並
列に設けた例を示してあるが、これに限定されるもので
はない。Although FIG. 26 shows an example in which three matrix operation units are provided in parallel, the present invention is not limited to this.
【0196】次に第9実施例について説明する。図27
ないし図30は第9実施例に係り、図27は色変換部の
ソフトウエアの構成を示すソフトウエア構成図、図28
は図27の色変換部の処理の流れを説明するフローチャ
ート、図29は図27の色変換部の処理の変形例の流れ
を説明するフローチャート、図30は図29のフローチ
ャートによる明度の好ましい変換について説明する概念
図である。Next, a ninth embodiment will be described. FIG.
30 to 30 are related to the ninth embodiment, FIG. 27 is a software configuration diagram showing the software configuration of the color conversion unit, and FIG.
27 is a flowchart illustrating the flow of processing of the color conversion unit in FIG. 27, FIG. 29 is a flowchart illustrating the flow of a modified example of processing of the color conversion unit in FIG. 27, and FIG. 30 is a preferred conversion of lightness according to the flowchart of FIG. It is a conceptual diagram explaining.
【0197】第9実施例は第1実施例とほとんど同じで
あり、本実施例の第1実施例との主たる相違は、色変換
部50の構成であり、本実施例の色変換部50では、色
空間座標変換部60と行列演算部61の間に、色相
(H)、彩度(C)、明度(V)変更部とパラメータ入
力部を付加したことにある。本実施例に於いて、色相
(H)、彩度(C)、明度(V)変更部とパラメータ入
力部以外の構成、及び動作については、第1実施例と同
じであるので、色相(H)、彩度(C)、明度(V)変
更部とパラメータ入力部を中心に、その構成、及び動作
について説明する。The ninth embodiment is almost the same as the first embodiment, and the main difference from the first embodiment is the configuration of the color conversion section 50. In the color conversion section 50 of the present embodiment, That is, a hue (H), saturation (C), lightness (V) change unit and a parameter input unit are added between the color space coordinate conversion unit 60 and the matrix calculation unit 61. In this embodiment, the configuration and operation other than the hue (H), saturation (C), lightness (V) changing unit and parameter input unit are the same as those in the first embodiment, so the hue (H) ), Saturation (C), brightness (V) changing unit and parameter input unit, and the configuration and operation thereof will be described.
【0198】第1実施例では、再現画像の色と観察用モ
ニタ8の色が、CIE1976(L*u*v*)色空間に
於いて色差最小となるように色変換を行ったが、このよ
うな色変換が必ずしも最適でない場合がある。内視鏡画
像の観察目的、観察者のもつ内視鏡画像の記憶、観察者
の内視鏡画像観察に関する経験年数等により、目標とな
る色再現は、CIE1976(L*u*v*)色空間に於
ける色差最小を目標とする色再現から変動することが知
られており、一般的に好ましい色再現として呼ばれてい
る。In the first embodiment, the color conversion is performed so that the color of the reproduced image and the color of the observation monitor 8 have the minimum color difference in the CIE1976 (L * u * v * ) color space. Such color conversion may not always be optimal. Depending on the purpose of observing the endoscopic image, the memory of the endoscopic image possessed by the observer, the number of years of experience of the observer in observing the endoscopic image, the target color reproduction is CIE1976 (L * u * v * ) color. It is known that the minimum color difference in space varies from the target color reproduction, and it is generally called a preferable color reproduction.
【0199】そこで、本実施例では、色変換部50にお
いて行列演算手段61の前段の色調整のための手段を設
けることにより、画像記憶装置4に於いて、好ましい色
再現を実現する。In view of this, in the present embodiment, the color conversion section 50 is provided with means for color adjustment in the preceding stage of the matrix calculation means 61, so that preferable color reproduction is realized in the image storage device 4.
【0200】図27に示すように、本実施例の色変換部
50は、色空間座標変換部60からの出力であるCIE
1976(L*u*v*)色空間座標L*,u*,v*を入力
し、CIE1976(L*u*v*)色空間に於ける色相
(H)、彩度(C)、明度(V)の変更を行い、CIE
1976(L*u*v*)色空間座標L*d ,u*d ,v*d
を出力する、色相(H)、彩度(C)、明度(V)変更
部131と、色相(H)、彩度(C)、明度(V)の変
更量を入力し、色相(H)、彩度(C)、明度(V)変
更部131へ出力する、パラメータ入力部132とを備
えて構成され、その他の構成は第1実施例と同じであ
る。As shown in FIG. 27, the color conversion unit 50 of this embodiment outputs the CIE output from the color space coordinate conversion unit 60.
1976 (L * u * v * ) color space coordinates L * , u * , and v * are input, and hue (H), saturation (C), and lightness in the CIE1976 (L * u * v * ) color space are input. (V) is changed and CIE
1976 (L * u * v * ) color space coordinates L * d, u * d, v * d
, The hue (H), saturation (C), and lightness (V) changing unit 131, and the hue (H), saturation (C), and lightness (V) change amounts are input, and the hue (H) , A saturation (C), and a brightness (V) changing unit 131, and a parameter input unit 132 for outputting to the changing unit 131, and other configurations are the same as those in the first embodiment.
【0201】続いて、本実施例に於ける色相(H)、彩
度(C)、明度(V)変更部131、及びパラメータ入
力部132の動作について、図28を用いて説明する。Next, the operation of the hue (H), saturation (C), lightness (V) changing unit 131 and the parameter input unit 132 in this embodiment will be described with reference to FIG.
【0202】図28に於いてステップS50は、パラメ
ータ入力部132に於ける動作であり、それ以外は、色
相(H)、彩度(C)、明度(V)変更部131に於け
る動作である。In FIG. 28, step S50 is an operation in the parameter input section 132, and other than that, it is an operation in the hue (H), saturation (C), and lightness (V) changing section 131. is there.
【0203】ステップS51で、色空間座標変換部60
から出力されたCIE1976(L*u*v*)色空間座
標L*,u*,v*をu*v*平面に於ける極座標を表すH
とCに変換する。変換式は上述した式(25)である。In step S51, the color space coordinate conversion unit 60
CIE1976 (L * u * v * ) color space coordinates L * , u * , v * output from H representing the polar coordinates on the u * v * plane.
And C. The conversion formula is the above-mentioned formula (25).
【0204】第4実施例で述べたように、極座標Hは人
間が知覚する三属性の内、色相に相当し、極座標Cは彩
度に相当する。又L*は色の三属性の内、明度に相当す
るように変換されているので、L*を明度Vとして扱
う。As described in the fourth embodiment, the polar coordinate H corresponds to the hue among the three attributes perceived by humans, and the polar coordinate C corresponds to the saturation. The L * Of Ironosanzokusei, because it is converted to correspond to the brightness, treat the L * a lightness V.
【0205】以上のようにCIE1976(L*u
*v*)色空間座標L*,u*,v*を色の三属性、色相
(H)、彩度(C)、明度(V)に変換するのは、人間
にとって最も直観的に理解しやすい色の調整方法だから
である。As described above, CIE1976 (L * u
* v * ) Converting the color space coordinates L * , u * , v * into three attributes of color, hue (H), saturation (C), and lightness (V) is the most intuitive for human beings. This is because it is an easy color adjustment method.
【0206】ステップS50では、キーボード等の情報
入力装置41により作業者が入力した色相(H)、彩度
(C)、明度(V)の変更量をパラメータ入力部132
を介して、ΔH,ΔC,ΔVとして入力し、変更量Δ
H,ΔC,ΔVをステップS52へ出力する。[0206] In step S50, the parameter input unit 132 determines the amount of change in hue (H), saturation (C), and brightness (V) input by the operator using the information input device 41 such as a keyboard.
Input as ΔH, ΔC, and ΔV via
H, ΔC and ΔV are output to step S52.
【0207】ステップS52では、色相(H)、彩度
(C)、明度(V)の変更が行われ、変更後の色相
(H′)、彩度(C′)、明度(V′)を出力する。ス
テップS53で、色相(H′)、彩度(C′)、明度
(V′)からCIE1976(L*u*v*)色空間座標
L*d ,u*d ,v*d への変換が行われ、行列演算部6
1へ出力される。In step S52, the hue (H), saturation (C), and lightness (V) are changed, and the changed hue (H '), saturation (C'), and lightness (V ') are changed. Output. In step S53, conversion from hue (H ′), saturation (C ′), and lightness (V ′) to CIE1976 (L * u * v * ) color space coordinates L * d, u * d, v * d is performed. Performed, matrix operation unit 6
It is output to 1.
【0208】行列演算部61では、色相、彩度、明度変
更後のCIE1976(L*u*v*)色空間座標L*d ,
u*d ,v*d が再現画像に再現されるように、CIE1
976(L*u*v*)色空間に於いて色差最小の意味で
色変換が行われる。In the matrix calculation unit 61, the CIE1976 (L * u * v * ) color space coordinates L * d, after the hue, saturation and lightness are changed,
CIE1 so that u * d and v * d are reproduced in the reproduced image.
Color conversion is performed in the 976 (L * u * v * ) color space in the sense of minimum color difference.
【0209】ステップS52に於ける変更に伴って、C
IE1976(L*u*v*)色空間座標L*d ,u*d ,
v*d が観察用モニタ8の色域外に出る色かの判定がス
テップS54に於いて行われ、CIE1976(L*u*
v*)色空間座標L*d ,u*d,v*d が観察用モニタ8
の色域外に出る色については、ステップS55に於い
て、第4実施例の述べたように、色相、明度を変化させ
ずに、彩度方向に観察用モニタ色域の最外郭まで移動す
る等の色域圧縮処理が行われ、観察用モニタ色域内への
移動が行われる。そして、移動後のCIE1976(L
*u*v*)色空間座標が改めて、CIE1976(L*u
*v*)色空間座標L*d ,u*d ,v*d として、行列演
算部61へ出力される。[0209] With the change in step S52, C
IE1976 (L * u * v * ) color space coordinates L * d, u * d,
It is determined in step S54 whether v * d is a color outside the color gamut of the observation monitor 8 and CIE1976 (L * u *
v * ) color space coordinates L * d, u * d, v * d are the observation monitor 8
With respect to the color that goes out of the color gamut of the above, in step S55, as described in the fourth embodiment, the hue and the lightness are not changed and the color is moved to the outermost part of the observation monitor color gamut in the saturation direction. The color gamut compression processing is performed, and movement into the observation monitor color gamut is performed. Then, the CIE1976 (L
* u * v * ) color space coordinates are changed to CIE1976 (L * u)
* v * ) Color space coordinates L * d, u * d, v * d are output to the matrix calculation unit 61.
【0210】一方、ステップS53から出力されたCI
E1976(L*u*v*)色空間座標L*d ,u*d ,v*
d が観察用モニタ8の色域内であれば、そのままCIE
1976(L*u*v*)色空間座標L*d ,u*d ,v*d
が行列演算部61へ出力される。On the other hand, the CI output from step S53
E1976 (L * u * v * ) color space coordinates L * d, u * d, v *
If d is within the color gamut of the observation monitor 8, the CIE is used as it is.
1976 (L * u * v * ) color space coordinates L * d, u * d, v * d
Is output to the matrix calculation unit 61.
【0211】尚、ステップS50、及びステップS52
では、色相、彩度、明度の変更は単なる加法的な変更に
とどまっていたが、この部分を図29に示すステップS
61及びS62に置き換えることで、非線型な変更を含
めた関数で行うことも可能である。Incidentally, step S50 and step S52
Then, the change of the hue, the saturation, and the lightness was merely an additive change, but this part is shown in step S in FIG.
By replacing with 61 and S62, it is possible to perform with a function including a non-linear change.
【0212】内視鏡画像が記録された再現画像に関し
て、どのような明度変更が好まれるかを官能評価によっ
て求めた結果、図30に示すように、明度Vを全体に3
等分して、暗い方から暗部、中間部、明部とした場合、
暗部とした場合、暗部では比較的、コントラストが強め
(硬調)で、より明るくする傾向が、中間部では若干コ
ントラストを弱める(軟調)傾向が、明部では、硬調か
つ暗くする傾向が好まれることが分かった。このような
官能評価実験の結果に基づいて、図29のステップS6
1では色相、彩度、明度変更の基本関数形(変更関数)
を定義し、パラメータ入力部132で色相、彩度、明度
の変更関数に対応した、fH ,fC ,fVの変曲点の位
置等、関数形の形を変更するパラメータPH ,PC ,P
V を入力する。そしてステップS62で色相、彩度、明
度の変更が変更関数fH ,fC ,fV に基づいて行われ
る。その他の作用は第1実施例と同じである。With respect to the reproduced image in which the endoscopic image is recorded, what kind of brightness change is preferred is obtained by sensory evaluation, and as a result, as shown in FIG.
When divided into equal parts, from dark to dark, middle, and light,
When the dark part is used, the dark part has a relatively high contrast (hard contrast) and tends to be brighter, the middle part has a slightly weaker contrast (soft tone), and the bright part has a tendency to be hard and dark. I understood. Based on the result of such a sensory evaluation experiment, step S6 of FIG.
1 is a basic function form (change function) for changing hue, saturation, and brightness
, And parameters PH, PC, P for changing the shape of the functional form such as the positions of the inflection points of fH, fC, fV corresponding to the changing functions of hue, saturation, and lightness in the parameter input unit 132.
Enter V. Then, in step S62, the hue, saturation and lightness are changed based on the changing functions fH, fC and fV. Other functions are the same as those in the first embodiment.
【0213】このように本実施例によれば、第1実施例
の効果に加え、パラメータ入力部132、及び色相
(H)、彩度(C)、明度(V)変更部131を行列演
算部61の前段に設けることにより、内視鏡像が記録さ
れた再現画像を観察する者にとってより好ましい方向へ
色を調整することが可能となり、好ましい色再現を実現
することができる。As described above, according to the present embodiment, in addition to the effects of the first embodiment, the parameter input unit 132 and the hue (H), saturation (C), lightness (V) changing unit 131 are arranged in the matrix computing unit. By providing in the preceding stage of 61, it becomes possible to adjust the color in a direction more preferable for a viewer of the reproduced image on which the endoscope image is recorded, and it is possible to realize preferable color reproduction.
【0214】又、色相(H)、彩度(C)、明度(V)
変更を官能評価実験に基づいた変更関数のパラメータ調
整によって行うことで、好ましい色再現を実現すること
ができる。Hue (H), saturation (C), lightness (V)
By performing the change by adjusting the parameter of the change function based on the sensory evaluation experiment, preferable color reproduction can be realized.
【0215】次に第10実施例について説明する。図3
1は第10実施例に係る色変換部の行列演算部の構成を
示すソフトウエア構成図である。Next, the tenth embodiment will be described. FIG.
FIG. 1 is a software configuration diagram showing the configuration of the matrix calculation unit of the color conversion unit according to the tenth embodiment.
【0216】第10実施例は第1実施例とほとんど同じ
であり、本実施例の第1実施例との主たる相違は、行列
演算部61の構成であるので、異なる構成のみ説明し、
同一構成には同じ符号をつけ説明は省略する。The tenth embodiment is almost the same as the first embodiment, and the main difference between this embodiment and the first embodiment is the configuration of the matrix operation unit 61. Therefore, only the different configuration will be described.
The same components are designated by the same reference numerals and description thereof is omitted.
【0217】行列演算手段61で実行される3×3の行
列演算の行列Mは、内視鏡画像の色分布がCIE197
6(L*u*v*)色空間に於いて局在する性質を利用
し、線形重回帰モデルを使った重回帰分析によって決定
されることは、第1実施例で説明した。The matrix M of the 3 × 3 matrix calculation executed by the matrix calculation means 61 has a color distribution of an endoscopic image of CIE197.
As described in the first example, the property of being localized in the 6 (L * u * v * ) color space is used to determine by multiple regression analysis using a linear multiple regression model.
【0218】そこで、本実施例では、1つの行列Mでは
対応できない、内視鏡画像の色分布が変化した場合を想
定し、入力される内視鏡画像の色分布に適応した行列M
を作成し、この行列を使った色変換を行い、色差の改善
を行う。Therefore, in the present embodiment, assuming that the color distribution of the endoscopic image changes, which cannot be handled by one matrix M, the matrix M adapted to the color distribution of the input endoscopic image.
, And perform color conversion using this matrix to improve the color difference.
【0219】本実施例の行列演算部61は、図31に示
すように、色空間座標変換部60から出力されたCIE
1976(L*u*v*)色空間座標L*,u*,v*を使っ
て、CIE1976(L*u*v*)色空間に於けるヒス
トグラムを作成するヒストグラム作成部141と、ヒス
トグラム作成部141で作成されたヒストグラムを使っ
て主記憶装置42或いは外部記憶装置44に記憶されて
いるヒストグラムデータの更新を行うヒストグラムデー
タ更新部142と、主記憶装置42或いは外部記憶装置
44に記憶されている更新されたヒストグラムを読み出
すヒストグラムデータ読出し部143と、ヒストグラム
データ読出し部143により読み出されたヒストグラム
データを使って行列Mを決定するための色票データを選
択する色票データ選択部144と、色票データ選択部1
44から出力される説明変数と目的変数の組を使って重
回帰分析により行列Mを決定する行列決定部145と、
行列決定部145に於いて決定された行列要素を変更す
る行列要素変更部146と、行列要素変更部146によ
り変更された行列要素により実際に演算を実行する行列
演算実行部147とを備えて構成される。その他の構成
は第1実施例と同じである。The matrix calculation unit 61 of this embodiment, as shown in FIG. 31, outputs the CIE output from the color space coordinate conversion unit 60.
A histogram creation unit 141 that creates a histogram in the CIE1976 (L * u * v * ) color space using the 1976 (L * u * v * ) color space coordinates L * , u * , and v * , and a histogram creation A histogram data updating unit 142 for updating the histogram data stored in the main storage device 42 or the external storage device 44 using the histogram created by the unit 141, and stored in the main storage device 42 or the external storage device 44. A histogram data reading unit 143 for reading the updated histogram, a color chart data selecting unit 144 for selecting color chart data for determining the matrix M using the histogram data read by the histogram data reading unit 143, Color chart data selection section 1
A matrix determination unit 145 that determines a matrix M by multiple regression analysis using a set of explanatory variables and objective variables output from 44;
The matrix determining unit 145 includes a matrix element changing unit 146 that changes the matrix element determined by the matrix determining unit 145, and a matrix operation executing unit 147 that actually executes an operation using the matrix element changed by the matrix element changing unit 146. To be done. The other structure is the same as that of the first embodiment.
【0220】次に、本実施例の動作について説明する。
色空間座標変換手段60から出力されたCIE1976
(L*u*v*)色空間座標L*,u*,v*を使って、ヒス
トグラム作成部141が、ヒストグラムデータを作成す
る。そして、ヒストグラムデータ更新部142は、内視
鏡画像のCIE1976(L*u*v*)色空間に於ける
ヒストグラムデータを更新する。更新されたヒストグラ
ムデータは、ヒストグラムデータ読出し部143により
読み出され、色票データ選択部144は、読み出された
ヒストグラムデータを使って、行列を決定するための適
切なデータを選択する。Next, the operation of this embodiment will be described.
CIE1976 output from the color space coordinate conversion means 60
The histogram creating unit 141 creates histogram data using the (L * u * v * ) color space coordinates L * , u * , and v * . Then, the histogram data updating unit 142 updates the histogram data in the CIE1976 (L * u * v * ) color space of the endoscopic image. The updated histogram data is read by the histogram data reading unit 143, and the color chart data selection unit 144 uses the read histogram data to select appropriate data for determining the matrix.
【0221】ヒストグラムデータの構造は、適当な精度
で量子化された、CIE1976(L*u*v*)色空間
の単位空間に分布する、内視鏡画像の画素数がデータと
して記録されている。As the structure of the histogram data, the number of pixels of the endoscopic image, which is quantized with appropriate accuracy and is distributed in the unit space of the CIE1976 (L * u * v * ) color space, is recorded as data. .
【0222】色票データ選択部144に於いて、度数に
対する閾値処理により、閾値以上の度数をもつ単位空間
の中心座標が色票データを参照するアドレスとなる。In the color chart data selection unit 144, the center coordinate of the unit space having a frequency equal to or higher than the threshold becomes the address for referring to the color chart data by the threshold processing on the frequency.
【0223】色票データのデータ構造は、色票データ選
択部144で決定された参照アドレスに、第1実施例で
説明した、各々、説明変数、及び目的変数に相当するデ
ータ1、及びデータ2が組となって記録されている。The data structure of the color chart data is such that the reference address determined by the color chart data selection unit 144 corresponds to the explanatory variable and the objective variable described in the first embodiment, that is, data 1 and data 2, respectively. Are recorded in pairs.
【0224】色票データ選択部144から出力されたデ
ータを使って、行列決定部143では重回帰分析によ
り、行列を決定する。決定された行列を行列要素変更部
146を経て行列演算実行部147へ出力することによ
り、行列演算部61は、現在入力されている内視鏡画像
の色分布に適応した状態になる。その他の作用は第1実
施例と同じである。Using the data output from the color chart data selection unit 144, the matrix determination unit 143 determines the matrix by multiple regression analysis. By outputting the determined matrix to the matrix calculation executing unit 147 via the matrix element changing unit 146, the matrix calculating unit 61 is in a state adapted to the color distribution of the endoscopic image currently input. Other functions are the same as those in the first embodiment.
【0225】このように本実施例によれば、第1実施例
の効果に加え、ヒストグラム作成部141とヒストグラ
ムデータ更新部142とヒストグラムデータ読出し部1
43と色票データ選択部144と行列決定部145と行
列要素変更部146とを設け、入力された内視鏡画像の
色分布に応じた、色票データを選択し、行列決定部14
5により行列演算実行部147で使われる行列を決定
し、行列要素変更部146で行列を変更することで、入
力された内視鏡画像に適応的に変化する色変換部50を
実現することができ、色差を改善することができる。As described above, according to the present embodiment, in addition to the effects of the first embodiment, the histogram creating unit 141, the histogram data updating unit 142, and the histogram data reading unit 1 are provided.
43, a color chart data selection unit 144, a matrix determination unit 145, and a matrix element change unit 146 are provided to select the color chart data according to the color distribution of the input endoscopic image, and the matrix determination unit 14
5, the matrix used by the matrix operation executing unit 147 is determined, and the matrix element changing unit 146 changes the matrix, thereby realizing the color conversion unit 50 that adaptively changes the input endoscopic image. It is possible to improve the color difference.
【0226】以上、第1実施例から第10実施例までを
説明したが、第3実施例で説明した、異常値処理部82
の付加は、第4実施例、第5実施例、第6実施例、第7
実施例、第8実施例、第9実施例、第10実施例にも適
用が可能であり、極端な色変わりを防止しつつ、色変換
対象の色については色差を改善する効果がある。Although the first to tenth embodiments have been described above, the abnormal value processing section 82 described in the third embodiment has been described.
Is added to the fourth, fifth, sixth, and seventh embodiments.
The present invention can also be applied to the embodiments, the eighth embodiment, the ninth embodiment, and the tenth embodiment, and has an effect of improving the color difference of the color to be color-converted while preventing an extreme color change.
【0227】又、第4実施例で説明した、行列演算部6
1に於ける行列演算を3×3の線形演算から、2次以上
の高次項を使った非線型行列演算へ変更は、第3実施
例、第5実施例、第6実施例、第7実施例、第8実施
例、第9実施例、第10実施例にも適用が可能であり、
観察用モニタ8に再現される色と再現画像の色の色差
が、CIE1976(L*u*v*)色空間に於ける色差
最小の意味に於いて、一般的な内視鏡画像、及び染色剤
が散布された画像等、特定の状況にも対応した、高精度
の色差の改善が達成できる。Also, the matrix operation unit 6 described in the fourth embodiment.
The matrix operation in 1 is changed from a 3 × 3 linear operation to a non-linear matrix operation using a higher-order term of the second or higher order, that is, the third embodiment, the fifth embodiment, the sixth embodiment, and the seventh embodiment. Examples, 8th embodiment, 9th embodiment, and 10th embodiment are also applicable,
The color difference between the color reproduced on the observing monitor 8 and the color of the reproduced image is the minimum color difference in the CIE1976 (L * u * v * ) color space. It is possible to achieve highly accurate color difference improvement that corresponds to a specific situation such as an image in which an agent is sprayed.
【0228】又、第5実施例で説明した、色域圧縮部8
6の付加は、第3実施例、第4実施例、第6実施例、第
8の実施例、第9実施例、第10実施例にも適用が可能
であり、画像記録装置色域外データに対する色変換実行
の結果、著しい色再現誤差を発生することを防止し、画
像記録装置色域内で全体として、適切な色再現を得るこ
とができる。Further, the color gamut compression section 8 described in the fifth embodiment.
The addition of 6 is also applicable to the third, fourth, sixth, eighth, ninth, and tenth embodiments, and is applied to data outside the color gamut of the image recording apparatus. As a result of executing the color conversion, it is possible to prevent a significant color reproduction error from occurring, and it is possible to obtain an appropriate color reproduction as a whole in the color gamut of the image recording apparatus.
【0229】又、第6実施例で説明した、複数の行列演
算部101〜103を設け、重み係数設定ぶ104と合
成ぶ105の付加は、第3実施例、第4実施例、第5実
施例、第7実施例、第8実施例、第9実施例、第10実
施例にも適用が可能であり、高精度な色差の改善を行う
色変換部50の演算コストを低減することができる。Further, as described in the sixth embodiment, the plurality of matrix operation units 101 to 103 are provided, and the addition of the weighting coefficient setting unit 104 and the composition unit 105 is performed in the third, fourth and fifth embodiments. The present invention can be applied to the examples, the seventh embodiment, the eighth embodiment, the ninth embodiment, and the tenth embodiment, and the calculation cost of the color conversion unit 50 that improves the color difference with high accuracy can be reduced. .
【0230】又、第7実施例で説明した、色変換部50
に於ける色空間座標変換部0と行列演算部61と色空間
座標逆変換手段部62をRGB行列演算部111で置き
換えることは、第3実施例、第4実施例、第6実施例、
第8実施例、第10の実施例にも適用が可能であり、簡
略化した構成で、色差を改善することができる。Further, the color conversion unit 50 described in the seventh embodiment is used.
Replacing the color space coordinate conversion unit 0, the matrix calculation unit 61, and the color space coordinate inverse conversion unit unit 62 in the above with the RGB matrix calculation unit 111 is equivalent to the third embodiment, the fourth embodiment, the sixth embodiment,
It is also applicable to the eighth and tenth embodiments, and the color difference can be improved with a simplified configuration.
【0231】又、第8実施例で説明した、パラメータ入
力部121と行列要素変更部123と行列要素読出し部
122の付加は、第3実施例、第4実施例、第5実施
例、第6実施例、第7実施例、第9実施例にも適用が可
能で、観察条件、観察用モニタ8の発光特性、内視鏡画
像記憶装置に使われる記憶材料の種類等の組み合わせが
変化しても色差の改善が可能である。The addition of the parameter input unit 121, the matrix element changing unit 123, and the matrix element reading unit 122 described in the eighth embodiment is the same as the third embodiment, the fourth embodiment, the fifth embodiment, and the sixth embodiment. The present invention can also be applied to the embodiments, the seventh embodiment, and the ninth embodiment, in which the combination of the observation conditions, the emission characteristics of the observation monitor 8 and the kind of the storage material used in the endoscopic image storage device changes. Can improve the color difference.
【0232】又、第9の実施例で説明した、色相
(H)、彩度(C)、明度(V)変更部131とパラメ
ータ入力部132の付加は、第3実施例、第4実施例、
第5実施例、第6実施例、第8実施例、第10実施例に
も適用が可能で、好ましい色再現を実現することができ
る。The addition of the hue (H), saturation (C), lightness (V) changing unit 131 and the parameter input unit 132 described in the ninth embodiment is the same as in the third and fourth embodiments. ,
The present invention is applicable to the fifth, sixth, eighth, and tenth embodiments as well, and can realize preferable color reproduction.
【0233】又、第10実施例で説明した、ヒストグラ
ム作成部141とヒストグラムデータ更新部142とヒ
ストグラムデータ読出し部143と色票データ選択部1
44と行列決定部145と行列要素変更部146を付加
したことは、第3実施例、第4実施例、第5実施例、第
9実施例にも適用することが可能で、入力された内視鏡
画像に適応的に変化する色変換部50を実現することが
でき、色差を改善することができる。Further, the histogram creating section 141, the histogram data updating section 142, the histogram data reading section 143, and the color chart data selecting section 1 described in the tenth embodiment.
44, the matrix determining unit 145, and the matrix element changing unit 146 can be applied to the third embodiment, the fourth embodiment, the fifth embodiment, and the ninth embodiment as well. The color conversion unit 50 that adaptively changes the endoscopic image can be realized, and the color difference can be improved.
【0234】上記第1ないし第10実施例では、画像処
理装置3における処理を中央処理装置40によりソフト
ウエアにより実現する実施例について説明したが、以下
においては、画像処理装置3における処理をハードウエ
アで構成した場合の実施例について説明する。In the first to tenth embodiments described above, the embodiments in which the processing in the image processing apparatus 3 is realized by software by the central processing unit 40 have been described. However, in the following, the processing in the image processing apparatus 3 is performed by hardware. An example in the case of the configuration will be described.
【0235】まず、第11実施例について説明する。図
32ないし図36は第11実施例に係り、図32は画像
処理装置の構成を示すブロック図、図33は図32の画
像処理装置の変形例の構成を示すブロック図、図34は
図32の色変換回路の構成を示すブロック図、図35は
図32の鮮鋭感補正回路の構成を示すブロック図、図3
6は図35のフィルタリング部の構成を示すブロック図
である。First, the eleventh embodiment will be described. 32 to 36 relate to the eleventh embodiment, FIG. 32 is a block diagram showing a configuration of an image processing apparatus, FIG. 33 is a block diagram showing a configuration of a modified example of the image processing apparatus of FIG. 32, and FIG. 3 is a block diagram showing the configuration of the color conversion circuit of FIG. 35, FIG. 35 is a block diagram showing the configuration of the sharpness correction circuit of FIG.
6 is a block diagram showing the configuration of the filtering unit in FIG.
【0236】第11実施例は第1実施例とほとんど同じ
であり、本実施例の第1実施例との主たる相違は画像処
理装置3の構成であるので、異なる構成のみ説明し、同
一構成には同じ符号をつけ説明は省略する。The eleventh embodiment is almost the same as the first embodiment, and the main difference between this embodiment and the first embodiment is the configuration of the image processing apparatus 3. Therefore, only different configurations will be described and the same configurations will be described. Are denoted by the same reference numerals and description thereof is omitted.
【0237】本実施例の画像処理装置3では、観察装置
7の信号処理部7A内のメモリ(1)36a、メモリ
(2)36b、メモリ(3)36c(図2参照)に記録
された画像データR,G,Bは、図32に示すように、
入力I/F160を介して、一旦メモリ161に記憶さ
れる。記憶された画像データを用いて、セレクタ16
2、164を介して色変換回路163及び/又は鮮鋭感
補正回路165により画像の色変換処理及び/又は鮮鋭
感補正処理を行う。そして、色変換処理及び/又は鮮鋭
感処理を受けた画像データをメモリ166に記憶する。In the image processing apparatus 3 of this embodiment, the images recorded in the memory (1) 36a, the memory (2) 36b, and the memory (3) 36c (see FIG. 2) in the signal processing unit 7A of the observation apparatus 7 are recorded. The data R, G, B are as shown in FIG.
It is temporarily stored in the memory 161 via the input I / F 160. Using the stored image data, the selector 16
2 and 164, the color conversion circuit 163 and / or the sharpness correction circuit 165 performs color conversion processing and / or sharpness correction processing of the image. Then, the image data subjected to the color conversion processing and / or the sharpness processing is stored in the memory 166.
【0238】メモリ166に記憶された画像データが読
み出され、D/Aコンバータ167によってアナログ信
号に変換され、出力用I/F168aを介して画像記録
装置4に画像データを出力する。The image data stored in the memory 166 is read out, converted into an analog signal by the D / A converter 167, and output to the image recording device 4 via the output I / F 168a.
【0239】或いは、メモリ166に記憶された画像デ
ータは読み出され、出力用I/F168bを介して、デ
ィジタル画像データが画像記録装置4に出力される。Alternatively, the image data stored in the memory 166 is read out and the digital image data is output to the image recording apparatus 4 via the output I / F 168b.
【0240】以上のように、メモリ161とメモリ16
6との間でシリアルに信号処理を行うことで、回路構成
を1系統にまとめることができ、コストを削減できる。As described above, the memory 161 and the memory 16
By performing the signal processing serially with the circuit 6, the circuit configuration can be integrated into one system, and the cost can be reduced.
【0241】また、画像処理装置3には、色変換回路1
63と鮮鋭感補正回路165の演算を制御するための演
算処理用コントローラ169と、メモリ161、166
のデータの読み書きを制御するためのメモリコントロー
ラ170が設けられている。セレクタ162はパラメー
タ入力装置用I/F171を介してパラメータ入力装置
172から出力された制御信号によって、色変換回路1
63、セレクタ164の一方が、選択的にメモリ161
に接続されるようになっている。Further, the image processing apparatus 3 includes the color conversion circuit 1
63, the arithmetic processing controller 169 for controlling the arithmetic operations of the sharpness correction circuit 165, and the memories 161, 166.
A memory controller 170 for controlling the reading and writing of the data is provided. The selector 162 uses the control signal output from the parameter input device 172 via the parameter input device I / F 171 to output the color conversion circuit 1
63, one of the selector 164 selectively selects the memory 161.
It is designed to be connected to.
【0242】セレクタ164はパラメータ入力装置用I
/F171を介してパラメータ入力装置172から出力
された制御信号によって、鮮鋭感補正回路165、メモ
リ166の一方が、選択的にセレクタ164に接続され
るようになっている。The selector 164 is an I for parameter input device.
One of the sharpness correction circuit 165 and the memory 166 is selectively connected to the selector 164 by a control signal output from the parameter input device 172 via the / F171.
【0243】パラメータ入力装置用I/F171を介し
てパラメータ入力装置172から出力された制御信号は
演算処理用コントローラ169に入力しており、パラメ
ータ入力装置172から入力されるパラメータによって
色変換回路163、及び/又は鮮鋭感補正回路165の
動作を制御することが可能である。The control signal output from the parameter input device 172 via the parameter input device I / F 171 is input to the arithmetic processing controller 169, and the color conversion circuit 163 is converted by the parameter input from the parameter input device 172. And / or it is possible to control the operation of the sharpness correction circuit 165.
【0244】ここで、色変換回路163及び/又は鮮鋭
感補正回路165にデータを入力したり、又は色変換回
路163、及び/又は鮮鋭感補正回路165からデータ
を出力したりすることを可能にするため、第11実施例
の画像処理装置3の変形例の構成を図33に示す。Here, it is possible to input data to the color conversion circuit 163 and / or the sharpness correction circuit 165, or to output data from the color conversion circuit 163 and / or the sharpness correction circuit 165. In order to do so, the configuration of a modified example of the image processing device 3 of the 11th embodiment is shown in FIG.
【0245】すなわち、第11実施例の画像処理装置3
の変形例は、色変換回路163及び/又は鮮鋭感補正回
路165で実行される処理で使用されるパラメータや各
種係数データ等を変更する場合、パラメータや各種係数
データを複数種類記憶する記憶手段を設け、必要に応じ
てパラメータや各種係数データを読みだして、色変換回
路163及び/又は鮮鋭感補正回路165の処理方法を
変更することを可能にし、色変換回路163及び/又は
鮮鋭感補正回路165から出力されるデータを記憶する
ことを可能とするものである。That is, the image processing apparatus 3 of the eleventh embodiment.
In the modified example, when changing the parameters and various coefficient data used in the processing executed by the color conversion circuit 163 and / or the sharpness correction circuit 165, a storage means for storing a plurality of types of parameters and various coefficient data is provided. The color conversion circuit 163 and / or the sharpness correction circuit can be read by reading parameters and various coefficient data as necessary to change the processing method of the color conversion circuit 163 and / or the sharpness correction circuit 165. This makes it possible to store the data output from 165.
【0246】第11実施例の画像処理装置3の変形例で
は、図33に示すように、RAM等より構成されるメモ
リ175及び磁気ディスクや光磁気ディスク等から構成
される外部記憶装置173は、色変換回路163及び/
又は鮮鋭感補正回路165で実行される処理で使用され
る複数種類のパラメータや各種係数データ記憶する。メ
モリ175及び外部記憶装置173は、キーボード等の
情報入力装置172及び情報入力装置用I/F171を
介してコントローラ176に入力した信号によりコント
ローラ176で制御される。そしてコントロール信号に
よりメモリ175及び外部記憶装置173は、色変換回
路163及び/又は鮮鋭感補正回路165にデータを出
力したり、色変換回路163及び/又は鮮鋭感補正回路
165からデータを入力したりする。In the modified example of the image processing apparatus 3 of the eleventh embodiment, as shown in FIG. 33, the memory 175 including a RAM and the external storage device 173 including a magnetic disk and a magneto-optical disk are Color conversion circuit 163 and /
Alternatively, a plurality of types of parameters and various coefficient data used in the processing executed by the sharpness correction circuit 165 are stored. The memory 175 and the external storage device 173 are controlled by the controller 176 by signals input to the controller 176 via the information input device 172 such as a keyboard and the information input device I / F 171. Then, the memory 175 and the external storage device 173 output data to the color conversion circuit 163 and / or the sharpness correction circuit 165 or input data from the color conversion circuit 163 and / or the sharpness correction circuit 165 by the control signal. To do.
【0247】この実施例では電子内視鏡6で得た内視鏡
画像に対し、画像処理装置3で処理を行い、画像記録装
置4に処理結果を出力する。又、色変換回路163を鮮
鋭感補正回路165の前段に位置するように示したが、
この位置は逆にすることも可能である。In this embodiment, the endoscopic image obtained by the electronic endoscope 6 is processed by the image processing device 3 and the processed result is output to the image recording device 4. Further, although the color conversion circuit 163 is shown to be positioned before the sharpness correction circuit 165,
This position can be reversed.
【0248】画像記録装置4は、例えばビデオプリン
タ、或いはフィルムレコーダ等で構成される。The image recording device 4 is composed of, for example, a video printer or a film recorder.
【0249】次に、色変換回路163について説明す
る。尚、RGBデータ、及びCIE1976(L*u*v
*)色空間座標信号は、各々8ビットに規格化されてい
るものとするが、規格化数は8ビットに限定されるもの
でなく、8ビット以下、或いは8ビット以上でもよい。Next, the color conversion circuit 163 will be described. RGB data and CIE1976 (L * u * v
* ) Each color space coordinate signal is standardized to 8 bits, but the standardization number is not limited to 8 bits, and may be 8 bits or less or 8 bits or more.
【0250】図34に示すように、色変換回路163
は、セレクタ162からのRGBデータを入力としCI
E1976(L*u*v*)色空間座標L*,u*,v*信号
を出力するL*用LUT181a、u*用LUT181b
及びv*用LUT181cで構成される色空間座標変換
用LUT181と、色空間座標変換用LUT181から
出力されたCIE1976(L*u*v*)色空間座標
L*,u*,v*信号をCIE1976(L*u*v*)色空
間座標L*',u*',v*'信号へ変換する、L*'用LUT
182a、u*'用LUT182b及びv*'用LUT18
2cで構成される色変換用LUT182と、色変換用L
UT182から出力されたCIE1976(L*u
*v*)色空間座標L*',u*',v*'信号をRGBデータ
R',G',B'へ変換するセレクタ164に出力するR'
用LUT183a、G'用LUT183b及びB'用LU
T183cで構成される色空間座標逆変換用LUT18
3とを備えて構成される。As shown in FIG. 34, the color conversion circuit 163.
Inputs the RGB data from the selector 162, and
E1976 (L * u * v * ) color space coordinates L *, u *, v * and outputs a signal L * a LUT181a, u * for LUT181b
And a v * LUT 181c for color space coordinate conversion, and the CIE1976 (L * u * v * ) color space coordinate L * , u * , v * signals output from the LUT 181 for color space coordinate conversion. (L * u * v * ) color space coordinates L * ', u * ', v * 'signals for conversion into L * ' LUT
182a, u * 'LUT 182b and v * ' LUT 18
2c for color conversion LUT 182 and color conversion L
CIE1976 (L * u output from the UT182
* v * ) Color space coordinates L * ', u * ', v * 'R'output to selector 164 which converts signals into RGB data R', G ', B'.
LUT 183a, G'LUT 183b and B'LU
LUT 18 for inverse color space coordinate conversion configured by T183c
And 3.
【0251】又、各々のLUT181〜183は、図3
3に示した画像処理装置3の変形例に於けるメモリ17
5、或いは外部記憶装置173からLUTデータを入力
することができる構成になっている。Each LUT 181 to 183 is shown in FIG.
Memory 17 in a modification of the image processing apparatus 3 shown in FIG.
5 or LUT data can be input from the external storage device 173.
【0252】次に、鮮鋭感補正回路165について説明
する。Next, the sharpness correction circuit 165 will be described.
【0253】図35に示すように、鮮鋭感補正回路16
5は、入力されたRGB各画像データに対しフィルタリ
ングを施すフィルタリング部201と、フィルタリング
の係数値を設定する係数値設定部202、係数値設定の
ためのデータを入力するデータ入力部203及び各ブロ
ックを制御する制御部204から構成される。As shown in FIG. 35, the sharpness correction circuit 16
Reference numeral 5 denotes a filtering unit 201 that filters input RGB image data, a coefficient value setting unit 202 that sets a filtering coefficient value, a data input unit 203 that inputs data for setting a coefficient value, and each block. The control unit 204 for controlling
【0254】尚、この鮮鋭感補正回路165は、第1実
施例の鮮鋭感補正部51をハードウエアにより実現した
ものであり、鮮鋭感補正の原理については、第1実施例
(図9及び図11)で説明したので、説明は省略する。The sharpness correction circuit 165 is the one in which the sharpness correction unit 51 of the first embodiment is realized by hardware, and the principle of sharpness correction is the same as that of the first embodiment (FIGS. 9 and 10). Since it has been described in 11), the description is omitted.
【0255】フィルタリング部201は、図36に示す
ように、RGBデータ各々に対してのR,G,B用のフ
ィルタリング実行部210r、210g、210bより
なるフィルタリング実行部210と、処理結果の値を調
整するR,G,B用のデータ変換手段211r、211
g、211bよりなるデータ変換手段211から構成さ
れている。As shown in FIG. 36, the filtering unit 201 stores the filtering execution unit 210 including R, G, and B filtering execution units 210r, 210g, and 210b for each RGB data and the value of the processing result. R, G, B data conversion means 211r, 211 for adjustment
The data conversion means 211 is composed of g and 211b.
【0256】フィルタリング実行部210に於いては、
RGB各原画像データに対し、空間周波数領域上に於け
るフィルタリングを実行する。。In the filtering execution unit 210,
Filtering in the spatial frequency domain is performed on each RGB original image data. .
【0257】フィルタリング実行部210によるフィル
タリング処理は、第1実施例で示した図10のステップ
S11〜S13に於ける処理であり、この処理によりR
GB各データの原画像r(x,y),g(x,y)及び
b(x,y)と、それぞれのデータに対するPSFであ
るhr(x,y),hg(x,y)及びhb(x,y)
に対して適用し、撮影用原画像R′,G′及びB′を得
る。The filtering process by the filtering execution unit 210 is the process in steps S11 to S13 of FIG. 10 shown in the first embodiment.
Original images r (x, y), g (x, y) and b (x, y) of each GB data, and hr (x, y), hg (x, y) and hb which are PSFs for the respective data. (X, y)
To obtain original images R ', G'and B'for shooting.
【0258】続いて、データ変換部211がRGB各デ
ータに於ける撮影用原画像R′,G′及びB′を入力
し、データ変換部211に於いては、フィルタリングに
より表示範囲を超えた値をもつデータを変換するための
後処理を実行する。すなわち、小数点以下のデータに対
する四捨五入や、表示可能範囲が例えば0〜255であ
る場合の0未満又は256以上の値の切り捨て等を行
う。この処理を適用後の各撮影用画像R′,G′及び
B′を処理結果として出力する。Next, the data conversion unit 211 inputs the original image data R ', G'and B'for each RGB data, and the data conversion unit 211 filters the values exceeding the display range by filtering. Perform post-processing to convert data with. That is, the data below the decimal point is rounded off, or the value less than 0 or 256 or more when the displayable range is, for example, 0 to 255 is rounded down. The respective photographed images R ', G'and B'after applying this processing are output as processing results.
【0259】この処理の詳細については第1実施例のフ
ィルタリング実行部65で説明しているので省略する。The details of this processing have been described in the filtering execution unit 65 of the first embodiment, and therefore will be omitted.
【0260】次に、係数設定部202の動作について説
明する。係数設定手段202に於いては、フィルタリン
グ部201に於いて適用するフィルタの係数、すなわち
補正フィルタMr(u,v),Mg(u,v)及びMb
(u,v)に於ける各値をフィルタリング部201に送
出する。Next, the operation of the coefficient setting section 202 will be described. In the coefficient setting means 202, the coefficients of the filters applied in the filtering section 201, that is, the correction filters Mr (u, v), Mg (u, v) and Mb.
Each value in (u, v) is sent to the filtering unit 201.
【0261】又、データ入力部203は、係数設定に対
する情報を係数設定手段に送信する。写真撮影装置に於
いては、使用するカメラ、フィルム等によりPSFは異
なるため、各データを係数設定のために使用する情報と
し、適切な補正フィルタを設置するようにする。鮮鋭感
補正回路165のその他の作用は、第1実施例の鮮鋭感
補正部51と同じであるので、説明は省略する。Further, the data input section 203 sends information on coefficient setting to the coefficient setting means. In a photographic device, the PSF differs depending on the camera, film, etc. used. Therefore, each data is used as information used for coefficient setting, and an appropriate correction filter is installed. The other operations of the sharpness correction circuit 165 are the same as those of the sharpness correction unit 51 of the first embodiment, and therefore the description thereof will be omitted.
【0262】続いて、本実施例に於ける色変換回路16
3の動作について説明する。尚、色変換原理は第1実施
例で説明したので省略する。Subsequently, the color conversion circuit 16 according to the present embodiment.
The operation of No. 3 will be described. The principle of color conversion has been described in the first embodiment, and will not be repeated.
【0263】まず、RGBデータR,G,Bが色空間座
標変換用LUT125に入力し、CIE1976(L*
u*v*)色空間座標L*,u*,v*信号に変換される。First, the RGB data R, G, B are input to the LUT 125 for color space coordinate conversion, and CIE1976 (L *
u * v * ) color space coordinates L * , u * , v * signals are converted.
【0264】色空間座標変換用LUT181は、式
(1)と式(2)に基づいて(第1実施例参照)、RG
Bデータと、それに対するCIE1976(L*u
*v*)色空間座標信号とが対になったデータを作成す
る。そして、色空間座標変換用LUT181へ、RGB
データが参照アドレスとなるように前記CIE1976
(L*u*v*)色空間座標L*,u*,v*データ予め書き
込んでおくことで作成する。The color space coordinate conversion LUT 181 calculates the RG based on the equations (1) and (2) (see the first embodiment).
B data and CIE1976 (L * u
* v * ) Create data paired with the color space coordinate signal. Then, the RGB to the color space coordinate conversion LUT 181.
The CIE1976 so that the data becomes the reference address.
(L * u * v * ) color space coordinates L * , u * , v * data is created by writing in advance.
【0265】続いて、行列演算用LUT182に於い
て、式(3)に於ける演算を、CIE1976(L*u*
v*)色空間座標L*,u*,v*が参照アドレスとなっ
て、CIE1976(L*u*v*)色空間座標L*',
u*',v*'を出力することで実行する。Subsequently, in the matrix calculation LUT 182, the calculation in the equation (3) is performed by the CIE1976 (L * u *).
v * ) color space coordinates L * , u * , v * serve as reference addresses, and CIE1976 (L * u * v * ) color space coordinates L * ',
It is executed by outputting u * 'and v * '.
【0266】行列演算用LUT126は、CIE197
6(L*u*v*)色空間に於けるデータについて、式
(3)或いは式(4)に基づいた演算により、CIE1
976(L*u*v*)色空間座標L*,u*,v*とCIE
1976(L*u*v*)色空間座標L*',u*',v*'と
が対になったデータを作成し、CIE1976(L*u*
v*)色空間座標L*,u*,v*が参照アドレスとなっ
て、CIE1976(L*u*v*)色空間座標L*',
u*',v*'を出力するように作成される。The matrix calculation LUT 126 is the CIE197.
The data in the 6 (L * u * v * ) color space is calculated according to the equation (3) or the equation (4), and the CIE1 is calculated.
976 (L * u * v * ) color space coordinates L * , u * , v * and CIE
1976 (L * u * v * ) color space coordinates L * ', u * ', v * 'are paired to create data, and CIE1976 (L * u *) is created .
v * ) color space coordinates L * , u * , v * serve as reference addresses, and CIE1976 (L * u * v * ) color space coordinates L * ',
Created to output u * ', v * '.
【0267】色空間座標逆変換用LUT183では、C
IE1976(L*u*v*)色空間座標L*',u*',
v*'を規格化されたRGBデータR',G',B'へ変換
する。In the color space coordinate reverse conversion LUT 183, C
IE1976 (L * u * v * ) color space coordinates L * ', u * ',
Convert v * 'into standardized RGB data R', G ', B'.
【0268】このように本実施例によれば、第1実施例
の効果に加え、色変換回路163を色空間座標変換用L
UT181と行列演算用LUT182と色空間座標逆変
換用LUT183でハードウエアにて構成することによ
り、第1実施例におけるソフトウエア構成より高速に色
変換装置を動作させることが可能となり、観察用モニタ
8と再現画像との色差を改善する色変換回路163を高
速に動作させることができる。As described above, according to this embodiment, in addition to the effects of the first embodiment, the color conversion circuit 163 is provided for color space coordinate conversion L.
By configuring the UT 181, the matrix calculation LUT 182, and the color space coordinate inverse conversion LUT 183 by hardware, it is possible to operate the color conversion device faster than the software configuration of the first embodiment, and the observation monitor 8 The color conversion circuit 163 that improves the color difference between the reproduced image and the reproduced image can be operated at high speed.
【0269】尚、第3及び第5ないし第9実施例を以下
のように、構成することでハードウェアで実現すること
が可能となる。The third and fifth to ninth embodiments can be realized by hardware by configuring as follows.
【0270】すなわち、図14に於ける異常値処理部8
1をLUTで構成すれば、本実施例と同様に、第3実施
例をハードウェアで実現することが可能となる。That is, the abnormal value processing unit 8 in FIG.
If 1 is composed of an LUT, the third embodiment can be realized by hardware as in the case of this embodiment.
【0271】図17に於ける色域圧縮部86をLUTで
構成すれば、本実施例と同様に、第5実施例をハードウ
ェアで実現することが可能となる。If the color gamut compressing section 86 in FIG. 17 is constructed by an LUT, the fifth embodiment can be realized by hardware as in the case of this embodiment.
【0272】図22に於ける複数の行列演算部101,
102,103をLUTで構成し、合成部105を乗算
器と和算器で構成し、重み係数設定部104を色空間座
標変換用LUT181から出力されるCIE1976
(L*u*v*)色空間座標L*,u*,v*データをコント
ロール信号とする図33に示した画像処理装置3の変形
例におけるメモリ175或いは外部記憶装置173から
重み係数を読み出すコントローラとすることで、第6実
施例をハードウェアで実現することができる。A plurality of matrix operation units 101 in FIG.
102 and 103 are configured by LUTs, the synthesizing unit 105 is configured by a multiplier and an adder, and the weighting coefficient setting unit 104 is output from the color space coordinate conversion LUT 181 as CIE1976.
(L * u * v * ) The weighting coefficient is read from the memory 175 or the external storage device 173 in the modified example of the image processing apparatus 3 shown in FIG. 33 in which the color space coordinates L * , u * , and v * data are used as control signals. By using the controller, the sixth embodiment can be realized by hardware.
【0273】図24に於けるRGB行列演算部111を
LUTで構成することにより、第7実施例をハードウェ
アで実現することができる。The seventh embodiment can be realized by hardware by configuring the RGB matrix calculation unit 111 in FIG. 24 with an LUT.
【0274】図25に於ける行列要素変更部123と行
列要素読出し部122とを、図33に示した画像処理装
置3の変形例におけるメモリ175或いは外部記憶装置
173からLUTデータを読み出すコントローラで構成
し、パラメータ入力部121をパラメータ入力装置用I
/F171で構成することにより、第8実施例をハード
ウェアで実現することができる。The matrix element changing unit 123 and the matrix element reading unit 122 in FIG. 25 are constituted by a controller which reads LUT data from the memory 175 or the external storage device 173 in the modification of the image processing apparatus 3 shown in FIG. The parameter input unit 121 to the parameter input device I
The eighth embodiment can be realized by hardware by configuring with / F171.
【0275】図27に於ける色相(H)、彩度(C)、
明度(V)変更部131を色空間座標変換用LUT18
1から出力されるCIE1976(L*u*v*)色空間
座標L*,u*,v*データ及びパラメータデータをコン
トロール信号とする図33に示した画像処理装置3の変
形例におけるメモリ175、或いは外部記憶装置173
からLUTデータを読み出すコントローラとし、パラメ
ータ入力部132をパラメータ入力装置用I/F171
で構成することにより、第9実施例をハードウェアで実
現することができる。Hue (H), saturation (C), and
The brightness (V) changing unit 131 is set to the color space coordinate conversion LUT 18.
A CIE 1976 (L * u * v * ) color space coordinate L * , u * , v * data and a parameter data output from the memory 1 175 in the modified example of the image processing apparatus 3 shown in FIG. Alternatively, the external storage device 173
The parameter input unit 132 serves as a controller for reading LUT data from the I / F 171 for the parameter input device.
With the above configuration, the ninth embodiment can be realized by hardware.
【0276】次に第12実施例について説明する。図3
7は第12実施例に係る色変換回路の構成を示すブロッ
ク図である。Next, the twelfth embodiment will be described. FIG.
7 is a block diagram showing the configuration of the color conversion circuit according to the twelfth embodiment.
【0277】第12実施例は第11実施例とほとんど同
じであり、本実施例の第11実施例との相違は、色変換
回路の構成であるので、異なる構成のみ説明し、同一構
成には同じ符号をつけ説明は省略する。The twelfth embodiment is almost the same as the eleventh embodiment, and the difference between this embodiment and the eleventh embodiment is the configuration of the color conversion circuit. Therefore, only the different configurations will be described and the same configurations will not be described. The same reference numerals are given and the description is omitted.
【0278】例えば、入力信号が8ビットに規格化され
ている場合、第11実施例の図34に示されている行列
演算用LUT182は、24ビットのメモリ容量が必要
となり、色変換回路163全体のコストが高いものとな
る。そこで、LUTに入力する信号のビット数を低減す
ることで、色変換回路163の色差改善の精度を許容範
囲内で維持しつつ、色変換回路163全体のコストを下
げる。For example, when the input signal is standardized to 8 bits, the matrix operation LUT 182 shown in FIG. 34 of the 11th embodiment requires a memory capacity of 24 bits, and the entire color conversion circuit 163 is required. The cost will be high. Therefore, by reducing the number of bits of the signal input to the LUT, the cost of the color conversion circuit 163 as a whole is reduced while maintaining the accuracy of color difference improvement of the color conversion circuit 163 within an allowable range.
【0279】第12実施例の色変換回路163は、図2
4に示した第7実施例の色変換部50をLUTで構成し
た例に相当し、図37に示すように、RGBデータR,
G,Bを入力し、RGBデータR′を出力するR′用L
UT221と、RGBデータG′を出力するG′用LU
T222と、RGBデータB′を出力するB′用LUT
223とより構成される。The color conversion circuit 163 of the twelfth embodiment is shown in FIG.
4 corresponds to an example in which the color conversion unit 50 of the seventh embodiment shown in FIG. 4 is configured by an LUT, and as shown in FIG.
L'for R'which inputs G and B and outputs RGB data R '
UT221 and LU for G'which outputs RGB data G '
T222 and B'LUT for outputting RGB data B '
223 and 223.
【0280】尚、各々のLUT221,22,223の
動作は、演算用コントローラ169によって制御され
る。また、LUT221,22,223は、図33に示
した第11実施例の画像処理装置3の変形例におけるメ
モリ175、或いは外部記憶装置173からLUTデー
タを入力することができるようになっている。The operation of each LUT 221, 22, 223 is controlled by the arithmetic controller 169. Further, the LUTs 221, 22 and 223 can input LUT data from the memory 175 in the modification of the image processing apparatus 3 of the eleventh embodiment shown in FIG. 33 or the external storage device 173.
【0281】各LUT221,22,223に関する動
作は、第7実施例に於けるRGB行列演算部111と同
じであるので、ここでは、各LUT221,222,2
23の入力ビット数の設定方法を中心に説明する。Since the operation concerning each LUT 221, 222, 223 is the same as that of the RGB matrix operation unit 111 in the seventh embodiment, here, each LUT 221, 222, 2 will be described.
A method of setting the number of input bits 23 will be mainly described.
【0282】第7実施例でも述べたが、RGBデータ
R,G,BからRGBデータR′,G′,B′を求める
行列を決定するには、公知の技術である重回帰分析が用
いられる。例えば、線形重回帰モデルを用いた重回帰分
析に於いて、目的変数R′を予測するのに、説明変数R
とGとBの重み付線形和が使われ、重回帰分析の結果求
められたRとGとBの重み係数は、各々説明変数R,
G,Bの目的変数R′に対する寄与の度合に相当するこ
とは周知の事実である。As described in the seventh embodiment, in order to determine the matrix for obtaining the RGB data R ', G', B'from the RGB data R, G, B, the known technique of multiple regression analysis is used. . For example, in multiple regression analysis using a linear multiple regression model, the predictor variable R ′ is predicted by using the explanatory variable R
The weighted linear sum of G and B is used, and the weighting factors of R, G, and B obtained as a result of multiple regression analysis are
It is a well-known fact that it corresponds to the degree of contribution of G and B to the objective variable R '.
【0283】そこで、目的変数に対する寄与の度合が低
い説明変数に対しては、その入力ビットを低減しても、
全体の色変換処理に対する影響は低いことから、R′用
LUTはR,G,B各8ビットの入力ではなく、R′に
対する寄与の度合に応じて入力ビットを、例えば8ビッ
ト、7ビット、7ビットというように変化させる。
G′,B′用LUTに対しても同様である。Therefore, even if the input bit is reduced for the explanatory variable having a low degree of contribution to the objective variable,
Since the effect on the entire color conversion processing is low, the R'LUT does not input R, G, and B 8 bits each, but rather the input bits according to the degree of contribution to R ', for example, 8 bits, 7 bits, Change it to 7 bits.
The same applies to the G'and B'LUTs.
【0284】以上、第7実施例に於けるRGB行列演算
部111をLUTで構成した例について説明してきた
が、第7実施例以外でも、構成要素がLUTで置き換え
られる場合は、全て適用が可能である。The example in which the RGB matrix operation unit 111 in the seventh embodiment is configured by the LUT has been described above. However, other than the seventh embodiment, when the constituent elements are replaced by the LUT, all of them can be applied. Is.
【0285】このように本実施例によれば、第11実施
例の効果に加え、各LUTの入力ビットを出力信号に対
する、入力信号の寄与の度合に応じて変化させ、全体と
してより少ない入力ビットで構成されたLUTを用いる
ことで、全体のメモリ容量の低減が可能となり、色変換
回路163のコストを低減することができる。As described above, according to this embodiment, in addition to the effect of the eleventh embodiment, the input bits of each LUT are changed according to the degree of contribution of the input signal to the output signal, so that the total number of input bits is smaller. By using the LUT configured in (3), the overall memory capacity can be reduced, and the cost of the color conversion circuit 163 can be reduced.
【0286】次に第13実施例について説明する。図3
8は第13実施例に係る色変換回路の構成を示すブロッ
ク図である。Next, a thirteenth embodiment will be described. FIG.
FIG. 8 is a block diagram showing the configuration of the color conversion circuit according to the thirteenth embodiment.
【0287】第13実施例は第12実施例とほとんど同
じであり、本実施例の第12実施例との相違は、色変換
回路の構成であるので、異なる構成のみ説明し、同一構
成には同じ符号をつけ説明は省略する。The thirteenth embodiment is almost the same as the twelfth embodiment, and the difference from the twelfth embodiment of the present embodiment is the configuration of the color conversion circuit. Therefore, only the different configurations will be described and the same configurations will not be described. The same reference numerals are given and the description is omitted.
【0288】第13実施例の色変換回路163は、図2
5に示した第8実施例の色変換部50をLUTで構成し
た例に相当し、第8実施例で説明した各種条件に適応さ
せた色変換や色三属性を変更し、好ましい色再現の実現
を、LUTで構成された色変換回路163で行うには、
行列演算部61のLUTデータを演算内容が変更する度
に書換えるか、或いは、複数並列に各種変更に対応した
行列演算用LUTを設けて、パラメータ入力に対して切
り換える必要があり、LUTデータの容量によっては、
書換え時間や色変換回路163のコストが無視できない
恐れがある。The color conversion circuit 163 of the thirteenth embodiment is shown in FIG.
5 corresponds to an example in which the color conversion unit 50 of the eighth embodiment shown in FIG. 5 is configured by an LUT, and color conversion and color three attributes adapted to various conditions described in the eighth embodiment are changed to obtain a preferable color reproduction. In order to realize it with the color conversion circuit 163 configured by the LUT,
It is necessary to rewrite the LUT data of the matrix calculation unit 61 every time the content of the calculation is changed, or to provide a plurality of matrix calculation LUTs corresponding to various changes in parallel and switch to the parameter input. Depending on capacity,
The rewriting time and the cost of the color conversion circuit 163 may not be ignored.
【0289】一方、各種条件や色の三属性の変更度合に
よっては、もとの色変換に対して比較的簡単な低次の行
列演算により置き換えることが可能である。On the other hand, depending on various conditions and the degree of change of the three attributes of color, it is possible to replace the original color conversion by a relatively simple low-order matrix operation.
【0290】そこで、本実施例では、各種条件や色の三
属性の変更等、もとの色変換からの変更を比較的簡単な
低次の行列演算により置き換えることができる場合、各
種条件や色の三属性の変更等を色変換用LUTの前段、
又は後段に設けた行列演算回路(以下、スペースコンバ
ータ)によって対応し、簡単な構成によって、色変換回
路163を各種条件や色三属性の変更等に対応できるよ
うする。Therefore, in this embodiment, when the change from the original color conversion, such as the change of various conditions and the three attributes of color, can be replaced by a relatively simple low-order matrix operation, various conditions and colors are obtained. Change the three attributes in the previous stage of the color conversion LUT,
Alternatively, a matrix operation circuit (hereinafter referred to as a space converter) provided in a subsequent stage can be used, and the color conversion circuit 163 can be used for a variety of conditions and changes in three color attributes with a simple configuration.
【0291】第13実施例の色変換回路163は、図3
8に示すように、各々色変換を行うR′用LUT221
とG′用LUT222及びB′用LUT223から出力
されるRGBデータに対して、行列演算を実行するスペ
ースコンバータ231と、スペースコンバータ231か
らの出力データが規格化範囲内を越えた場合、規格化処
理を行い、予め定められた規格化範囲内に写像するリミ
ッタ232とを備えて構成され、その他の構成は第12
実施例と同じであるである。The color conversion circuit 163 of the thirteenth embodiment is similar to that of FIG.
As shown in FIG. 8, the R ′ LUT 221 that performs color conversion respectively.
And a space converter 231 that executes a matrix operation on the RGB data output from the LUT 222 for G'and the LUT 223 for B ', and if the output data from the space converter 231 exceeds the standard range, standardization processing is performed. And a limiter 232 for performing mapping within a predetermined standardized range.
This is the same as the embodiment.
【0292】第13実施例の色変換回路163では、色
変換用LUT221、222及び223は、メモリ16
1から入力されたRGBデータを参照アドレスとし、R
GBデータR′,G′,B′を出力する。色変換用LU
T221、222及び223から出力されたRGBデー
タR′,G′,B′は、スペースコンバータ231によ
って行列演算が実行され、RGBデータR″,G″,
B″に変換される。そして、スペースコンバータ231
から出力されたRGBデータR″,G″,B″が予め定
められた規格化範囲を越えるデータについては、リミッ
タ232でデータの反転による色変わりを防止するた
め、規格化範囲内への丸め処理等の規格化処理に相当す
る写像が行われる。In the color conversion circuit 163 of the thirteenth embodiment, the color conversion LUTs 221, 222 and 223 are the memory 16
The RGB data input from 1 is used as a reference address, and R
It outputs GB data R ', G', B '. LU for color conversion
The RGB data R ′, G ′, B ′ output from T221, 222, and 223 is subjected to matrix calculation by the space converter 231, and RGB data R ″, G ″,
B ″ and the space converter 231.
If the RGB data R ″, G ″, B ″ output from the data exceeds the predetermined standardization range, the limiter 232 prevents the color change due to the inversion of the data, so that the rounding process is performed within the standardization range. A mapping corresponding to the standardization processing of is performed.
【0293】一方、パラメータ入力装置用I/F171
を介して入力されたパラメータに基づいて、図33に示
した第11実施例の画像処理装置3の変形例における外
部記憶装置173或いはメモリ175からスペースコン
バータ231の係数データを読出し、書換えることが可
能である。On the other hand, the parameter input device I / F 171
It is possible to read and rewrite the coefficient data of the space converter 231 from the external storage device 173 or the memory 175 in the modification of the image processing device 3 of the eleventh embodiment shown in FIG. 33 based on the parameters input via the. It is possible.
【0294】図38では、スペースコンバータ231と
リミッタ232を色変換用LUT221、222及び2
23の後段に設けた例について示してあるが、スペース
コンバータ231とリミッタ232を色変換用LUT2
21、222及び223の前段に設けても、同様の動作
である。In FIG. 38, the space converter 231 and the limiter 232 are shown as color conversion LUTs 221, 222 and 2.
Although the example provided in the latter stage of 23 is shown, the space converter 231 and the limiter 232 are provided in the color conversion LUT 2
Even if it is provided in the preceding stage of 21, 222 and 223, the same operation is performed.
【0295】このように本実施例によれば、第12実施
例の効果に加え、各種条件や色三属性の変更等を色変換
用LUTの前段、又は後段に設けたスペースコンバータ
231によって対応し、簡単な構成によって、色変換回
路163を各種条件や色の三属性の変更等に対応できる
ようすることが可能となる。As described above, according to this embodiment, in addition to the effects of the twelfth embodiment, various conditions, changes in the three color attributes, and the like are dealt with by the space converter 231 provided before or after the color conversion LUT. With a simple configuration, the color conversion circuit 163 can be adapted to various conditions and changes in the three attributes of color.
【0296】次に第14実施例について説明する。図3
9は第14実施例に係る色変換回路の構成を示すブロッ
ク図である。Next, a fourteenth embodiment will be described. FIG.
9 is a block diagram showing the configuration of the color conversion circuit according to the fourteenth embodiment.
【0297】第14実施例は第11実施例とほとんど同
じであり、本実施例の第11実施例との相違は、色変換
回路の構成であるので、異なる構成のみ説明し、同一構
成には同じ符号をつけ説明は省略する。The fourteenth embodiment is almost the same as the eleventh embodiment, and the difference from the eleventh embodiment of this embodiment is the configuration of the color conversion circuit. Therefore, only the different configuration will be described and the same configuration will be described. The same reference numerals are given and the description is omitted.
【0298】第12実施例を説明する図37の構成で
は、LUTの内容をデータ線を使って書換えることが可
能であるが、LUTのメモリ容量によっては、書換え時
間がかかる。そこで、本実施例では、LUTへ入力する
コントロール信号によって切り換えることで、LUTの
内容を高速に変更する。In the configuration of FIG. 37 for explaining the twelfth embodiment, the contents of the LUT can be rewritten using the data line, but depending on the memory capacity of the LUT, rewriting time is required. Therefore, in the present embodiment, the contents of the LUT are changed at high speed by switching by the control signal input to the LUT.
【0299】第14実施例の色変換回路163は、第7
実施例の色変換部50をLUTで構成した例に相当し、
図39に示すように、RGBデータR,G,Bとコント
ロール信号を入力し、RGBデータR′を出力するR′
用LUT241と、RGBデータG′を出力するG′用
LUT242と、RGBデータB′を出力するB′用L
UT243とより構成される。The color conversion circuit 163 of the fourteenth embodiment has a seventh
This corresponds to an example in which the color conversion unit 50 of the embodiment is configured by an LUT,
As shown in FIG. 39, RGB data R, G, B and a control signal are input and RGB data R ′ is output R ′.
LUT 241, G'LUT 242 for outputting RGB data G ', and B'L for outputting RGB data B'.
It is composed of the UT 243.
【0300】R′用LUT241、G′用LUT242
及びとB′用LUT243の動作は第12の実施例の
R′用LUT221、G′用LUT222及びとB′用
LUT223の動作とほとんど同じであるので、ここで
はR′用LUT241、G′用LUT242及びとB′
用LUT243に入力するコントロール信号の動作につ
いて説明する。LUT 241 for R'and LUT 242 for G '
The operations of the LUT 243 for B'and B'are almost the same as those of the LUT 221 for G'221, the LUT 222 for G'and the LUT 223 for B'of the twelfth embodiment. Therefore, here, the LUT 241 for R'and the LUT 242 for G'are provided. And and B '
The operation of the control signal input to the for-use LUT 243 will be described.
【0301】R′用LUT241、G′用LUT242
及びとB′用LUT243には、予め複数系統のデータ
を記憶させておく。コントロール信号は、R′用LUT
133とG′用LUT134とB′用LUT135に記
憶させておいた複数系統のデータを切換えられるだけの
ビット数が確保されている。LUT 241 for R'and LUT 242 for G '
Data of a plurality of systems are stored in advance in the LUTs 243 for B'and. Control signal is R'LUT
The number of bits enough to switch the data of a plurality of systems stored in the 133, the G ′ LUT 134, and the B ′ LUT 135 is secured.
【0302】コントロール信号は図32に示す演算処理
用コントローラ169から出力されており、例えばキー
ボード等のパラメータ入力装置172から入力された信
号である。The control signal is output from the arithmetic processing controller 169 shown in FIG. 32 and is a signal input from the parameter input device 172 such as a keyboard.
【0303】作業者は各種条件や色の三属性の変更等に
よる色変換方法に切替を、パラメータ入力装置172で
入力し、演算処理用コントローラ169は、パラメータ
に基づいて複数係数のLUTデータを切り換えるコント
ロール信号を色変換回路163に出力する。このコント
ロール信号は、R′用LUT241、G′用LUT24
2及びとB′用LUT243に入力され、複数系統のL
UTデータの中から適切なLUTデータを参照するよう
にLUTの動作を制御する。The operator inputs a changeover to a color conversion method by changing various conditions or three attributes of colors with the parameter input device 172, and the arithmetic processing controller 169 changes over the LUT data of a plurality of coefficients based on the parameters. The control signal is output to the color conversion circuit 163. This control signal corresponds to the R'LUT 241 and the G'LUT 24.
2 and B'are input to the LUT 243 for B'and a plurality of lines of L
The operation of the LUT is controlled so as to refer to appropriate LUT data from the UT data.
【0304】以上、第14実施例の動作について説明し
たが、本実施例で示した構成以外でも、LUTで構成可
能な実施例については、本実施例と同じ構成及び動作を
適用することが可能である。Although the operation of the fourteenth embodiment has been described above, the same structure and operation as the present embodiment can be applied to the embodiments which can be constituted by the LUT, other than the structure shown in the present embodiment. Is.
【0305】このように本実施例によれば、第12実施
例の効果に加え、複数系統のLUTデータを予め記憶さ
せておいた各LUTにコントロール信号を入力するため
の信号線を設け、LUTの参照動作をコントロール信号
により制御することで、高速に色変換方法を切り換える
ことが可能となる。As described above, according to this embodiment, in addition to the effects of the twelfth embodiment, a signal line for inputting a control signal is provided to each LUT in which LUT data of a plurality of systems are stored in advance, and the LUT is provided. It is possible to switch the color conversion method at high speed by controlling the reference operation of (1) by the control signal.
【0306】次に第15実施例について説明する。図4
0は第15実施例に係る鮮鋭感補正回路のフィルタリン
グ部の構成を示すブロック図である。Next, a fifteenth embodiment will be described. FIG.
0 is a block diagram showing a configuration of a filtering unit of the sharpness correction circuit according to the fifteenth embodiment.
【0307】第15実施例は第11実施例とほとんど同
じであり、本実施例の第11実施例との相違は、鮮鋭感
補正回路165の構成であるので、異なる構成のみ説明
し、同一構成には同じ符号をつけ説明は省略する。The fifteenth embodiment is almost the same as the eleventh embodiment, and the difference from the eleventh embodiment of this embodiment is the configuration of the sharpness correction circuit 165. Therefore, only the different configuration will be described and the same configuration will be described. Are denoted by the same reference numerals and description thereof will be omitted.
【0308】第15実施例の鮮鋭感補正回路165は、
図8に示した第1実施例の鮮鋭感補正部51の変形例を
ハードウエアで構成した例に相当し、この鮮鋭感補正の
原理については、第1実施例(図11)で説明したの
で、説明は省略する。The sharpness correction circuit 165 of the fifteenth embodiment is
This corresponds to an example in which a modification of the sharpness correction unit 51 of the first embodiment shown in FIG. 8 is configured by hardware, and the principle of this sharpness correction has been described in the first embodiment (FIG. 11). , Description is omitted.
【0309】本実施例に於ては、フィルタリング実行部
を、ディジタルフィルタにより構成しており、ディジタ
ルフィルタによるフィルタリングは、リアルタイムでの
処理の実現に於いて有利となる。ここでは、ディジタル
フィルタとして、FIRフィルタを用いるものとする。In this embodiment, the filtering execution unit is composed of a digital filter, and the filtering by the digital filter is advantageous in real-time processing. Here, an FIR filter is used as the digital filter.
【0310】フィルタリング部201は、図40に示す
ように、RGBデータ各々に対してのR,G,B用のF
IRフィルタリング実行部250r、250g、250
bよりなるFIRフィルタリング実行部250と、処理
結果の値を調整するR,G,B用のデータ変換手段25
1r、251g、251bよりなるデータ変換手段25
1とを備えて構成されている。その他の構成は第11実
施例と同じである。As shown in FIG. 40, the filtering section 201 has R, G, and B Fs for each RGB data.
IR filtering execution units 250r, 250g, 250
FIR filtering execution unit 250 composed of b, and R, G, B data conversion means 25 for adjusting the value of the processing result.
Data conversion means 25 including 1r, 251g, and 251b
1 and 1. The other structure is the same as that of the eleventh embodiment.
【0311】フィルタリング実行部250に於いては、
RGB各原画像データに対し、空間周波数領域上に於け
るフィルタリングを実行する。その処理の流れは第1実
施例の変形例で説明しているので、省略する。In the filtering execution unit 250,
Filtering in the spatial frequency domain is performed on each RGB original image data. The flow of the processing has been described in the modified example of the first embodiment, and will be omitted.
【0312】次に、本実施例に於ける係数設定部202
の動作について説明する。係数設定部202に於いて
は、フィルタリング部201に於いて適用するFIRフ
ィルタリング実行部250r、250g、250bの係
数を設定する。例えば、写真撮影装置のMTFを理想M
TFに補正する場合には、前述の補正フィルタMr
(u,v),Mg(u,v)及びMb(u,v)のそれ
ぞれの逆フーリエ変換であるmr(x,y),mg
(x,y)及びmb(x,y)をFIRフィルタの係数
として、フィルタリング部201に送出する。Next, the coefficient setting unit 202 in this embodiment
The operation of will be described. In the coefficient setting unit 202, the coefficients of the FIR filtering execution units 250r, 250g, 250b applied in the filtering unit 201 are set. For example, if the MTF of a photography device is ideal M
When correcting to TF, the above-mentioned correction filter Mr is used.
Mr (x, y), mg which are the inverse Fourier transforms of (u, v), Mg (u, v) and Mb (u, v), respectively.
(X, y) and mb (x, y) are sent to the filtering unit 201 as FIR filter coefficients.
【0313】又、データ入力部203は、係数設定に対
する情報を係数設定部202に送信する。写真撮影装置
に於いては、使用するカメラ、フィルタ等によりPSF
は異なるため、各データを係数設定のために使用する情
報とし、適切な補正フィルタの空間周波数特性を与える
FIRフィルタを設定するようにする。その他の作用は
第11実施例と同じである。Further, the data input section 203 sends information on coefficient setting to the coefficient setting section 202. In the photography equipment, the PSF depends on the camera and filter used.
Therefore, each data is used as information used for coefficient setting, and an FIR filter that gives an appropriate spatial frequency characteristic of the correction filter is set. The other actions are the same as in the eleventh embodiment.
【0314】従って、第15実施例によれば、第11実
施例の効果に加え、リアルタイムでの処理の実現に於い
て有利となる。Therefore, according to the fifteenth embodiment, in addition to the effects of the eleventh embodiment, it is advantageous in realizing the processing in real time.
【0315】尚、図3における構成にて鮮鋭感補正を実
現する際には、以上に示した一連の処理または処理の一
部を、図3における中央処理装置40において動作させ
れば良い。In order to realize the sharpness correction with the configuration shown in FIG. 3, the series of processes or part of the processes described above may be operated in the central processing unit 40 in FIG.
【0316】次に第16実施例について説明する。図4
1ないし図44は第16実施例に係り、図41は鮮鋭感
補正回路の構成を示すブロック図、図42は図41の合
成部の構成を示すブロック図、図43は図41のデータ
変換部の構成を示すブロック図、図44は図41の合成
部の変形例の構成を示すブロック図である。Next, a sixteenth embodiment will be described. FIG.
1 to 44 relate to the 16th embodiment, FIG. 41 is a block diagram showing a configuration of a sharpness correction circuit, FIG. 42 is a block diagram showing a configuration of a combining unit of FIG. 41, and FIG. 43 is a data conversion unit of FIG. FIG. 44 is a block diagram showing the configuration of FIG. 41, and FIG. 44 is a block diagram showing the configuration of a modification of the combining unit of FIG.
【0317】第16実施例は第11実施例とほとんど同
じであり、本実施例の第11実施例との相違は、鮮鋭感
補正回路165の構成であるので、異なる構成のみ説明
し、同一構成には同じ符号をつけ説明は省略する。The sixteenth embodiment is almost the same as the eleventh embodiment, and the difference between this embodiment and the eleventh embodiment is the configuration of the sharpness correction circuit 165. Therefore, only the different configuration will be described and the same configuration will be described. Are denoted by the same reference numerals and description thereof will be omitted.
【0318】第16実施例に於いては、鮮鋭感の補正処
理にともない発生する、撮像画像のSN比の劣化を抑制
するものであり、第15実施例の鮮鋭感補正回路165
は、図13に示した第2実施例の鮮鋭感補正部51をハ
ードウエアで構成した例に相当し、この鮮鋭感補正の原
理については、第2実施例で説明したので、説明は省略
する。In the sixteenth embodiment, the sharpness correction circuit 165 of the fifteenth embodiment is intended to suppress the deterioration of the SN ratio of the picked-up image which is caused by the sharpness correction processing.
Corresponds to an example in which the sharpness correction unit 51 of the second embodiment shown in FIG. 13 is configured by hardware, and the principle of this sharpness correction has been described in the second embodiment, so description will be omitted. .
【0319】次に、本実施例に於ける鮮鋭感補正回路1
65の構成及び動作について説明する。Next, the sharpness correction circuit 1 in the present embodiment.
The configuration and operation of 65 will be described.
【0320】第16実施例の鮮鋭感補正回路165は、
図41に示すように、入力されたRGB各データに対し
フィルタリングを施すフィルタリング部261と、重み
係数値wを設定する重み係数値w設定手段262と、重
み係数値wにより原画像とフィルタリング処理結果画像
とを合成する合成部263と、処理結果出力値を調整す
るデータ変換部264とを備えて構成される。その他の
構成は第11実施例と同じである。The sharpness correction circuit 165 of the sixteenth embodiment is
As shown in FIG. 41, a filtering unit 261 that filters each input RGB data, a weighting coefficient value w setting unit 262 that sets a weighting coefficient value w, an original image and a filtering processing result by the weighting coefficient value w. It is configured to include a synthesizing unit 263 for synthesizing an image and a data converting unit 264 for adjusting a processing result output value. The other structure is the same as that of the eleventh embodiment.
【0321】フィルタリング部261に於いては、入力
された原画像に於けるRGB各データに対し、鮮鋭感補
正成分画像Rs(x,y),Gs(x,y)及びBs
(x,y)を生成する(第2実施例参照)ためのフィル
タリングを適用する。フィルタリングの具体的な実現手
段は、第11実施例に於いて説明した空間周波数領域で
のフィルタリング及び第15実施例に於いて説明したデ
ィジタルフィルタであるFIRフィルタによるフィルタ
リングのいずれかを使用すればよい。In the filtering section 261, the sharpness correction component images Rs (x, y), Gs (x, y) and Bs are set for each RGB data in the input original image.
Apply filtering to generate (x, y) (see the second embodiment). As a concrete means for realizing the filtering, either the filtering in the spatial frequency domain described in the eleventh embodiment or the filtering by the FIR filter which is the digital filter described in the fifteenth embodiment may be used. .
【0322】重み係数値w設定部262は、画像の明る
さに関する情報に基づき、第2実施例で説明した重み係
数値wを設定する。The weighting factor value w setting unit 262 sets the weighting factor value w described in the second embodiment based on the information on the brightness of the image.
【0323】合成部263に於いては、原画像に於ける
RGB各データ、フィルタリング部261より出力され
た鮮鋭感補正成分画像Rs(x,y),Gs(x,y)
及びBs(x,y)、重み係数値wを用いた演算(式
(20)〜(22)参照)が行われる。In the synthesizing unit 263, each RGB data in the original image, and the sharpness correction component images Rs (x, y) and Gs (x, y) output from the filtering unit 261.
, Bs (x, y), and the weighting coefficient value w are used for the calculation (see equations (20) to (22)).
【0324】そこで、図42に示すように、合成部26
3では、R,G,B用の乗算部281rないしbに於い
ては、鮮鋭感補正成分画像Rs(x,y),Gs(x,
y)及びBs(x,y)に対する重み係数値wの乗算が
行われる。続いて、R,G,B用の加算部282rない
しbに於いて、R,G,B用の乗算部281rないしb
からの出力であるw・Rs(x,y),w・Gs(x,
y)及びw・Bs(x,y)と原画像によるR(x,
y),G(x,y)及びB(x,y)との加算が行われ
る。これらの演算結果R′(x,y),G′(x,y)
及びB′(x,y)を続くデータ変換部264に出力す
る。Therefore, as shown in FIG.
3, in the R, G, B multiplication units 281r and 281b, the sharpness correction component images Rs (x, y), Gs (x,
y) and Bs (x, y) are multiplied by the weighting coefficient value w. Then, in the adders 282r and 28b for R, G, and B, the multipliers 281r and b for R, G, and B are used.
Output from w · Rs (x, y), w · Gs (x,
y) and w · Bs (x, y) and R (x,
y), G (x, y) and B (x, y) are added. These calculation results R '(x, y), G' (x, y)
And B ′ (x, y) are output to the subsequent data conversion unit 264.
【0325】データ変換部264は、図43に示すよう
に、R,G,B用のデータ変換部291rないしbによ
り構成される。データ変換部291rないしbに於いて
は、各々に対し入力されたR′(x,y),G′(x,
y)及びB′(x,y)が表示範囲を超えたデータを変
換するための後処理を実行する。すなわち、小数点以下
のデータに対する四捨五入や、表示可能範囲が例えば0
〜255である場合の0未満又は256以上の値の切り
捨て等を行う。この処理を適用後の各撮影用画像R″,
G″及びB″を処理結果として出力する。データ変換手
段264は、例えばROM(読出し専用メモリ)による
LUT(ルックアップテーブル)により構成してもよ
い。As shown in FIG. 43, the data conversion unit 264 is composed of R, G, B data conversion units 291r and 291b. In the data conversion units 291r-b, R '(x, y), G' (x,
y) and B '(x, y) perform post-processing for converting the data beyond the display range. In other words, the data that can be displayed after the decimal point is rounded off or the displayable range is 0, for example.
When the value is up to 255, the value less than 0 or a value of 256 or more is truncated. Each photographing image R ″ after applying this processing,
G ″ and B ″ are output as the processing result. The data conversion unit 264 may be configured by, for example, an LUT (look-up table) including a ROM (read-only memory).
【0326】次に、本実施例に於ける係数設定部202
の動作について説明する。係数設定部202に於いて
は、フィルタリング部261に於いて適用するフィルタ
の係数、すなわち空間周波数領域でのフィルタリングを
用いるのであれば帯域通過フィルタMpr(u,v),
Mpg(u,v)及びMpb(u,v)に於ける各値
を、ディジタルフィルムによるフィルタリングを用いる
のであれば各補正フィルタの特性を与えるフィルタ係数
mpr(x,y),mpg(x,y)及びmpb(x,
y)をフィルタリング部261に送出する。Next, the coefficient setting unit 202 in this embodiment
The operation of will be described. In the coefficient setting unit 202, the coefficient of the filter applied in the filtering unit 261, that is, the band pass filter Mpr (u, v), if using the filtering in the spatial frequency domain,
If the values in Mpg (u, v) and Mpb (u, v) are to be filtered by digital film, filter coefficients mpr (x, y), mpg (x, y) giving the characteristics of each correction filter. ) And mpb (x,
y) is sent to the filtering unit 261.
【0327】又、データ入力203は、係数設定に対す
る情報を係数設定部102に送信する。写真撮影装置に
於いては、使用するカメラ、フィルム等によりPSFは
異なるため、各データを係数設定のために使用する情報
とし、適切な補正フィルタを設定するようにする。さら
に、原画像が例えば内視鏡による撮像画像であれば、使
用した内視鏡の機種に基づく個体撮像素子の画素数等の
情報によりMp′(u,v)或いはmp′(x,y)の
制御を行ってもよい。解像度の違いに基づき式d8及び
式d9をそれぞれ適用する周波数帯域を変更することか
ら、より好ましい撮影画像が得られる。その他の作用は
第11実施例と同じである。Further, the data input 203 transmits information on coefficient setting to the coefficient setting unit 102. In a photographic device, the PSF differs depending on the camera, film, etc. used, so each data is used as information used for coefficient setting, and an appropriate correction filter is set. Further, if the original image is, for example, an image picked up by an endoscope, Mp ′ (u, v) or mp ′ (x, y) is determined according to information such as the number of pixels of the solid-state image pickup device based on the model of the endoscope used. May be controlled. Since the frequency bands to which the expressions d8 and d9 are applied are changed based on the difference in resolution, a more preferable captured image can be obtained. The other actions are the same as in the eleventh embodiment.
【0328】従って、本実施例では、第11実施例の効
果に加え、第2実施例同様に、鮮鋭感の補正処理にとも
ない発生する、撮像画像のSN比の劣化を抑制すること
ができる。Therefore, in the present embodiment, in addition to the effect of the eleventh embodiment, it is possible to suppress the deterioration of the SN ratio of the picked-up image, which is caused by the sharpness correction processing, as in the second embodiment.
【0329】尚、本実施例に於いては鮮鋭感補正成分画
像を帯域通過フィルタリングにより生成したが、第2実
施例と同様に、第11及び15実施例に於いて説明した
補正フィルタM(u,v)による処理結果画像を用いて
同様の効果を実現することも可能である。Although the sharpness correction component image is generated by band-pass filtering in this embodiment, as in the second embodiment, the correction filter M (u) described in the eleventh and fifteenth embodiments is used. , V), it is possible to realize the same effect by using the processed image.
【0330】すなわち、原画像f(x,y)と補正フィ
ルタによる処理結果である鮮鋭感補正成分画像fs
(x,y)との重み係数値wによる重み付け演算を第2
実施例で説明した式(23)に置き換え、画像の明るさ
を表す情報成分により重み係数値wを制御すればよい。
重み係数値wの制御方法及び決定した前述の方法により
実現すればよい。That is, the sharpness correction component image fs which is the processing result of the original image f (x, y) and the correction filter.
The second weighting operation using the weighting coefficient value w with (x, y)
The weighting factor value w may be controlled by the information component representing the brightness of the image instead of the equation (23) described in the embodiment.
It may be realized by the control method of the weighting factor value w and the above-mentioned determined method.
【0331】これにともない、図41に於ける合成部2
63を図44に示すものに変更する。すなわち、図44
に示すように、フィルタリング部261より出力された
鮮鋭度補正成分画像Rs(x,y),Gs(x,y)及
びBs(x,y)に対し、第1乗算部301に於いて重
み係数値wとの乗算が行われる。又、入力された原画像
R(x,y),G(x,y)及びB(x,y)に対し、
第2乗算部302に於いて(1.0−w)との乗算が行
われる。そして、加算部303に於いては第1乗算ぶ3
01及び第2乗算手段302の各々の演算結果を加算
後、R′(x,y),G′(x,y)及びB′(x,
y)としてデータ変換手段264に送出する。Along with this, the synthesizing unit 2 in FIG.
63 is changed to the one shown in FIG. That is, FIG.
As shown in, the weighting factor in the first multiplication unit 301 is applied to the sharpness correction component images Rs (x, y), Gs (x, y) and Bs (x, y) output from the filtering unit 261. The multiplication with the numerical value w is performed. Also, for the input original images R (x, y), G (x, y) and B (x, y),
The second multiplication unit 302 performs multiplication with (1.0-w). Then, in the addition unit 303, the first multiplication 3
01 and the second calculation means 302 add the respective calculation results, and then R '(x, y), G' (x, y) and B '(x,
y) and sends it to the data conversion means 264.
【0332】尚、本実施例に於いて説明した合成部26
3の実現に関しては、その構成要素である乗算部及び加
算部を、例えばRAM(読出し専用メモリ)を用いたL
UT(ルックアップテーブル)を使用してもよい。The synthesizing unit 26 described in this embodiment is used.
In order to implement 3, the multiplication unit and the addition unit, which are the constituent elements, are L using a RAM (read only memory), for example.
A UT (Look Up Table) may be used.
【0333】又、本実施例に於いては重み係数値wの制
御を画像の画素ごとに行うものとしたが、例えば画像を
複数のブロックに分割し、明るさを表す情報成分の各ブ
ロックに於ける平均値により制御してもよい。この場合
は1つのブロック内に於ける各画素には同じ重み係数値
wが適用される。In this embodiment, the control of the weighting coefficient value w is performed for each pixel of the image. However, for example, the image is divided into a plurality of blocks and each block of the information component indicating the brightness is divided into blocks. You may control by the average value in. In this case, the same weighting factor value w is applied to each pixel in one block.
【0334】尚、図3における構成にて鮮鋭感補正を実
現する際には、以上に示した一連の処理または処理の一
部を、図3における中央処理装置40において動作させ
れば良い。In order to realize the sharpness correction with the configuration shown in FIG. 3, the series of processes described above or a part of the processes may be operated in the central processing unit 40 shown in FIG.
【0335】次に第17実施例について説明する。図4
5及び図46は第17実施例に係り、図45はFIRフ
ィルタのマスクサイズを説明する説明図、図46は図4
5のFIRフィルタを備えたフィルタリング部の構成を
示すブロック図である。Next, a seventeenth embodiment will be described. FIG.
5 and 46 relate to the seventeenth embodiment, FIG. 45 is an explanatory view for explaining the mask size of the FIR filter, and FIG. 46 is FIG.
6 is a block diagram showing a configuration of a filtering unit including the FIR filter of FIG.
【0336】第17実施例は第11実施例とほとんど同
じであり、本実施例の第11実施例との相違は、鮮鋭感
補正回路165の構成であるので、異なる構成のみ説明
し、同一構成には同じ符号をつけ説明は省略する。The seventeenth embodiment is almost the same as the eleventh embodiment, and the difference from the eleventh embodiment of this embodiment is the configuration of the sharpness correction circuit 165. Therefore, only the different configuration will be described and the same configuration will be described. Are denoted by the same reference numerals and description thereof will be omitted.
【0337】第17の実施例は、第15及び16の実施
例に於けるフィルタリング部250及び261に係り、
特にFIRフィルタを用いた構成に於いて関連する。The seventeenth embodiment relates to the filtering units 250 and 261 in the fifteenth and sixteenth embodiments,
This is particularly relevant in configurations using FIR filters.
【0338】2次元のFIRフィルタは、マスクサイズ
n1×n2(n1,n2は0でない正数)により構成さ
れる。ここでは、簡単のためn1=n2=nとし、マス
クサイズn×nのFIRフィルタを例とし、説明する。The two-dimensional FIR filter has a mask size of n1.times.n2 (n1 and n2 are non-zero positive numbers). Here, for simplification, n1 = n2 = n is set, and an FIR filter having a mask size of n × n will be described as an example.
【0339】一般に、FIRフィルタのハードウェアに
よる実現に於いては、そのマスクサイズがハードウェア
コストに対して大きく影響する。例えば、マスクサイズ
9×9のFIRフィルタは、マスクサイズ5×5(ハー
ドウェアデバイスとしては、このサイズが一般的であ
る)のFIRフィルタによるフィルタリングを実行可能
であるデバイスでの構成に4個を要し、RGB3系統の
データに対しては、合計12個を要することとなる。
又、デバイスの数の増加にともないディレイ等の周辺ハ
ードウェアも多数が必要となる。したがって、FIRフ
ィルタに於けるマスクサイズの大型化は、ハードウェア
コストの増大なる問題を招く。Generally, in the hardware implementation of the FIR filter, the mask size has a great influence on the hardware cost. For example, an FIR filter with a mask size of 9 × 9 requires four filters in a device capable of performing filtering with an FIR filter with a mask size of 5 × 5 (this size is common for hardware devices). That is, a total of 12 pieces are required for RGB 3 system data.
Also, as the number of devices increases, many peripheral hardware such as delays are required. Therefore, increasing the mask size in the FIR filter causes a problem of increasing hardware cost.
【0340】そこで、FIRフィルタを用いたフィルタ
リング部に於いて、マスクサイズが大型化した場合で
も、それにともなうハードウェアコストの増加を最小限
にとどめる構成を実現する。Therefore, in the filtering unit using the FIR filter, even if the mask size is increased, a structure for minimizing the increase in hardware cost due to the increase in mask size is realized.
【0341】本実施例に於いては、1個のFIRフィル
タがもつ空間周波数特性を、複数のより小さいマスクサ
イズのFIRフィルタ(以下、分割フィルタ)のカスケ
ード接続により実現することで、上記目的を達成する。In the present embodiment, the spatial frequency characteristic of one FIR filter is realized by the cascade connection of a plurality of FIR filters having smaller mask sizes (hereinafter, divided filters), thereby achieving the above object. To achieve.
【0342】マスクサイズ(4k+1)×(4k+1)
(ただし、k=1,2,3,…)のFIRフィルタの係
数は、マスクサイズ(2k+1)×(2k+1)のFI
Rフィルタ2個のたたみ込み演算により表現できる。Mask size (4k + 1) × (4k + 1)
(However, k = 1, 2, 3, ...) The FIR filter coefficient is FI of mask size (2k + 1) × (2k + 1).
It can be expressed by a convolution operation of two R filters.
【0343】例えば、図45は、k=1のとき、すなわ
ちマスクサイズ5×5のFIRフィルタm0(x,y)
(図45(a))の係数を、マスクサイズ3×3のFI
Rフィルタm1(x,y)(図45(b))及びm2
(x,y)(図45(c))との間に於けるたたみ込み
演算により構成した例である。For example, in FIG. 45, when k = 1, that is, the FIR filter m0 (x, y) with a mask size of 5 × 5.
The coefficient of (FIG. 45 (a)) is converted into
R filter m1 (x, y) (FIG. 45 (b)) and m2
This is an example configured by convolution calculation with (x, y) (FIG. 45 (c)).
【0344】これらのマスクサイズ3×3のFIRフィ
ルタを原画像f(x,y)に対してカスケード接続的に
適用した処理結果画像f′(x,y)は、 f′(x,y)=(f(x,y)*m1(x,y))*m2(x,y) … (28) となる。ただし、*はたたみ込み演算を表す。一方、 m0(x,y)=m1(x,y)*m2(x,y) … (29) より、式(28)は f′(x,y)=f(x,y)*(m1(x,y)*m2(x,y)) =f(x,y)*m0(x,y) … (30) と表せ、フィルタm0(x,y)による処理結果と一致
することがわかる。The processing result image f ′ (x, y) obtained by applying these FIR filters of mask size 3 × 3 to the original image f (x, y) in cascade connection is f ′ (x, y). = (F (x, y) * m1 (x, y)) * m2 (x, y) (28) However, * represents a convolution operation. On the other hand, from m0 (x, y) = m1 (x, y) * m2 (x, y) (29), the equation (28) becomes f ′ (x, y) = f (x, y) * (m1 It can be expressed as (x, y) * m2 (x, y) = f (x, y) * m0 (x, y) (30), and it can be seen that it matches the processing result by the filter m0 (x, y). .
【0345】又、空間周波数特性の上では、式(28)
は F′(u,v)=(F(u,v)・M1(u,v))・M2(u,v) … (31) と表せ、さらに M0(u,v)=M1(u,v)・M2(u,v) … (32) より F′(u,v)=F(u,v)・(M1(u,v)・M2((u,v)) =F(u,v)・M0(u,v) … (33) が示される。Further, in terms of spatial frequency characteristics, equation (28)
Can be expressed as F ′ (u, v) = (F (u, v) · M1 (u, v)) · M2 (u, v) (31), and M0 (u, v) = M1 (u, v) · M2 (u, v) (32) From F ′ (u, v) = F (u, v) · (M1 (u, v) · M2 ((u, v)) = F (u, v) · M0 (u, v) (33) is shown.
【0346】ここで、F(u,v),F′(u,v),
M0(u,v),M1(u,v)及びM2(u,v)は
それぞれf(x,y),f′(x,y),m0(x,
y),m1(x,y)及びm2(x,y)のフーリエ変
換である。Here, F (u, v), F '(u, v),
M0 (u, v), M1 (u, v) and M2 (u, v) are f (x, y), f '(x, y) and m0 (x,
y), m1 (x, y) and m2 (x, y) are Fourier transforms.
【0347】以上の説明と同様に、マスクサイズ9×9
のFIRフィルタ(k=2)の係数は、マスクサイズ5
×5の2個のFIRフィルタのたたみ込み演算から構成
可能である。又、それらのFIRフィルタのカスケード
接続的な適用からマスクサイズ9×9のFIRフィルタ
でのフィルタリング1回の処理と同等の処理結果が得ら
れる。As in the above description, the mask size is 9 × 9.
FIR filter (k = 2) has a mask size of 5
It can be configured by convolution operation of two × 5 FIR filters. Further, from the application of those FIR filters in a cascade connection, a processing result equivalent to one-time filtering processing with the FIR filter of mask size 9 × 9 can be obtained.
【0348】したがって、必要となるマスクサイズ5×
5のFIRフィルタによるフィルタリングを実行するデ
バイスは2個となり、ハードウェアコストの大幅な低減
となる。Therefore, the required mask size 5 ×
The number of devices that perform the filtering by the FIR filter of No. 5 becomes two, and the hardware cost is significantly reduced.
【0349】ここでは、第15実施例の鮮鋭感補正装置
201に於けるフィルタリング部250に適用した例に
説明する。適用するFIRフィルタのマスクサイズは9
×9とし、これをマスクサイズ5×5のFIRフィルタ
2個(それぞれ、第1のFIRフィルタ及び第2のFI
Rフィルタとする)のカスケード接続により実現する。Here, an example applied to the filtering unit 250 in the sharpness correction device 201 of the fifteenth embodiment will be described. The mask size of the applied FIR filter is 9
× 9, and two FIR filters each having a mask size of 5 × 5 (first FIR filter and second FIR filter, respectively)
It is realized by a cascade connection of the R filter).
【0350】本実施例に於けるフィルタリング部201
は、図46に示すように、R,G,B用の第1フィルタ
リング実行部310rないしbからなる第1フィルタリ
ング実行部310と、R,G,B用の第2フィルタリン
グ実行部311rないしbからなる第2フィルタリング
実行部310と、処理結果の値を調整するR,G,B用
のデータ変換部211rないしbからなるデータ変換部
211より構成される。Filtering unit 201 in the present embodiment
46, as shown in FIG. 46, a first filtering execution unit 310 including first filtering execution units 310r and b for R, G and B and a second filtering execution unit 311r and b for R, G and B. The second filtering execution unit 310 and the data conversion unit 211 including the R, G, and B data conversion units 211r and 211b for adjusting the value of the processing result.
【0351】第1フィルタリング実行部310に於いて
は、入力されるRGB各原画像データに対し、第1のF
IRフィルタmr1(x,y)ないしmb1(x,y)
によるフィルタリングを実行する。In the first filtering execution section 310, the first F
IR filters mr1 (x, y) to mb1 (x, y)
Perform filtering by.
【0352】第2フィルタリング実行部311に於いて
は、第1フィルタリング実行部310によるフィルタリ
ング処理結果によるR′G′B′各画像データに対し、
第2のFIRフィルタmr2(x,y)ないしmb2
(x,y)によるフィルタリングを実行する。In the second filtering execution section 311, for each R′G′B ′ image data resulting from the filtering processing result by the first filtering execution section 310,
Second FIR filters mr2 (x, y) to mb2
Perform filtering by (x, y).
【0353】mr1(x,y)及びmr2(x,y),
mg1(x,y)及びmg2(x,y),mb1(x,
y)及びmb2(x,y)は、それぞれカスケード接続
的に適用した場合に補正フィルタの周波数特性Mr0
(u,v),Mg0(u,v)及びMb0(u,v)を
実現するように設定する。Mr1 (x, y) and mr2 (x, y),
mg1 (x, y) and mg2 (x, y), mb1 (x,
y) and mb2 (x, y) are the frequency characteristics Mr0 of the correction filter when they are applied in cascade connection, respectively.
(U, v), Mg0 (u, v) and Mb0 (u, v) are set.
【0354】データ変換部211に於いては、第2フィ
ルタリング実行部311によるフィルタリング処理結果
であるR″G″B″各画像データが入力される。ここで
はフィルタリングにより表示範囲を超えた値をもつデー
タを変換するための後処理を実行する。すなわち、小数
点以下のデータに対する四捨五入や、表示可能範囲が例
えば0〜255である場合の0未満又は256以上の値
の切り捨て等を行う。この処理を適用後の各撮影用画像
R"',G"'及びB"'を処理結果として出力する。データ
変換部211は、例えばROM(読出し専用メモリ)に
よるLUT(ルックアップテーブル)により構成しても
よい。In the data conversion unit 211, each R ″ G ″ B ″ image data which is the filtering processing result by the second filtering execution unit 311 is input, where it has a value exceeding the display range due to filtering. Post-processing for converting the data is performed, that is, rounding off the data below the decimal point, and truncating values less than 0 or 256 or more when the displayable range is, for example, 0 to 255. The respective photographed images R "', G"' and B "'after application are output as processing results. The data conversion unit 211 may be configured by, for example, a LUT (look-up table) formed by a ROM (read-only memory).
【0355】次に、本実施例に於ける係数設定部202
の動作について説明する。係数設定部202に於いて
は、第1フィルタリング実行部310及び第2フィルタ
リング実行部311に於いて適用するFIRフィルタの
係数を設定する。例えば、写真撮影装置のMTFを理想
MTFに補正する場合には、前述の補正フィルタMr
(u,v),Mg(u,v)及びMb(u,v)のそれ
ぞれの空間周波数特性を実現するためのFIRフィルタ
の組み合わせであるmr1(x,y)及びmr2(x,
y),mg1(x,y)及びmg2(x,y),mb1
(x,y)及びmb2(x,y)を、第1フィルタリン
グ実行部310及び第2フィルタリング実行部311に
送出する。Next, the coefficient setting unit 202 in the present embodiment.
The operation of will be described. In the coefficient setting unit 202, the coefficient of the FIR filter applied in the first filtering execution unit 310 and the second filtering execution unit 311 is set. For example, when the MTF of the photographing device is corrected to the ideal MTF, the correction filter Mr described above is used.
Mr1 (x, y) and mr2 (x, which are combinations of FIR filters for realizing the respective spatial frequency characteristics of (u, v), Mg (u, v) and Mb (u, v).
y), mg1 (x, y) and mg2 (x, y), mb1
(X, y) and mb2 (x, y) are sent to the first filtering execution unit 310 and the second filtering execution unit 311.
【0356】又、データ入力部203は、係数設定に対
する情報を係数設定部202に送信する。写真撮影装置
に於いては、使用するカメラ、フィルム等によりPSF
は異なるため、各データを係数設定のために使用する情
報とし、適切な補正フィルタの空間周波数特性を与える
FIRフィルタを設定するようにする。The data input section 203 also sends information on coefficient setting to the coefficient setting section 202. In the photography equipment, depending on the camera and film used, PSF
Therefore, each data is used as information used for coefficient setting, and an FIR filter that gives an appropriate spatial frequency characteristic of the correction filter is set.
【0357】なお、原画像f(x,y)に於いてノイズ
成分が混入している場合には、理想的な逆フィルタを適
用した場合にノイズ成分を強調する結果となることがあ
る。このような場合に於いては、第15実施例に於いて
説明したように、適用する補正フィルタM0(u,v)
の空間周波数特性を変更し、高周波帯域に於ける補正の
度合いを制御すればよい。第1及び第2のFIRフィル
タm1(x,y)及びm2(x,y)は、カスケード接
続的に適用した場合にM0(u,v)の空間周波数特性
を与えるように設定すればよい。これにより、不要なノ
イズ成分の強調を防ぎつつ、実用上必要な周波数帯域に
於けるMTFの補正を行うことが可能となる。When the original image f (x, y) contains a noise component, the noise component may be emphasized when the ideal inverse filter is applied. In such a case, as described in the fifteenth embodiment, the correction filter M0 (u, v) to be applied is applied.
It suffices to change the spatial frequency characteristic of and control the degree of correction in the high frequency band. The first and second FIR filters m1 (x, y) and m2 (x, y) may be set so as to give a spatial frequency characteristic of M0 (u, v) when applied in cascade connection. As a result, it is possible to correct the MTF in the frequency band practically required while preventing unnecessary noise components from being emphasized.
【0358】さらに、ノイズに対する統計的な性質が既
知の場合、逆フィルタの適用ではなく、ウィーナフィル
タ或いは最小2乗フィルタ等を作成し、それらの空間周
波数特性を与える第1及び第2のFIRフィルタを設定
してもよい。Further, when the statistical property with respect to noise is known, the first and second FIR filters which give a spatial frequency characteristic by creating a Wiener filter or a least squares filter instead of applying an inverse filter. May be set.
【0359】又、第11実施例に於いて説明したものと
同様に、係数設定部202に於いて設定するFIRフィ
ルタの係数を変更し、より積極的にMTFを制御するこ
とにより、観察に好適な画像を得ることができる。Further, similarly to the one described in the eleventh embodiment, the coefficient of the FIR filter set in the coefficient setting section 202 is changed and the MTF is controlled more positively, which is suitable for observation. It is possible to obtain a clear image.
【0360】すなわち、図11(c)に示した空間周波
数特性を与えるように、第1及び第2のFIRフィルタ
を設定することにより、撮影画像はより鮮鋭感が強調さ
れたものとなる。That is, by setting the first and second FIR filters so as to give the spatial frequency characteristic shown in FIG. 11C, the picked-up image becomes more sharp.
【0361】M0′(u,v)は、データ入力手部20
3により、前述した写真撮影装置に於いて使用するカメ
ラ、フィルムの違いによるPSFの変更に加え、周波数
帯域及び空間周波数特性の増減分が調整される。M0 '(u, v) is the data input unit 20
According to 3, the PSF is changed due to the difference between the camera and the film used in the above-mentioned photographing device, and the increase / decrease of the frequency band and the spatial frequency characteristic is adjusted.
【0362】さらに、第11ないし16実施例に於いて
説明したように、原画像が例えば内視鏡による撮像画像
であれば、使用した内視鏡の機種に基づく個体撮像素子
の画素数等の情報によりM′(u,v)の制御を行って
もよい。Further, as described in the eleventh to sixteenth embodiments, if the original image is, for example, an image picked up by an endoscope, the number of pixels of the solid-state image pickup element based on the model of the endoscope used, etc. Information may be used to control M '(u, v).
【0363】又、第16実施例に於いて説明した鮮鋭感
補正回路263の構成に於いても、フィルタリング部2
61の構成を複数のFIRフィルタによるフィルタリン
グ実行部のカスケード接続により実現可能であることは
明らかである。Also, in the configuration of the sharpness correction circuit 263 described in the sixteenth embodiment, the filtering unit 2 is also included.
It is obvious that the configuration of 61 can be realized by the cascade connection of the filtering execution units by the plurality of FIR filters.
【0364】なお、本実施例に於いて分割フィルタの個
数を2個としたが、3個以上の分割フィルタによる構成
も可能である。例えば、マスクサイズ13×13のFI
Rフィルタの空間周波数特性は、マスクサイズ5×5の
FIRフィルタの3個のカスケード接続的な適用により
実現される。Although the number of the division filters is two in the present embodiment, it is also possible to employ a constitution with three or more division filters. For example, FI with a mask size of 13 × 13
The spatial frequency characteristic of the R filter is realized by applying three FIR filters having a mask size of 5 × 5 in a cascade connection.
【0365】尚、図3における構成にて鮮鋭感補正を実
現する際には、以上に示した一連の処理または処理の一
部を、図3における中央処理装置40において動作させ
れば良い。To realize the sharpness correction with the configuration shown in FIG. 3, the series of processes or part of the processes described above may be operated in the central processing unit 40 in FIG.
【0366】次に第18実施例について説明する。図4
7は第18実施例に係るフィルタリング部の構成を示す
ブロック図である。Next, the eighteenth embodiment will be described. FIG.
FIG. 7 is a block diagram showing the configuration of the filtering unit according to the 18th embodiment.
【0367】第18実施例は第17実施例とほとんど同
じであり、本実施例の第17実施例との相違は、鮮鋭感
補正回路165のフィルタリング部201の構成である
ので、異なる構成のみ説明し、同一構成には同じ符号を
つけ説明は省略する。The eighteenth embodiment is almost the same as the seventeenth embodiment, and the difference between the seventeenth embodiment and the seventeenth embodiment is the configuration of the filtering unit 201 of the sharpness correction circuit 165. Therefore, only the different configuration will be described. However, the same components are denoted by the same reference numerals and the description thereof is omitted.
【0368】FIRフィルタによるフィルタリングの実
行に使用するハードウェアデバイスの入力データの語長
に依存する問題が発生する場合がある。例えば、第17
実施例の図46に於いて、ハードウェアデバイスの入力
データの語長が8ビット、すなわち0〜255であるも
のとする。又、入力されるRGB原画像データも又各々
0〜255の値をとるものとする。第1FIRフィルタ
リング実行部310の係数値が、例えばすべて0以上1
以下であり、かつ係数値の総和が1であれば、第2フィ
ルタリング実行部311への入力となるR′G′B′各
画像データの値も又0〜255の範囲をとる。しかしな
がら、第1FIRフィルタリング実行部310の係数に
よっては、フィルタリング処理結果のデータに対し、ハ
ードウェアデバイスの出力データの語長が十分に長けれ
ば、第1FIRフィルタリング実行部310rないしb
より出力される処理結果は、第2FIRフィルタリング
実行部311rないしbへの入力として許容される0〜
255の範囲を超えることが考えられる。There may occur a problem depending on the word length of the input data of the hardware device used for executing the filtering by the FIR filter. For example, the 17th
In FIG. 46 of the embodiment, it is assumed that the word length of the input data of the hardware device is 8 bits, that is, 0 to 255. Further, the input RGB original image data also takes values of 0 to 255. The coefficient values of the first FIR filtering execution unit 310 are all 0 or more and 1
If the sum is equal to or less than 1 and the sum of coefficient values is 1, the value of each R′G′B ′ image data input to the second filtering execution unit 311 also takes a range of 0 to 255. However, depending on the coefficient of the first FIR filtering execution unit 310, if the word length of the output data of the hardware device is sufficiently long with respect to the data of the filtering processing result, the first FIR filtering execution units 310r to 310b.
The processing result output from 0 to 0 is permitted as an input to the second FIR filtering execution unit 311r or 311b.
It is considered that the range of 255 is exceeded.
【0369】そこで、本実施例では、鮮鋭感補正回路1
65のフィルタリング部201の構成を、例えば図47
に示すように構成する。すなわち、第1のFIRフィル
タによるフィルタリングを実行する第1フィルタリング
実行部330rないしbよりなる第1フィルタリング実
行部330と、第2のFIRフィルタによるフィルタリ
ングを実行する第2フィルタリング実行手段332rな
いしbよりなる第2フィルタリング実行部332との間
に、データ変換部331rないしbよりなるデータ変換
部331を設ける。Therefore, in the present embodiment, the sharpness correction circuit 1
The configuration of the filtering unit 201 of FIG.
It is configured as shown in. That is, the first filtering execution unit 330r and the second filtering execution unit 332r and b that perform filtering by the first FIR filter and the first filtering execution unit 330r and 330b that execute filtering by the second FIR filter. A data conversion unit 331 composed of the data conversion units 331r and 331b is provided between the second filtering execution unit 332.
【0370】データ変換部331rないしbは、第1フ
ィルタリング実行部330rないしbからの出力データ
の語長を第2フィルタリング部332rないしbに対す
る入力データの語長に合致するように丸め、切り捨て或
いは圧縮等の処理を行う。データ変換部331rないし
bの実現に関しては、例えばRAM(読出し専用メモ
リ)を用いたLUT(ルックアップテーブル)を使用し
てもよい。 第2フィルタリング部332rないしbに
よる処理結果は、データ変換部211rないしbにそれ
ぞれ入力され、フィルタリングにより表示範囲を超えた
値をもつデータを変換するための後処理を実行する。す
なわち、小数点以下のデータに対する四捨五入や、表示
可能範囲が例えば0〜255である場合の0未満又は2
56以上の値の切り捨て等を行う。データ変換部211
rないしbは、例えばROM(読出し専用メモリ)によ
るLUT(ルックアップテーブル)により構成してもよ
い。The data conversion units 331r-b round, truncate or compress the word length of the output data from the first filtering execution units 330r-b so as to match the word length of the input data to the second filtering units 332r-b. Etc. are processed. For realizing the data conversion units 331r or 331b, for example, an LUT (look-up table) using a RAM (read-only memory) may be used. The processing results of the second filtering units 332r and 332b are input to the data converting units 211r and b, respectively, and post-processing is performed to convert data having a value exceeding the display range by filtering. That is, the data after the decimal point is rounded off, or less than 0 or 2 when the displayable range is 0 to 255, for example.
Truncate values of 56 or more. Data conversion unit 211
Each of r and b may be configured by a LUT (look-up table) formed by a ROM (read-only memory), for example.
【0371】以上により、第18実施例では、ハードウ
ェアデバイスの入力語長に依存するデータ分布範囲の制
限に関する問題を解決しつつ、FIRフィルタのカスケ
ード接続構成によるハードウェアコストの低減が実現さ
れる。As described above, in the eighteenth embodiment, the hardware cost reduction is realized by the cascade connection configuration of the FIR filters while solving the problem concerning the limitation of the data distribution range depending on the input word length of the hardware device. .
【0372】尚、図3における構成にて鮮鋭感補正を実
現する際には、以上に示した一連の処理または処理の一
部を、図3における中央処理装置40において動作させ
れば良い。In order to realize the sharpness correction with the configuration in FIG. 3, the series of processes or part of the processes described above may be operated in the central processing unit 40 in FIG.
【0373】次に第19実施例について説明する。図4
8は第19実施例に係るフィルタリング部の構成を示す
ブロック図である。Next, a nineteenth embodiment will be described. FIG.
8 is a block diagram showing a configuration of a filtering unit according to the nineteenth embodiment.
【0374】第19実施例は第17実施例とほとんど同
じであり、本実施例の第17実施例との相違は、鮮鋭感
補正回路165のフィルタリング部201構成であるの
で、異なる構成のみ説明し、同一構成には同じ符号をつ
け説明は省略する。The nineteenth embodiment is almost the same as the seventeenth embodiment. Since the difference between the seventeenth embodiment and the seventeenth embodiment is the configuration of the filtering unit 201 of the sharpness correction circuit 165, only the different configuration will be described. The same components are designated by the same reference numerals and the description thereof will be omitted.
【0375】FIRフィルタによるフィルタリングの実
行に使用するハードウェアデバイスの入力データの語長
に依存する問題が発生する場合がある。例えば、第17
実施例の図46に於いて、ハードウェアデバイスの入力
データの語長が8ビット、すなわち0〜255であるも
のとする。又、入力されるRGB原画像データも又各々
0〜255の値をとるものとする。第1のFIRフィル
タの係数値が、例えばすべて0以上1以下であり、かつ
係数値の総和が1であれば、第2のフィルタリング手段
への入力となるR′G′B′各画像データの値も又0〜
255の範囲をとる。There may be a problem depending on the word length of the input data of the hardware device used for executing the filtering by the FIR filter. For example, the 17th
In FIG. 46 of the embodiment, it is assumed that the word length of the input data of the hardware device is 8 bits, that is, 0 to 255. Further, the input RGB original image data also takes values of 0 to 255. If the coefficient values of the first FIR filter are all 0 or more and 1 or less, and the sum of the coefficient values is 1, the R'G'B 'image data of R'G'B' to be input to the second filtering means is input. The value is also 0
It takes a range of 255.
【0376】しかしながら、第1のFIRフィルタの係
数によっては、フィルタリング処理結果のデータに対
し、ハードウェアデバイスの出力データの語長が十分に
長ければ、第1フィルタリング実行部310rないしb
より出力される処理結果は、第2フィルタリング実行部
311rないしbへの入力として許容される0〜255
の範囲を超えることが考えられる。However, depending on the coefficient of the first FIR filter, if the word length of the output data of the hardware device is sufficiently long with respect to the data of the filtering processing result, the first filtering execution units 310r to 310b.
The processing result output from 0 to 255 that is allowed as an input to the second filtering execution unit 311r or 311b.
It is considered that the range is exceeded.
【0377】そこで、本実施例では、フィルタリング部
201を図48に示すように構成する。Therefore, in this embodiment, the filtering section 201 is constructed as shown in FIG.
【0378】すなわち、図48に於いては、第2のFI
Rフィルタによるフィルタリング実行手段を、第2フィ
ルタリング実行部335r1及びr2ないしb1及びb
2より構成する。つまり、RGB各データに対し、それ
ぞれ第2のフィルタリング実行手段として2個のハード
ウェアデバイスを設ける。又、第2フィルタリング実行
部335r1及びr2ないしb1及びb2による処理結
果をそれぞれ入力する合成部336rないしbを備えて
いる。That is, in FIG. 48, the second FI
The filtering execution means by the R filter is composed of the second filtering execution units 335r1 and r2 to b1 and b.
It consists of 2. That is, two hardware devices are provided as second filtering execution means for each RGB data. The second filtering execution units 335r1 and r2 through b1 and b2 include synthesis units 336r through b for inputting the processing results.
【0379】第2フィルタリング実行部335r1及び
r2ないしb1及びb2のそれぞれに対しては、第1フ
ィルタリング実行部334rないしbによるフィルタリ
ング処理結果R′G′B′画像データの下位8ビットデ
ータであるR′l,G′l,B′l及び残りの上位ビッ
トデータであるR′h,G′h,B′hがそれぞれ入力
される。下位及び上位ビットデータへの分割は、第1フ
ィルタリング実行部334rないしbの後段にそれぞれ
設けられた分配部341rないしbにより実現する。そ
して、第2のFIRフィルタによるフィルタリングを各
々で実行し、R″G″B″画像データの下位及び上位ビ
ットの処理結果を後段の合成部336rないしbに入力
する。For each of the second filtering execution units 335r1 and r2 or b1 and b2, the lower 8-bit data R of the filtering processing result R'G'B 'image data by the first filtering execution unit 334r or b. ′ L, G′l, B′l and the remaining high-order bit data R′h, G′h, B′h are input, respectively. The division into the low-order and high-order bit data is realized by the distribution units 341r and b provided in the subsequent stages of the first filtering execution units 334r and b. Then, the filtering by the second FIR filter is executed for each, and the processing results of the lower and upper bits of the R ″ G ″ B ″ image data are input to the combining units 336r and 336b in the subsequent stage.
【0380】合成部336rないしbに於いては、下位
及び上位ビットに対する処理結果を合成し、第2のFI
Rフィルタによる処理結果とする。合成部336rない
しbによる処理結果は、データ変換部337rないしb
にそれぞれ入力され、フィルタリングにより表示範囲を
超えた値をもつデータを変換するための後処理を実行す
る。すなわち、小数点以下のデータに対する四捨五入
や、表示可能範囲が例えば0〜255である場合の0未
満又は256以上の値の切り捨て等を行う。データ変換
手段336rないしbは、例えばROM(読出し専用メ
モリ)によるLUT(ルックアップテーブル)により構
成してもよい。In the synthesizing sections 336r and 336b, the processing results for the lower and upper bits are synthesized to generate the second FI.
This is the processing result by the R filter. The processing results by the combining units 336r and 336b are the data conversion units 337r and 337b.
Post-processing is performed to convert the data that is input to each and is converted into the data having the value exceeding the display range by filtering. That is, the data below the decimal point is rounded off, or the value less than 0 or 256 or more when the displayable range is, for example, 0 to 255 is rounded down. The data conversion means 336r or 336b may be configured by, for example, an LUT (look-up table) using a ROM (read-only memory).
【0381】又、合成部336rないしb及びデータ変
換部337rないしbに於ける処理を、一括してLUT
(図示せず)により実行する構成にしてもよい。Also, the processes in the combining units 336r and 336b and the data converting units 337r and 337b are collectively LUT.
It may be configured to be executed by (not shown).
【0382】以上により、第1のFIRフィルタによる
フィルタリング処理結果データに対し、データ語長の制
限に基づく精度の低下を防ぎつつ、FIRフィルタのカ
スケード接続構成によるハードウェアコストの低減が実
現される。As described above, the hardware cost can be reduced by the cascade connection configuration of the FIR filters while preventing the accuracy reduction of the filtering result data by the first FIR filter due to the limitation of the data word length.
【0383】尚、図3における構成にて鮮鋭感補正を実
現する際には、以上に示した一連の処理または処理の一
部を、図3における中央処理装置40において動作させ
れば良い。In order to realize the sharpness correction with the configuration in FIG. 3, the series of processes or part of the processes described above may be operated in the central processing unit 40 in FIG.
【0384】次に第20実施例について説明する。図4
9は第20実施例に係るフィルタリング部の構成を示す
ブロック図である。Next, a twentieth embodiment will be described. FIG.
9 is a block diagram showing a configuration of a filtering unit according to the twentieth embodiment.
【0385】第20実施例は第17実施例とほとんど同
じであり、本実施例の第11実施例との相違は、鮮鋭感
補正回路165のフィルタリング部201構成であるの
で、異なる構成のみ説明し、同一構成には同じ符号をつ
け説明は省略する。The twentieth embodiment is almost the same as the seventeenth embodiment, and the difference from the eleventh embodiment of the present embodiment is the configuration of the filtering unit 201 of the sharpness correction circuit 165. Therefore, only the different configuration will be described. The same components are designated by the same reference numerals and the description thereof will be omitted.
【0386】第11ないし19実施例に於いては、フィ
ルタリング部201の構成に関してRGB各画像データ
に対し3系統の並列構成とした。In the eleventh to nineteenth embodiments, the filtering section 201 has a three-system parallel configuration for each RGB image data.
【0387】本実施例に於いてはフィルタリング手段3
01を、RGB各画像データごとに時系列的に一連の処
理を適用することにより、1系統の処理構成により実現
することに特徴を有し、ハードウェアコストの低減を図
る。In the present embodiment, the filtering means 3
01 is realized by a processing configuration of one system by applying a series of processing in time series for each RGB image data, and the hardware cost is reduced.
【0388】本実施例の鮮鋭感補正回路165のフィル
タリング部201は、図49に示すように、入力される
RGB各原画像データのいずれか1つを選択する選択部
338と、フィルタリングを実行するフィルタリング実
行部339と、フィルタリング部339による処理結果
の値を調整するデータ変換部340からなっている。As shown in FIG. 49, the filtering unit 201 of the sharpness correction circuit 165 of this embodiment executes filtering with the selection unit 338 which selects any one of the input RGB original image data. The filtering execution unit 339 and the data conversion unit 340 that adjusts the value of the processing result by the filtering unit 339.
【0389】次に、本実施例に於けるフィルタリング部
201の動作について説明する。選択部338は制御部
304に接続され、入力されるRGB各原画像データの
いずれか1つを選択する。Next, the operation of the filtering section 201 in this embodiment will be described. The selection unit 338 is connected to the control unit 304 and selects any one of the input RGB original image data.
【0390】フィルタリング実行部339に於いては、
選択部338により選択されたRGBいずれかの原画像
データが入力され、フィルタリングを適用する。In the filtering execution unit 339,
The original image data of any one of RGB selected by the selection unit 338 is input and filtering is applied.
【0391】データ変換部340に対しては、フィルタ
リング実行部339による処理結果が入力され、フィル
タリングにより表示範囲を超えた値をもつデータを変換
するための後処理を実行する。すなわち、小数点以下の
データに対する四捨五入や、表示可能範囲が例えば0〜
255である場合の0未満又は256以上の値の切り捨
て等を行う。この処理を適用後の各撮影用画像R′又は
G′又はB′を処理結果として出力する。データ変換部
340は、例えばROM(読出し専用メモリ)によるL
UT(ルックアップテーブル)により構成してもよい。The processing result of the filtering execution unit 339 is input to the data conversion unit 340, and post-processing for converting data having a value exceeding the display range by filtering is executed. That is, the data that can be displayed after the decimal point is rounded off,
When the value is 255, the value less than 0 or 256 or more is truncated. Each image R'or G'or B'after the application of this processing is output as the processing result. The data conversion unit 340 is an L (read only memory) ROM, for example.
You may comprise by UT (look-up table).
【0392】選択部338は、選択されたRGB画像デ
ータのいずれか1つに対する一連の処理が終了すると、
次の画像データを選択する。When the series of processes for any one of the selected RGB image data is completed, the selecting section 338 finishes.
Select the next image data.
【0393】又、係数設定部202に於いては、フィル
タリング実行部339に対し、選択されているRGB画
像データのいずれか1つに対応する補正フィルタの係数
を送信する。In addition, the coefficient setting section 202 transmits the coefficient of the correction filter corresponding to any one of the selected RGB image data to the filtering execution section 339.
【0394】以上に於いては、第11実施例に於けるフ
ィルタリング部201を例として説明した。第12ない
し第19に於けるフィルタリング部201に対しても、
同様にRGB各画像データごとに時系列的に一連の処理
を適用することにより、1系統の処理構成により実現可
能である。In the above, the filtering unit 201 in the eleventh embodiment has been described as an example. Also for the twelfth to nineteenth filtering units 201,
Similarly, by applying a series of processes in chronological order for each of the RGB image data, it is possible to realize with a single-system processing configuration.
【0395】次に第21実施例について説明する。Next, a twenty-first embodiment will be described.
【0396】以降の実施例では、図3に示した画像処理
装置3に設けられる中央処理装置40の画像処理部47
において、機能構成を変更した例を説明する。In the following embodiments, the image processing section 47 of the central processing unit 40 provided in the image processing apparatus 3 shown in FIG.
In, an example in which the functional configuration is changed will be described.
【0397】画像記録装置4により再現された画像(再
現画像)の色と、観察用モニタ8に再現される画像の色
とは、CIEで定義される表色値において異なる場合が
ある。この表色値の差(色差)を減少させることで、色
再現の向上が可能となる。そこで第21実施例では、画
像記録装置4に入力される画像信号に対し、色変換処理
を行うことにより色調の改善が可能な色変換手段の構成
例を示す。The color of the image (reproduced image) reproduced by the image recording device 4 and the color of the image reproduced on the observation monitor 8 may differ in color specification values defined by CIE. By reducing this color difference (color difference), color reproduction can be improved. Therefore, the twenty-first embodiment shows an example of the configuration of the color conversion means capable of improving the color tone by performing color conversion processing on the image signal input to the image recording device 4.
【0398】図50は中央処理装置における画像処理部
のソフトウェアの概念構成を示すブロック図、図51は
第21実施例に係る色変換手段の機能構成を示すブロッ
ク図、図52は第21実施例における色変換手段の動作
を説明するフローチャート、図53はCIE1976
(L*u*v*)色空間における観察用モニタと画像記録
装置の色域の関係を説明する概念図、図54は色域圧縮
の方法の一例を示すフローチャート、図55は色域圧縮
の概念をCIE1976(L*u*v*)色空間において
説明した説明図、図56は機器に依存しない色変換シス
テムの構成を説明する概念図である。FIG. 50 is a block diagram showing the conceptual configuration of software of the image processing unit in the central processing unit, FIG. 51 is a block diagram showing the functional configuration of the color conversion means according to the 21st embodiment, and FIG. 52 is the 21st embodiment. 53 is a flowchart for explaining the operation of the color conversion means in FIG.
FIG. 54 is a flow chart showing an example of a gamut compression method, FIG. 54 is a gamut compression method, and FIG. 54 is a flow chart showing an example of a gamut compression method in the (L * u * v * ) color space. FIG. 56 is an explanatory diagram for explaining the concept in the CIE1976 (L * u * v * ) color space, and FIG. 56 is a conceptual diagram for explaining the configuration of a device-independent color conversion system.
【0399】中央処理装置40の画像処理部47は、図
50に示すように、内視鏡画像記録装置4により再現さ
れる画像の色が観察用モニタ8に表示される画像の色と
一致するように、又は観察者の好みの色になるように色
変換を行う色変換手段350と、及び又は内視鏡画像記
録装置4により再現される画像の鮮鋭感補正処理を行う
鮮鋭感補正手段351と、及び又は内視鏡画像記録装置
4の色再現特性の変動を吸収するための機器特性補正手
段352等を有してなる。In the image processing section 47 of the central processing unit 40, as shown in FIG. 50, the color of the image reproduced by the endoscope image recording device 4 matches the color of the image displayed on the observation monitor 8. Color conversion means 350 for performing color conversion so as to obtain a color desired by the observer, and / or sharpness correction means 351 for performing sharpness correction processing of an image reproduced by the endoscopic image recording device 4. And / or device characteristic correction means 352 for absorbing the variation in the color reproduction characteristic of the endoscopic image recording device 4 and the like.
【0400】なお、図50では、色変換手段350が、
鮮鋭感補正手段351の前段に位置するが、この位置を
逆にすることも可能である。また、色変換手段350と
鮮鋭感補正手段351は、どちらか一つとすることも可
能である。この場合、機器特性補正手段352は、色変
換手段350又は鮮鋭感補正手段351のすぐ後段に位
置することとなる。In FIG. 50, the color conversion means 350 is
Although it is located upstream of the sharpness correction unit 351, this position can be reversed. Further, either one of the color conversion means 350 and the sharpness correction means 351 can be used. In this case, the device characteristic correction unit 352 is located immediately after the color conversion unit 350 or the sharpness correction unit 351.
【0401】図3の画像処理装置3において、画像入力
I/F43を介して入力された画像データは、一旦主記
憶装置42内に記憶される。また、画像データを構成す
るRGBデータは主記憶装置42から読み出された後、
さらに中央処理装置40に転送され、中央処理装置40
の画像処理部47に設けられた色変換手段350により
色変換処理が実行される。色変換結果は一旦主記憶装置
42に記憶された後、画像記録装置I/F46を介して
画像記録装置4へ出力される。In the image processing apparatus 3 of FIG. 3, the image data input through the image input I / F 43 is temporarily stored in the main storage device 42. Further, after the RGB data forming the image data is read from the main storage device 42,
Further transferred to the central processing unit 40, the central processing unit 40
The color conversion processing is executed by the color conversion means 350 provided in the image processing unit 47. The color conversion result is temporarily stored in the main storage device 42 and then output to the image recording device 4 via the image recording device I / F 46.
【0402】次に画像処理部47の具体的な例として色
変換手段350の概略構成を説明する。図51は色変換
処理を図3の中央処理装置40で実行する場合におい
て、ROM45内に記憶されたプログラムに相当する色
変換手段350のソフトウェア構成を示した図である。Next, a schematic configuration of the color conversion means 350 will be described as a specific example of the image processing section 47. FIG. 51 is a diagram showing a software configuration of the color conversion means 350 corresponding to the program stored in the ROM 45 when the color conversion processing is executed by the central processing unit 40 of FIG.
【0403】色変換手段350は、RGBデータR,
G,Bを、観察用モニタ8に入力した際に該観察用モニ
タ8に表示される色を表すところの数値であるCIE1
976(L*u*v*)色空間座標L*,u*,v*へ変換
し、出力する色空間座標変換手段400と、色空間座標
変換手段400から出力されたCIE1976(L*u*
v*)色空間座標L*,u*,v*に対して、観察用モニタ
8の色域が画像記録装置4の色域に包含されるまで観察
用モニタ8の色域を圧縮する写像操作を行い、CIE1
976(L*u*v*)色空間座標L*′,u*′,v*′を
出力する色域圧縮手段401と、色域圧縮手段401か
ら出力されたCIE1976(L*u*v*)色空間座標
L*′,u*′,v*′に対し、画像記録装置4の出力画
像を観察した際に知覚される色がCIE1976(L*
u*v*)色空間座標においてL*′,u*′,v*′とな
るための画像記録装置4への入力信号RGBデータ
R′,G′,B′を出力する色空間座標逆変換手段40
2と、を有して構成される。The color conversion means 350 uses the RGB data R,
CIE1 which is a numerical value representing a color displayed on the observation monitor 8 when G and B are input to the observation monitor 8.
976 (L * u * v * ) color space coordinates L * , u * , v * are converted and output, and CIE1976 (L * u *) output from the color space coordinate conversion means 400 .
v * ) mapping operation for compressing the color gamut of the observation monitor 8 to the color space coordinates L * , u * , v * until the color gamut of the observation monitor 8 is included in the color gamut of the image recording device 4. Do CIE1
976 (L * u * v * ) color space coordinates L * ′, u * ′, v * ′, and CIE1976 (L * u * v *) output from the color gamut compression unit 401 . ) With respect to the color space coordinates L * ′, u * ′, v * ′, the color perceived when the output image of the image recording device 4 is observed is CIE1976 (L *).
u * v * ) inverse color space coordinate transformation for outputting input signal RGB data R ′, G ′, B ′ to the image recording device 4 to obtain L * ′, u * ′, v * ′ in color space coordinates. Means 40
2 and.
【0404】なお、RGBデータは、8ビットに規格化
されているものとして以下説明するが、規格化数は8ビ
ットに限定されるものではなく、8ビットより多くて
も、又は少なくてもよい。The RGB data is described below as being standardized to 8 bits, but the standardization number is not limited to 8 bits, and may be more or less than 8 bits. .
【0405】以下、第21実施例の作用について、色変
換手段350を中心に説明する。The operation of the twenty-first embodiment will be described below centering on the color conversion means 350.
【0406】図51に示すように、色空間座標変換手段
400では、入力されたRGBデータR,G,Bを、観
察用モニタ8上で知覚される色を表現するところの、C
IE1976(L*u*v*)色空間座標L*,u*,v*へ
変換する。図52に色変換手段350の動作を説明する
フローチャートを示す。As shown in FIG. 51, in the color space coordinate conversion means 400, the input RGB data R, G, B is represented by C, which represents the color perceived on the observation monitor 8.
Convert to the IE1976 (L * u * v * ) color space coordinates L * , u * , v * . FIG. 52 shows a flowchart for explaining the operation of the color conversion means 350.
【0407】ここでCIE1976(L*u*v*)色空
間について、その概要を以下に説明する。An outline of the CIE1976 (L * u * v * ) color space will be described below.
【0408】純粋知覚量である色感覚を正確に外部へ伝
達するには、色感覚を定量化することが必要となる。色
感覚を定量化する試みは従来から行われており、幾つか
の手法が提唱されている。その中でも国際照明委員会
(CIE)が提唱するCIE表色系は、最も一般的に用
いられている定量化方法の一つである。ここでは、CI
E表色系で定義されているCIE1976(L*u
*v*)均等色空間(以下、CIE1976(L*u
*v*)色空間と呼ぶ)の取り扱い方法について説明す
る。It is necessary to quantify the color sense in order to accurately transmit the color sense, which is a pure perceptual amount, to the outside. Attempts to quantify color perception have been made in the past, and several methods have been proposed. Among them, the CIE color system proposed by the International Commission on Illumination (CIE) is one of the most commonly used quantification methods. Here, CI
CIE1976 (L * u defined in E color system
* v * ) uniform color space (hereinafter, CIE1976 (L * u
* v * ) A method for handling a color space) will be described.
【0409】CIE1976(L*u*v*)色空間は、
物体面の心理的明るさを表す心理計測明度L*と、色み
平面を構成するu*及びv*との直交する3軸で構成され
る。CIE1976(L*u*v*)色空間における任意
の2点間のユークリッド距離は色差と相関が強い。従っ
て、CIE1976(L*u*v*)色空間は色差に関し
て均等性の良い色空間(均等色空間)とみなすことがで
きる。The CIE1976 (L * u * v * ) color space is
Pixel measurement lightness L * , which represents the psychological brightness of the object surface, and three axes that are orthogonal to u * and v * that form the color plane. The Euclidean distance between any two points in the CIE1976 (L * u * v * ) color space has a strong correlation with the color difference. Therefore, the CIE1976 (L * u * v * ) color space can be regarded as a color space with good uniformity in terms of color difference (uniform color space).
【0410】色空間座標変換手段400の内部動作であ
る、RGBデータR,G,BからCIE1976(L*
u*v*)色空間座標L*,u*,v*への座標変換方法に
ついて以下に説明する。The RGB data R, G, B to CIE 1976 (L *) which is an internal operation of the color space coordinate conversion means 400 .
u * v * ) A coordinate conversion method into color space coordinates L * , u * , v * will be described below.
【0411】色空間座標変換手段400においては、図
52に示すように、まずステップS101で、RGBデ
ータR,G,BからCIE(XYZ)三刺激値X,Y,
Zへの変換を行う。続いて、ステップS102で、CI
E(XYZ)三刺激値X,Y,ZからCIE1976
(L*u*v*)色空間座標L*,u*,v*への変換を行
う。In the color space coordinate conversion means 400, as shown in FIG. 52, first, in step S101, the RGB data R, G, B are converted to CIE (XYZ) tristimulus values X, Y ,.
Convert to Z. Then, in step S102, the CI
From E (XYZ) tristimulus values X, Y, Z to CIE1976
(L * u * v * ) conversion to color space coordinates L * , u * , v * .
【0412】ステップS101におけるRGBデータ
R,G,BからCIE(XYZ)三刺激値X,Y,Zへ
の変換は、式(34)に示すように3次の正方行列の行
列演算によって行われる。The conversion from the RGB data R, G, B to the CIE (XYZ) tristimulus values X, Y, Z in step S101 is performed by the matrix operation of a cubic matrix of the third order as shown in equation (34). .
【0413】[0413]
【数8】 ここでgmR (R),gmG (G),gmB (B)は、
γ特性によりRGBデータR,G,Bを観察用モニタ8
のRGB各蛍光体の発光輝度に変換した値である。な
お、式(34)における行列要素は、観察用モニタ8に
おけるRGB原色のxy色度座標から決定される。(Equation 8) Here, gmR (R), gmG (G), gmB (B) are
RGB data R, G, B are observed by the γ characteristic monitor 8
Is a value converted into the emission brightness of each of the R, G, and B phosphors. The matrix elements in the equation (34) are determined from the xy chromaticity coordinates of the RGB primary colors on the observation monitor 8.
【0414】また、ステップS101における変換は、
式(34)で定義された計算式による方法以外に、RG
BからXYZへの参照テーブル(ルックアップテーブ
ル、以下、LUTと略記)による方法もある。以下にR
GBデータR,G,Bを参照アドレスとしてCIE(X
YZ)三刺激値X,Y,Zを出力するLUTの作成方法
について説明する。Further, the conversion in step S101 is
In addition to the method based on the calculation formula defined by formula (34), RG
There is also a method using a reference table (lookup table, hereinafter abbreviated as LUT) from B to XYZ. Below R
The CIE (X
YZ) A method of creating an LUT that outputs tristimulus values X, Y, Z will be described.
【0415】RGBデータR,G,Bを観察用モニタ8
に入力して、ある面積をもった均一なカラーパッチを呈
示する。このカラーパッチの色光をターゲットに、色彩
輝度計等によるCIE(XYZ)三刺激値測定を行い、
X,Y,Zを記録する。以上の手順を、RGBデータで
構成される色空間(以下、観察用モニタ信号色空間と呼
ぶ)全域で繰返すことで、RGBデータR,G,Bを参
照アドレスとしてCIE(XYZ)三刺激値X,Y,Z
を出力するLUTを作成することができる。Observation monitor 8 for RGB data R, G, B
To present a uniform color patch with an area. Using the color light of this color patch as a target, CIE (XYZ) tristimulus value measurement using a color luminance meter, etc.,
Record X, Y, Z. By repeating the above procedure in the entire color space composed of RGB data (hereinafter, referred to as an observation monitor signal color space), the CIE (XYZ) tristimulus value X with the RGB data R, G, B as reference addresses. , Y, Z
It is possible to create an LUT that outputs
【0416】一般には、観察用モニタ信号色空間を完全
に充填する数のRGBデータとCIE(XYZ)三刺激
値の組み合わせを用意することは、CIE(XYZ)三
刺激値の測定時間、及びLUTのデータ量の観点から考
えて現実的ではない。従って、観察用モニタ信号色空間
は、適当な間隔でサンプリングが行われ、格子点に位置
するRGBデータに対してだけCIE(XYZ)三刺激
値を出力するようなLUTを作成する。なお、格子点以
外のアドレスに相当するRGBデータがLUTに入力さ
れた場合は、近傍サンプリング点の出力値から補間によ
って求める。In general, preparing a combination of RGB data and CIE (XYZ) tristimulus values of the number which completely fills the observation monitor signal color space is to measure the CIE (XYZ) tristimulus value measurement time and LUT. It is not realistic from the viewpoint of the amount of data. Therefore, the observation monitor signal color space is sampled at appropriate intervals to create an LUT that outputs CIE (XYZ) tristimulus values only for the RGB data located at the grid points. When RGB data corresponding to an address other than the grid point is input to the LUT, it is obtained by interpolation from the output values of the neighboring sampling points.
【0417】ステップS101でRGBデータR,G,
BからCIE(XYZ)三刺激値X,Y,Zへ変換され
た後、次にステップS102でCIE(XYZ)三刺激
値X,Y,ZはCIE1976(L*u*v*)色空間座
標L*,u*,v*に変換される。このステップS102
における変換は式(2)に示した変換式によって行うこ
とができる。式(2)においてYn ,u'n,v'nはそれ
ぞれ、基準白色の輝度,CIE1976UCS色度座標
u′,v′である。At step S101, the RGB data R, G,
After being converted from B to CIE (XYZ) tristimulus values X, Y, Z, the CIE (XYZ) tristimulus values X, Y, Z are CIE1976 (L * u * v * ) color space coordinates in step S102. Converted to L * , u * , v * . This step S102
The conversion in can be performed by the conversion formula shown in Formula (2). In the equation (2), Yn, u'n, v'n are the luminance of the reference white and CIE1976UCS chromaticity coordinates u ', v', respectively.
【0418】このように予めRGBデータR,G,Bを
参照アドレスとし、CIE1976(L*u*v*)色空
間座標L*,u*,v*を出力するLUTを作成しておく
ことにより、ステップS101,S102による色空間
座標変換手段400の動作を一つのLUTで実行するこ
とが可能である。As described above, the LUT for outputting the CIE1976 (L * u * v * ) color space coordinates L * , u * , v * is created by using the RGB data R, G, B as reference addresses in advance. The operation of the color space coordinate conversion means 400 in steps S101 and S102 can be executed by one LUT.
【0419】次に、色域圧縮手段401において、図5
2のステップS103で示すように、CIE1976
(L*u*v*)色空間座標L*,u*,v*からCIE19
76(L*u*v*)色空間座標L*′,u*′,v*′への
変換を行う。色域圧縮手段401における内部動作を図
53ないし図55を用いて説明する。Next, in the color gamut compression means 401, as shown in FIG.
CIE1976, as shown in step S103 of 2.
From (L * u * v * ) color space coordinates L * , u * , v * to CIE19
Conversion to 76 (L * u * v * ) color space coordinates L * ′, u * ′, v * ′ is performed. The internal operation of the color gamut compression means 401 will be described with reference to FIGS.
【0420】図53は、観察用モニタ8で再現可能な色
の範囲(以下、観察用モニタ色域と呼ぶ)と、画像記録
装置4によって再現画像上に再現可能な色の範囲(以
下、画像記録装置色域と呼ぶ)の関係を、CIE197
6(L*u*v*)色空間における切断平面上に模式的に
表したものであり、(a)はL*−u*平面を、(b)は
u*−v*平面をそれぞれ示している。FIG. 53 shows a range of colors reproducible on the observation monitor 8 (hereinafter referred to as an observation monitor gamut) and a range of colors reproducible on the reproduced image by the image recording device 4 (hereinafter referred to as an image. (Referred to as a recording device color gamut) is referred to as CIE197.
6 (L * u * v * ) is a schematic representation on a cutting plane in the color space, where (a) shows the L * -u * plane, and (b) shows the u * -v * plane. ing.
【0421】図53に示すように、画像記録装置色域が
観察用モニタ色域より狭い場合、観察用モニタ8上に表
示されている色の内、画像記録装置色域外に位置する色
は、画像記録装置4ではCIE1976(L*u*v*)
色空間座標において表現できない。しかも、色域圧縮手
段401の後段に位置する色空間座標逆変換手段402
における逆変換では、画像記録装置色域内に関しては変
換精度が保証されるが、色空間座標逆変換手段402に
入力されるCIE1976(L*u*v*)色空間座標が
画像記録装置色域外の色の場合は、周囲の色と極端に異
なった色に変換されるおそれがある。As shown in FIG. 53, when the color gamut of the image recording device is narrower than the color gamut of the monitor for observation, among the colors displayed on the monitor 8 for observation, the color located outside the color gamut of the image recording device is In the image recording device 4, CIE1976 (L * u * v * )
It cannot be expressed in color space coordinates. In addition, the color space coordinate reverse conversion means 402 located after the color gamut compression means 401
In the inverse conversion in, the conversion accuracy is guaranteed within the color gamut of the image recording device, but the CIE1976 (L * u * v * ) color space coordinates input to the color space coordinate inverse conversion means 402 are outside the image recording device color gamut. In the case of a color, there is a possibility that the color will be converted into a color extremely different from the surrounding color.
【0422】従って、画像記録装置色域外の色に関して
は、CIE1976(L*u*v*)色空間において色空
間座標逆変換手段402が変換精度を保証する領域まで
移動する必要がある。また、CIE1976(L*u*v
*)色空間における位置を移動する際には、できるだけ
階調と色調を維持するような方法が望ましい。そこで、
できるだけ階調及び色調を変化させずに、観察用モニタ
色域を画像記録装置色域に含まれるようにする写像操作
(以下、色域圧縮と呼ぶ)が必要となる。Therefore, for a color outside the color gamut of the image recording device, it is necessary to move to a region in the CIE1976 (L * u * v * ) color space where the color space coordinate inverse conversion means 402 guarantees conversion accuracy. In addition, CIE1976 (L * u * v
* ) When moving the position in the color space, it is desirable to maintain the gradation and color tone as much as possible. Therefore,
It is necessary to perform a mapping operation (hereinafter referred to as color gamut compression) so that the monitor color gamut for observation is included in the color gamut of the image recording apparatus without changing the gradation and color tone as much as possible.
【0423】このような色域圧縮方法の一例を図54及
び図55を用いて説明する。図54は色域圧縮によるデ
ータ変換方法のフローチャート、図55は色域圧縮の概
念図である。An example of such a color gamut compression method will be described with reference to FIGS. 54 and 55. 54 is a flowchart of a data conversion method by gamut compression, and FIG. 55 is a conceptual diagram of gamut compression.
【0424】まず最初に、図54のステップS106に
示すように、心理計測明度L* 方向の再現範囲(以下、
L* ダイナミックレンジと呼ぶ)の圧縮を行う。このと
きの変換式を式(35)に示す。First, as shown in step S106 in FIG. 54, a reproduction range in the psychological measurement lightness L * direction (hereinafter,
L * dynamic range) compression. The conversion formula at this time is shown in Formula (35).
【0425】[0425]
【数9】 式(35)において、L* MAX ,L* MIN は観察用モニ
タ8のL* 最大値と最小値で、この幅が観察用モニタ8
のL* ダイナミックレンジとなる。一方、L*max ,L*
min は画像記録装置4のL* 最大値と最小値で、この
幅が画像記録装置4のL* ダイナミックレンジとなる。
ここでL* は変換前、L*sは変換後の心理計測明度を表
している。[Equation 9] In the equation (35), L * MAX and L * MIN are L * maximum and minimum values of the observation monitor 8, and this width is the width of the observation monitor 8.
L * dynamic range. On the other hand, L * max, L *
min is the L * maximum value and the minimum value of the image recording device 4, and this width is the L * dynamic range of the image recording device 4.
Here, L * represents the psychological measurement lightness before conversion, and L * s represents the psychological measurement lightness after conversion.
【0426】図53及び図55から分かるように、一般
に観察用モニタ8のL* ダイナミックレンジより画像記
録装置4のL* ダイナミックレンジの方が狭い。このよ
うな場合、上記L* ダイナミックレンジの圧縮を行い、
明度階調を調整する必要がある。[0426] As can be seen from FIGS. 53 and 55, the narrower general the observation monitor 8 L * of dynamic range image recording apparatus than 4 L * dynamic range. In such a case, the above L * dynamic range compression is performed,
It is necessary to adjust the brightness gradation.
【0427】図55に示すように、L* ダイナミックレ
ンジの圧縮に伴って、観察用モニタ色域はL* ダイナミ
ックレンジ圧縮後の色域となる。色域の移動に伴い、C
IE1976(L*u*v*)色空間座標L*,u*,v*は
CIE1976(L*u*v*)色空間座標L*s,u*s,
v*sに移動する。As shown in FIG. 55, as the L * dynamic range is compressed, the observation monitor color gamut becomes the color gamut after the L * dynamic range compression. As the color gamut moves, C
The IE1976 (L * u * v * ) color space coordinates L * , u * , v * are the CIE1976 (L * u * v * ) color space coordinates L * s, u * s,
Go to v * s.
【0428】次に、ステップS107で円筒座標変換に
よるVHC、すなわち明度、色相、彩度への変換を行
う。このステップS107における座標変換は式(2
5)に示した変換式によって行うことができる。Next, in step S107, conversion to VHC by cylindrical coordinate conversion, that is, lightness, hue, and saturation is performed. The coordinate conversion in this step S107 is performed by the equation
This can be performed by the conversion formula shown in 5).
【0429】そして、ステップS108で彩度の圧縮を
行う。一般に色相を移動させることで色域圧縮を行うよ
り、彩度を移動させることで色域圧縮を行う方が色調バ
ランスの崩れは少ないことが知られている。従って、こ
こでは色相を維持し、彩度を圧縮することで色域圧縮を
行う。このときの変換式を式(36)に示す。Then, in step S108, saturation is compressed. It is generally known that the color balance is less disrupted when the color gamut is compressed by moving the saturation than when the color gamut is compressed by moving the hue. Therefore, here, the color gamut is compressed by maintaining the hue and compressing the saturation. The conversion formula at this time is shown in Formula (36).
【0430】[0430]
【数10】 式(36)において、Cmax は画像記録装置色域におけ
るH,Vでの最大彩度である。Cは彩度圧縮前、C′は
彩度圧縮後の彩度を表している。[Equation 10] In the equation (36), Cmax is the maximum saturation at H and V in the color gamut of the image recording device. C represents the saturation before the saturation compression, and C ′ represents the saturation after the saturation compression.
【0431】なお、式(36)に示した彩度の変換式
は、線形変換であるが、画像記録装置色域に含まれてい
る色の移動を最小限に抑えるために、適当な非線形関数
によって変換することも可能である。Note that the saturation conversion formula shown in formula (36) is a linear conversion, but in order to minimize the movement of colors included in the color gamut of the image recording apparatus, an appropriate nonlinear function is used. It is also possible to convert by.
【0432】最後にステップS109で、式(25)の
逆変換により、VHC′からL*′,u*′,v*′を求
める。図55に示すように、L* ダイナミックレンジ圧
縮後の色域は、最終的には彩度圧縮によって画像記録装
置色域に一致し、CIE1976(L*u*v*)色空間
座標はL*′,u*′,v*′となる。Finally, in step S109, L * ', u * ', v * 'are obtained from VHC' by the inverse transformation of equation (25). As shown in FIG. 55, the color gamut after L * dynamic range compression finally matches the image recording device color gamut by saturation compression, and the CIE1976 (L * u * v * ) color space coordinate is L *. ′, U * ′, v * ′.
【0433】続いて、色空間座標逆変換手段402にお
ける内部動作について説明する。色域圧縮手段401か
ら出力されるCIE1976(L*u*v*)色空間座標
L*′,u*′,v*′は、色空間座標逆変換手段402
において、画像記録装置4へ入力するRGBデータ
R′,G′,B′へ変換される。Next, the internal operation of the color space coordinate reverse conversion means 402 will be described. The CIE1976 (L * u * v * ) color space coordinates L * ′, u * ′, v * ′ output from the color gamut compression means 401 are color space coordinate inverse transformation means 402.
In, the data is converted into RGB data R ′, G ′, B ′ which is input to the image recording device 4.
【0434】色空間座標逆変換手段402では、図52
におけるS104で、まずCIE1976(L*u
*v*)色空間座標L*′,u*′,v*′からCIE(X
YZ)三刺激値X′,Y′,Z′への変換を行い、続い
てS105で、CIE(XYZ)三刺激値X′,Y′,
Z′からRGBデータR′,G′,B′への変換を行
う。ステップS104における変換は、式(2)に示し
た変換式の逆変換を行えばよい。In the color space coordinate reverse conversion means 402, as shown in FIG.
In S104 in the first, first, CIE1976 (L * u
* v * ) color space coordinates L * ′, u * ′, v * ′ to CIE (X
YZ) conversion to tristimulus values X ', Y', Z ', and subsequently, in S105, CIE (XYZ) tristimulus values X', Y ',
Conversion from Z'to RGB data R ', G', B'is performed. The conversion in step S104 may be the inverse conversion of the conversion equation shown in equation (2).
【0435】ステップS105におけるCIE(XY
Z)三刺激値X′,Y′,Z′からRGBデータR′,
G′,B′への変換は、LUTを使った方法、あるいは
画像記録装置4の色再現モデルに基づく色予測式を使っ
た方法などが考えられる。以下、LUTを使った変換方
法について説明する。[0435] In step S105, CIE (XY
Z) RGB data R'from tristimulus values X ', Y', Z ',
The conversion into G ′ and B ′ may be performed by using a method using an LUT or a method using a color prediction formula based on a color reproduction model of the image recording device 4. The conversion method using the LUT will be described below.
【0436】CIE(XYZ)三刺激値からRGBデー
タへの変換を行うには、画像記録装置4に入力されるR
GBデータを入力アドレスとして三刺激値XYZを出力
するLUTを予め作成しておく。まず、CIE(XY
Z)三刺激値X′,Y′,Z′とLUT出力値X″,
Y″,Z″のユークリッド距離最小の条件で最小値探索
を行う。探索の結果、得られた入力アドレスR″,
G″,B″を中心に適当な幅を持つ領域内を、前記第1
の探索間隔より細かい幅で詳細な探索を前記最小条件で
行う。この結果得られた入力アドレスをR′,G′,
B′とする。このようにRGBデータから画像記録装置
4の出力画像のCIE(XYZ)三刺激値を推定するL
UTを使用して、最小値探索を行うことにより、CIE
(XYZ)三刺激値からRGBデータへの変換が行われ
る。In order to convert the CIE (XYZ) tristimulus values into RGB data, R input to the image recording device 4 is used.
An LUT that outputs tristimulus values XYZ using GB data as an input address is created in advance. First, CIE (XY
Z) tristimulus values X ′, Y ′, Z ′ and LUT output value X ″,
The minimum value search is performed under the condition of the minimum Euclidean distance of Y ″ and Z ″. As a result of the search, the input address R ″,
In the area having an appropriate width centering on G "and B", the first
The detailed search with a width smaller than the search interval is performed under the minimum condition. The input address obtained as a result is R ′, G ′,
B '. In this way, L for estimating the CIE (XYZ) tristimulus value of the output image of the image recording device 4 from the RGB data
By using the UT to perform a minimum search, the CIE
Conversion from (XYZ) tristimulus values to RGB data is performed.
【0437】前記逆変換のためのLUTは、画像記録装
置4に入力されるRGBデータを変化させて画像を出力
し、この出力画像(以下、色票と呼ぶ)に対する色彩輝
度計によるCIE(XYZ)三刺激値測定を例えば約5
000組のデータについて行うことにより、RGBデー
タとCIE(XYZ)三刺激値の組をRGBデータ色空
間内において適当な間隔で充填することで作成すること
ができる。The LUT for the inverse conversion changes the RGB data input to the image recording device 4 to output an image, and the CIE (XYZ) of the output image (hereinafter referred to as a color chart) by a color luminance meter. ) Measuring tristimulus values for example about 5
By performing 000 sets of data, it can be created by filling a set of RGB data and CIE (XYZ) tristimulus values at an appropriate interval in the RGB data color space.
【0438】なおこのとき、色空間座標変換手段400
で使用されるLUTの作成方法と同様に、LUT作成に
使ったRGBデータ以外のデータがアドレスとしてLU
Tに入力された場合には、近傍サンプリング点を使った
補間演算によりCIE(XYZ)三刺激値を求めること
ができる。At this time, the color space coordinate conversion means 400
Similar to the LUT creation method used in, the data other than the RGB data used to create the LUT is used as the LU address.
When input to T, the CIE (XYZ) tristimulus value can be obtained by interpolation calculation using neighboring sampling points.
【0439】また、色空間座標逆変換手段402におい
て、RGBデータを入力アドレスとしCIE1976
(L*u*v*)色空間座標L*′,u*′,v*′を出力す
るLUTを予め作成しておき、ステップS104とS1
05を一つのLUTで実行することも可能である。Also, in the color space coordinate reverse conversion means 402, RGB data is used as an input address and CIE1976.
An LUT for outputting (L * u * v * ) color space coordinates L * ′, u * ′, v * ′ is created in advance, and steps S104 and S1 are performed.
It is also possible to execute 05 with one LUT.
【0440】以上述べてきたように、色空間座標変換手
段400において、入力されたRGBデータR,G,B
を、観察用モニタ8上における再現色を表すところのC
IE1976(L*u*v*)色空間座標L*,u*,v*に
変換し、色域圧縮手段401により色域圧縮を行ってC
IE1976(L*u*v*)色空間座標L*,u*,v*を
CIE1976(L*u*v*)色空間座標L*′,
u*′,v*′へ変換し、色域圧縮手段401から出力さ
れるCIE1976(L*u*v*)色空間座標L*′,u
*′,v*′を、色空間座標逆変換手段402によりRG
BデータR′,G′,B′へ変換し、そして、このRG
BデータR′,G′,B′をRGBデータR,G,Bの
代わりに、画像記録装置4へ入力することにより、観察
用モニタ8に再現される画像と画像記録装置4により再
現される画像との色差が改善される。As described above, in the color space coordinate conversion means 400, the input RGB data R, G, B is input.
Is C, which represents the reproduced color on the observation monitor 8.
IE1976 (L * u * v * ) color space coordinates are converted into L * , u * , v * , and color gamut compression is performed by the color gamut compression means 401 to obtain C.
The IE1976 (L * u * v * ) color space coordinates L * , u * , v * are converted to CIE1976 (L * u * v * ) color space coordinates L * ′,
CIE1976 (L * u * v * ) color space coordinates L * ′, u which are converted into u * ′, v * ′ and output from the color gamut compression unit 401.
* ′, V * ′ is RG by the color space coordinate inverse transformation means 402.
B data R ', G', B'converted, and this RG
By inputting the B data R ', G', B'instead of the RGB data R, G, B to the image recording device 4, the image reproduced on the observation monitor 8 and the image recording device 4 are reproduced. The color difference from the image is improved.
【0441】本実施例で示したように、CIE表色系を
用いることによって、観察用モニタ8と画像記録装置4
等の異なる機器間で統一的に色を取り扱うことができ
る。このような機器に依存しない色変換システムの概念
を図56に示す。As shown in this embodiment, by using the CIE color system, the observation monitor 8 and the image recording device 4 are provided.
It is possible to handle colors uniformly among different devices such as. FIG. 56 shows the concept of such a device-independent color conversion system.
【0442】機器A駆動信号色空間は、本実施例におけ
る観察用モニタ8へ入力される観察用モニタ色空間に相
当する。機器B駆動信号色空間は、本実施例における画
像記録装置4へ入力される画像記録装置色空間に相当す
る。これらの色空間は機器固有の色表現であって、色空
間座標が同じであっても、同じ色を表現しているとは限
らない。これは、機器Aと機器Bが異なる機器特性を持
つためである。The device A drive signal color space corresponds to the observation monitor color space input to the observation monitor 8 in this embodiment. The device B drive signal color space corresponds to the image recording device color space input to the image recording device 4 in this embodiment. These color spaces are color expressions unique to the device, and even if the color space coordinates are the same, they do not always represent the same color. This is because the device A and the device B have different device characteristics.
【0443】そこで、機器特性、及び機器固有の色再現
方法とは関係がない色空間(以下、標準色空間と呼ぶ)
との変換方法を記述した色空間変換プロファイルを、各
々の機器毎に用意しておき、この色空間変換プロファイ
ルを作用させることで、標準色空間で色を取り扱うこと
が可能となる。Therefore, a color space (hereinafter referred to as a standard color space) unrelated to the device characteristics and the device-specific color reproduction method.
It is possible to handle colors in the standard color space by preparing a color space conversion profile describing the conversion method of and for each device and operating this color space conversion profile.
【0444】上述した実施例において前記色変換プロフ
ァイルに相当するのが、色空間座標変換手段400と色
空間座標逆変換手段402である。色変換手段350を
図56に示したような構成にすることで、観察用モニタ
8や画像記録装置4の機器特性が変化しても、それに対
応した色空間変換プロファイルを用意することで、シス
テム全体を大きく変更することなく柔軟に対応させるこ
とができる。The color space profile conversion means 400 and the color space coordinate inverse conversion means 402 correspond to the color conversion profile in the above-described embodiment. By configuring the color converting means 350 as shown in FIG. 56, even if the device characteristics of the observing monitor 8 and the image recording device 4 change, a color space conversion profile corresponding to the device characteristics is prepared. It is possible to respond flexibly without making a large change to the whole.
【0445】なお、本実施例においては、標準色空間と
して、CIE1976(L*u*v*)色空間を用いてい
るが、CIE1976(L*a*b*)色空間や、さら
に、CIEが推奬する色空間の代わりに、例えば、前述
した色の三属性、すなわち色相、彩度、明度の3軸で構
成されるHSVやHLS色空間等の知覚色空間を用いた
場合においても、同様に、観察用モニタ8に再現される
画像と画像記録装置4の出力画像との色差を改善するこ
とができる。In this embodiment, the CIE1976 (L * u * v * ) color space is used as the standard color space, but the CIE1976 (L * a * b * ) color space and the CIE Even when, for example, a perceptual color space such as the HSV or HLS color space composed of the three attributes of the above-mentioned color, that is, the three axes of hue, saturation, and lightness is used instead of the color space to be estimated The color difference between the image reproduced on the observation monitor 8 and the output image of the image recording device 4 can be improved.
【0446】次に第22実施例について説明する。図5
7は第22実施例に係る色変換手段の機能構成を示すブ
ロック図、図58は第22実施例において設けられる色
補正効果調整手段の内部構成を示すブロック図、図59
は色補正効果調整手段の作用を説明する概念図である。Next, a twenty-second embodiment will be described. Figure 5
7 is a block diagram showing the functional configuration of the color converting means according to the 22nd embodiment, FIG. 58 is a block diagram showing the internal configuration of the color correction effect adjusting means provided in the 22nd embodiment, and FIG.
FIG. 7 is a conceptual diagram illustrating the operation of the color correction effect adjusting means.
【0447】第22実施例における色変換手段350
は、図51に示した第21実施例のものとほぼ同様に構
成され、第21実施例との主たる相違は、色域圧縮手段
401の後段に色補正効果調整手段403を設けたこと
にある。本実施例において、色補正効果調整手段以外の
構成及び作用は、第21実施例と同じであるので、同様
な部分の説明は省略し、異なる部分についてのみ説明す
る。Color converting means 350 in the twenty-second embodiment.
51 is substantially the same as that of the twenty-first embodiment shown in FIG. 51, and the main difference from the twenty-first embodiment is that the color correction effect adjusting means 403 is provided after the gamut compression means 401. . In the present embodiment, the configuration and operation other than the color correction effect adjusting means are the same as those of the 21st embodiment, so the description of the similar parts will be omitted and only the different parts will be described.
【0448】第21実施例で述べたように、色変換手段
350によって色調の改善が行われるが、色感覚は極め
て主観的なものであり、標準的な観察者を対象に設計さ
れた色変換手段では、その色補正結果を許容することが
できない観察者の存在が考えられる。また、図51に示
した構成で行った色変換結果より、むしろ色変換を行わ
ずに出力した結果の方が比較的良好な評価を示す観察者
の存在も考えられる。そこで第22実施例では、第21
実施例における効果に加えて、簡単な構成で色補正効果
を調整することができ、観察者の意図する色変換結果を
出力することが可能な色変換手段の構成例を示す。As described in the twenty-first embodiment, although the color tone is improved by the color conversion means 350, the color sensation is extremely subjective and the color conversion designed for a standard observer. It is conceivable that there is an observer who cannot tolerate the color correction result. It is also conceivable that there may be an observer who shows a relatively good evaluation of the output result without performing the color conversion, rather than the color conversion result performed by the configuration shown in FIG. Therefore, in the 22nd embodiment, the 21st
In addition to the effect of the embodiment, a configuration example of the color conversion means capable of adjusting the color correction effect with a simple configuration and capable of outputting the color conversion result intended by the observer is shown.
【0449】第22実施例における色変換手段の概略構
成を図57に示す。色変換手段350は、色域圧縮手段
401の後段に、色域圧縮手段401から出力されるL
*′,u*′,v*′に対して、情報入力装置41から入
力される補正効果パラメータCeに従って補正効果を調
整することで、CIE1976(L*u*v*)色空間座
標L*c ,u*c ,v*c を出力する色補正効果調整手段
403を有して構成される。FIG. 57 shows the schematic arrangement of the color conversion means in the 22nd embodiment. The color conversion unit 350 is an L output from the color gamut compression unit 401 after the color gamut compression unit 401.
CIE1976 (L * u * v * ) color space coordinates L * c by adjusting the correction effect for * ′, u * ′, v * ′ according to the correction effect parameter Ce input from the information input device 41. , U * c, v * c are output from the color correction effect adjusting means 403.
【0450】以下、第22実施例の作用について、図5
8及び図59を用いて色補正効果調整手段403を中心
に説明する。The operation of the 22nd embodiment will be described below with reference to FIG.
8 and FIG. 59, the color correction effect adjusting means 403 will be mainly described.
【0451】図58に色補正効果調整手段403の内部
構成を示す。RGBデータR,G,Bは、画像記録装置
出力色推定手段405において、画像記録装置4にRG
BデータR,G,Bを入力し、出力される色を表すとこ
ろのCIE1976(L*u*v*)色空間座標L*b ,u
*b ,v*b に変換される。そしてCIE1976(L*
u*v*)色空間座標L*b ,u*b ,v*b は、内分点計
算手段404に入力される。内分点計算手段404で
は、色域圧縮手段401から出力されたCIE1976
(L*u*v*)色空間座標L*′,u*′,v*′と画像記
録装置出力色推定手段405から出力されたCIE19
76(L*u*v*)色空間座標L*b ,u*b,v*b と情
報入力装置41から出力される補正効果調整パラメータ
Ceとを用いて、(L*′,u*′,v*′)と(L*b ,
u*b ,v*b )の内分点(L*c ,u*c ,v*c )を内
分比Ceを基に計算する。FIG. 58 shows the internal structure of the color correction effect adjusting means 403. The RGB data R, G, B are RG'd to the image recording device 4 in the image recording device output color estimating means 405.
CIE1976 (L * u * v * ) color space coordinates L * b, u where the B data R, G, B are input and the output color is represented.
It is converted into * b and v * b. And CIE1976 (L *
The u * v * ) color space coordinates L * b, u * b, v * b are input to the interior dividing point calculation means 404. The internal dividing point calculation means 404 outputs the CIE1976 output from the color gamut compression means 401.
(L * u * v * ) color space coordinates L * ′, u * ′, v * ′ and the CIE 19 output from the image recording device output color estimation means 405.
Using the 76 (L * u * v * ) color space coordinates L * b, u * b, v * b and the correction effect adjustment parameter Ce output from the information input device 41, (L * ′, u * ′) , V * ′) and (L * b,
The internal division point (L * c, u * c, v * c) of u * b, v * b) is calculated based on the internal division ratio Ce.
【0452】図59は、前記(L*′,u*′,
v*′)、(L*b ,u*b ,v*b )、(L*c,u*c ,
v*c )の3点の位置関係をCIE1976(L*u
*v*)色空間において示したものである。FIG. 59 shows that (L * ', u * ',
v * '), (L * b, u * b, v * b), (L * c, u * c,
The positional relationship of the three points of v * c) is CIE1976 (L * u
* v * ) shown in the color space.
【0453】補正効果パラメータCeが1.0の場合
は、内分点(L*c ,u*c ,v*c )が(L*′,
u*′,v*′)と一致し、補正効果最大とする。一方、
Ceが0.0の場合は、内分点(L*c ,u*c ,v*c
)が(L*b ,u*b ,v*b )と一致し、色変換を行わ
ない場合と同じ結果となる。When the correction effect parameter Ce is 1.0, the internally dividing point (L * c, u * c, v * c) is (L * ',
u * ′, v * ′), and the correction effect is maximized. on the other hand,
When Ce is 0.0, the internal division points (L * c, u * c, v * c
) Matches (L * b, u * b, v * b), and the result is the same as when no color conversion is performed.
【0454】なお、画像記録装置出力色推定手段405
における内部動作については、第21実施例の色空間座
標逆変換手段402におけるRGBデータからCIE
(XYZ)三刺激値、及びCIE1976(L*u
*v*)色空間座標を推定する方法と同様に、予め作成さ
れたLUT等によってRGBデータからCIE1976
(L*u*v*)色空間座標への変換が行われる。The image recording device output color estimation means 405.
For the internal operation in CIE, from the RGB data in the color space coordinate reverse conversion means 402 of the twenty-first embodiment, to CIE.
(XYZ) tristimulus values, and CIE1976 (L * u
* v * ) Similar to the method of estimating color space coordinates, CIE1976 from RGB data by a LUT or the like created in advance.
Conversion to (L * u * v * ) color space coordinates is performed.
【0455】以上のように、色補正効果調整手段403
を色域圧縮手段401と色空間座標逆変換手段402の
間に設けることにより、第21実施例における効果に加
えて、情報入力装置41から入力される単一パラメータ
Ceによって、簡便に未補正の状態と第21実施例の構
成で得られる色変換結果との間で色補正効果を調整する
ことが可能となり、標準設定で色変換結果を許容できな
い観察者にも対応することが可能となる。As described above, the color correction effect adjusting means 403
Is provided between the color gamut compression means 401 and the color space coordinate inverse transformation means 402, in addition to the effects of the twenty-first embodiment, the single parameter Ce input from the information input device 41 allows simple and uncorrected correction. It is possible to adjust the color correction effect between the state and the color conversion result obtained by the configuration of the twenty-first embodiment, and it is possible to deal with an observer who cannot accept the color conversion result by the standard setting.
【0456】次に第23実施例について説明する。図6
0は第23実施例に係る色変換手段の機能構成を示すブ
ロック図、図61は第23実施例において設けられる光
源効果調整手段の作用を説明する概念図である。Next, a twenty-third embodiment will be described. Figure 6
0 is a block diagram showing the functional configuration of the color converting means according to the 23rd embodiment, and FIG. 61 is a conceptual diagram for explaining the operation of the light source effect adjusting means provided in the 23rd embodiment.
【0457】第23実施例における色変換手段350
は、図51に示した第21実施例のものとほぼ同様に構
成され、第21実施例との主たる相違は、情報入力装置
41から光源効果パラメータLeを入力し、色空間座標
逆変換手段402で使用されるLUTを書換える光源効
果調整手段406を付加したことにある。本実施例にお
いて、光源効果調整手段以外の構成及び作用は、第21
実施例と同じであるので、同様な部分の説明は省略し、
光源効果調整手段の動作を中心に説明する。Color conversion means 350 in the twenty-third embodiment.
Is substantially the same as that of the twenty-first embodiment shown in FIG. 51. The main difference from the twenty-first embodiment is that the light source effect parameter Le is input from the information input device 41 and the color space coordinate inverse conversion means 402 is input. The light source effect adjusting means 406 for rewriting the LUT used in the above is added. In the present embodiment, the configuration and operation other than the light source effect adjusting means are the 21st
Since it is the same as the embodiment, the description of the similar parts is omitted,
The operation of the light source effect adjusting means will be mainly described.
【0458】図51に示した色空間座標逆変換手段40
2において使われるRGBデータからCIE(XYZ)
三刺激値を推定するLUTは、画像記録装置4の出力画
像を観察する際の光源で、色票を色彩輝度計により測色
することで作成されている。Color space coordinate inverse transformation means 40 shown in FIG.
From the RGB data used in 2 CIE (XYZ)
The LUT for estimating the tristimulus value is a light source when observing the output image of the image recording device 4, and is created by measuring the color chart with a color luminance meter.
【0459】しかし、画像記録装置4から出力される画
像を実際に観察するときの光源が、LUT作成のため色
票を測色する際に使われた光源とは異なる場合も考えら
れる。このような場合、色票を新たな光源下で測色し、
LUTを再作成する必要があるが、多数の光源に対応し
ようとするとき、その都度LUTを再作成するのは現実
的でない。また、予め多数の光源に対応したLUTを作
成したとしても、設定した光源の数が増えると、LUT
を格納するためのメモリ領域も増大する。However, it is conceivable that the light source for actually observing the image output from the image recording device 4 is different from the light source used for colorimetry of the color chart for creating the LUT. In such a case, measure the color chart under a new light source,
Although it is necessary to recreate the LUT, it is not realistic to recreate the LUT each time when trying to support a large number of light sources. Further, even if LUTs corresponding to many light sources are created in advance, if the number of set light sources increases, the LUT
Also increases the memory area for storing.
【0460】そこで第23実施例では、第21実施例に
おける効果に加えて、簡便な光源効果調整方法により、
画像記録装置4から出力された画像を観察する際の光源
の変化に対応することが可能な色変換手段の構成例を示
す。Therefore, in the twenty-third embodiment, in addition to the effects of the twenty-first embodiment, a simple light source effect adjusting method is used.
An example of the configuration of the color conversion means capable of coping with the change of the light source when observing the image output from the image recording device 4 is shown.
【0461】第23実施例における色変換手段の概略構
成を図60に示す。色変換手段350は、情報入力装置
41から光源効果調整パラメータLeを受け取ってこの
光源効果調整パラメータLeに従って適切なLUTを作
成し、色空間座標逆変換手段402で使われるLUTを
書換える光源効果調整手段406を有して構成される。FIG. 60 shows a schematic structure of the color conversion means in the twenty-third embodiment. The color conversion means 350 receives the light source effect adjustment parameter Le from the information input device 41, creates an appropriate LUT according to this light source effect adjustment parameter Le, and rewrites the LUT used by the color space coordinate inverse conversion means 402. And a means 406.
【0462】以下、図61を用いて光源効果調整手段4
06における作用について説明する。図61は、複数種
の光源で測定された色票のCIE(XYZ)三刺激値を
XYZ空間において示したものである。The light source effect adjusting means 4 will be described below with reference to FIG.
The operation in 06 will be described. FIG. 61 shows the CIE (XYZ) tristimulus values of the color chart measured with a plurality of types of light sources in the XYZ space.
【0463】図61において、P1(X1 ,Y1 ,Z1
)は第1の光源で測定された色票のCIE(XYZ)
三刺激値、P2(X2 ,Y2 ,Z2 )は第2の光源で測
定された色票のCIE(XYZ)三刺激値、P3(X3
,Y3 ,Z3 )は第3の光源で測定された色票のCI
E(XYZ)三刺激値である。ここで、LUTを作成す
る際に使用される色票数の数だけ、P1とP2とP3の
組が用意される。In FIG. 61, P1 (X1, Y1, Z1
) Is the CIE (XYZ) of the color chart measured with the first light source
The tristimulus value, P2 (X2, Y2, Z2), is the CIE (XYZ) tristimulus value of the color chart measured by the second light source, P3 (X3
, Y3, Z3) is the CI of the color chart measured with the third light source.
E (XYZ) tristimulus values. Here, as many sets of P1, P2, and P3 as the number of color chips used when creating the LUT are prepared.
【0464】第1の光源から第2の光源を経て第3の光
源の間で光源色が変化することを想定した場合、三刺激
値が変化する軌跡は、P1→P2→P3への移動距離L
e(光源効果調整パラメータ)をパラメータとして、式
(37)に示す関係式で表される。Assuming that the light source color changes from the first light source to the third light source through the second light source, the locus of the tristimulus values is the movement distance from P1 → P2 → P3. L
It is expressed by the relational expression shown in Expression (37) using e (light source effect adjustment parameter) as a parameter.
【0465】Xi =fi X(Le) Yi =fi Y(Le) …(37) Zi =fi Z(Le) ここで、Xi ,Yi ,Zi はi番目の色票の光源効果調
整パラメータLeで指定される新たな光源下で測定され
る三刺激値の近似値を表す。fi X(Le),fi Y(L
e),fi Z(Le)は、i番目の色票における光源効
果調整パラメータLeを変数とする軌跡である。Xi = fiX (Le) Yi = fiY (Le) (37) Zi = fiZ (Le) Here, Xi, Yi, and Zi are designated by the light source effect adjustment parameter Le of the i-th color chart. 3 represents an approximation of tristimulus values measured under a new light source. fi X (Le), fi Y (L
e) and fi Z (Le) are loci using the light source effect adjustment parameter Le in the i-th color chart as a variable.
【0466】このような光源変化を表す軌跡を関数とし
て式(37)に示す形のデータで予め保有しておくこと
により、光源効果調整パラメータLeを指定するだけで
第1の光源から第3の光源の間の仮想光源で色票を測定
した場合の測定結果を近似する色票データを得ることが
可能となる。一旦、色票データが揃えば、第21実施例
で説明したように、RGBデータから画像記録装置4の
出力画像のCIE(XYZ)三刺激値を推定するLUT
の作成が可能となる。By previously storing the locus representing such a light source change as a function with the data of the form shown in the equation (37), the light source effect adjustment parameter Le can be designated to change the first light source to the third light source. It is possible to obtain color chart data that approximates the measurement result when the color chart is measured with the virtual light source between the light sources. Once the color chart data is prepared, as described in the twenty-first embodiment, the LUT for estimating the CIE (XYZ) tristimulus values of the output image of the image recording device 4 from the RGB data.
Can be created.
【0467】なお、近似精度の考慮によっては、関数f
i X(Le),fi Y(Le),fiZ(Le)の最も簡単
な形として、2つの光源下で測定された三刺激値の内分
点を計算することが考えられる。この場合、内分比は光
源効果調整パラメータLeになる。Depending on the approximation accuracy, the function f
As the simplest form of i X (Le), fi Y (Le), and fi Z (Le), it is conceivable to calculate the internal division point of tristimulus values measured under two light sources. In this case, the internal division ratio becomes the light source effect adjustment parameter Le.
【0468】光源効果調整手段406は、情報入力装置
41から出力された光源効果調整パラメータLeを入力
し、この光源効果調整パラメータLeに基づいて式(3
7)により色票データを新たに作成する。そして、光源
効果調整パラメータLeによって設定された仮想光源下
での色票の三刺激値をRGBデータから推定するLUT
を作成し、色空間座標逆変換手段402において使われ
ているLUTと置き換える。The light source effect adjusting means 406 inputs the light source effect adjusting parameter Le output from the information input device 41, and based on the light source effect adjusting parameter Le, the formula (3)
The color chart data is newly created by 7). Then, the LUT for estimating the tristimulus value of the color chart under the virtual light source set by the light source effect adjustment parameter Le from the RGB data
Is created and replaced with the LUT used in the color space coordinate inverse transformation means 402.
【0469】以上のように、光源効果調整手段406を
付加することにより、第21実施例における効果に加え
て、色変換手段350を、情報入力装置41から入力さ
れる光源効果調整パラメータLeにより、色票を再測定
することなしに、かつ式(37)で示した関数データの
分のメモリを設けるだけで、画像記録装置8の出力を観
察する際の光源の変化にも対応させることが可能とな
る。As described above, by adding the light source effect adjusting means 406, in addition to the effect in the twenty-first embodiment, the color converting means 350 can be set by the light source effect adjusting parameter Le input from the information input device 41. It is possible to deal with the change of the light source when observing the output of the image recording device 8 without re-measurement of the color chart and only by providing a memory for the function data shown in Expression (37). Becomes
【0470】次に第24実施例について説明する。図6
2は第24実施例に係る色変換手段の機能構成を示すブ
ロック図、図63は第24実施例において設けられる色
順応変換手段の作用を説明する概念図である。Next, a twenty-fourth embodiment will be described. Figure 6
2 is a block diagram showing the functional configuration of the color conversion means according to the twenty-fourth embodiment, and FIG. 63 is a conceptual diagram explaining the operation of the color adaptation conversion means provided in the twenty-fourth embodiment.
【0471】第24実施例における色変換手段350
は、図51に示した第21実施例のものとほぼ同様に構
成され、第21実施例との主たる相違は、色順応変換手
段407を付加したことにある。本実施例において、色
順応変換手段以外の構成及び作用は、第21実施例と同
じであるので、同様な部分の説明は省略し、色順応変換
手段の動作を中心に説明する。Color converting means 350 in the twenty-fourth embodiment.
Is substantially the same as that of the twenty-first embodiment shown in FIG. 51, and the main difference from the twenty-first embodiment is that the chromatic adaptation conversion means 407 is added. In the present embodiment, the configuration and operation other than the chromatic adaptation conversion means are the same as those of the twenty-first embodiment, so description of similar parts will be omitted, and the operation of the chromatic adaptation conversion means will be mainly described.
【0472】観察者により、観察用モニタ8上で知覚さ
れる白も、画像記録装置4の出力画像をハロゲン光源下
で観察した場合に知覚される白も、各々の観察環境下で
は同じ白と感じる。このような視覚の仕組は色順応と呼
ばれている。つまり、色順応という視覚の仕組によっ
て、各々の観察環境で同じ色に知覚される対応点が色空
間上で存在する。この対応点が分かれば、観察環境の違
いと視覚の仕組を積極的に利用した色補正が可能とな
る。The white perceived by the observer on the observation monitor 8 and the white perceived when the output image of the image recording device 4 is observed under a halogen light source are the same white under each observation environment. feel. Such a visual mechanism is called chromatic adaptation. In other words, there is a corresponding point in the color space where the same color is perceived in each observation environment due to the visual mechanism called chromatic adaptation. If these corresponding points are known, it is possible to perform color correction by positively utilizing the difference in the observation environment and the visual mechanism.
【0473】そこで第24実施例では、第21実施例に
おける効果に加えて、色順応の仕組を色変換手段に組み
込むことにより、観察用モニタを観察するときと画像記
録装置から出力された画像を観察するときの観察環境の
差を考慮した色補正を行うことが可能な色変換手段の構
成例を示す。Therefore, in the twenty-fourth embodiment, in addition to the effects of the twenty-first embodiment, a mechanism for color adaptation is incorporated in the color conversion means so that the time when the observation monitor is observed and the image output from the image recording apparatus is A configuration example of a color conversion unit capable of performing color correction in consideration of a difference in observation environment when observing is shown.
【0474】第24実施例における色変換手段の概略構
成を図62に示す。色変換手段350は、色空間座標変
換手段400の後段に、色空間座標変換手段400から
出力されるCIE1976(L*u*v*)色空間座標
L*,u*,v*を受け取って、このL*,u*,v*の色順
応対応点であるCIE1976(L*u*v*)色空間座
標L*′,u*′,v*′を色域圧縮手段401に出力す
る色順応変換手段407を有して構成される。FIG. 62 shows a schematic structure of the color conversion means in the twenty-fourth embodiment. The color conversion unit 350 receives the CIE1976 (L * u * v * ) color space coordinates L * , u * , v * output from the color space coordinate conversion unit 400 at a stage subsequent to the color space coordinate conversion unit 400, the L *, u *, v is the color adaptation corresponding points * CIE1976 (L * u * v *) color space coordinates L * ', u *', v * ' color adaptation for outputting the color gamut compression means 401 The conversion means 407 is included.
【0475】以下、図63を用いて第24実施例の作用
について色順応変換手段407を中心に説明する。The operation of the twenty-fourth embodiment will be described below with reference to FIG. 63, centering on the color adaptation conversion means 407.
【0476】図63は、色順応の対応点をCIE197
6(L*u*v*)色空間において示したものである。図
63において、(L*b ,u*b ,v*b )はRGBデー
タR,G,Bを画像記録装置4に入力して得られた画像
のCIE1976(L*u*v*)色空間座標である。
(L*,u*,v*)はRGBデータR,G,Bを観察用
モニタ8に入力した場合のCIE1976(L*u
*v*)色空間座標である。In FIG. 63, the corresponding points of chromatic adaptation are CIE197.
6 (L * u * v * ) color space. In FIG. 63, (L * b, u * b, v * b) is the CIE1976 (L * u * v * ) color space of an image obtained by inputting RGB data R, G, B into the image recording device 4. Coordinates.
(L * , u * , v * ) is CIE1976 (L * u) when RGB data R, G, B are input to the observation monitor 8.
* v * ) Color space coordinates.
【0477】本実施例の色変換手段350の作用を図6
3におけるCIE1976(L*u*v*)色空間で説明
する。色変換を行わない場合、画像記録装置4の出力画
像の色は(L*b ,u*b ,v*b )であり、観察用モニ
タ8に表示される色とは(L*b ,u*b ,v*b )と
(L*,u*,v*)の間のユークリッド距離に相当する
色差が発生する。従って色補正は、(L*b ,u*b ,v
*b )を(L*u*v*)に近付けることを目標に行われ
る。The operation of the color conversion means 350 of this embodiment is shown in FIG.
3 in the CIE1976 (L * u * v * ) color space. When color conversion is not performed, the color of the output image of the image recording device 4 is (L * b, u * b, v * b), and the color displayed on the observation monitor 8 is (L * b, u). A color difference corresponding to the Euclidean distance between * b, v * b) and (L * , u * , v * ) occurs. Therefore, the color correction is (L * b, u * b, v
This is done with the goal of bringing * b) closer to (L * u * v * ).
【0478】ここで、色順応を考えた場合、色再現目標
が(L*,u*,v*)から(L*′,u*′,v*′)に置
き換わる。この(L*′,u*′,v*′)は、画像記録
装置4から出力された画像を観察する環境に視覚が十分
順応している場合に、観察用モニタ8上の(L*,u*,
v*)と同じ色に知覚される点であり、この点を対応色
と呼ぶ。[0478] In this case, when considering the color adaptation, color reproduction target is (L *, u *, v *) from (L * ', u *' , v * ') replaces the. The (L * ', u *' , v * ') , when the visual environment to observe the image output from the image recording apparatus 4 are sufficiently conformable, on observation monitor 8 (L *, u * ,
v * ) is a point that is perceived as the same color, and this point is called a corresponding color.
【0479】色順応変換手段407は、色空間座標変換
手段400から出力されたCIE1976(L*u
*v*)色空間座標L*,u*,v*を対応色L*′,
u*′,v*′に変換し、色域圧縮手段401へ出力す
る。The color adaptation converter 407 outputs the CIE1976 (L * u) output from the color space coordinate converter 400.
* v * ) Color space coordinates L * , u * , v * are assigned to the corresponding color L * ′,
It is converted into u * ′ and v * ′ and output to the gamut compression means 401.
【0480】この対応色を求める方法については、例え
ば、文献3(応用物理学会光学懇話会、色の性質と技
術、100〜106ページ)に記載されている、 von-K
ries式やCIE予測式等のモデルによって近似的な対応
色を求めることが可能である。あるいは、色空間を適当
にサンプリングを行い、各サンプリング点について対応
色を主観評価実験によって求め、サンプリング点以外の
対応色は周囲のサンプリング点から補間によって求める
こともできる。A method for obtaining the corresponding color is described in, for example, Document 3 (Japan Society of Applied Physics, Optical Communication, Color Properties and Technology, pages 100 to 106), von-K.
It is possible to obtain an approximate corresponding color by a model such as a ries formula or a CIE prediction formula. Alternatively, the color space may be appropriately sampled, the corresponding color at each sampling point may be obtained by a subjective evaluation experiment, and the corresponding color other than the sampling point may be obtained by interpolation from surrounding sampling points.
【0481】以上のように、色空間座標変換手段400
と色域圧縮手段401の間に色順応変換手段407を付
加することにより、第21実施例における効果に加え
て、観察用モニタ8と画像記録装置4の出力画像をそれ
ぞれ観察する際の観察条件の差を考慮した色補正が可能
となる。As described above, the color space coordinate conversion means 400
By adding the color adaptation conversion means 407 between the color gamut compression means 401 and the color gamut compression means 401, in addition to the effect of the twenty-first embodiment, the observation conditions for observing the output images of the observation monitor 8 and the image recording device 4 respectively. It is possible to carry out color correction in consideration of the difference.
【0482】次に第25実施例について説明する。図6
4は第25実施例に係る色変換手段の機能構成を示すブ
ロック図、図65は第25実施例において設けられる色
域圧縮中心変更手段の作用を説明する概念図である。Next, a twenty-fifth embodiment will be described. Figure 6
4 is a block diagram showing the functional configuration of the color conversion means according to the twenty-fifth embodiment, and FIG. 65 is a conceptual diagram explaining the operation of the gamut compression center changing means provided in the twenty-fifth embodiment.
【0483】第25実施例における色変換手段350
は、図51に示した第21実施例のものとほぼ同様に構
成され、第21実施例との主たる相違は、色域圧縮中心
変更手段208を付加したことにある。本実施例におい
て、色域圧縮中心変更手段以外の構成及び作用は、第2
1実施例と同じであるので、同様な部分の説明は省略
し、色域圧縮中心変更手段の動作を中心に説明する。Color converting means 350 in the twenty-fifth embodiment.
Is substantially the same as that of the twenty-first embodiment shown in FIG. 51, and the main difference from the twenty-first embodiment is that the gamut compression center changing means 208 is added. In the present embodiment, the configuration and operation other than the gamut compression center changing means are the second one.
Since it is the same as that of the first embodiment, description of similar portions will be omitted, and the operation of the gamut compression center changing means will be mainly described.
【0484】前述の実施例では、観察用モニタ8で再現
される白と画像記録装置4の出力画像の観察条件下にお
ける白(通常光源の色)とは、対応色の関係にあり、色
空間上では同じ座標を占めるものとした。しかし、観察
者によっては、順応状態が完全でなく観察モニタのイメ
ージが強く残存している場合が考えられる。このような
場合、単純に白色点を合わせるのではなく、観察者の好
みに応じて、意図的に白色点を調整する必要がある。ま
たこれに応じて、色域圧縮中心の変更を行う必要があ
る。In the above-described embodiment, the white reproduced on the observation monitor 8 and the white (the color of the normal light source) under the observation condition of the output image of the image recording apparatus 4 have a corresponding color relationship, and the color space The same coordinates are assumed above. However, depending on the observer, it is possible that the adaptation state is not perfect and the image on the observation monitor remains strong. In such a case, it is necessary to intentionally adjust the white point according to the observer's preference, rather than simply adjusting the white point. In addition, it is necessary to change the gamut compression center accordingly.
【0485】そこで第25実施例では、第21実施例に
おける効果に加えて、観察者の好みに応じて白色点の調
整を行い、それに応じて色域圧縮中心の変更を行うこと
で、所望の色補正を行うことが可能な色変換手段の構成
例を示す。Therefore, in the twenty-fifth embodiment, in addition to the effects of the twenty-first embodiment, the white point is adjusted according to the preference of the observer, and the color gamut compression center is changed accordingly, so that a desired value can be obtained. An example of the configuration of a color conversion unit capable of performing color correction will be shown.
【0486】第25実施例における色変換手段の概略構
成を図64に示す。色変換手段350は、色空間座標変
換手段400の後段に、情報入力装置41から入力され
る圧縮中心変更パラメータCtrを受け、色空間座標変
換手段400から出力されるCIE1976(L*u*v
*)色空間座標L*,u*,v*に対して、圧縮中心変更後
の観察用モニタ色域変更に伴う写像操作を行い、CIE
1976(L*u*v*)色空間座標L*′,u*′,v*′
を色域圧縮手段401へ出力する色域圧縮中心変更手段
408を有して構成される。FIG. 64 shows a schematic structure of the color conversion means in the twenty-fifth embodiment. The color conversion unit 350 receives the compression center changing parameter Ctr input from the information input device 41 at the subsequent stage of the color space coordinate conversion unit 400, and outputs the CIE1976 (L * u * v) output from the color space coordinate conversion unit 400.
* ) Perform a mapping operation on the color space coordinates L * , u * , and v * according to the change of the observation monitor color gamut after changing the compression center,
1976 (L * u * v * ) color space coordinates L * ′, u * ′, v * ′
The color gamut compression center changing unit 408 for outputting the color gamut compression unit 401 to the color gamut compression unit 401.
【0487】以下、第25実施例の作用について、図6
4及び図65を用いて色域圧縮中心変更手段408を中
心に説明する。Hereinafter, the operation of the twenty-fifth embodiment will be described with reference to FIG.
The color gamut compression center changing unit 408 will be mainly described with reference to FIGS.
【0488】色域圧縮の圧縮中心は、最初は図65にお
けるPmax とPmin を結ぶ無彩色軸に設定されている。
しかし、観察者の観察環境に対する不完全な順応状態
や、また観察者の好みによって白色点を調整する場合、
それに伴って、Pmax とPminを結ぶ圧縮中心を変更し
なければならない。The compression center of color gamut compression is initially set to the achromatic color axis connecting Pmax and Pmin in FIG.
However, when adjusting the white point according to the observer's incomplete adaptation to the viewing environment or the observer's preference,
Along with that, the compression center connecting Pmax and Pmin must be changed.
【0489】色域圧縮中心を変更する方法について以下
に説明する。ここで、観察用モニタ8の順応視野である
基準白色と黒のxy色度座標を各々xmax p ,ymax p
,xmin p ,ymin p とする。また、画像記録装置4
の出力画像を観察する際の基準白色と黒のxy色度座標
を各々xmax q ,ymax q ,xmin q ,ymin q とす
る。まず、情報入力装置41から色域圧縮中心変更手段
408が受け取る圧縮中心変更パラメータCtrを用い
て、下に示す式(38)により画像記録装置4の出力画
像を観察する際の基準白色と黒のxyの色度座標を各々
xmax n ,ymax n,xmin n ,ymin n に変換する。A method of changing the gamut compression center will be described below. Here, the xy chromaticity coordinates of the reference white and black which are the adaptation fields of view of the observation monitor 8 are respectively defined as xmax p and ymax p.
, Xmin p, ymin p. In addition, the image recording device 4
The xy chromaticity coordinates of the reference white and black when observing the output image are defined as xmax q, ymax q, xmin q and ymin q, respectively. First, by using the compression center changing parameter Ctr received by the color gamut compression center changing unit 408 from the information input device 41, the reference white and black of the reference image when observing the output image of the image recording device 4 is expressed by the following equation (38). The xy chromaticity coordinates are converted into xmax n, ymax n, xmin n, and ymin n, respectively.
【0490】 xmax n =xmax q +Ctr・(xmax p −xmax q ) ymax n =ymax q +Ctr・(ymax p −ymax q ) xmin n =xmin q +Ctr・(xmin p −xmin q ) …(38) ymin n =ymin q +Ctr・(ymin p −ymin q ) この関係式(38)は、内分比Ctrで指定される内分
点を求めることに他ならない。Xmax n = xmax q + Ctr · (xmax p −xmax q) ymax n = ymax q + Ctr · (ymax p −ymax q) xmin n = xmin q + Ctr · (xmin p −xmin q) (38) ymin n = yminq + Ctr. (yminp-yminq) This relational expression (38) is nothing but to find the internal division point designated by the internal division ratio Ctr.
【0491】次に、色度座標xmax n ,ymax n ,xmi
n n ,ymin n とPmax とPmin の輝度から図65に示
すようにQMmax とQMmin を求める。QMmax とQM
minを結ぶ線分が画像記録装置色域と交差する点を、各
々QNmax ,QNmin とすると、QNmax とQNmin を
結ぶ線分が新たな色域圧縮中心となる。Next, chromaticity coordinates xmax n, ymax n, xmi
From the luminances of nn, ymin n, Pmax and Pmin, QMmax and QMmin are obtained as shown in FIG. QMmax and QM
Letting QNmax and QNmin be the points at which the line segment connecting min intersects the color gamut of the image recording device, the line segment connecting QNmax and QNmin becomes the new gamut compression center.
【0492】色域圧縮中心変更手段408では、前記色
域圧縮中心Pmax 〜Pmin からQNmax 〜QNmin へ変
換する写像操作を、色空間座標変換手段400から入力
されるCIE1976(L*u*v*)色空間座標L*,u
*,v*に作用させることで、変換後のCIE1976
(L*u*v*)色空間座標L*′,u*′,v*′を色域圧
縮手段401へ出力する。In the color gamut compression center changing means 408, the mapping operation for converting the color gamut compression centers Pmax to Pmin into QNmax to QNmin is input from the color space coordinate converting means 400 to CIE1976 (L * u * v * ). Color space coordinates L * , u
CIE1976 after conversion by acting on * , v *
The (L * u * v * ) color space coordinates L * ′, u * ′, v * ′ are output to the color gamut compression means 401.
【0493】以上のように、色域圧縮中心変更手段40
8を色空間座標変換手段400と色域圧縮手段401の
間に設け、情報入力装置41から入力された圧縮中心変
更パラメータCtrによって、色域圧縮中心変更手段4
08において色域圧縮中心変更に伴う写像変換を、色空
間座標変換手段400から出力されたCIE1976
(L*u*v*)色空間座標L*,u*,v*に対して行うこ
とにより、第21実施例における効果に加えて、色変換
手段350を、観察者が画像記録装置4の出力画像観察
環境に完全に順応していない場合や、観察者の好みに応
じて白色点を調整したい場合に、簡便に対応させること
が可能となる。As described above, the gamut compression center changing means 40
8 is provided between the color space coordinate conversion unit 400 and the color gamut compression unit 401, and the color gamut compression center changing unit 4 is set by the compression center changing parameter Ctr input from the information input device 41.
CIE1976, which is output from the color space coordinate conversion unit 400, for the mapping conversion accompanying the change of the gamut compression center in 08.
By performing the operation on the (L * u * v * ) color space coordinates L * , u * , and v * , in addition to the effect of the twenty-first embodiment, the observer uses the color conversion means 350 to control the image recording device 4. If the output image observation environment is not completely adapted, or if it is desired to adjust the white point according to the preference of the observer, it is possible to easily cope with it.
【0494】以上、第21実施例から第25実施例まで
を説明したが、第22実施例で説明した、色補正効果調
整手段403の付加は、第23実施例,第24実施例,
第25実施例にも適用が可能であり、簡便に未補正の状
態と第21実施例で示した構成で得られる色変換結果と
の間で補正効果を調整することができ、標準設定で色変
換結果を許容できない観察者にも対応することが可能と
なる。Although the twenty-first to twenty-fifth embodiments have been described above, the addition of the color correction effect adjusting means 403 described in the twenty-second embodiment is not limited to the twenty-third and twenty-fourth embodiments.
It can be applied to the twenty-fifth embodiment, and the correction effect can be easily adjusted between the uncorrected state and the color conversion result obtained with the configuration shown in the twenty-first embodiment, and the color setting can be performed with the standard setting. It is possible to deal with an observer who cannot accept the conversion result.
【0495】また、第23実施例で説明した、光源効果
調整手段406の付加は、第22実施例,第24実施
例,第25実施例にも適用が可能であり、色変換手段3
50を、情報入力装置41から得られた光源効果調整パ
ラメータLeにより、色票を再測定することなしに、か
つ式(37)で示した関数データ分のメモリを設けるだ
けで、画像記録装置4の出力を観察する際の光源の変化
にも対応させることが可能となる。Further, the addition of the light source effect adjusting means 406 described in the 23rd embodiment can be applied to the 22nd, 24th and 25th embodiments, and the color converting means 3
50 by using the light source effect adjustment parameter Le obtained from the information input device 41, without re-measurement of the color chart, and by only providing the memory for the function data shown in Expression (37). It becomes possible to deal with the change of the light source when observing the output of.
【0496】また、第24実施例で説明した、色順応変
換手段407の付加は、第22実施例,第23実施例,
第25実施例にも適用が可能であり、観察用モニタ8と
画像記録装置4の出力画像をそれぞれ観察する際の観察
条件の差を考慮した色補正が可能となる。The addition of the color adaptation conversion means 407 described in the twenty-fourth embodiment is the same as that in the twenty-second and twenty-third embodiments.
The present invention can be applied to the twenty-fifth embodiment as well, and color correction can be performed in consideration of the difference in observation conditions when observing the output images of the observation monitor 8 and the image recording device 4.
【0497】また、第25実施例で説明した、色域圧縮
中心変更手段408の付加は、第22実施例,第23実
施例,第24実施例にも適用が可能であり、色変換手段
350を、観察者が画像記録装置4の出力画像観察環境
に完全に順応していない場合や、観察者の好みに応じて
白色点を調整したい場合に、簡便に対応させることが可
能となる。The addition of the color gamut compression center changing means 408 described in the twenty-fifth embodiment is also applicable to the twenty-second, twenty-third and twenty-fourth embodiments, and the color conversion means 350. When the observer is not completely adapted to the output image observing environment of the image recording device 4, or when he or she wants to adjust the white point according to the observer's preference, it is possible to easily cope with the above.
【0498】次に第26実施例について説明する。図6
6は第26実施例に係る機器特性補正手段の機能構成を
示すブロック図、図67は第26実施例における機器特
性補正手段の動作を説明するフローチャートである。Next, the twenty-sixth embodiment will be described. Figure 6
6 is a block diagram showing the functional configuration of the device characteristic correction means according to the 26th embodiment, and FIG. 67 is a flowchart for explaining the operation of the device characteristic correction means according to the 26th embodiment.
【0499】第26実施例は、第21実施例の構成にお
いて、機器特性補正手段352を色変換手段350又は
鮮鋭感補正手段351の後段に付加した場合の第1の構
成例を示したものである。本実施例において、機器特性
補正手段以外の構成及び作用は、第21実施例と同じで
あるので、同様な部分の説明は省略し、機器特性補正手
段を中心に説明する。The twenty-sixth embodiment shows a first configuration example in which the device characteristic correction means 352 is added to the color conversion means 350 or the sharpness correction means 351 at the subsequent stage in the configuration of the twenty-first embodiment. is there. In the present embodiment, the configuration and operation other than the device characteristic correction means are the same as those of the 21st embodiment, so description of similar parts will be omitted and the device characteristic correction means will be mainly described.
【0500】画像処理装置3は、画像記録装置4の標準
となる出力特性(以下、標準出力特性と呼ぶ)を定め、
標準出力特性を前提にして設計された色変換手段350
又は鮮鋭感補正手段351により作成される画質補正映
像信号を、画像記録装置4に出力するように構成されて
いる。The image processing apparatus 3 defines the standard output characteristics of the image recording apparatus 4 (hereinafter referred to as standard output characteristics),
Color conversion means 350 designed on the premise of standard output characteristics
Alternatively, the image quality correction video signal generated by the sharpness correction unit 351 is output to the image recording device 4.
【0501】しかし、画像記録装置4の出力特性は、た
とえ同機種であっても個々の機体において異なってい
る。このような機器の画像再現特性(以下、機器特性と
呼ぶ)が機体毎に変動することに起因して、安定した画
質補正結果が得られずに、機体毎の出力結果の差が主観
的に許容できない場合が発生するおそれがある。However, the output characteristics of the image recording apparatus 4 are different in each machine even if they are of the same model. Due to the fact that the image reproduction characteristics of such equipment (hereinafter referred to as equipment characteristics) vary from machine to machine, stable image quality correction results cannot be obtained and the difference in output results from machine to machine is subjective. There may be cases where it is not acceptable.
【0502】そこで第26実施例では、第21実施例に
おける効果に加えて、画像記録装置の出力特性を変えず
に、画像記録装置に入力させる映像信号を加工すること
によって、その加工前の映像信号に対する画像記録装置
の出力特性が、標準出力特性に近似するように補正する
ことが可能な機器特性補正手段の構成例を示す。Therefore, in the twenty-sixth embodiment, in addition to the effects of the twenty-first embodiment, the video signal to be input to the image recording apparatus is processed without changing the output characteristics of the image recording apparatus, and the unprocessed video is processed. An example of the configuration of a device characteristic correction means capable of correcting the output characteristic of the image recording apparatus with respect to the signal so as to approximate the standard output characteristic will be shown.
【0503】画像処理部47において色変換手段350
等の後段に設けられる機器特性補正手段352の概略構
成を図66に示す。第26実施例の機器特性補正手段3
52は、RGBデータを入力として演算を行い、輝度デ
ータYR ,YG ,YB を出力する標準機器特性再現手段
411と、前記標準機器特性再現手段411からの輝度
データYR ,YG ,YB を入力として演算を行い、輝度
データYR ′,YG ′,YB ′を出力するゲイン調整手
段412と、前記ゲイン調整手段412からの輝度デー
タYR ′,YG ′,YB ′を入力として演算を行い、得
られたRGBデータR′,G′,B′を画像記録装置4
へ出力する機器特性逆再現手段413と、を有して構成
される。The color conversion means 350 in the image processing section 47.
FIG. 66 shows a schematic configuration of the device characteristic correction means 352 provided in the latter stage of the above. Device characteristic correction means 3 of the 26th embodiment
A reference numeral 52 designates a standard device characteristic reproducing means 411 for outputting RGB data as an input and outputting luminance data YR, YG, YB, and luminance data YR, YG, YB from the standard device characteristic reproducing means 411 for calculation. The gain adjusting means 412 for outputting the luminance data YR ', YG', YB 'and the luminance data YR', YG ', YB' from the gain adjusting means 412 are input to perform an operation to obtain RGB. The data R ', G', and B'are recorded on the image recording device 4
And a device characteristic reverse reproducing means 413 for outputting to.
【0504】以下、第26実施例の作用について図67
に示した処理の流れに沿って説明する。The operation of the twenty-sixth embodiment will be described below with reference to FIG.
A description will be given along the flow of the processing shown in.
【0505】機器特性補正手段352は、まずステップ
S110で、標準機器特性再現手段411においてRG
BデータR,G,Bそれぞれの演算を行い、輝度データ
YR,YG ,YB を算出する。ステップS110での演
算式を式(39)に示す。The device characteristic correction means 352 firstly, in step S110, RG in the standard device characteristic reproduction means 411.
The brightness data YR, YG, and YB are calculated by calculating the B data R, G, and B, respectively. The arithmetic expression in step S110 is shown in Expression (39).
【0506】 YR =FR (R) YG =FG (G) …(39) YB =FB (B) ここで、式(39)中のFR (R),FG (G),FB
(B)は、画像処理装置3の設計に際し任意に決められ
た画像記録装置4の標準出力特性を表す関数(以下、標
準出力特性関数と呼ぶ)である。なお本実施例において
は、FR (0)=FG (0)=FB (0)=0となるよ
う設計されている。YR = FR (R) YG = FG (G) (39) YB = FB (B) Here, FR (R), FG (G), FB in the equation (39).
(B) is a function (hereinafter referred to as a standard output characteristic function) that represents the standard output characteristic of the image recording apparatus 4 that is arbitrarily determined when the image processing apparatus 3 is designed. In this embodiment, FR (0) = FG (0) = FB (0) = 0 is designed.
【0507】前記演算により求められた輝度データYR
,YG ,YB はゲイン調整手段412へ出力される。Luminance data YR obtained by the above calculation
, YG, YB are output to the gain adjusting means 412.
【0508】次にステップS111で、ゲイン調整手段
412において輝度データYR ,YG ,YB それぞれに
対して以下の演算を行うことで、輝度の線形変換を行っ
て輝度データYR ′,YG ′,YB ′を算出する。この
ゲイン調整手段412において行われるステップS11
1での処理の演算式を式(40)に示す。Next, in step S111, the gain adjusting means 412 performs the following calculation for each of the luminance data YR, YG, and YB to linearly transform the luminance to obtain the luminance data YR ', YG', and YB '. To calculate. Step S11 performed by the gain adjusting means 412
The arithmetic expression of the processing in 1 is shown in Expression (40).
【0509】 YR ′=YR /h YG ′=YG /h …(40) YB ′=YB /h ここで、式(40)中で用いられるパラメータhの算出
方法について説明する。まず、画像処理装置3に接続す
る画像記録装置4の、RGBデータR,G,Bに対する
出力輝度YR ,YG ,YB の特性を、輝度測定、及び公
知の技術である回帰分析により求める必要がある。こう
して得られた画像記録装置4の出力特性が以下の式(4
1)に示す関数(以下、出力特性関数と呼ぶ)により満
たされるとする。YR '= YR / h YG' = YG / h (40) YB '= YB / h Here, a method of calculating the parameter h used in the equation (40) will be described. First, the characteristics of the output brightness YR, YG, YB for the RGB data R, G, B of the image recording device 4 connected to the image processing device 3 must be obtained by brightness measurement and regression analysis which is a known technique. . The output characteristic of the image recording device 4 thus obtained is expressed by the following equation (4
It is assumed that the function (1) is satisfied (hereinafter, referred to as an output characteristic function).
【0510】 YR =GR (R) YG =GG (G) …(41) YB =GB (B) なお、出力特性関数を求めるにあたり、画像記録装置4
の出力特性をGR (0)=GG (0)=GB (0)=0
としても、実用上差し支えない。YR = GR (R) YG = GG (G) (41) YB = GB (B) In obtaining the output characteristic function, the image recording device 4
Output characteristics of GR (0) = GG (0) = GB (0) = 0
However, there is no problem in practical use.
【0511】本実施例においてRGBデータの表現に8
ビットを用いているとすると、RGBデータのとり得る
値の範囲は0〜255となる。つまり、RGBデータが
255であるときが画像記録装置4においての出力輝度
の最高点となる。そこでhを以下に示す式(42)のよ
うに定義する。In this embodiment, the RGB data is represented by 8
If bits are used, the range of values that RGB data can take is 0 to 255. That is, when the RGB data is 255, the highest point of output brightness in the image recording device 4 is set. Therefore, h is defined as shown in Expression (42) below.
【0512】 h=max[FR (255)/GR (255), FG (255)/GG (255), FB (255)/GB (255)] …(42) ここで式(42)は、FR (255)/GR (25
5),FG (255)/GG (255),FB (25
5)/GB (255)のうち最も大きいものをhとす
る、ということを示している。H = max [FR (255) / GR (255), FG (255) / GG (255), FB (255) / GB (255)] (42) Here, the equation (42) is FR (255) / GR (25
5), FG (255) / GG (255), FB (25
5) / GB (255), the largest one is h.
【0513】このようにしてhを算出し、輝度データY
R ,YG ,YB を式(40)に従ってhで除算すること
によりYR ′,YG ′,YB ′が求められる。この演算
は、標準出力特性のとり得る範囲での輝度を線形変換し
て、式(41)の出力特性をとり得る範囲での輝度に圧
縮または拡大したことを意味する。Thus, h is calculated and the luminance data Y
YR ', YG', YB 'are obtained by dividing R, YG, YB by h according to the equation (40). This calculation means that the luminance within the range that the standard output characteristic can take is linearly converted and compressed or expanded to the luminance within the range that the output characteristic of Expression (41) can take.
【0514】前記演算により求められた輝度データYR
′,YG ′,YB ′は機器特性逆再現手段413に出
力される。Luminance data YR obtained by the above calculation
′, YG ′ and YB ′ are output to the device characteristic reverse reproduction means 413.
【0515】そしてステップS112で、機器特性逆再
現手段413において輝度データYR ′,YG ′,YB
′それぞれに対して以下の演算を行うことで、RGB
データR′,G′,B′を算出する。このステップS1
12での処理の演算式を式(43)に示す。[0515] Then, in step S112, the device characteristic reverse reproduction means 413 produces luminance data YR ', YG', YB.
'By performing the following calculations for each, RGB
Data R ', G', B'are calculated. This step S1
The arithmetic expression of the processing in 12 is shown in Expression (43).
【0516】 R′=GR -1(YR ′) G′=GG -1(YG ′) …(43) B′=GB -1(YB ′) 式(43)で用いられている関数GR -1,GG -1,GB
-1は、式(41)で用いられているGR ,GG ,GB の
逆関数である。すなわち、この式(43)の演算処理に
より、輝度データYR ′,YG ′,YB ′は、ある画像
記録装置4に対してそのような輝度を出力させるRGB
データR′,G′,B′に変換されることを意味する。R ′ = GR −1 (YR ′) G ′ = GG −1 (YG ′) (43) B ′ = GB −1 (YB ′) The function GR −1 used in the equation (43) , GG -1 , GB
-1 is an inverse function of GR, GG and GB used in the equation (41). That is, the brightness data YR ', YG', and YB 'are calculated by the calculation processing of the equation (43) so that the brightness data YR', YG ', and YB' can be output to a certain image recording apparatus 4 by using RGB values.
It means that it is converted into data R ', G', B '.
【0517】こうして求められたRGBデータR′,
G′,B′は画像記録装置4に出力される。以上の処理
により、観察用モニタ8に再現される画像と画像記録装
置4に再現される画像との色差を改善するための色変換
を行う際に、機体間で変動する出力特性が標準出力特性
に近似するように補正される。The RGB data R ′ thus obtained,
G ′ and B ′ are output to the image recording device 4. With the above processing, when performing color conversion for improving the color difference between the image reproduced on the observation monitor 8 and the image reproduced on the image recording device 4, the output characteristic that varies between the machines is the standard output characteristic. Is corrected to approximate
【0518】前記標準機器特性再現手段411で用いら
れる関数FR ,FG ,FB 、ゲイン調整手段412で用
いられる定数h、及び機器特性逆再現手段413で用い
られる関数GR -1,GG -1,GB -1は、図66に示すよ
うに情報入力装置41より入力することによって設定を
変更することが可能である。The functions FR, FG and FB used by the standard device characteristic reproducing means 411, the constant h used by the gain adjusting means 412, and the functions GR -1 , GG -1 , GB used by the device characteristic inverse reproducing means 413. The setting of -1 can be changed by inputting it from the information input device 41 as shown in FIG.
【0519】以上のように、機器特性補正手段352に
おいて、RGBデータR,G,Bを一旦画像記録装置4
の標準出力特性関数に基づく輝度データYR ,YG ,Y
B に変換し、この輝度データYR ,YG ,YB を画像記
録装置4の出力特性の範囲に収まるように線形変換し、
さらに画像記録装置4の出力特性関数の逆関数を用いて
RGBデータR′,G′,B′に変換して、画像記録装
置4に出力することにより、異なる出力特性を持つ画像
記録装置4の出力を、標準出力特性による出力に近似さ
せることができる。As described above, in the device characteristic correction means 352, the RGB data R, G, B are temporarily transferred to the image recording device 4.
Luminance data YR, YG, Y based on the standard output characteristic function of
B, and the brightness data YR, YG, YB are linearly converted so as to be within the range of the output characteristics of the image recording device 4,
Further, by converting the RGB data R ′, G ′, B ′ using the inverse function of the output characteristic function of the image recording device 4 and outputting the RGB data to the image recording device 4, the image recording device 4 having different output characteristics is converted. The output can be approximated to the output according to the standard output characteristic.
【0520】なお、標準機器特性再現手段411、ゲイ
ン調整手段412、機器特性逆再現手段413において
それぞれ行われている演算を結合して1つにまとめ、R
GBデータR,G,BをRGBデータR′,G′,B′
に直接変換する関数を用意し、演算の工数を1つにする
ことも可能であり、同様の効果を得ることができる。The operations performed by the standard equipment characteristic reproducing means 411, the gain adjusting means 412, and the equipment characteristic reverse reproducing means 413 are combined into one, and R
The GB data R, G, B are converted to RGB data R ', G', B '.
It is also possible to prepare a function for directly converting to and to reduce the number of man-hours of the operation to one, and the same effect can be obtained.
【0521】次に第27実施例について説明する。図6
8は第27実施例に係る機器特性補正手段の機能構成を
示すブロック図、図69は第27実施例における機器特
性補正手段の動作を説明するフローチャート、図70は
画像記録装置の出力特性関数の決定方法を説明する概念
図である。Next, a twenty-seventh embodiment will be described. Figure 6
8 is a block diagram showing the functional configuration of the device characteristic correction means according to the 27th embodiment, FIG. 69 is a flowchart for explaining the operation of the device characteristic correction means in the 27th embodiment, and FIG. 70 is the output characteristic function of the image recording apparatus. It is a conceptual diagram explaining a determination method.
【0522】第27実施例は、機器特性補正手段352
を付加した第2の構成例であり、第26実施例の機器特
性補正手段352においてタイマ416と切換手段41
5を付加し、切換手段415,ゲイン調整手段412,
機器特性逆再現手段413に前記タイマ416の出力値
を入力して時間経過に応じて動作特性を変更するように
したものである。本実施例において、機器特性補正手段
以外の構成及び作用は、第21実施例と同じであるの
で、同様な部分の説明は省略し、機器特性補正手段を中
心に説明する。The twenty-seventh embodiment has a device characteristic correcting means 352.
Is a second configuration example in which a timer 416 and a switching means 41 are included in the device characteristic correction means 352 of the twenty-sixth embodiment.
5, switching means 415, gain adjusting means 412,
The output value of the timer 416 is input to the device characteristic reverse reproduction means 413 to change the operation characteristic according to the passage of time. In the present embodiment, the configuration and operation other than the device characteristic correction means are the same as those of the 21st embodiment, so description of similar parts will be omitted and the device characteristic correction means will be mainly described.
【0523】画像記録装置4は、電源オン時から予備運
転時間(以下、ウォーミング時間と呼ぶ)Tを経過する
ことでその出力特性が安定する。このときの画像記録装
置4の出力特性が安定した状態を、以下では安定状態と
呼ぶ。予備運転中の出力は安定状態時の出力に比べて偏
位を生じており、この偏位が時間を経るごとに小さくな
って安定状態時の出力に漸近し、ウォーミング時間Tを
過ぎると安定状態になる。以下では予備運転中の画像記
録装置4の状態を非安定状態と呼ぶ。The output characteristic of the image recording apparatus 4 becomes stable after the preparatory operation time (hereinafter referred to as warming time) T has elapsed since the power was turned on. The state in which the output characteristics of the image recording device 4 are stable at this time is hereinafter referred to as a stable state. The output during the preparatory run has a deviation compared to the output during the stable state, and this deviation becomes smaller with the passage of time and gradually approaches the output during the stable state, and stabilizes after the warming time T. It becomes a state. Hereinafter, the state of the image recording device 4 during the preliminary operation will be referred to as an unstable state.
【0524】画像処理装置3は、画像記録装置4が安定
状態であることを想定して画質補正処理を行うよう構成
されている。しかし実使用においては、画像記録装置4
の電源投入後、ウォーミング時間を待たずにこれを使用
したい、すなわち非安定状態でも使用したい状況が発生
する。画像記録装置4が非安定状態であるときの、画像
処理装置3が出力する色データによる画像記録装置4の
出力結果は、画像記録装置4の安定状態のそれと比較す
るとズレを生じている。このように非安定状態では時間
経過に伴って機器特性が変動するため、安定した画質補
正結果が得られず、安定状態での出力結果とのズレが主
観的に許容できない場合が発生するおそれがある。The image processing device 3 is configured to perform the image quality correction process on the assumption that the image recording device 4 is in a stable state. However, in actual use, the image recording device 4
After turning on the power, the user wants to use it without waiting for the warming time, that is, wants to use it even in an unstable state. When the image recording device 4 is in an unstable state, the output result of the image recording device 4 based on the color data output by the image processing device 3 is different from that in the stable state of the image recording device 4. In this way, in the unstable state, the device characteristics fluctuate over time, so a stable image quality correction result cannot be obtained, and there is a possibility that a deviation from the output result in the stable state may be subjectively unacceptable. is there.
【0525】そこで第27実施例では、第21実施例に
おける効果に加えて、電源オン後まもない非安定状態で
の画像記録装置の出力が安定状態時での画像記録装置の
出力と等しくなるように、色データを変換して色調のズ
レを補正することが可能な機器特性補正手段の構成例を
示す。Therefore, in the twenty-seventh embodiment, in addition to the effects of the twenty-first embodiment, the output of the image recording apparatus in the unstable state immediately after power-on becomes equal to the output of the image recording apparatus in the stable state. As described above, a configuration example of the device characteristic correction unit capable of converting the color data and correcting the color tone deviation will be described.
【0526】第27実施例における機器特性補正手段の
概略構成を図68に示す。機器特性補正手段352は、
第26実施例の構成に加えて、画像記録装置4の電源オ
ン時からの経過時間τを出力とするタイマ416と、R
GBデータR,G,B及び前記タイマ416から出力さ
れた経過時間τを入力として2系統の出力切り換えを行
う切換手段415と、を有して構成される。FIG. 68 shows a schematic structure of the device characteristic correcting means in the 27th embodiment. The device characteristic correction means 352
In addition to the configuration of the twenty-sixth embodiment, a timer 416 that outputs the elapsed time τ from the time when the image recording apparatus 4 is powered on, and R
Switching means 415 for switching the output of the two systems by using the GB data R, G, B and the elapsed time τ output from the timer 416 as inputs.
【0527】切換手段415の2系統の出力の内、1系
統は標準機器特性再現手段411に接続され、もう1系
統はそのまま機器特性補正手段352の出力部に接続さ
れており、両系統の一方にRGBデータR,G,Bを出
力するようになっている。また、タイマ416から出力
される経過時間τは、切換手段415だけでなく、ゲイ
ン調整手段412及び機器特性逆再現手段413にも供
給されるようになっている。Of the two outputs of the switching means 415, one is connected to the standard equipment characteristic reproducing means 411 and the other is directly connected to the output portion of the equipment characteristic correcting means 352. The RGB data R, G, and B are output to. The elapsed time τ output from the timer 416 is supplied not only to the switching unit 415 but also to the gain adjusting unit 412 and the device characteristic reverse reproducing unit 413.
【0528】前記標準機器特性再現手段411以降のR
GBデータR,G,Bの演算処理の手順は、第26実施
例に示したものに準じて実行され、最終的にRGBデー
タR′,G′,B′が画像記録装置4に出力されるよう
になっている。機器特性補正手段352におけるその他
の構成は第26実施例と同様であり、ここでは説明を省
略する。R of the standard device characteristic reproducing means 411 and later
The procedure of the arithmetic processing of the GB data R, G, B is executed according to the procedure shown in the twenty-sixth embodiment, and finally the RGB data R ', G', B'is output to the image recording device 4. It is like this. The other configuration of the device characteristic correction means 352 is the same as that of the twenty-sixth embodiment, and the description thereof is omitted here.
【0529】以下、第27実施例の作用について図69
及び図70を用いて説明する。The operation of the 27th embodiment will be described below with reference to FIG.
And FIG. 70.
【0530】タイマ416は、画像記録装置4の電源オ
ン時からの経過時間τを保持している。経過時間τは、
画像記録装置4の電源オンと同時に0にセットされ、時
間経過とともに更新される。この経過時間τは切換手段
415,ゲイン調整手段412,及び機器特性逆再現手
段413に出力される。The timer 416 holds the elapsed time τ since the power of the image recording apparatus 4 was turned on. The elapsed time τ is
It is set to 0 at the same time when the power of the image recording device 4 is turned on, and updated with the lapse of time. This elapsed time τ is output to the switching unit 415, the gain adjusting unit 412, and the device characteristic reverse reproducing unit 413.
【0531】第27実施例の機器特性補正手段352に
おける処理の流れを図69に示す。まずステップS11
3において、切換手段415はタイマ416から入力さ
れた経過時間τがウォーミング時間Tより大きいかどう
かにより、入力されたRGBデータR,G,Bの出力先
を、標準機器特性再現手段411又は画像記録装置4に
切り換える。ここで、τがTより小さい場合はRGBデ
ータR,G,Bの出力先は標準機器特性再現手段411
となり、τがT以上であればRGBデータR,G,Bの
出力先は画像記録装置4となる。FIG. 69 shows the flow of processing in the device characteristic correction means 352 of the 27th embodiment. First, step S11
3, the switching unit 415 determines the output destination of the input RGB data R, G, B by the standard device characteristic reproduction unit 411 or the image depending on whether the elapsed time τ input from the timer 416 is longer than the warming time T. Switch to the recording device 4. Here, when τ is smaller than T, the output destination of the RGB data R, G, B is the standard device characteristic reproducing means 411.
If τ is T or more, the output destination of the RGB data R, G, B is the image recording device 4.
【0532】前記ウォーミング時間Tは、画像記録装置
4が電源オン時から安定状態となるまでの実測時間の定
数データであり、情報入力装置41より切換手段415
に入力され、保持されている。The warming time T is constant data of the actual measurement time from the power-on of the image recording device 4 to the stable state, and the information input device 41 causes the switching means 415.
Has been entered and retained.
【0533】なお切換手段415で行われる出力切り換
えにより、画像記録装置4の方に出力されたRGBデー
タR,G,Bは、以下に示す本実施例の機器特性補正手
段352による演算処理が全く施されていないものとな
る。The RGB data R, G, B output to the image recording device 4 by the output switching performed by the switching means 415 is completely subjected to the arithmetic processing by the device characteristic correcting means 352 of the present embodiment shown below. It is not applied.
【0534】ここで図70を用いて、ステップS114
以降の説明に必要となる、以下の式(44)に示す出力
特性関数の算出方法について説明する。Now, referring to FIG. 70, step S114
A method of calculating the output characteristic function shown in the following Expression (44), which is necessary for the following description, will be described.
【0535】[0535]
【数11】 式(44)において、KR(t),KG(t),KB
(t),gR(t),gG(t),gB(t)は、時間t
を入力とする関数であり、かつ、RGBデータに対する
画像記録装置4の出力輝度を、その電源オン時からの経
過時間とともに測定して、以下の手法を用いることによ
り、求めることができるものである。この式(44)を
画像記録装置4の出力特性関数と呼ぶ。[Equation 11] In equation (44), KR (t), KG (t), KB
(T), gR (t), gG (t), gB (t) are time t
Is a function that takes as input, and can be obtained by measuring the output brightness of the image recording device 4 with respect to RGB data together with the elapsed time after the power is turned on and using the following method. . This equation (44) is called an output characteristic function of the image recording device 4.
【0536】図70は時間tの経過とRGBデータR,
G,Bに対応する輝度Yとの関係を示したものである。
なおここではRのデータについてのみ示している。FIG. 70 shows the passage of time t and the RGB data R,
It shows the relationship with the brightness Y corresponding to G and B.
Note that only R data is shown here.
【0537】図70に示されるRYt座標系に広がる曲
面は、G=0,B=0でのRの変化に対応する画像記録
装置4の出力の輝度Yを時刻tごとに計測し、それをプ
ロットしたものである。なお、t=0は電源をオンにし
たときの時刻であり、前記ウォーミング時間Tを用いて
t=Tにおいて画像記録装置4が安定状態になることを
示している。また、G,Bについても、それぞれGYt
座標系、BYt座標系において同様の曲面を描くことが
できる。The curved surface extending in the RYt coordinate system shown in FIG. 70 measures the brightness Y of the output of the image recording device 4 corresponding to the change of R at G = 0 and B = 0 at each time t, and measures it. It is a plot. Note that t = 0 is the time when the power is turned on, and the warming time T is used to indicate that the image recording device 4 is in a stable state at t = T. In addition, for G and B, GYt
Similar curved surfaces can be drawn in the coordinate system and the BYt coordinate system.
【0538】このRYt座標系において、ある時刻tで
のRの変化に対応するYの変化の関係を、以下の式(4
5)に示すように、公知の技術である非線形回帰法を用
いて推定する。In this RYt coordinate system, the relationship of the change in Y corresponding to the change in R at a certain time t is expressed by the following equation (4)
As shown in 5), estimation is performed using a known technique, that is, a non-linear regression method.
【0539】[0539]
【数12】 式(45)において、at=tc,bt=tcは、時刻t=tc
における推定パラメータである。この推定を適当数のt
について行い、数列at ,bt を求める。(Equation 12) In the equation (45), at = tc and bt = tc are the time t = tc.
Is an estimated parameter in. This estimate should be
For the sequence of numbers at and bt.
【0540】そして、tの変化に対応するa,bの変化
の関係を、それぞれa=KR(t),b=gR(t)なる
tの線形または非線形関数となるように、線形回帰法ま
たは非線形回帰法により推定し、KR(t),gR(t)
を求める。このようにして式(44)で用いられるKR
(t),gR(t)を求めることができる。Then, a linear regression method or a linear regression method is adopted so that the relationship between changes in a and b corresponding to changes in t becomes a linear or non-linear function of t such that a = KR (t) and b = gR (t), respectively. Estimated by nonlinear regression method, KR (t), gR (t)
Ask for. Thus, KR used in equation (44)
(T) and gR (t) can be obtained.
【0541】同様にして、KG(t),gG(t)に対し
てはGYt座標系上の曲面を、KB(t),gB(t)に
対してはBYt座標系上の曲面をそれぞれ適用すること
により、KG(t),gG(t),KB(t),gB(t)
を求めることができる。Similarly, a curved surface on the GYt coordinate system is applied to KG (t) and gG (t), and a curved surface on the BYt coordinate system is applied to KB (t) and gB (t). By doing, KG (t), gG (t), KB (t), gB (t)
Can be requested.
【0542】次に、前述した式(44)の出力特性関数
を用いて、図69におけるステップS114以降の作用
について説明する。Next, the operation after step S114 in FIG. 69 will be described using the output characteristic function of the equation (44) described above.
【0543】ステップS114では、標準機器特性再現
手段411において、入力されるRGBデータR,G,
Bそれぞれに対して演算を行い、輝度データYR ,YG
,YB を算出する。ステップS114での演算式を式
(46)に示す。At step S114, the standard equipment characteristic reproducing means 411 inputs the RGB data R, G,
The brightness data YR, YG is calculated for each B
, YB is calculated. The calculation formula in step S114 is shown in formula (46).
【0544】[0544]
【数13】 この式(46)は、式(44)のtにウォーミング時間
Tを代入したものに等しい。従って、RGBデータR,
G,Bは、画像記録装置4が安定状態時である場合に出
力されるであろう輝度YR ,YG ,YB にそれぞれ変換
されることになる。(Equation 13) The equation (46) is equal to the equation (44) in which the warming time T is substituted for t. Therefore, the RGB data R,
G and B are converted into luminances YR, YG, and YB that would be output when the image recording device 4 is in a stable state, respectively.
【0545】標準機器特性再現手段411には、KR
(t),KG(t),KB(t),gR(t),gG
(t),gB(t)が情報入力装置41から入力され、
これを定数データとして保持している。また、YR
(R,t),YG (G,t),YB (B,t)は、第2
6実施例で説明した機器特性補正手段352中の標準機
器特性再現手段411での演算に用いられる式(39)
のFR (R),FG (G),FB (B)にそれぞれ対応
する。この演算により求められた輝度データYR ,YG
,YBはゲイン調整手段412に出力される。[0545] The standard equipment characteristic reproducing means 411 has KR
(T), KG (t), KB (t), gR (t), gG
(T) and gB (t) are input from the information input device 41,
This is held as constant data. Also, YR
(R, t), YG (G, t), YB (B, t) are the second
Formula (39) used for the calculation in the standard device characteristic reproducing unit 411 in the device characteristic correcting unit 352 described in the sixth embodiment.
FR (R), FG (G), and FB (B), respectively. Luminance data YR, YG obtained by this calculation
, YB are output to the gain adjusting means 412.
【0546】次にステップS115で、ゲイン調整手段
412において、第26実施例で説明した機器特性補正
手段352中のゲイン調整手段412で行われる演算と
同様の演算を行う。ただし本実施例のゲイン調整手段4
12では、前記タイマ416が出力する経過時間τを用
いるようにする。Next, in step S115, the gain adjusting means 412 performs the same operation as the operation performed by the gain adjusting means 412 in the device characteristic correcting means 352 described in the twenty-sixth embodiment. However, the gain adjusting means 4 of the present embodiment
In 12, the elapsed time τ output by the timer 416 is used.
【0547】本実施例においてもRGBデータの表現に
8ビットを用いているとすると、第26実施例において
hの算出に用いられるFR (255),FG (25
5),FB (255)に対して、それぞれ式(44)と
前記Tを用いて、YR (255,T),YG (255,
T),YB (255,T)を代わりに使用する。また、
GR (255),GG (255),GB (255)に対
して、それぞれ式(44)と前記τを用いて、YR (2
55,τ),YG (255,τ),YB (255,τ)
を代わりに使用する。If 8 bits are used to represent RGB data in this embodiment, FR (255), FG (25) used for calculating h in the 26th embodiment.
5) and FB (255), using equation (44) and T, respectively, YR (255, T), YG (255,
T), YB (255, T) are used instead. Also,
For GR (255), GG (255), GB (255), using equation (44) and τ, YR (2
55, τ), YG (255, τ), YB (255, τ)
Is used instead.
【0548】この定数YR (255,T),YG (25
5,T),YB (255,T)及び関数YR (255,
τ),YG (255,τ),YB (255,τ)は、情
報入力装置41より入力される。These constants YR (255, T), YG (25
5, T), YB (255, T) and the function YR (255,
τ), YG (255, τ), YB (255, τ) are input from the information input device 41.
【0549】こうして得られたhを基に、輝度データY
R ′,YG ′,YB ′が第26実施例と同様に算出さ
れ、機器特性逆再現手段413へ出力される。Based on h thus obtained, luminance data Y
R ', YG', and YB 'are calculated in the same manner as in the twenty-sixth embodiment and output to the device characteristic reverse reproducing means 413.
【0550】そしてステップS116で、機器特性逆再
現手段413において、輝度データYR ′,YG ′,Y
B ′それぞれに対して以下の演算を行うことで、RGB
データR′,G′,B′を算出する。このステップS1
16での処理の演算式を式(47)に示す。Then, in step S116, the device characteristic reverse reproducing means 413 uses the luminance data YR ', YG', Y.
By performing the following calculation for each B ′, RGB
Data R ', G', B'are calculated. This step S1
The arithmetic expression of the processing in 16 is shown in Expression (47).
【0551】[0551]
【数14】 式(47)は、式(44)の出力特性関数のtを定数と
みたときの逆関数として計算されるもので、前記YR
′,YG ′,YB ′及び前記τを入力とする。この式
(47)の演算処理は、輝度データYR ′,YG ′,Y
B ′を、電源オン時からの経過時間τにおける画像記録
装置4の出力輝度とみなして、そのような輝度を出力さ
せるRGBデータR′,G′,B′を求めることを意味
する。ここで、関数R(YR ′,τ),G(YG ′,
τ),B(YB ′,τ)は、情報入力装置41より入力
される。[Equation 14] Expression (47) is calculated as an inverse function when t of the output characteristic function of Expression (44) is regarded as a constant.
′, YG ′, YB ′ and τ are input. The calculation processing of this expression (47) is performed by the luminance data YR ', YG', Y
It means that B ′ is regarded as the output luminance of the image recording device 4 at the time τ after the power is turned on, and the RGB data R ′, G ′, B ′ that outputs such luminance is obtained. Here, the functions R (YR ', τ), G (YG',
τ) and B (YB ′, τ) are input from the information input device 41.
【0552】こうして求められたRGBデータR′,
G′,B′は画像記録装置4に出力される。以上の処理
により、電源オン直後の非安定状態の際に時間経過と共
に変動する出力特性が安定状態時の出力特性と等しくな
るように補正される。The RGB data R ′ thus obtained,
G ′ and B ′ are output to the image recording device 4. Through the above processing, the output characteristic that changes with the passage of time in the unstable state immediately after the power is turned on is corrected to be equal to the output characteristic in the stable state.
【0553】以上のように、機器特性補正手段352に
おいて、画像記録装置4の電源オン時からの経過時間に
より画像記録装置4が安定状態にあるか、非安定状態に
あるかを判断し、非安定状態にある場合は、安定状態に
ある画像記録装置4の出力と等価な出力を得られるよう
にRGBデータを変換して出力することにより、非安定
状態においても画像記録装置の出力が安定状態であると
きの出力と同等の結果が得られ、非安定状態時における
色調のズレをなくすことができる。As described above, the device characteristic correction means 352 determines whether the image recording apparatus 4 is in a stable state or an unstable state according to the time elapsed after the power of the image recording apparatus 4 is turned on. In the stable state, the RGB data is converted and output so as to obtain an output equivalent to the output of the image recording apparatus 4 in the stable state, so that the output of the image recording apparatus is in the stable state even in the unstable state. The result is similar to the output when, and the deviation of the color tone in the unstable state can be eliminated.
【0554】なお本実施例において、画像記録装置4の
安定状態を電源オン時からの経過時間により判断した
が、画像記録装置4の内部温度等他の判断パラメータを
用いるようにしてもよい。In this embodiment, the stable state of the image recording apparatus 4 is judged by the elapsed time after the power is turned on, but other judgment parameters such as the internal temperature of the image recording apparatus 4 may be used.
【0555】また、内視鏡システムの電源をオンにした
後に加えられた画像記録装置4の電源オンを感知する電
源オン感知手段と、この電源オンを感知したことを示す
信号を伝送する信号線とを画像処理装置3内に設けると
共に、前記信号を検知する検知手段を前記タイマ416
に設けて、内視鏡システムへの画像記録装置4の追加を
示す信号の感知と同時に、前記タイマ416において保
持するtを0にセットする構成にしてもよい。[0555] Also, a power-on detecting means for detecting the power-on of the image recording device 4 which is applied after the power of the endoscope system is turned on, and a signal line for transmitting a signal indicating that the power-on is detected. Are provided in the image processing apparatus 3, and a detecting means for detecting the signal is provided in the timer 416.
The timer 416 may be set to 0 at the same time when the signal indicating the addition of the image recording device 4 to the endoscope system is sensed.
【0556】また、式(44)、式(46)、式(4
7)には、前述したものに限らず、画像記録装置4の出
力特性をより高く近似できるものを使ってもよい。Also, equation (44), equation (46), and equation (4)
7) is not limited to the above-mentioned one, but may be one that can approximate the output characteristics of the image recording device 4 to a higher level.
【0557】[付記] (1) 前記画像記録手段は、前記記録媒体に記録され
た画像を再生する機能を有することを特徴とする請求項
1に記載の画像処理装置。[Supplementary Note] (1) The image processing apparatus according to claim 1, wherein the image recording means has a function of reproducing an image recorded in the recording medium.
【0558】(2) 被写体を撮像して画像信号を出力
する撮像手段(図1の電子内視鏡6)と、前記撮像手段
の出力する画像信号に基づき前記被写体の画像を表示す
る画像表示手段(図1の観察用モニタ8)と、前記撮像
手段が出力する画像信号を画像信号記録媒体に記録する
画像記録手段(図1の内視鏡画像記録装置4)とを備え
た画像信号記録装置において、前記撮像手段から出力さ
れた画像信号に基づき前記画像表示手段に表示される画
像と、前記画像信号記録媒体に記録された画像信号に基
づき表示される画像との画質を等価にする画像処理デー
タに基づき、前記撮像手段から出力される画像信号を処
理して前記画像記録手段に入力する画像信号変換手段
(図1の画像処理装置)を備えたことを特徴とする画像
信号記録装置。(2) Image pickup means (electronic endoscope 6 in FIG. 1) for picking up an image of a subject and outputting the image signal, and image display means for displaying the image of the subject based on the image signal output by the image pickup means. An image signal recording apparatus including (observation monitor 8 in FIG. 1) and image recording means (endoscopic image recording apparatus 4 in FIG. 1) for recording the image signal output by the imaging means on an image signal recording medium. In the image processing, the image displayed on the image display unit based on the image signal output from the image pickup unit and the image displayed based on the image signal recorded on the image signal recording medium have the same image quality. An image signal recording device, comprising: an image signal converting device (image processing device of FIG. 1) for processing an image signal output from the image capturing device based on data and inputting the image signal to the image recording device.
【0559】(3) 前記画像信号変換手段は、前記画
像信号記録媒体に記録される画像信号の色について処理
する付記2に記載の画像信号記録装置。(3) The image signal recording apparatus according to attachment 2, wherein the image signal converting means processes the color of the image signal recorded on the image signal recording medium.
【0560】(4) 撮像手段で撮像した被写体像を記
録媒体に記録する画像信号記録装置において、前記撮像
手段の出力に基づき、複数の色信号を生成する色信号生
成手段(図1の信号処理部7B)と、前記複数の色信号
に基づき、前記被写体像を表示する表示手段(図1の観
察用モニタ8)と、前記色信号生成手段で生成された色
信号に基づき、前記表示手段に表示される画像と、前記
記録媒体から再生された被写体像の画質を等価にする画
像処理データを記録する記録手段(図1の内視鏡画像記
録装置4)と、前記画像処理データに基づき、前記複数
の色信号を処理して前記記録媒体に画像信号を記録させ
る記録制御手段(図1の画像処理装置3)と備えた画像
信号記録装置。(4) In an image signal recording apparatus for recording a subject image picked up by the image pickup means on a recording medium, a color signal generation means (signal processing of FIG. 1) for generating a plurality of color signals based on the output of the image pickup means. Section 7B), display means for displaying the subject image based on the plurality of color signals (observation monitor 8 in FIG. 1), and display means for displaying the color signals generated by the color signal generating means. Based on the image processing data, a recording unit (an endoscope image recording device 4 in FIG. 1) that records image processing data that equalizes the image quality of a subject image reproduced from the recording medium, An image signal recording device comprising a recording control unit (image processing device 3 in FIG. 1) for processing the plurality of color signals and recording the image signal on the recording medium.
【0561】(5) 被写体を撮像する撮像手段の出力
に基づき、複数の色信号を生成する色信号生成手段(図
1の信号処理部7B)と、前記色信号生成手段で生成さ
れた色信号に基づく画像データを記録する記録手段(図
1の内視鏡画像記録装置4)と、前記記録手段から再生
される画像の画質が、前記色信号生成手段で生成された
色信号に基づく画像と等価の画質となる前記画像データ
を、前記色信号生成手段で生成された色信号を信号処理
して生成する画像データ生成手段(図1の画像処理装置
3)とを備えた画像信号処理装置。(5) Color signal generating means (signal processing section 7B in FIG. 1) for generating a plurality of color signals based on the output of the image capturing means for capturing an image of the subject, and the color signal generated by the color signal generating means. A recording unit (an endoscope image recording apparatus 4 in FIG. 1) for recording image data based on the image data based on the color signal generated by the color signal generating unit. An image signal processing device (image processing device 3 in FIG. 1) for generating the image data having equivalent image quality by performing signal processing on the color signal generated by the color signal generating device.
【0562】(6) 撮像手段により撮像された複数の
映像信号を入力する入力手段(図3の画像入力I/F4
3または図32の入力I/F160)と、前記入力手段
により入力された複数の映像信号に対し画質補正を行う
補正手段(図3の画像処理部47または図32の色変換
回路163及び/または鮮鋭感補正回路165)と、前
記補正手段により画質補正が行われた前記複数の映像信
号を画像記録装置へ出力する出力手段(図3の画像記憶
装置I/F46または図32の出力用I/F168
a))と、を備えた画像処理装置。(6) Input means for inputting a plurality of video signals picked up by the image pickup means (image input I / F 4 in FIG. 3)
3 or the input I / F 160 of FIG. 32) and a correction unit (image processing unit 47 of FIG. 3 or the color conversion circuit 163 of FIG. 32 and / or of the image processing unit 47 of FIG. Sharpness correction circuit 165) and output means (image storage device I / F 46 in FIG. 3 or output I / F 46 in FIG. 32) for outputting the plurality of video signals whose image quality has been corrected by the correction means to an image recording device. F168
a)) and an image processing apparatus comprising:
【0563】(7) 前記補正手段は、複数の映像信号
に対し色変換及び鮮鋭感補正の少なくとも一方を行う付
記6に記載の画像処理装置。(7) The image processing apparatus according to attachment 6, wherein the correction means performs at least one of color conversion and sharpness correction on a plurality of video signals.
【0564】(8) 前記入力手段により入力された複
数の映像信号に基づき前記補正手段を制御する制御手段
(図3の中央処理装置40または図32の演算処理用コ
ントローラ169)を備えた付記6または7に記載の画
像処理装置。(8) Note 6 provided with control means (central processing unit 40 in FIG. 3 or arithmetic processing controller 169 in FIG. 32) for controlling the correction means on the basis of a plurality of video signals input by the input means. Or the image processing device according to 7.
【0565】(9) 前記補正手段の補正内容を指示す
るパラメータを入力するパラメータ入力手段(図3の情
報入力装置41または図32のパラメータ入力装置用I
/F171)を備え、制御手段は、前記入力手段により
入力された複数の映像信号及び前記パラメータに基づき
前記補正手段を制御する付記8に記載の画像処理装置。(9) Parameter input means for inputting a parameter instructing the correction content of the correction means (information input device 41 in FIG. 3 or parameter input device I in FIG. 32).
/ F171), and the control means controls the correction means based on the plurality of video signals and the parameters input by the input means.
【0566】(10) 前記補正手段は、前記入力手段
により入力された複数の映像信号による画像を写像変換
する複数の写像変換手段を直列に1つ以上設けた付記9
に記載の画像処理装置。(10) The correction means is provided with one or more series of mapping conversion means for converting an image of a plurality of video signals inputted by the input means.
The image processing device according to item 1.
【0567】(11) 前記入力手段から入力された複
数の映像信号による画像又は前記写像変換手段により写
像変換された画像の内、いずれか1つから出力された画
像又は前記パラメータ入力手段により入力された前記パ
ラメータを制御信号として用いることにより、前記写像
変換手段の動作を制御する写像変換制御手段を備えた付
記6に記載の画像処理装置。(11) An image output from any one of an image formed by a plurality of video signals input from the input unit or an image converted by the mapping conversion unit, or input by the parameter input unit. 7. The image processing apparatus according to appendix 6, further comprising mapping conversion control means for controlling the operation of the mapping conversion means by using the parameter as a control signal.
【0568】(12) 前記複数の写像変換手段の内、
少なくとも1つが並列に設けられ、前記並列に1つ以上
設けた写像変換手段からの複数の出力を1つの出力に合
成する合成手段を備え、前記写像変換制御手段は、前記
並列に設けられた少なくとも1つの写像変換手段に入力
する信号が、前記入力手段から入力される複数の映像信
号が形成する信号空間、又は前記直列に1つ以上設けた
写像変換手段の内、前記並列に1つ以上設けた写像変換
手段の前段に位置する写像変換手段から出力される信号
が形成する信号空間のどの領域に含まれるかの領域判定
を行う領域判定手段と、前記領域判定手段に於いて判定
された結果により前記合成手段に於ける動作を決定する
動作決定手段と、動作決定手段に於いて決定された動作
を前記合成手段に適用する動作変更手段とを備えて構成
される付記10に記載の画像処理装置。(12) Of the plurality of mapping conversion means,
At least one is provided in parallel, and there is provided a combining means for combining a plurality of outputs from the one or more mapping conversion means provided in parallel into one output, and the mapping conversion control means is provided at least in parallel. The signal input to one mapping conversion unit is a signal space formed by a plurality of video signals input from the input unit, or one or more of the mapping conversion units provided in series are provided in parallel. Area determination means for performing area determination of which area of the signal space formed by the signal output from the mapping conversion means positioned in front of the mapping conversion means, and the result determined by the area determination means. According to Supplementary Note 10, the operation determining means for determining the operation in the synthesizing means and the operation changing means for applying the action determined in the operation determining means to the synthesizing means are added. Mounting image processing apparatus.
【0569】(13) 前記複数の写像変換手段の内、
少なくとも1つが並列に1つ以上設けられ、前記並列に
1つ以上設けた前記複数の写像変換手段の前段に設けた
切替手段を備え、前記制御手段が、前記切替手段を制御
し、前記並列に1つ以上設けた写像変換手段の内、動作
する写像変換手段を選択する付記10に記載の画像処理
装置。(13) Of the plurality of mapping conversion means,
At least one is provided in parallel and at least one is provided, and the switching means is provided in the preceding stage of the plurality of mapping conversion means provided in parallel at least one, and the control means controls the switching means to perform parallel operation. 11. The image processing apparatus according to appendix 10, which selects an operating mapping conversion unit from among the mapping conversion units provided.
【0570】(14) 直列に1つ以上設けた前記写像
変換手段の内、最後段の写像変換手段は、前記最後段の
写像変換手段の前段の写像変換手段の出力が前記画像記
録装置のダイナミックレンジ内であるかを判定し、ダイ
ナミックレンジ外であれば前記最後段の写像変換手段の
前段の写像変換手段の出力が異常値であるとして、ダイ
ナミックレンジ内への写像変換を行う付記10に記載の
画像処理装置。(14) Of the mapping conversion means provided one or more in series, the mapping conversion means at the last stage has the output of the mapping conversion means at the front stage of the mapping conversion means at the last stage dynamic of the image recording device. It is determined whether it is within the range, and if it is outside the dynamic range, it is determined that the output of the mapping conversion unit in the preceding stage of the mapping conversion unit in the last stage is an abnormal value, and the mapping conversion into the dynamic range is performed. Image processing device.
【0571】(15) 直列に1つ以上設けた前記写像
変換手段の内、前記入力手段に最も近い位置に設けた写
像変換手段は、入力された信号を知覚色空間座標に変換
する色空間座標変換手段であり、又前記色空間座標変換
手段より後段に設けた写像変換手段の内1つは、知覚色
空間座標を記録装置が入力可能な信号へ変換する色空間
座標逆変換手段である付記10に記載の画像処理装置。(15) Among one or more mapping conversion means provided in series, the mapping conversion means provided closest to the input means is a color space coordinate system for converting an input signal into a perceptual color space coordinate system. Note that one of the mapping conversion means provided after the color space coordinate conversion means is a color space coordinate inverse conversion means for converting the perceptual color space coordinates into a signal that can be input by the recording device. The image processing device according to item 10.
【0572】(16) 前記色空間座標変換手段の後段
に設けた写像変換手段は、色域圧縮処理に伴う写像変換
を行う色域圧縮手段であり、前記色域圧縮手段より後段
に設けた写像変換手段は、前記色空間座標逆変換手段で
ある付記15に記載の画像処理装置。(16) The mapping conversion means provided in the subsequent stage of the color space coordinate conversion means is a gamut compression means for performing mapping conversion accompanying the gamut compression processing, and the mapping conversion means provided after the gamut compression means. 16. The image processing device according to attachment 15, wherein the conversion unit is the color space coordinate reverse conversion unit.
【0573】(17) 直列に1つ以上設けた前記写像
変換手段の内、少なくとも1つは、複数系統の写像変換
を実行することが可能な写像変換手段であり、前記制御
手段は、前記複数系統の写像変換を実行することが可能
である写像変換手段に於ける写像変換方法の切替を制御
する付記10に記載の画像処理装置。(17) At least one of the one or more mapping conversion means provided in series is a mapping conversion means capable of executing mapping conversion of a plurality of systems, and the control means is provided with the plurality of mapping conversion means. 11. The image processing device according to appendix 10, which controls switching of mapping conversion methods in mapping conversion means capable of executing systematic mapping conversion.
【0574】(18) 直列に1つ以上設けた前記写像
変換手段の内、少なくとも1つの前記写像変換手段は、
複数の入力信号の量子化精度を、入力信号の出力信号に
対する寄与の度合に応じて変化させる付記10に記載の
画像処理装置。(18) At least one of the mapping conversion means provided one or more in series is:
11. The image processing device according to appendix 10, which changes the quantization accuracy of a plurality of input signals according to the degree of contribution of the input signals to the output signal.
【0575】(19) 前記制御手段は、入力する複数
の信号が形成する信号空間に於ける、信号の度数分布を
計算する計数手段と、前記計数手段に於いて計算された
信号の度数分布に基づいて、直列に1つ以上設けた前記
写像変換手段の内、少なくとも1つの前記写像変換手段
の動作を決定する動作決定手段と、前記動作決定手段に
於いて決定された動作を、直列に1つ以上設けた前記写
像変換手段の内少なくとも1つの前記写像変換手段に適
用する動作適用手段とを備えて構成される付記10に記
載の画像処理装置。(19) The control means calculates the frequency distribution of signals in a signal space formed by a plurality of input signals, and the frequency distribution of signals calculated by the counting means. On the basis of one or more of the mapping conversion means provided in series, the operation determination means for determining the operation of at least one of the mapping conversion means and the operation determined by the operation determination means are connected in series. 11. The image processing apparatus according to appendix 10, further comprising at least one of the mapping conversion means provided to at least one of the mapping conversion means and an operation application means.
【0576】(20) 前記補正手段は、入力された前
記映像信号に対し、フィルタを設定するフィルタ設定手
段と、フィルタリングを適用するフィルタリング手段
と、フィルタリング結果を出力する出力手段を備えて構
成される付記6に記載の画像処理装置。(20) The correcting means comprises a filter setting means for setting a filter for the input video signal, a filtering means for applying filtering, and an output means for outputting a filtering result. The image processing device according to attachment 6.
【0577】(21) 前記フィルタリング手段が空間
周波数領域上に於けるフィルタリング実行手段を備えて
構成される付記20に記載の画像処理装置。(21) The image processing apparatus according to attachment 20, wherein the filtering means comprises filtering execution means in the spatial frequency domain.
【0578】(22) 前記フィルタリング手段が デ
ィジタルフィルタリング実行手段からなる付記20に記
載の画像処理装置。(22) The image processing apparatus according to attachment 20, wherein the filtering means is digital filtering execution means.
【0579】(23) 前記フィルタ設定手段が前記画
像記録装置の周波数特性に対する逆フィルタを設定する
逆フィルタ設定手段からなる付記20に記載の画像処理
装置。(23) The image processing apparatus according to attachment 20, wherein the filter setting means comprises an inverse filter setting means for setting an inverse filter for the frequency characteristic of the image recording apparatus.
【0580】(24) 前記補正手段は、入力された前
記映像信号に対し、フィルタを設定するフィルタ設定手
段と、フィルタリングを適用するフィルタリング手段
と、入力された前記映像信号とフィルタリング処理結果
を合成する合成手段と、前記合成手段により合成された
信号を出力する出力手段とを備えて構成されるからなる
付記6に記載の画像処理装置。(24) The correcting means combines the input video signal with a filter setting means for setting a filter, a filtering means for applying filtering, and the input video signal and a filtering processing result. 7. The image processing apparatus according to appendix 6, which is configured to include a synthesizing unit and an output unit that outputs the signal synthesized by the synthesizing unit.
【0581】(25) 前記フィルタリング手段が空間
周波数領域上に於けるフィルタリング実行手段を備えて
構成される付記24に記載の画像処理装置。(25) The image processing apparatus according to appendix 24, wherein the filtering means comprises filtering execution means in the spatial frequency domain.
【0582】(26) 前記フィルタリング手段が デ
ィジタルフィルタリング実行手段からなる付記24に記
載の画像処理装置。(26) The image processing apparatus according to attachment 24, wherein the filtering means is digital filtering execution means.
【0583】(27) 前記補正手段は、入力された前
記映像信号に基づき前記合成手段を制御する制御手段を
備えた付記24に記載の画像処理装置。(27) The image processing apparatus according to appendix 24, wherein the correction means includes control means for controlling the synthesizing means based on the input video signal.
【0584】(28) 前記補正手段は、入力された前
記映像信号に対し、フィルタを設定するフィルタ設定手
段と、フィルタリングを適用するフィルタリング手段
と、入力された前記映像信号とフィルタリング処理結果
を合成する写像変換手段とを備えて構成される付記6に
記載の画像処理装置。(28) The correcting means combines the input video signal with a filter setting means for setting a filter, a filtering means for applying filtering, and the input video signal and a filtering processing result. The image processing device according to attachment 6, which is configured to include a mapping conversion unit.
【0585】(29) 前記補正手段は、前記合成手段
の出力を写像変換する写像変換手段を備えて構成される
付記24に記載の画像処理装置。(29) The image processing apparatus according to attachment 24, wherein the correction means is provided with a mapping conversion means for mapping the output of the synthesizing means.
【0586】(30) フィルタリング手段は、複数の
ディジタルフィルタのカスケード接続からなる付記22
または26に記載の画像処理装置。(30) The filtering means comprises a cascade connection of a plurality of digital filters.
Or the image processing device described in 26.
【0587】(31) フィルタリング手段は、前段の
前記ディジタルフィルタからの出力信号を写像変換し、
後段の前記ディジタルフィルタへの入力信号とする写像
変換手段を備えて構成される付記30に記載の画像処理
装置。(31) The filtering means performs mapping conversion of the output signal from the preceding digital filter,
31. The image processing device according to attachment 30, which is configured to include a mapping conversion unit that is an input signal to the digital filter in the subsequent stage.
【0588】(32) 前記写像変換手段は、入力され
た前記映像信号を後段の前記ディジタルフィルタに入力
可能な量子化領域に分布するように変換するを備えて構
成される付記31に記載の画像処理装置。(32) The image according to appendix 31, wherein the mapping conversion means is configured to convert the input video signal so as to be distributed in a quantization region which can be input to the digital filter in the subsequent stage. Processing equipment.
【0589】(33) フィルタリング手段は、前段の
前記ディジタルフィルタに対して、後段の前記ディジタ
ルフィルタを並列に複数接続した付記30に記載の画像
処理装置。(33) The image processing apparatus according to attachment 30, wherein the filtering means has a plurality of digital filters in the subsequent stage connected in parallel to the digital filter in the previous stage.
【0590】(34) フィルタリング手段は、後段に
並列に接続された前記複数のディジタルフィルタに対し
て、前段のディジタルフィルタからの出力信号を分割し
て入力する分配手段と、前記複数のディジタルフィルタ
による処理結果を合成する合成手段とを備えた付記33
に記載の画像処理装置。(34) The filtering means is composed of a dividing means for dividing and inputting the output signal from the digital filter in the preceding stage to the plurality of digital filters connected in parallel in the latter stage, and the plurality of digital filters. Supplementary Note 33 comprising a combining means for combining the processing results
The image processing device according to item 1.
【0591】(35) 出力手段より前段に入力された
複数の映像信号による画像を写像変換する写像変換手段
を備えたことを特徴とする請求項20ないし34のいず
れか1つに記載の画像処理装置。(35) The image processing according to any one of claims 20 to 34, further comprising: mapping conversion means for performing mapping conversion of an image based on a plurality of video signals input from the output means. apparatus.
【0592】(36) 撮像手段により撮像された複数
の映像信号に対し画質補正を行う補正ステップ(図4の
色変換部50または鮮鋭感補正部51)を備えた画像処
理方法。(36) An image processing method including a correction step (color conversion unit 50 or sharpness correction unit 51 in FIG. 4) for performing image quality correction on a plurality of video signals picked up by the image pickup means.
【0593】(37) 前記補正ステップは、前記入力
ステップで入力された複数の映像信号に対し写像変換す
る写像変換ステップ(図5の色空間座標変換部60)
と、前記写像変換ステップで写像変換された映像信号に
対して、色変換を行う色変換ステップ(図5の行列演算
部)と、前記色変換ステップで色変換された映像信号に
対して、逆写像変換する逆写像変換ステップ(図5の色
空間逆座標変換部60)とを備えて構成される付記36
に記載の画像処理方法。(37) The correction step is a mapping conversion step of performing mapping conversion on the plurality of video signals input in the input step (color space coordinate conversion unit 60 in FIG. 5).
A color conversion step of performing color conversion on the video signal subjected to the mapping conversion in the mapping conversion step (matrix operation unit in FIG. 5); and an inverse operation for the video signal subjected to the color conversion in the color conversion step. Supplementary Note 36 configured by including an inverse mapping conversion step for performing mapping conversion (color space inverse coordinate conversion unit 60 in FIG. 5)
The image processing method described in.
【0594】(38) 前記補正ステップは、前記入力
ステップで入力された複数の映像信号に対しフィルタリ
ングを行うフィルタリングステップ(図8のフィルタリ
ング実行部65)を備えて構成される付記36に記載の
画像処理方法。(38) The image according to appendix 36, wherein the correction step includes a filtering step (filtering execution unit 65 in FIG. 8) for filtering the plurality of video signals input in the input step. Processing method.
【0595】(39) 請求項1に記載の画像処理装置
において、前記画像信号処理手段は、予め作成され前記
撮像手段から出力された画像信号を表現する基底ベクト
ルが張る3次元空間である入力色空間の各点を、知覚色
空間の各点に対応させる変換参照テーブルを有し、該撮
像手段から出力された画像信号を知覚色空間に写像する
色空間座標変換手段と、この知覚色空間内で前記処理
(請求項1の画像信号処理手段がする処理)を行い被処
理画像信号とする色空間内変換手段と、予め作成され前
記画像記録装置に入力可能な画像信号を表現する基底ベ
クトルが張る3次元空間である出力色空間の各点を、前
記知覚色空間の各点に対応させる逆変換用参照テーブル
を、出力色空間から知覚色空間の写像方向(以下順写像
方向)とは反対の写像方向(以下逆写像方向)に使用す
ることにより知覚色空間と出力色空間の対応付けをする
色空間座標逆変換手段と、を有することを特徴とする画
像処理装置。(39) In the image processing apparatus according to claim 1, the image signal processing means is an input color which is a three-dimensional space formed by a base vector representing an image signal created in advance and output from the imaging means. A color space coordinate conversion unit that has a conversion reference table that associates each point of the space with each point of the perceptual color space, maps the image signal output from the imaging unit to the perceptual color space, and the perceptual color space In the color space conversion means for performing the above-mentioned processing (processing by the image signal processing means of claim 1) as an image signal to be processed, and a basis vector expressing an image signal which is created in advance and can be input to the image recording apparatus. A reverse conversion lookup table that associates each point in the output color space, which is a three-dimensional space, with each point in the perceptual color space is opposite to the mapping direction from the output color space to the perceptual color space (hereinafter, forward mapping direction). Map of An image processing device, comprising: a color space coordinate inverse transforming unit that associates a perceptual color space with an output color space by using the direction (hereinafter, reverse mapping direction).
【0596】(40) 前記色空間逆変換手段は、入力
色空間内の点を走査する入力点走査手段と、前記逆変換
用参照テーブルにて変換された前記走査された点と、前
記撮像手段から出力された画像信号を前記知覚色空間内
で処理した点のユークリッド距離を検出する距離検出手
段と、該ユークリッド距離の最小値を算出する最小値算
出手段と、を有し、前記ユークリッド距離の最小値を与
える前記走査点を前記知覚色空間内で処理した点とする
ことにより前記知覚色空間と出力色空間の対応付けをす
ることを特徴とする付記39に記載の画像処理装置。(40) The color space inverse conversion means is an input point scanning means for scanning points in the input color space, the scanned points converted by the inverse conversion reference table, and the imaging means. A distance detection means for detecting the Euclidean distance of a point obtained by processing the image signal output from the Euclidean distance in the perceptual color space, and a minimum value calculating means for calculating the minimum value of the Euclidean distance. 40. The image processing apparatus according to appendix 39, wherein the perceptual color space and the output color space are associated with each other by making the scanning point that gives the minimum value a point processed in the perceptual color space.
【0597】(41) 前記入力点走査手段は、走査領
域が設定可能で前記入力色空間内の走査ピッチが順次小
さくなる複数の走査モードと、前記最小値算出手段の結
果に基づき、前記入力色空間内の走査領域を設定する走
査領域設定手段と、を有し、順次走査領域を小さくして
前記ユークリッド距離の最小値を与える走査点を探索す
ることを特徴とする付記40に記載の画像処理装置。(41) The input point scanning means uses a plurality of scanning modes in which a scanning area can be set and the scanning pitch in the input color space is gradually reduced, and the input color based on the result of the minimum value calculation means. The image processing according to appendix 40, further comprising: a scanning area setting unit that sets a scanning area in a space, wherein a scanning point that sequentially reduces the scanning area and that provides the minimum value of the Euclidean distance is searched. apparatus.
【0598】前記付記39乃至41は第21実施例の開
示内容である。The above Supplementary Notes 39 to 41 are the disclosure contents of the twenty-first embodiment.
【0599】(42) 付記39に記載の画像処理装置
は、更に、参照カラー画像入力手段と、補正量入力手段
と、前記参照カラー画像入力手段から入力された参照カ
ラー画像信号に応答して、前記補正量入力により入力さ
れた補正量により、前記色空間座標変換手段にて処理さ
れた被処理画像信号を補正する処理量補正手段と、を有
することを特徴とする。(42) In the image processing device described in appendix 39, further, in response to the reference color image input means, the correction amount input means, and the reference color image signal input from the reference color image input means, Processing amount correction means for correcting the processed image signal processed by the color space coordinate conversion means according to the correction amount input by the correction amount input.
【0600】(43) 前記参照カラー画像信号は、前
記撮像手段から出力され前記色空間内変換手段にて処理
される前のオリジナル画像信号を、前記色空間座標逆変
換手段の逆変換用参照テーブルを前記順写像方向に使用
して得られる画像信号であることを特徴とする付記42
に記載の画像処理装置。(43) As the reference color image signal, the original image signal output from the image pickup means and before being processed by the in-color-space converting means is used as a reference table for inverse conversion of the color-space coordinate inverse-converting means. Appendix 42, which is an image signal obtained by using
The image processing device according to item 1.
【0601】(44) 前記補正量入力手段は、前記参
照カラー画像信号と前記色空間内変換手段にて処理され
た被処理画像信号を重み付け加算する重率を入力する手
段であり、前記処理量補正手段は、色を3次元表示する
色空間内にて、前記参照カラー画像信号を表す参照点と
前記被処理画像信号を表す被処理点とを結ぶ曲線上の前
記重率に対応する点を補正された被処理画像信号として
出力することにより、前記被処理画像信号を補正するこ
とを特徴とする付記43に記載の画像処理装置。(44) The correction amount input means is means for inputting a weighting factor for weighted addition of the reference color image signal and the processed image signal processed by the color space conversion means, and the processing amount The correcting means determines a point corresponding to the weighting factor on a curve connecting a reference point representing the reference color image signal and a processed point representing the processed image signal in a color space for three-dimensionally displaying colors. The image processing apparatus according to appendix 43, wherein the processed image signal is corrected by outputting it as a corrected processed image signal.
【0602】(45) 前記処理量補正手段において、
前記参照点と被処理点を結ぶ曲線は線分であり、該線分
を前記重率によって内分した内分点を前記補正された被
処理画像信号として出力する付記44に記載の画像処理
装置。(45) In the processing amount correction means,
The image processing device according to attachment 44, wherein a curve connecting the reference point and the processed point is a line segment, and an internally dividing point obtained by internally dividing the line segment by the weight ratio is output as the corrected processed image signal. .
【0603】前記付記42乃至45は第22実施例の開
示内容である。The above supplementary notes 42 to 45 are the disclosure contents of the twenty-second embodiment.
【0604】(46) 付記39に記載の画像処理装置
において、更に、入力される補正量に基づいて、前記逆
変換用参照テーブルを書き換える参照テーブル書換え手
段を有することを特徴とする。(46) The image processing apparatus described in appendix 39 is further characterized by further comprising reference table rewriting means for rewriting the inverse conversion reference table based on the input correction amount.
【0605】(47) 前記参照テーブル書換え手段に
入力される補正量は、前記画像記録装置から出力される
画像を観察するための光源の種類に基づくことを特徴と
する付記46に記載の画像処理装置。(47) The image processing described in appendix 46, wherein the correction amount input to the reference table rewriting means is based on the type of light source for observing the image output from the image recording device. apparatus.
【0606】(48) 前記変換テーブル書換え手段
は、複数の光源の色彩輝度に基づく複数の変換テーブル
を格納していることを特徴とする付記47に記載の画像
処理装置。(48) The image processing device described in appendix 47, wherein the conversion table rewriting means stores a plurality of conversion tables based on the color and luminance of a plurality of light sources.
【0607】前記付記46乃至48は第23実施例の開
示内容である。The above Supplementary Notes 46 to 48 are the contents disclosed in the twenty-third embodiment.
【0608】(49) 付記39に記載の画像処理装置
において、前記色空間内変換手段は、入力された画像信
号を色順応対応点に写す色順応変換手段を有することを
特徴とする。(49) In the image processing device described in appendix 39, the color space conversion means has a chromatic adaptation conversion means for copying the input image signal to a chromatic adaptation corresponding point.
【0609】付記49は第24実施例の開示内容であ
る。Appendix 49 is the disclosure content of the twenty-fourth embodiment.
【0610】(50) 付記39に記載の画像処理装置
において、更に、入力される補正量に基づいて、前記色
空間内変換手段の処理動作を補正する処理動作補正手段
を有することを特徴とする。(50) The image processing apparatus described in appendix 39 is characterized by further comprising processing operation correcting means for correcting the processing operation of the in-color-space converting means based on the input correction amount. .
【0611】(51) 前記処理動作補正手段に入力さ
れる補正量は、前記色空間内変換手段が行う知覚色空間
における前記処理によって、変換されない不動点を指定
するデータであることを特徴とする付記50に記載の画
像処理装置。(51) The correction amount input to the processing operation correction means is data designating a fixed point that is not converted by the processing in the perceptual color space performed by the in-color space conversion means. The image processing apparatus according to attachment 50.
【0612】前記付記50及び51は第25実施例の開
示内容である。The above Supplementary Notes 50 and 51 are the disclosure contents of the twenty-fifth embodiment.
【0613】(52) 付記39に記載の画像処理装置
において、更に、前記色空間座標逆変換手段の出力信号
が入力され、該出力信号を複数の輝度データに変換する
輝度する輝度データ変換手段と、該複数の輝度データを
各々独立に利得調整するゲイン調整手段と、該ゲイン調
整手段の出力信号を、前記色空間座標逆変換手段の出力
色空間座標に変換する輝度逆変換手段と、を具備する機
器特性補正手段を有することを特徴とする。(52) In the image processing device described in appendix 39, further, there is provided a luminance data conversion means for receiving the output signal of the color space coordinate inverse conversion means and converting the output signal into a plurality of luminance data. Gain adjustment means for independently adjusting the gain of each of the plurality of luminance data, and luminance inverse conversion means for converting an output signal of the gain adjustment means into output color space coordinates of the color space coordinate inverse conversion means. It is characterized in that it has a device characteristic correcting means for performing.
【0614】(53) 付記52に記載の画像処理装置
において、更に、前記画像記録手段の入出力特性に基づ
き、前記ゲイン調整手段のゲインを設定するゲイン設定
手段を有することを特徴とする。(53) The image processing apparatus described in appendix 52 is characterized by further comprising gain setting means for setting the gain of the gain adjusting means based on the input / output characteristics of the image recording means.
【0615】(54) 付記53に記載の画像処理装置
において、更に、前記画像記録装置の動作状態をモニタ
するモニタ手段を有し、前記ゲイン設定手段はゲインの
設定値を前記モニタ手段が測定する動作状態に従って変
化させることを特徴とする。(54) In the image processing apparatus described in appendix 53, further, there is provided monitor means for monitoring the operating state of the image recording apparatus, and the gain setting means measures the set value of gain by the monitor means. It is characterized in that it is changed according to the operating state.
【0616】(55) 前記モニタ手段は、前記画像記
録装置の動作温度を測定する温度測定手段であり、前記
ゲイン設定手段はゲインの設定値を前記温度測定手段が
測定する動作温度に従って変化させることを特徴とする
付記54に記載の画像処理装置。(55) The monitor means is a temperature measuring means for measuring the operating temperature of the image recording apparatus, and the gain setting means changes the set value of the gain according to the operating temperature measured by the temperature measuring means. The image processing device according to appendix 54.
【0617】(56) 前記モニタ手段は、前記画像記
録手段の電源投入からの経過時間を測定するタイマ手段
であり、前記ゲイン設定手段はゲインの設定値を前記タ
イマ手段が測定する経過時間に従って変化させることを
特徴とする付記54に記載の画像処理装置。(56) The monitor means is a timer means for measuring the elapsed time from the power-on of the image recording means, and the gain setting means changes the set value of the gain according to the elapsed time measured by the timer means. 55. The image processing device according to appendix 54, wherein
【0618】(57) 前記機器特性補正手段は、前記
輝度データ変換手段の前段に、前記色空間座標逆変換手
段の出力信号を切り換える切り換え手段を有し、該切り
換え手段は、前記タイマ手段の制御のもとで、経過時間
が所定の時間以下のとき前記色空間座標逆変換手段の出
力信号を前記輝度データ変換手段に送り、経過時間が前
記所定の時間を越えるとき、前記画像記録手段に直接送
るように切り換え動作を行うことを特徴とする付記56
に記載の画像処理装置。(57) The device characteristic correcting means has a switching means for switching the output signal of the color space coordinate reverse converting means in front of the luminance data converting means, and the switching means controls the timer means. When the elapsed time is less than or equal to a predetermined time, the output signal of the color space coordinate inverse conversion means is sent to the luminance data conversion means, and when the elapsed time exceeds the predetermined time, it is directly sent to the image recording means. Note 56 characterized by performing a switching operation so as to send
The image processing device according to item 1.
【0619】前記付記52乃至57は第26及び第27
実施例の開示内容である。The above Supplementary Notes 52 to 57 are the 26th and 27th.
It is the disclosure content of the embodiment.
【0620】[0620]
【発明の効果】以上説明したように、本発明の画像処理
装置によれば、画像信号処理手段が、撮像手段から出力
された画像信号に基づき画像表示手段に表示される画像
と、前記画像記録再生手段から再生された画像信号と基
づき画像表示手段に表示される画像との画質を等価にす
る画像処理データに基づき、撮像手段から出力される画
像信号を処理するので、撮像手段からの映像信号を入力
する画像表示手段に再現された画像の色と、画像記録再
生手段により再現される画像の色の差を測色的に改善
し、又は表示手段に再現された画像の鮮鋭感と画像記録
再生手段により再現される画像の鮮鋭感の差をMTFの
差に於いて改善することを可能にすると共に、画像表示
手段に再現された画像に対する作業者の記憶等によっ
て、作業者が目標とする画質が、測色的に色差が改善さ
れ、又は鮮鋭感が補正された結果から変動した場合に
も、作業者が目標とする好ましい色、又は好ましい鮮鋭
感を再現することを可能にするという効果がある。As described above, according to the image processing apparatus of the present invention, the image signal processing means causes the image displayed on the image display means based on the image signal output from the image pickup means, and the image recording means. Since the image signal output from the image pickup means is processed based on the image processing data that makes the image displayed on the image display means equivalent to the image signal reproduced from the reproducing means, the image signal from the image pickup means is processed. The difference between the color of the image reproduced by the image display means and the color of the image reproduced by the image recording / reproducing means is improved colorimetrically, or the sharpness and image recording of the image reproduced by the display means are improved. The difference in the sharpness of the image reproduced by the reproducing means can be improved in the difference in MTF, and the operator can set a target by the memory of the operator for the image reproduced on the image display means. An effect that enables an operator to reproduce a desired preferable color or a desired sharpness even when the image quality is changed from the result of colorimetrically improved color difference or the corrected sharpness. There is.
【図1】第1実施例に係る画像処理装置を備えた内視鏡
システムの構成を示す構成図FIG. 1 is a configuration diagram showing a configuration of an endoscope system including an image processing apparatus according to a first embodiment.
【図2】図1の内視鏡システムの詳細な構成を示すブロ
ック構成図2 is a block configuration diagram showing a detailed configuration of the endoscope system of FIG.
【図3】図1の画像処理装置の構成を示す構成図3 is a configuration diagram showing a configuration of the image processing apparatus of FIG.
【図4】図3の中央処理装置の画像処理部のソフトウエ
アの構成を示すソフトウエア構成図FIG. 4 is a software configuration diagram showing a software configuration of an image processing unit of the central processing unit of FIG.
【図5】図4の色変換部のソフトウエアの構成を示すソ
フトウエア構成図5 is a software configuration diagram showing the software configuration of the color conversion unit in FIG.
【図6】図4の色変換部の処理の流れを説明するフロー
チャートFIG. 6 is a flowchart illustrating a processing flow of a color conversion unit in FIG.
【図7】図4の色変換部で使用されるCIE1976
(L*u*v*)色空間に於ける一般的な内視鏡画像の色
分布を説明する概念図7 is a CIE1976 used in the color conversion unit of FIG. 4;
A conceptual diagram for explaining the color distribution of a general endoscopic image in the (L * u * v * ) color space.
【図8】図4の鮮鋭感補正部のソフトウエアの構成を示
すソフトウエア構成図FIG. 8 is a software configuration diagram showing the software configuration of the sharpness correction unit in FIG.
【図9】図4の鮮鋭感補正部による鮮鋭感補正の概念を
説明する説明図FIG. 9 is an explanatory diagram illustrating the concept of sharpness correction by the sharpness correction unit in FIG.
【図10】図4の鮮鋭感補正部の処理の流れを説明する
フローチャートFIG. 10 is a flowchart illustrating a processing flow of the sharpness correction unit in FIG.
【図11】図4の鮮鋭感補正部による鮮鋭感補正を説明
する説明図11 is an explanatory diagram for explaining sharpness correction by the sharpness correction unit in FIG. 4. FIG.
【図12】第2実施例に係る鮮鋭感補正部による鮮鋭感
補正を説明する説明図FIG. 12 is an explanatory diagram for explaining sharpness correction by the sharpness correction unit according to the second embodiment.
【図13】図12の鮮鋭感補正を行う鮮鋭感補正部のソ
フトウエアの構成を示すソフトウエア構成図FIG. 13 is a software configuration diagram showing the software configuration of a sharpness correction unit that performs the sharpness correction of FIG.
【図14】第3実施例に係る色変換部のソフトウエアの
構成を示すソフトウエア構成図FIG. 14 is a software configuration diagram showing a software configuration of a color conversion unit according to the third embodiment.
【図15】図14の色変換部の処理の流れを説明するフ
ローチャートFIG. 15 is a flowchart illustrating a processing flow of a color conversion unit in FIG.
【図16】第4実施例に係る色変換部の処理の流れを説
明するフローチャートである。FIG. 16 is a flowchart illustrating a processing flow of a color conversion unit according to the fourth embodiment.
【図17】第5実施例に係る色変換部のソフトウエアの
構成を示すソフトウエア構成図FIG. 17 is a software configuration diagram showing a software configuration of a color conversion unit according to the fifth embodiment.
【図18】図17の色変換部に適用される観察用モニタ
色域と画像記録装置色域の関係をu*v*平面で説明する
概念図18 is a conceptual diagram illustrating a relationship between an observation monitor color gamut and an image recording device color gamut applied to the color conversion unit in FIG. 17 on a u * v * plane.
【図19】図17の色変換部の処理の流れを説明するフ
ローチャートFIG. 19 is a flowchart illustrating a processing flow of the color conversion unit in FIG.
【図20】図17の色変換部に適用される内視鏡画像記
憶装置色域データの構成と色相(H)彩度(C)明度
(V)の意味をCIE1976(L*u*v*)色空間で
説明する概念図20 shows the structure of the gamut data of the endoscopic image storage device applied to the color conversion unit of FIG. 17 and the meaning of hue (H) saturation (C) lightness (V) in CIE1976 (L * u * v *). ) Conceptual diagram explained in color space
【図21】図17の色域圧縮部の変形例の構成を示すソ
フトウエア構成図FIG. 21 is a software configuration diagram showing a configuration of a modified example of the color gamut compression unit in FIG.
【図22】第6実施例に係る色変換部の行列演算部の構
成を示すソフトウエア構成図FIG. 22 is a software configuration diagram showing the configuration of a matrix calculation unit of the color conversion unit according to the sixth embodiment.
【図23】図22の行列演算部に適用されるCIE19
76(L*u*v*)色空間に於いて複数に分割された領
域について説明する概念図FIG. 23 is a CIE19 applied to the matrix calculation unit of FIG. 22;
76 (L * u * v * ) color space conceptual diagram for explaining a plurality of divided regions
【図24】第7実施例に係る色変換部のソフトウエアの
構成を示すソフトウエア構成図FIG. 24 is a software configuration diagram showing a software configuration of a color conversion unit according to the seventh embodiment.
【図25】第8実施例に係る色変換部のソフトウエアの
構成を示すソフトウエア構成図FIG. 25 is a software configuration diagram showing the software configuration of the color conversion unit according to the eighth embodiment.
【図26】図25の行列演算部の構成を示すソフトウエ
ア構成図である。FIG. 26 is a software configuration diagram showing a configuration of the matrix calculation unit of FIG. 25.
【図27】第9実施例に係る色変換部のソフトウエアの
構成を示すソフトウエア構成図FIG. 27 is a software configuration diagram showing the software configuration of the color conversion unit according to the ninth embodiment.
【図28】図27の色変換部の処理の流れを説明するフ
ローチャートFIG. 28 is a flowchart for explaining the processing flow of the color conversion section in FIG.
【図29】図27の色変換部の処理の変形例の流れを説
明するフローチャートFIG. 29 is a flowchart illustrating the flow of a modified example of the processing of the color conversion unit in FIG. 27.
【図30】図29のフローチャートによる明度の好まし
い変換について説明する概念図FIG. 30 is a conceptual diagram illustrating a preferable conversion of brightness according to the flowchart of FIG. 29.
【図31】第10実施例に係る色変換部の行列演算部の
構成を示すソフトウエア構成図FIG. 31 is a software configuration diagram showing the configuration of the matrix calculation unit of the color conversion unit according to the tenth embodiment.
【図32】第11実施例に係る画像処理装置の構成を示
すブロック図FIG. 32 is a block diagram showing the arrangement of an image processing apparatus according to the eleventh embodiment.
【図33】図32の画像処理装置の変形例の構成を示す
ブロック図33 is a block diagram showing the configuration of a modified example of the image processing apparatus shown in FIG. 32.
【図34】図32の色変換回路の構成を示すブロック図34 is a block diagram showing the configuration of the color conversion circuit of FIG. 32.
【図35】図32の鮮鋭感補正回路の構成を示すブロッ
ク図35 is a block diagram showing the configuration of the sharpness correction circuit of FIG. 32.
【図36】図35のフィルタリング部の構成を示すブロ
ック図36 is a block diagram showing the configuration of the filtering unit in FIG. 35.
【図37】第12実施例に係る色変換回路の構成を示す
ブロック図FIG. 37 is a block diagram showing the configuration of a color conversion circuit according to a twelfth embodiment.
【図38】第13実施例に係る色変換回路の構成を示す
ブロック図FIG. 38 is a block diagram showing the configuration of a color conversion circuit according to a thirteenth embodiment.
【図39】第14実施例に係る色変換回路の構成を示す
ブロック図FIG. 39 is a block diagram showing the configuration of the color conversion circuit according to the fourteenth embodiment.
【図40】第15実施例に係る鮮鋭感補正回路のフィル
タリング部の構成を示すブロック図FIG. 40 is a block diagram showing the configuration of a filtering unit of the sharpness correction circuit according to the fifteenth embodiment.
【図41】第16実施例に係る鮮鋭感補正回路の構成を
示すブロック図FIG. 41 is a block diagram showing the configuration of a sharpness correction circuit according to the sixteenth embodiment.
【図42】図41の合成部の構成を示すブロック図42 is a block diagram showing the configuration of the combining unit in FIG. 41.
【図43】図41のデータ変換部の構成を示すブロック
図43 is a block diagram showing the configuration of the data conversion unit in FIG. 41.
【図44】図41の合成部の変形例の構成を示すブロッ
ク図FIG. 44 is a block diagram showing a configuration of a modified example of the combining unit in FIG. 41.
【図45】第17実施例に係るFIRフィルタのマスク
サイズを説明する説明図FIG. 45 is an explanatory diagram illustrating a mask size of the FIR filter according to the seventeenth embodiment.
【図46】図45のFIRフィルタを備えたフィルタリ
ング部の構成を示すブロック図46 is a block diagram showing the configuration of a filtering unit including the FIR filter shown in FIG. 45.
【図47】第18実施例に係るフィルタリング部の構成
を示すブロック図FIG. 47 is a block diagram showing the configuration of a filtering unit according to the eighteenth embodiment.
【図48】第19実施例に係るフィルタリング部の構成
を示すブロック図FIG. 48 is a block diagram showing the configuration of a filtering unit according to the nineteenth embodiment.
【図49】第20実施例に係るフィルタリング部の構成
を示すブロック図FIG. 49 is a block diagram showing the configuration of a filtering unit according to the twentieth embodiment.
【図50】図3の中央処理装置における画像処理部のソ
フトウェアの概念構成を示すブロック図50 is a block diagram showing a conceptual configuration of software of an image processing unit in the central processing unit of FIG.
【図51】第21実施例に係る色変換手段の機能構成を
示すブロック図FIG. 51 is a block diagram showing the functional arrangement of a color conversion means according to the twenty-first embodiment.
【図52】第21実施例における色変換手段の動作を説
明するフローチャートFIG. 52 is a flowchart for explaining the operation of the color conversion means in the twenty-first embodiment.
【図53】CIE1976(L*u*v*)色空間におけ
る観察用モニタと画像記録装置の色域の関係を説明する
概念図FIG. 53 is a conceptual diagram illustrating the relationship between the color gamut of the observation monitor and the image recording device in the CIE1976 (L * u * v * ) color space.
【図54】色域圧縮の方法の一例を示すフローチャートFIG. 54 is a flowchart showing an example of a color gamut compression method.
【図55】色域圧縮の概念をCIE1976(L*u*v
*)色空間において説明した説明図FIG. 55 shows the concept of color gamut compression based on CIE1976 (L * u * v).
* ) Illustration explained in color space
【図56】機器に依存しない色変換システムの構成を説
明する概念図FIG. 56 is a conceptual diagram illustrating the configuration of a device-independent color conversion system.
【図57】第22実施例に係る色変換手段の機能構成を
示すブロック図FIG. 57 is a block diagram showing the functional arrangement of a color conversion means according to the 22nd embodiment.
【図58】第22実施例において設けられる色補正効果
調整手段の内部構成を示すブロック図FIG. 58 is a block diagram showing the internal structure of a color correction effect adjusting means provided in the 22nd embodiment.
【図59】図58の色補正効果調整手段の作用を説明す
る概念図FIG. 59 is a conceptual diagram illustrating the operation of the color correction effect adjusting means in FIG. 58.
【図60】第23実施例に係る色変換手段の機能構成を
示すブロック図FIG. 60 is a block diagram showing the functional arrangement of a color conversion means according to the 23rd embodiment.
【図61】第23実施例において設けられる光源効果調
整手段の作用を説明する概念図FIG. 61 is a conceptual diagram for explaining the operation of the light source effect adjusting means provided in the 23rd embodiment.
【図62】第24実施例に係る色変換手段の機能構成を
示すブロック図FIG. 62 is a block diagram showing the functional arrangement of a color conversion means according to the twenty-fourth embodiment.
【図63】第24実施例において設けられる色順応変換
手段の作用を説明する概念図FIG. 63 is a conceptual diagram explaining the operation of the chromatic adaptation conversion means provided in the twenty-fourth embodiment.
【図64】第25実施例に係る色変換手段の機能構成を
示すブロック図FIG. 64 is a block diagram showing the functional arrangement of color conversion means according to the twenty-fifth embodiment.
【図65】第25実施例において設けられる色域圧縮中
心変更手段の作用を説明する概念図FIG. 65 is a conceptual diagram explaining the operation of the gamut compression center changing means provided in the twenty-fifth embodiment.
【図66】第26実施例に係る機器特性補正手段の機能
構成を示すブロック図FIG. 66 is a block diagram showing a functional configuration of a device characteristic correction means in a twenty-sixth embodiment.
【図67】第26実施例における機器特性補正手段の動
作を説明するフローチャートFIG. 67 is a flowchart for explaining the operation of the device characteristic correction means in the twenty sixth embodiment.
【図68】第27実施例に係る機器特性補正手段の機能
構成を示すブロック図FIG. 68 is a block diagram showing the functional configuration of a device characteristic correction means in the twenty-seventh embodiment.
【図69】第27実施例における機器特性補正手段の動
作を説明するフローチャートFIG. 69 is a flowchart for explaining the operation of the device characteristic correction means in the twenty-seventh embodiment.
【図70】第27実施例の機器特性補正手段における画
像記録装置の出力特性関数の決定方法を説明する概念図FIG. 70 is a conceptual diagram illustrating a method of determining an output characteristic function of an image recording device in a device characteristic correction unit of the 27th embodiment.
1…電子内視鏡システム 2…電子内視鏡装置 3…画像処理装置 4…内視鏡画像記録装置 6…電子内視鏡 7…観測装置 7A…光源部 7B…信号処理部 8…観察用モニタ 40…中央処理装置 41…情報入力装置 42…主記憶装置 43…画像入力I/F 44…外部記憶装置 45…ROM 46…画像記憶装置I/F 47…画像処理部 50…色変換部 51…鮮鋭感補正部 60…色空間座標変換部 61…行列演算部 62…色空間逆座標変換部 65、71…フィルタリング部 66、73…データ変換部 72…合成部 81…異常処理部 86、86a…色域圧縮部 160…入力I/F 163…色変換回路 166…鮮鋭感補正回路 168a、168b…出力用I/F 169…演算用コントローラ 171…パラメータ入力装置用I/F 350…色変換手段 351…鮮鋭感補正手段 352…機器特性補正手段 400…色空間座標変換手段 401…色域圧縮手段 402…色空間座標逆変換手段 411…標準機器特性再現手段 412…ゲイン調整手段 413…機器特性逆再現手段 DESCRIPTION OF SYMBOLS 1 ... Electronic endoscope system 2 ... Electronic endoscope apparatus 3 ... Image processing apparatus 4 ... Endoscopic image recording apparatus 6 ... Electronic endoscope 7 ... Observing apparatus 7A ... Light source section 7B ... Signal processing section 8 ... Observation Monitor 40 ... Central processing unit 41 ... Information input device 42 ... Main storage device 43 ... Image input I / F 44 ... External storage device 45 ... ROM 46 ... Image storage device I / F 47 ... Image processing unit 50 ... Color conversion unit 51 ... Sharpness correction unit 60 ... Color space coordinate conversion unit 61 ... Matrix calculation unit 62 ... Color space inverse coordinate conversion unit 65, 71 ... Filtering unit 66, 73 ... Data conversion unit 72 ... Compositing unit 81 ... Abnormality processing unit 86, 86a Color gamut compression unit 160 Input I / F 163 Color conversion circuit 166 Sharpness correction circuit 168a, 168b Output I / F 169 Computation controller 171 Parameter input device I / F 350 Color conversion means 351 ... Sharpness correction means 352 ... Equipment characteristic correction means 400 ... Color space coordinate conversion means 401 ... Color gamut compression means 402 ... Color space coordinate inverse conversion means 411 ... Standard equipment characteristic reproduction means 412 ... Gain adjustment means 413 ... Device characteristic reverse reproduction means
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/409 1/46 7/18 U H04N 1/46 Z (72)発明者 西村 博一 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 中村 一成 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 三好 義孝 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI Technical indication location H04N 1/409 1/46 7/18 U H04N 1/46 Z (72) Inventor Hirokazu Nishimura Tokyo 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. (72) Inventor Issei Nakamura 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. (72) Inventor Yoshitaka Miyoshi 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd.
Claims (1)
像手段と、 前記撮像手段の出力する画像信号を記録媒体に記録する
画像記録手段と、 前記撮像手段から出力される画像信号が入力されて前記
被写体の画像を表示する画像表示手段とを備えた画像処
理装置において、 前記撮像手段から出力された画像信号に基づき前記画像
表示手段に表示される画像と、前記画像記録手段から得
られた画像との画質を等価にする画像処理データに基づ
き、前記撮像手段から出力される画像信号を処理する画
像信号処理手段を備えたことを特徴とする画像処理装
置。1. An image pickup means for picking up an image of a subject and outputting an image signal, an image recording means for recording an image signal output by the image pickup means on a recording medium, and an image signal output from the image pickup means are input. And an image displayed on the image display means for displaying the image of the subject, the image displayed on the image display means based on the image signal output from the image pickup means, and the image obtained from the image recording means. An image processing apparatus comprising an image signal processing means for processing an image signal output from the image pickup means on the basis of image processing data having an image quality equivalent to that of an image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7114939A JPH0837604A (en) | 1994-05-17 | 1995-05-12 | Image processor |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10308194 | 1994-05-17 | ||
JP6-103081 | 1994-05-17 | ||
JP7114939A JPH0837604A (en) | 1994-05-17 | 1995-05-12 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0837604A true JPH0837604A (en) | 1996-02-06 |
Family
ID=26443740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7114939A Withdrawn JPH0837604A (en) | 1994-05-17 | 1995-05-12 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0837604A (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09307777A (en) * | 1996-05-10 | 1997-11-28 | Matsushita Electric Ind Co Ltd | Color conversion method |
JPH10165365A (en) * | 1996-12-10 | 1998-06-23 | Fuji Photo Film Co Ltd | Endoscope |
JP2001285889A (en) * | 2000-02-18 | 2001-10-12 | Eastman Kodak Co | Reproduction of color image for scene attended with preferred color mapping |
JP2005130202A (en) * | 2003-10-23 | 2005-05-19 | Pentax Corp | Color chart for color adjustment and gray level adjustment of color printer and color monitor in endoscope |
JP2006142004A (en) * | 2004-10-20 | 2006-06-08 | Fuji Photo Film Co Ltd | Sharpness adjustment method, program and electronic endoscope apparatus |
JP2007050110A (en) * | 2005-08-18 | 2007-03-01 | Pentax Corp | Image processor and electronic endoscope system |
JP2007124648A (en) * | 2005-10-25 | 2007-05-17 | Hewlett-Packard Development Co Lp | Color mapping |
JP2008040305A (en) * | 2006-08-09 | 2008-02-21 | Nanao Corp | Display apparatus, display system, and rgb signal processing method |
JP2008093225A (en) * | 2006-10-13 | 2008-04-24 | Olympus Medical Systems Corp | Endoscope system and image processing method in this endoscope system |
JP2008185337A (en) * | 2007-01-26 | 2008-08-14 | Nec Corp | System, method and program for evaluating pathological image |
JP2008546006A (en) * | 2005-05-20 | 2008-12-18 | サムスン エレクトロニクス カンパニー リミテッド | Multiple primary color sub-pixel rendering with metamer filtering |
US7564602B2 (en) | 2003-07-28 | 2009-07-21 | Hoya Corporation | Color chart for adjustment of a color printer and a color monitor utilized with an endoscope |
JP2009160269A (en) * | 2008-01-08 | 2009-07-23 | Toshiba Corp | Imaging diagnostic equipment, image display unit, and printer |
JP2010524025A (en) * | 2007-04-03 | 2010-07-15 | トムソン ライセンシング | Method and system for color correction of displays having different color gamuts |
JP2011193983A (en) * | 2010-03-18 | 2011-10-06 | Olympus Corp | Endoscope system, imaging apparatus, and control method |
JP2014002325A (en) * | 2012-06-20 | 2014-01-09 | Eizo Corp | Image display device, image display system, measurement method and computer program |
JP2014115790A (en) * | 2012-12-07 | 2014-06-26 | Fujitsu Ltd | Image processor, information processing method and program |
JP2017158764A (en) * | 2016-03-09 | 2017-09-14 | ソニー株式会社 | Image processing device, image processing method, and recording medium |
JP2018011135A (en) * | 2016-07-11 | 2018-01-18 | キヤノン株式会社 | Image processing system and image processing method |
WO2019142689A1 (en) * | 2018-01-19 | 2019-07-25 | Hoya株式会社 | Processor for electronic endoscope and electronic endoscope system |
-
1995
- 1995-05-12 JP JP7114939A patent/JPH0837604A/en not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09307777A (en) * | 1996-05-10 | 1997-11-28 | Matsushita Electric Ind Co Ltd | Color conversion method |
JPH10165365A (en) * | 1996-12-10 | 1998-06-23 | Fuji Photo Film Co Ltd | Endoscope |
JP2001285889A (en) * | 2000-02-18 | 2001-10-12 | Eastman Kodak Co | Reproduction of color image for scene attended with preferred color mapping |
US7564602B2 (en) | 2003-07-28 | 2009-07-21 | Hoya Corporation | Color chart for adjustment of a color printer and a color monitor utilized with an endoscope |
JP2005130202A (en) * | 2003-10-23 | 2005-05-19 | Pentax Corp | Color chart for color adjustment and gray level adjustment of color printer and color monitor in endoscope |
JP2006142004A (en) * | 2004-10-20 | 2006-06-08 | Fuji Photo Film Co Ltd | Sharpness adjustment method, program and electronic endoscope apparatus |
JP2008546006A (en) * | 2005-05-20 | 2008-12-18 | サムスン エレクトロニクス カンパニー リミテッド | Multiple primary color sub-pixel rendering with metamer filtering |
KR101254032B1 (en) * | 2005-05-20 | 2013-04-12 | 삼성디스플레이 주식회사 | Multiprimary color subpixel rendering with metameric filtering |
JP2007050110A (en) * | 2005-08-18 | 2007-03-01 | Pentax Corp | Image processor and electronic endoscope system |
JP2007124648A (en) * | 2005-10-25 | 2007-05-17 | Hewlett-Packard Development Co Lp | Color mapping |
US8432588B2 (en) | 2005-10-25 | 2013-04-30 | Hewlett-Packard Development Company, L.P. | Color mapping |
JP2008040305A (en) * | 2006-08-09 | 2008-02-21 | Nanao Corp | Display apparatus, display system, and rgb signal processing method |
JP2008093225A (en) * | 2006-10-13 | 2008-04-24 | Olympus Medical Systems Corp | Endoscope system and image processing method in this endoscope system |
JP2008185337A (en) * | 2007-01-26 | 2008-08-14 | Nec Corp | System, method and program for evaluating pathological image |
US9432554B2 (en) | 2007-04-03 | 2016-08-30 | Thomson Licensing | Methods and systems for displays with chromatic correction having differing chromatic ranges |
US9185268B2 (en) | 2007-04-03 | 2015-11-10 | Thomson Licensing | Methods and systems for displays with chromatic correction with differing chromatic ranges |
JP2010524025A (en) * | 2007-04-03 | 2010-07-15 | トムソン ライセンシング | Method and system for color correction of displays having different color gamuts |
US9854136B2 (en) | 2007-04-03 | 2017-12-26 | Thomson Licensing Dtv | Methods and systems for displays with chromatic correction with differing chromatic ranges |
JP2009160269A (en) * | 2008-01-08 | 2009-07-23 | Toshiba Corp | Imaging diagnostic equipment, image display unit, and printer |
US8723937B2 (en) | 2010-03-18 | 2014-05-13 | Olympus Corporation | Endoscope system, imaging apparatus, and control method |
JP2011193983A (en) * | 2010-03-18 | 2011-10-06 | Olympus Corp | Endoscope system, imaging apparatus, and control method |
JP2014002325A (en) * | 2012-06-20 | 2014-01-09 | Eizo Corp | Image display device, image display system, measurement method and computer program |
JP2014115790A (en) * | 2012-12-07 | 2014-06-26 | Fujitsu Ltd | Image processor, information processing method and program |
JP2017158764A (en) * | 2016-03-09 | 2017-09-14 | ソニー株式会社 | Image processing device, image processing method, and recording medium |
US10799088B2 (en) | 2016-03-09 | 2020-10-13 | Sony Corporation | Image processing device, image processing method and recording medium |
US11642004B2 (en) | 2016-03-09 | 2023-05-09 | Sony Corporation | Image processing device, image processing method and recording medium |
JP2018011135A (en) * | 2016-07-11 | 2018-01-18 | キヤノン株式会社 | Image processing system and image processing method |
WO2019142689A1 (en) * | 2018-01-19 | 2019-07-25 | Hoya株式会社 | Processor for electronic endoscope and electronic endoscope system |
JPWO2019142689A1 (en) * | 2018-01-19 | 2020-12-17 | Hoya株式会社 | Electronic Endoscope Processor and Electronic Endoscope System |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0837604A (en) | Image processor | |
KR101311925B1 (en) | Imaging device and method of processing imaging result in imaging device | |
KR101287481B1 (en) | Converting a colorimetric transform from an input color space to an output color space | |
US7023580B2 (en) | System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines | |
Mantiuk et al. | High-dynamic range imaging pipeline: perception-motivated representation of visual content | |
US7755670B2 (en) | Tone-conversion device for image, program, electronic camera, and tone-conversion method | |
JP2005117612A (en) | Image processing method and apparatus | |
JP2007142670A (en) | Image processing system and image processing program | |
JP2005526300A (en) | A general-purpose image enhancement algorithm that enhances visual recognition of details in digital images | |
JP2002374541A (en) | Method of digital processing for digital movie projection of tone scale and color | |
JPH11331596A (en) | Image processing method and its device | |
JP2001054013A (en) | Image pickup signal processor and its processing method | |
CN115023729A (en) | Method for converting an image and corresponding device | |
JP2005354372A (en) | Apparatus and method for image recording device, method and system for image processing | |
JP2005210495A (en) | Image processing apparatus, method, and program | |
CN115665565A (en) | Online tobacco leaf image color correction method, system and device | |
Artusi et al. | Automatic saturation correction for dynamic range management algorithms | |
KR20070091208A (en) | Automatic white balance control | |
JP3876650B2 (en) | Color correction parameter calculation device, image color correction device, color correction parameter calculation method used therefor, and program thereof | |
Kwon et al. | CAM-based HDR image reproduction using CA–TC decoupled JCh decomposition | |
US8169475B2 (en) | Image processing system, imaging system, and microscope imaging system | |
JP5833049B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP5568084B2 (en) | Transform images encoded using different standards | |
EP2204980B1 (en) | Image processing system, imaging system, and microscope imaging system | |
US20100165149A1 (en) | Opponent Color Detail Enhancement for Saturated Colors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020806 |