WO2008007461A1 - Dispositif de traitement d'images et programme de traitement d'images - Google Patents

Dispositif de traitement d'images et programme de traitement d'images Download PDF

Info

Publication number
WO2008007461A1
WO2008007461A1 PCT/JP2007/000742 JP2007000742W WO2008007461A1 WO 2008007461 A1 WO2008007461 A1 WO 2008007461A1 JP 2007000742 W JP2007000742 W JP 2007000742W WO 2008007461 A1 WO2008007461 A1 WO 2008007461A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
hue
color
image processing
pixel
Prior art date
Application number
PCT/JP2007/000742
Other languages
English (en)
French (fr)
Inventor
Tomotaka Shinoda
Toshihiro Mitaka
Satoshi Mori
Naoki Watanabe
Hideki Ito
Original Assignee
Nikon Corporation
Sapporo Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation, Sapporo Medical University filed Critical Nikon Corporation
Priority to US12/280,520 priority Critical patent/US20090110273A1/en
Priority to EP07766974.5A priority patent/EP2040218B1/en
Publication of WO2008007461A1 publication Critical patent/WO2008007461A1/ja
Priority to US12/339,925 priority patent/US8406514B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6075Corrections to the hue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to an image processing apparatus and an image processing program for processing a color image.
  • Non-Patent Document 1 CI im. Lab. Heam 2003, 25, 139-147, "Differential counting of blood leukocytes using automated microscopy and a decision support s system based on artificial neural networks-evaluation of DiffMaster Script ia"
  • Patent Document 1 JP 2003-506796 gazette
  • the method of distinguishing the color difference for each cell type based on the sub-volume in the color space is an indirect method.
  • the color difference for each cell type in the actual image is very small, and the color difference cannot be clearly distinguished on the actual image.
  • An object of the present invention is to provide an image processing apparatus and an image processing program capable of clarifying a slight color difference in a color image (actual image) of a specimen. Means for solving the problem
  • the image processing apparatus is a processing means for obtaining a hue of each pixel of a color image, a detection means for detecting a mode value of the hue, and a boundary value between two predetermined hues And changing means for changing the hue of each pixel of the color image according to the difference between the mode value and the mode value.
  • the processing means obtains the saturation and luminance of each pixel in addition to the hue, and the changing means includes the change of the hue as described above.
  • the saturation and the luminance are also changed, so that the plurality of target pixels having different saturations are separated from each other in the color space defined by the hue axis, the saturation axis, and the luminance axis.
  • the saturation and brightness of each pixel of the color image are changed.
  • the red, green, and blue color components of each pixel of the color image are obtained based on the hue, saturation, and luminance after the change by the changing means, Conversion means for converting the gradations of the respective color components is provided so that the plurality of target pixels are most distant from each other in the color space.
  • the processing means obtains the saturation and brightness of each pixel in addition to the hue, and obtains the hue after the change by the changing means and the processing means. Based on the saturation and luminance, the red, green, and blue color components of each pixel of the color image are obtained, and a plurality of pixels of different saturation are obtained in a color space based on the hue axis, the saturation axis, and the luminance axis. Conversion means for converting the gradations of the color components so that they are farthest from each other.
  • a fifth invention is the third or fourth invention, wherein the conversion means converts the gradation of each color component using a table.
  • a sixth invention is the invention according to any one of the second to fifth inventions, comprising extraction means for extracting the plurality of pixels of interest based on a user instruction.
  • the processing means elongates at least the hue of each pixel by using the color image after negative-positive inversion.
  • An eighth invention according to any one of the first to seventh inventions, further comprises selection means for selecting a region of interest having a predetermined color value in the color image.
  • the selecting means selects the region of interest based on a user instruction.
  • a tenth invention is the eighth or ninth invention, comprising measuring means for measuring the number or area ratio of the regions of interest in the color image.
  • the color image is an image obtained by photographing eosinophils.
  • the image processing program includes a processing procedure for obtaining a hue of each pixel of a color image, a detection procedure for detecting a mode value of the hue, and a predetermined procedure.
  • the computer executes a change procedure for changing the hue of each pixel of the power error image.
  • FIG. 1 is a block diagram (a) illustrating the configuration of an inspection apparatus 10 and a diagram (b) illustrating an example of a sample 1OA.
  • FIG. 2 is a flowchart showing a color image processing procedure in the image processing apparatus 12 of the present embodiment.
  • FIG. 3 is a diagram illustrating an example of a data path when a power error image is processed.
  • FIG. 4 is a schematic diagram of a color image after negative-positive inversion.
  • FIG. 5 is a diagram for explaining the value (hue / saturation / luminance) of each pixel after HSI conversion by plotting it in a predetermined color space.
  • FIG. 6 is a diagram for explaining the mode of hue (hue H 3 Q) of each pixel.
  • FIG. 7 is a diagram for explaining the rotation of hue H 3Q .
  • FIG. 8 is a schematic diagram of a color image after hue change.
  • FIG. 9 is a diagram for explaining extraction of target pixels 3 1 to 3 4.
  • FIG. 10 is a diagram for explaining a color space of a bihexagonal pyramid model.
  • FIG. 11 is a diagram for explaining the plot positions of target pixels 31 to 34 after the saturation / brightness has been changed.
  • FIG. 12 is a diagram for explaining an example of a gradation conversion curve (7 ⁇ to ⁇ ⁇ 3 ).
  • FIG. 14 A diagram showing a color image after negative-positive reversal of a bone marrow sample containing eosinophils stained with Giemsa (a), and a diagram showing a force Lull image after the processing of FIG. 2 (b). Best Mode for Carrying Out the Invention ⁇ Description of First Embodiment>
  • FIG. 1 (a) is a block diagram showing a configuration of the inspection apparatus 10 of the first embodiment
  • FIG. 1 (b) is an explanatory view showing a blood cell sample stained with Giemsa, for example.
  • This inspection apparatus 10 is used for pathological diagnosis of specimen 1 OA.
  • Sample 1 OA is, for example, a Giemsa-stained blood cell sample, and includes a plurality of cells 15 to 18.
  • the inspection apparatus 10 includes an imaging apparatus 11 such as a digital camera, and an image processing apparatus.
  • the imaging apparatus 11 captures the specimen 1 OA and outputs a color image (RGB image) of the specimen 1 OA to the image processing apparatus 12.
  • the image processing device 12 captures the color image of the specimen 1 OA and processes the color image according to the flow chart procedure shown in FIG. When processing, refer to the user instructions from the input device 13 as necessary. Further, a color image being processed or processed is output to the display device 14 as necessary.
  • the image processing apparatus 12 is a computer in which an image processing program (FIG. 2) is installed.
  • an image processing program (FIG. 2)
  • a recording medium CD-ROM etc.
  • a carrier wave (including an image processing program) that can be downloaded via the Internet may be used.
  • the object of processing is a color image (RGB image) of Sample 1 OA.
  • An example of a data path for processing a color image is shown in Figure 3 (blocks 21 to 25).
  • the image processing device 12 When the image processing device 12 captures the color image of the sample 1 OA, the image processing device 12 performs negative / positive inversion on the color image (step S 1, block 2 1). In the color image before inversion, purple cells 15 to 18 are distributed on a white background, and in the color image after inversion, green cells 15 to 18 are distributed on a black background. Since both are real images, the color difference for each cell type is negligible.
  • FIG. 4 A schematic diagram of the color image after negative-positive inversion is shown in Fig. 4.
  • FIG. 4 the same hatching is applied to the cells 15 to 18 to show that the color difference for each cell type is very small.
  • the image processing apparatus 12 of the present embodiment performs the following processing to clarify a slight color difference in the actual image.
  • step S 2 (block 22), the color image after negative / positive reversal is converted to HS.
  • H Hue
  • S saturation
  • I Intensity
  • the pixel values (hue / saturation / luminance) after HSI conversion are plotted in a predetermined color space, for example, “ ⁇ ” in FIG. 5 is obtained.
  • the circumferential direction in the paper is the hue axis (H)
  • the radial direction is the saturation axis (S)
  • the direction perpendicular to the paper is the luminance axis (I). It can be seen that the plot position of each pixel value (hue / saturation / luminance) is distributed near the center of the hue axis (H) direction in the green area.
  • the hue of each pixel is changed.
  • this hue H 30 is converted into one color boundary (for example, color boundary H RY , H YG , H GC , HCB, H BM, so as to overlap with any one) of the H MR, rotate the hue H 30 (see FIG. 7), to change the hue of each pixel of the entire image.
  • the color boundary is the boundary value between two predetermined hues.
  • Fig. 7 shows an example of changing the hue of each pixel by rotating the hue H 3 o so that it overlaps the boundary value between the red and yellow areas (ie, the color boundary H RY ). did.
  • the hue of each pixel is changed according to the difference between the hue H 30 and the color boundary H RY (the angle difference in the direction of the hue axis (H)).
  • each pixel value (hue / saturation / luminance) in the color space is divided around the boundary value (color boundary H RY ) between red and yellow. You will be clothed. For this reason, if each color component of red, green, and blue (RGB) of each pixel is obtained based on the value (hue / saturation / luminance) of each pixel after the hue change, A color image (real image) with clear color difference can be generated.
  • FIG. 8 illustrates a schematic diagram of a color image after the hue change.
  • different hatchings were given to cells 15 to 18 to show that the color difference for each cell type became clear.
  • the image processing apparatus 12 includes the processes of steps S6 to S9 (block 24), following the process of step S5. Steps S 1 0 to S 15 (block 25) are processed.
  • step S5 out of the values (hue / saturation / luminance) of each pixel plotted in the color space (Fig. 7), the value of hue H 3 o or its vicinity on the hue axis (H) And a plurality of target pixels 31 to 34 (see FIG. 9) having different values on the saturation axis (S) are extracted as samples.
  • the sample (a plurality of target pixels 31 to 34 having different saturations) is extracted by the input device.
  • next steps S6 to S9 using the values (hue / saturation / luminance) of the target pixel 31 to 34 extracted in step S5, a three-dimensional color space (for example, Fig. 1) is used.
  • the saturation / luminance of each pixel is changed so that the target pixels 31 to 34 are farthest from each other.
  • the distance (sample distance) between a plurality of target pixels 31 to 34 in the color space (Fig. 10) is calculated, and the hue / parameter of each pixel is kept constant. Repeat the same calculation while changing the parameters. Then, when the saturation / luminance parameter that maximizes the sample distance is found, this parameter is used to change the saturation and luminance of each pixel in the entire image, and steps S6 to S9 (block 24). The process ends.
  • the plot positions of the target pixels 31 to 34 at this time are shown in FIG. Saturation / brightness As can be seen by comparing the plot position before changing the degree (Fig. 9), the plot position after change (Fig. 11) is on both sides of the boundary value (color boundary H RY ) between red and yellow. It will be distributed over a relatively wide range. The plot positions of other pixels not shown are also distributed in the same range.
  • the red, green, and blue of each pixel is determined based on the value (hue / saturation / luminance) of each pixel after the saturation / brightness is changed.
  • each color component of (RGB) is obtained, it is possible to generate a color image (actual image) in which the color difference for each cell type is clearer than the color image after the hue change (Fig. 8).
  • next steps S 1 0 to S 15 repeat the same calculation of the sample distance as the above steps S6 to S 9 (block 24).
  • the process of S 14 is performed.
  • step S12 RGB conversion is performed as preprocessing in step S13.
  • the respective red, green, and blue (RGB) color components of the target pixels 31 to 34 are obtained based on the values of the target pixels 31 to 34 after changing the hue / saturation / luminance.
  • step S 13 gamma table conversion is performed on each red, green, and blue (RGB) color component of each of the target pixels 31 to 34.
  • the gradation conversion table data corresponding to the gradation conversion curve of a predetermined gamma value (for example, any one of curves 7 to ⁇ 3 in FIG. 12) is read out, and red, green, blue (RG Convert the gradation of each color component in (ii).
  • a different table for each color component it is preferable to use a different table for each color component.
  • step S 14 HS I conversion is performed as post-processing in step S 13.
  • the hue / saturation / luminance of each of the target pixels 31 to 34 is obtained based on the red, green, and blue (RGB) color components of the target pixels 31 to 34 after gradation conversion.
  • the hue / saturation / luminance of each of the target pixels 31 to 34 is used to calculate the sample distance in step S 10.
  • steps S12 to S14 is performed in such a manner that the target pixels 31 to 34 are farthest from each other in a color space (for example, Fig. 10). This is repeated while changing the gamma value in Fig. 1 (2). When the gamma value that maximizes the sample distance is found, the process proceeds to the next step S 15.
  • step S 15 first, RGB conversion of the entire image is performed, and red, green, and blue (RGB) color components of each pixel of the entire image are obtained. Next, gamma table conversion is performed on each red, green, and blue (RGB) color component of each pixel of the entire image. In other words, the gradation of each color component of red, green, and blue (RGB) is converted using the gamma value gradation conversion table that maximizes the sample distance. This completes the processing of steps S 10 to S 15 (block 25).
  • step S15 Upon completion of the processing of step S15, the image processing device 12 of the present embodiment, based on the red, green, and blue (RGB) color components of each pixel after gradation conversion, the power of the sample 1 OA An image (actual image) is generated, and the final result is output, for example, to the display device 14 (FIG. 1).
  • RGB red, green, and blue
  • FIG. 13 shows the plot positions of the target pixels 31 to 34 when the sample distance is maximized in the processing of steps S 10 to S 15 (block 25).
  • the plot position in Figure 13 is a very wide range on both sides across the boundary value (color boundary H RY ) between red and yellow. Will be distributed.
  • the plot positions of other pixels not shown are also distributed in the same range.
  • step S is performed based on the values (hue / saturation / luminance) of each pixel at the plot position as shown in FIG.
  • a color image real image
  • the color difference for each cell type is clarified compared to the color image after changing the hue ( Figure 8) and the color image after changing the saturation / brightness.
  • a color image real image
  • the image processing device 1 2 of the present embodiment captures a color image of the specimen 1 OA, which was negative-positive reversal (Fig. 4), the mode of the hue of each pixel (hue H 30 in FIG. 6) There is rotated the hue H 30 so as to overlap with one color boundary in the color space (e.g., color boundary H RY) (Fig. 7), to change the hue of each pixel of the entire image, the specimen 1 0 A slight color difference in the color image (actual image) of A can be clarified.
  • the diagnosis based on the color difference is easier to understand than the diagnosis based on the difference in cell morphology. For this reason, even those who do not have special knowledge about cell morphology can easily make a diagnosis. Furthermore, the time required for diagnosis can be shortened as compared with diagnosis based on differences in cell morphology, and variations in results due to differences in the skill and experience of the person being diagnosed can also be reduced. In addition, it can be easily applied to automatic judgment by a computer.
  • the magnification of the specimen image is set to, for example, about 1000 times (eyepiece 10 times X objective 100 times). It was necessary to put the sample in an immersion state, and it took time and effort to capture the sample 1 OA color image.
  • the diagnosis is based on the color difference, detailed information on the cell morphology is not necessary. Therefore, the magnification of the specimen image can be lowered (for example, about 400 times), and it is not necessary to make the immersion state between the objective lens and the specimen 10A. For this reason, the sample 1 O A color image can be captured quickly and easily.
  • the sample distance of the pixel of interest 31 to 34 in the color space (Fig. 10) is the maximum.
  • the saturation and brightness of each pixel in the entire image are also changed (Fig. 9 ⁇ Fig. 11). Therefore, a slight color difference in the color image (real image) of the sample 1 OA can be further clarified.
  • the pixel of interest 3 1 to 3 4 in the color space (FIG. 10)
  • the gradation of each color component of red, green, and blue (RGB) of each pixel of the entire image is converted so that the sample distance becomes the maximum (Fig. 11 ⁇ Fig. 13). Therefore, specimen 1 OA Slight color differences in color images (real images) can be clarified more
  • a gradation conversion curve for example, the curve r ⁇ in FIG. 12
  • gradation conversion table corresponding to any one
  • gradation conversion may be performed by arithmetic processing without using a table.
  • processing such as hue change is performed using the color image (Fig. 4) after the negative / positive inversion, the same as in the dark field observation of the sample 1 OA. You can get a familiar visual field of colors. However, the same processing such as hue change may be performed using the color image before the negative / positive inversion.
  • the specimen 1 OA is a bone marrow sample including Giemsa-stained eosinophils
  • the power error image (actual image) output from the imaging device 11 to the image processing device 12 is an image of eosinophils. Then, the same processing (FIG. 2) as that in the first embodiment is performed on this color image.
  • a color image (Fig. 14 (b)) after the processing of Fig. 2 is performed, and a region of interest with a predetermined color value (for example, a green color corresponding to eosinophils).
  • a predetermined color value for example, a green color corresponding to eosinophils.
  • the color value is a value of each color component of red, green, and blue (RGB) or a value of hue / saturation / luminance of each pixel.
  • the attention area may be selected automatically within the image processing apparatus 12 or based on a user instruction from the input apparatus 13 (FIG. 1).
  • the selection based on the user instruction may be performed based on, for example, the color value where the user clicked on the screen of the display device 14. It is preferable to display the selected attention area so that it can be distinguished from other parts.
  • the number of attention areas is the number of color images (FIG. 14 (b)) as a whole or the number of partial areas.
  • the area ratio of the region of interest is the ratio of the number of pixels in the region of interest to the total number of pixels in the color image (Fig. 14 (b)), or the ratio of the number of pixels in the region of interest to the number of pixels in the cell region in the image. is there.
  • the saturation / brightness change (S6 to S9) and the gradation conversion (S10 to S15) are performed. This It is not limited to this. Either one of the saturation / luminance change (S6 to S9) and the gradation conversion (S10 to S15) may be omitted. If the tone conversion (S10 to S15) is omitted, it is necessary to perform RGB conversion after step S9. If both saturation / brightness change (S6 to S9) and gradation conversion (S10 to S15) are omitted, the processing in step S5 is also unnecessary, and the processing in step S4 It will be necessary to perform RGB conversion later.
  • a color space such as a hexagonal pyramid model or a cylindrical model can be applied in addition to the color space of a bihexagonal pyramid model (Fig. 10).
  • the present invention is not limited to this.
  • the present invention can also be applied when the color image is a YC b Cr image.
  • YCb C After converting the image to an RGB image, the processing in Figure 2 will start.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

明 細 書
画像処理装置および画像処理プログラム
技術分野
[0001 ] 本発明は、 カラー画像を処理する画像処理装置および画像処理プログラム に関する。
背景技術
[0002] ヒ卜を含む動物における様々な疾患を正確に診断するためには病理組織■ 細胞診断が欠かせない。 その中でも血液■骨髄を構成する細胞の種類■数■ 形態に関する情報は多くの疾患の診断において必須なため、 血液や骨髄から 細胞を採取し、 標本を作製し、 顕微鏡を用いて専門技術者が細胞の形態や色 調の差異を観察し、 個々の細胞の種類や異常を判定している。 このような作 業 (顕微鏡を直接視いて専門技術者が自らの経験に則って手作業で判定する こと) は世界中の病院の検査室においてルーチンに行われている。
[0003] 例えば、 血液中の好酸球数の測定はァレルギ一疾患の診断に重要な情報を 与える。 花粉症や喘息の患者では血中の好酸球数が増加している。 その診断 のため、 患者から血液を採取し、 スライドグラス上に塗末し、 固定し、 ギム ザ染色した標本を、 専門技術者が顕微鏡の倍率を 1000倍 (液浸) にして観察 する。 そして好酸球顆粒の存在を手がかりに診断する (参考文献:検査と技 術,増刊号, 28巻, 7号, 2000年,医学書院,スタンダード検査血液学,日本検査血 液学会編,医歯薬出版株式会社, 2003年第 1版) 。
[0004] 一方、 最近のデジタル技術の発展により、 顕微鏡画像の各要素がデジタル 化され、 画像をスクリーンなどへ直接投影するばかりではなく、 ソフトゥェ ァを用いて様々に加工することが可能になっている。 これまでの専門技術者 の経験による判定作業が、 誰にでも識別できる方法により一般化されると、 その作業に掛かっていた時間■費用を大幅に削減することが可能になる。
[0005] そこで、 染色された標本のカラー画像を取り込み、 この画像に基づいて標 本の病理診断が行われている。 画像に現れた標本像の形態の差異によって、 個々の細胞種を同定することが一般的である (例えば非特許文献 1を参照)
。 また、 標本像の形態の差異による診断ではなく、 標本のカラー画像の各画 素の値を所定の色空間にプロッ卜し、 この色空間の中で各画素の値が占める 領域 (サブボリューム) に基づいて細胞種ごとの色差を区別し、 個々の細胞 種を同定することも提案されている (例えば特許文献 1を参照) 。
非特許文献 1 : CI im. Lab. Heam 2003, 25, 139-147, 「Differential counting of blood leukocytes using automated microscopy and a decision support s ystem based on artificial neural networks - evaluation of DiffMaster Octav i a」
特許文献 1 :特表 2003— 506796号公報
発明の開示
発明が解決しょうとする課題
[0006] しかし、 色空間におけるサブボリュームに基づいて細胞種ごとの色差を区 別する方法は間接的な方法である。 近年では、 標本のカラー画像 (実画像) において細胞種ごとの色差を直接的に区別し、 色差による診断を行うことが 望まれるようになつてきた。 ところが、 実画像における細胞種ごとの色差は 極僅かであり、 その色差を実画像上で明確に区別することはできない。
[0007] 本発明の目的は、 標本のカラー画像 (実画像) における僅かな色差を明確 化できる画像処理装置および画像処理プログラムを提供することにある。 課題を解決するための手段
[0008] 第 1の発明に係る画像処理装置は、 カラー画像の各画素の色相を求める処 理手段と、 前記色相の最頻値を検出する検出手段と、 予め定めた 2つの色相 の境界値と前記最頻値との差に応じて、 前記カラ一画像の各画素の色相を変 更する変更手段とを備えたものである。
[0009] 第 2の発明は、 第 1の発明において、 前記処理手段は、 前記色相に加えて 各画素の彩度と輝度とを求め、 前記変更手段は、 前記色相の変更に加えて前 記彩度および前記輝度の変更も行い、 色相軸と彩度軸と輝度軸とによる色空 間で、 前記彩度の異なる複数の注目画素が互いに最も離れるように、 前記力 ラー画像の各画素の彩度および輝度を変更する。
[0010] 第 3の発明は、 第 2の発明において、 前記変更手段による変更後の色相と 彩度と輝度とに基づいて、 前記カラー画像の各画素の赤緑青の各色成分を求 め、 前記色空間で前記複数の注目画素が互いに最も離れるように、 前記各色 成分の階調を変換する変換手段を備える。
[0011 ] 第 4の発明は、 第 1の発明において、 前記処理手段は、 前記色相に加えて 各画素の彩度と輝度とを求め、 前記変更手段による変更後の色相と前記処理 手段が求めた彩度および輝度とに基づいて、 前記カラー画像の各画素の赤緑 青の各色成分を求め、 色相軸と彩度軸と輝度軸とによる色空間で、 前記彩度 の異なる複数の注目画素が互いに最も離れるように、 前記各色成分の階調を 変換する変換手段を備える。
[0012] 第 5の発明は、 第 3又は第 4の発明において、 前記変換手段は、 テーブル を使つて前記各色成分の階調を変換する。
[0013] 第 6の発明は、 第 2から第 5のいずれかの発明において、 前記複数の注目 画素をユーザ指示に基づいて抽出する抽出手段を備える。
[0014] 第 7の発明は、 第 1から第 6のいずれかの発明において、 前記処理手段は 、 ネガポジ反転後の前記カラー画像を用いて、 各画素の少なくとも前記色相 を永める。
[0015] 第 8の発明は、 第 1から第 7のいずれかの発明において、 前記カラー画像 のうち予め定めた色彩値の注目領域を選択する選択手段を備える。
[0016] 第 9の発明は、 第 8の発明において、 前記選択手段は、 前記注目領域をュ 一ザ指示に基づいて選択する。
[0017] 第 1 0の発明は、 第 8又は第 9の発明において、 前記カラー画像における 前記注目領域の数または面積比を測定する測定手段を備える。
[0018] 第 1 1の発明は、 第 1から第 1 0のいずれかの発明において、 前記カラー 画像は、 好酸球を撮影した画像である。
[0019] また、 第 1 2の発明に係る画像処理プログラムは、 カラー画像の各画素の 色相を求める処理手順と、 前記色相の最頻値を検出する検出手順と、 予め定 めた 2つの色相の境界値と前記最頻値との差に応じて、 前記力ラー画像の各 画素の色相を変更する変更手順と、 をコンピュータに実行させる。
発明の効果
[0020] 本発明の画像処理装置および画像処理プログラムによれば、 標本のカラー 画像 (実画像) における僅かな色差を明確化することができる。
図面の簡単な説明
[0021 ] [図 1 ]検査装置 1 0の構成を説明するブロック図(a )と標本 1 O Aの一例を示 す図(b )である。
[図 2]本実施形態の画像処理装置 1 2におけるカラー画像の処理手順を示すフ ローチャー卜である。
[図 3]力ラー画像を処理する際のデータ経路の一例を示す図である。
[図 4]ネガポジ反転後のカラー画像の模式図である。
[図 5] H S I変換後の各画素の値 (色相/彩度/輝度) を所定の色空間にプロッ 卜して説明する図である。
[図 6]各画素の色相の最頻値 (色相 H 3Q) を説明する図である。
[図 7]色相 H 3Qの回転について説明する図である。
[図 8]色相変更後のカラー画像の模式図である。
[図 9]注目画素 3 1〜3 4の抽出を説明する図である。
[図 10]双六角錐モデルの色空間を説明する図である。
[図 11 ]彩度/輝度を変更した後の注目画素 3 1〜3 4のプロッ卜位置を説明す る図である。
[図 12]階調変換カーブ (7Ί〜·Τ3) の一例を説明する図である。
[図 13]階調変換によってサンプル距離が最大になったときの注目画素 3 1〜
3 4のプロッ卜位置を説明する図である。
[図 14]ギムザ染色された好酸球を含む骨髄標本のネガポジ反転後のカラー画 像を示す図( a )、 図 2の処理が施された後の力ラー画像を示す図( b )である 発明を実施するための最良の形態 [0022] <第 1実施形態の説明 >
図 1 (a)は第 1実施形態の検査装置 1 0の構成を示すブロック図、 図 1 ( b) は例えばギムザ染色された血球標本を示す説明図である。 この検査装置 1 0は、 標本 1 OAの病理診断に用いられる。 標本 1 OAは、 例えばギムザ 染色された血球標本であり、 複数の細胞 1 5〜 1 8を含む。
[0023] 検査装置 1 0には、 デジタルカメラなどの撮像装置 1 1と、 画像処理装置
1 2と、 入力装置 1 3と、 表示装置 1 4とが設けられる。 この検査装置 1 0 において、 撮像装置 1 1は、 標本 1 OAの撮影を行い、 画像処理装置 1 2に 標本 1 OAのカラー画像 (RGB画像) を出力する。
[0024] 画像処理装置 1 2は、 標本 1 OAのカラー画像を取り込み、 図 2に示すフ ローチャートの手順にしたがってカラー画像を処理する。 処理の際には、 必 要に応じて、 入力装置 1 3からのユーザ指示を参照する。 また、 必要に応じ て、 処理中または処理後のカラー画像を表示装置 1 4に出力する。
[0025] 画像処理装置 1 2は、 画像処理プログラム (図 2) がインストールされた コンピュータである。 画像処理プログラムのインストールには、 画像処理プ ログラムが記録された記録媒体 (CD— ROMなど) を用いれば良い。 また は、 インターネットを介してダウンロード可能な搬送波 (画像処理プロダラ ムを含む) を用いても良い。
[0026] 次に、 本実施形態の画像処理装置 1 2における具体的な処理の内容 (図 2 ) を説明する。 処理の対象は、 標本 1 OAのカラー画像 (RGB画像) であ る。 カラー画像を処理する際のデータ経路の一例を図 3 (ブロック 2 1〜2 5) に示す。
[0027] 画像処理装置 1 2は、 標本 1 OAのカラー画像を取り込むと、 これをネガ ポジ反転する (ステップ S 1 ,ブロック 2 1 ) 。 反転前のカラー画像では白色 の背景に紫色の細胞 1 5〜 1 8が分布し、 反転後のカラー画像では黒色の背 景に緑色の細胞 1 5〜 1 8が分布する。 何れの場合も実画像であるため、 細 胞種ごとの色差は極僅かである。
[0028] このため、 細胞種ごとの色差を実画像上で明確に区別することは難しい。 ネガポジ反転後のカラー画像の模式図を図 4に示す。 図 4では、 細胞種ごと の色差が極僅かであることを示すため、 細胞 1 5〜1 8に同じハッチングを 付した。 本実施形態の画像処理装置 1 2は、 実画像における僅かな色差を明 確化するために以下の処理を行う。
[0029] ステップ S 2 (ブロック 22) では、 ネガポジ反転後のカラー画像を HS
I変換する。 つまり、 そのカラー画像の各画素の赤緑青(RGB)の各色成分 に基づいて、 各画素の色相(H : Hue)と彩度(S : Saturation)と輝度( I : Int ensity)とを求める。
[0030] ここで、 HS I変換後の各画素の値 (色相/彩度/輝度) を所定の色空間に プロットすると、 例えば図 5の "■ " のようになる。 図 5の色空間は、 紙面 内の周方向を色相軸(H)、 径方向を彩度軸(S)とし、 紙面に垂直な方向を輝 度軸(I)としている。 各画素の値 (色相/彩度/輝度) のプロット位置は、 緑 色の領域において、 色相軸(H)方向の中心付近に分布していることが分かる
[0031] 次のステップ S3, S4 (ブロック 23) では、 各画素の色相の変更を行う 。 つまり、 各画素の色相の最頻値 (図 6の色相 H30) を検出した後、 この色相 H30が色空間上での 1つの色境界 (例えば色境界 HRY, HYG, HGC, HCB, HBM, HMRの うち何れか 1つ) と重なるように、 色相 H30を回転させ (図 7参照) 、 画像全 体の各画素の色相を変更する。 色境界とは予め定めた 2つの色相の境界値で める。
[0032] 図 7には、 赤色の領域と黄色の領域との境界値 (つまり色境界 HRY) と重な るように色相 H3oを回転させ、 各画素の色相を変更する場合を例示した。 この 場合、 各画素の色相の変更は、 色相 H30と色境界 HRYとの差 (色相軸(H)方向 の角度差) に応じて行われる。
[0033] 上記のような色相変更を行うことで、 色空間における各画素の値 (色相/彩 度/輝度) のプロット位置は、 赤色と黄色との境界値 (色境界 HRY) 付近に分 布することになる。 このため、 色相変更後の各画素の値 (色相/彩度/輝度) に基づいて、 各画素の赤緑青(RGB)の各色成分を求めると、 細胞種ごとの 色差の明確なカラー画像 (実画像) を生成することができる。
[0034] 色相変更後のカラー画像の模式図を図 8に例示する。 図 8では、 細胞種ご との色差が明確になったことを示すため、 細胞 1 5〜1 8に異なるハツチン グを付した。
[0035] 本実施形態の画像処理装置 1 2は、 カラー画像 (実画像) における色差を さらに明確化するため、 ステップ S 5の処理に続けて、 ステップ S6〜S9 (ブロック 24) の処理と、 ステップ S 1 0〜S 1 5 (ブロック 25) の処 理とを行う。
[0036] まず、 ステップ S5では、 色空間 (図 7) にプロットされている各画素の 値 (色相/彩度/輝度) のうち、 色相軸(H)において色相 H3oまたはその近傍の 値を示し、 かつ、 彩度軸(S)において互いに異なる値を示す複数の注目画素 31〜34 (図 9参照) を、 サンプルとして抽出する。
[0037] サンプル (彩度の異なる複数の注目画素 31〜34) の抽出は、 入力装置
1 3 (図 1 ) からのユーザ指示に基づいて行ってもよいし、 画像処理装置 1 2の内部で自動的に行ってもよい。 入力装置 1 3からのユーザ指示に基づい てサンプル抽出を行う場合は、 表示装置 1 4に色空間 (図 7) の画像を表示 することが好ましい。
[0038] 次のステップ S6〜S9 (ブロック 24) では、 ステップ S 5で抽出した 注目画素 31〜34の値 (色相/彩度/輝度) を利用し、 3次元的な色空間 ( 例えば図 1 0に示す双六角錐モデルの色空間) において、 注目画素 31〜3 4が互いに最も離れるように、 各画素の彩度/輝度の変更を行う。
[0039] 具体的には、 色空間 (図 1 0) における複数の注目画素 31〜34どうし の距離 (サンプル距離) を算出し、 各画素の色相のパラメータを一定に保つ て彩度/輝度のパラメータを変更しながら同様の計算を繰り返す。 そして、 サ ンプル距離が最大になる彩度/輝度のパラメータを見つけると、 このパラメ一 タを使って画像全体の各画素の彩度および輝度を変更し、 ステップ S6〜S 9 (ブロック 24) の処理を終了する。
[0040] この時点での注目画素 31〜34のプロッ卜位置を図 1 1に示す。 彩度/輝 度を変更する前のプロット位置 (図 9) と比較すれば分かるように、 変更後 のプロット位置 (図 1 1 ) は、 赤色と黄色との境界値 (色境界 HRY) を挟んで 両側の比較的広い範囲で分布することになる。 図示省略した他の画素のプロ ッ卜位置も同様の範囲で分布する。
[0041] 色空間における距離が遠いほど実画像における色差が大きいため、 彩度/輝 度を変更した後の各画素の値 (色相/彩度/輝度) に基づいて、 各画素の赤緑 青(RGB)の各色成分を求めると、 色相変更後のカラー画像 (図 8) よりも 細胞種ごとの色差が明確化されたカラー画像 (実画像) を生成することがで さる。
[0042] 次のステップ S 1 0〜S 1 5 (ブロック 25) は、 上記ステップ S6〜S 9 (ブロック 24) と同様のサンプル距離の計算を繰り返しながら、 その途 中で、 ステップ S 1 2〜S 1 4の処理を行うものである。
[0043] ステップ S 1 2では、 ステップ S 1 3の前処理として RGB変換を行う。
つまり、 色相/彩度/輝度を変更した後の注目画素 31〜34の値に基づいて 、 注目画素 31〜34それぞれの赤緑青(RGB)の各色成分を求める。
[0044] ステップ S 1 3では、 注目画素 31〜34それぞれの赤緑青(R G B)の各 色成分に対してガンマテーブル変換を行う。 つまり、 予め定めたガンマ値の 階調変換カーブ (例えば図 1 2のカーブ 7 〜·Τ3の何れか) に対応する階調変 換テーブルのデータを読み出し、 このテーブルを使って赤緑青(RG Β)の各 色成分の階調を変換する。 このとき各色成分ごとに異なるテーブルを用いる ことが好ましい。
[0045] ステップ S 1 4では、 ステップ S 1 3の後処理として HS I変換を行う。
つまり、 階調変換後の注目画素 31〜34の赤緑青(RGB)の各色成分に基 づいて、 注目画素 31〜34それぞれの色相/彩度/輝度を求める。 注目画素 31〜34それぞれの色相/彩度/輝度は、 ステップ S 1 0におけるサンプル 距離の計算に用いられる。
[0046] また、 このようなステップ S 1 2〜S 1 4の処理は、 色空間 (例えば図 1 0) において注目画素 31〜34が互いに最も離れるように、 階調変換カー ブ (図 1 2) のガンマ値を変更しながら繰り返し行われる。 そして、 サンプ ル距離が最大になるガンマ値を見つけると、 次のステップ S 1 5の処理に進 む。
[0047] ステップ S 1 5では、 まず、 画像全体の RGB変換を行い、 画像全体の各 画素の赤緑青(RGB)の各色成分を求める。 次いで、 画像全体の各画素の赤 緑青(RGB)の各色成分に対するガンマテーブル変換を行う。 つまり、 上記 のサンプル距離が最大になるガンマ値の階調変換テーブルを使って、 赤緑青( RGB)の各色成分の階調を変換する。 以上でステップ S 1 0〜S 1 5 (プロ ック 25) の処理は終了となる。
[0048] 本実施形態の画像処理装置 1 2は、 ステップ S 1 5の処理が終わると、 階 調変換後の各画素の赤緑青(RGB)の各色成分に基づいて、 標本 1 OAの力 ラー画像 (実画像) を生成し、 最終結果として例えば表示装置 1 4 (図 1 ) 出力する。
[0049] ここで、 上記ステップ S 1 0〜S 1 5 (ブロック 25) の処理においてサ ンプル距離が最大になったときの注目画素 31〜34のプロッ卜位置を図 1 3に示す。 以前のプロット位置 (図 9,図 1 1 ) との比較から分かるように、 図 1 3のプロット位置は、 赤色と黄色との境界値 (色境界 HRY) を挟んで両側 の非常に広い範囲で分布することになる。 図示省略した他の画素のプロッ卜 位置も同様の範囲で分布する。
[0050] 既に述べたように、 色空間における距離が遠いほど実画像における色差が 大きいため、 図 1 3のようなプロット位置の各画素の値 (色相/彩度/輝度) に基づいてステップ S 1 5でカラー画像 (実画像) を生成すると、 色相変更 後のカラー画像 (図 8) や、 彩度/輝度を変更した後のカラー画像よりも、 細 胞種ごとの色差が明確化されたカラー画像 (実画像) を得ることができる。
[0051] 本実施形態の画像処理装置 1 2では、 標本 1 OAのカラー画像を取り込み 、 これをネガポジ反転した後 (図 4) 、 各画素の色相の最頻値 (図 6の色相 H30) が色空間上での 1つの色境界 (例えば色境界 HRY) と重なるように色相 H30を回転させ (図 7) 、 画像全体の各画素の色相を変更するため、 標本 1 0 Aのカラー画像 (実画像) における僅かな色差を明確化することができる。
[0052] したがって、 入力時には略同色だった血球細胞が種類ごとに色分けされ、 標本 1 O Aのカラー画像 (実画像) において細胞種ごとの色差を直接的に区 別できるようになり、 色差による標本 1 O Aの診断 (個々の細胞種の同定) が可能となる。
[0053] 色差による診断は、 細胞の形態の差異による診断と比較して判断基準が分 かりやすい。 このため、 細胞の形態に関する特別な知識のない人でも簡単に 、 その診断を行うことができる。 さらに、 細胞の形態の差異による診断と比 較して、 診断に掛かる時間を短縮でき、 診断する人の技量や経験の差による 結果のバラツキを低減することもできる。 また、 コンピュータによる自動判 断への応用も簡単に行える。
[0054] さらに、 細胞の形態の差異による診断では標本像の拡大倍率を例えば 1000 倍 (接眼 10倍 X対物 100倍) 程度にするため、 対物レンズ (不図示)と標本 1 0 Aとの間を液浸状態にする必要があり、 標本 1 O Aのカラー画像の取り込み に手間と時間が掛かっていた。 しかし、 本実施形態では色差による診断を行 うため、 細胞の形態に関する細かな情報は必要ない。 したがって、 標本像の 拡大倍率を低くすることができ (例えば 400倍程度) 、 対物レンズと標本 1 0 Aとの間を液浸状態にする必要がなくなる。 このため、 手軽に素早く標本 1 O Aのカラー画像を取り込むことができる。
[0055] また、 本実施形態の画像処理装置 1 2では、 画像全体の各画素の色相の変 更に加えて、 色空間 (図 1 0 ) における注目画素 3 1〜3 4のサンプル距離 が最大となるように、 画像全体の各画素の彩度および輝度の変更も行う (図 9→図 1 1 ) 。 したがって、 標本 1 O Aのカラー画像 (実画像) における僅 かな色差をより明確化することができる。
[0056] さらに、 本実施形態の画像処理装置 1 2では、 上記した画像全体の各画素 の色相/彩度/輝度の変更に加え、 色空間 (図 1 0 ) における注目画素 3 1〜 3 4のサンプル距離が最大となるように、 画像全体の各画素の赤緑青(R G B )の各色成分の階調を変換する (図 1 1→図 1 3 ) 。 したがって、 標本 1 O A のカラー画像 (実画像) における僅かな色差をより明確化することができる
[0057] また、 本実施形態の画像処理装置 1 2では、 各画素の赤緑青(RGB)の各 色成分の階調を変換する際に、 階調変換カーブ (例えば図 1 2のカーブ r^〜 r3の何れか) に対応する階調変換テーブルを使うため、 階調変換の処理を素 早く行える。 ただし、 テーブルを用いずに演算処理によって階調変換を行つ ても構わない。
[0058] さらに、 本実施形態の画像処理装置 1 2では、 ネガポジ反転後のカラー画 像 (図 4) を用いて色相変更などの処理を行うため、 標本 1 OAの暗視野観 察時と同様の見慣れた色彩の視野を得ることができる。 ただし、 ネガポジ反 転前のカラー画像を用いて同様の色相変更などの処理を行っても構わない。
[0059] <第 2実施形態の説明 >
第 2実施形態では、 標本 1 OAが、 ギムザ染色された好酸球を含む骨髄標 本である例を説明する。 撮像装置 1 1から画像処理装置 1 2に出力される力 ラー画像 (実画像) は、 好酸球を撮影した画像である。 そして、 このカラー 画像に対して第 1実施形態と同様の処理 (図 2) が施される。
[0060] ネガポジ反転後のカラー画像 (図 1 4(a)) では、 背景が黒色であり、 そ の中に緑色の細胞が多数分布する。 多数の細胞の中には好酸球も存在してい るが、 好酸球も他の細胞も同じような緑色を示し、 細胞種ごとの色差は極僅 かである。 このため、 細胞種ごとの色差をカラー画像 (図 1 4(a)) 上で明 確に区別することは難しい。
[0061] 一方、 図 2の処理が施された後のカラー画像 (図 1 4(b)) では、 黒色の 背景の中に、 様々な色彩の細胞が分布することになる。 例えば、 細胞 41は ピンク色を示し、 細胞 42, 43は緑色を示し、 細胞 44は赤色を示す。 この うち、 色彩が緑色のまま変化しなかった細胞 42, 43は好酸球に対応し、 色 彩が緑色から他の色に変化した細胞 41 , 44は他の白血球に対応することが 分かっている。 このため、 処理後のカラー画像 (図 1 4(b)) において細胞 質が緑色の部分を好酸球と同定できる。 [0062] 第 2実施形態によれば、 ギムザ染色された好酸球を含む骨髄標本が病理診 断の対象である場合に、 図 2の処理が施された後のカラー画像 (図 1 4(b)
) において、 好酸球と他の白血球とを色差によって直接的に区別することが できる。 このため、 細胞種ごとの色差という分かりやすい判断基準で診断を 行える。
[0063] 診断の際には、 図 2の処理が施された後のカラー画像 (図 1 4(b)) のう ち、 予め定めた色彩値の注目領域 (例えば好酸球に対応する緑色の領域) を 選択し、 病理判定に用いることが好ましい。 色彩値とは、 各画素の赤緑青(R G B)の各色成分の値または色相/彩度/輝度の値などである。 同じ色彩値の注 目領域を選択することで、 病理判定が容易になる。
[0064] 注目領域の選択は、 画像処理装置 1 2の内部で自動的に行ってもよいし、 入力装置 1 3 (図 1 ) からのユーザ指示に基づいて行ってもよい。 ユーザ指 示に基づく選択は、 例えばユーザが表示装置 1 4の画面上でクリックした箇 所の色彩値に基づいて行えばよい。 選択した注目領域を他の部分と区別でき るように表示することが好ましい。
[0065] さらに、 診断の際には、 図 2の処理が施された後のカラー画像 (図 1 4(b )) における注目領域の数または面積比を測定することが好ましい。 注目領域 の数を測定する際には、 その前処理として周知のエッジ検出 (輪郭線の検出 ) などを行い、 個々の注目領域として所定の色彩値を示す閉じたエリアを検 出することが好ましい。
[0066] 注目領域の数は、 カラー画像 (図 1 4(b)) の全体における数、 または部 分領域における数である。 注目領域の面積比は、 カラー画像 (図 1 4(b)) の全体の画素数に対する注目領域の画素数の比、 または画像中の細胞領域の 画素数に対する注目領域の画素数の比などである。 このような測定を行うこ とで、 病理判定が容易になる。
[0067] <その他の実施形態の説明 >
上記した実施形態では、 色相変更 (S3. S4) の後に、 彩度/輝度の変更 (S6〜S9) と、 階調変換 (S 1 0〜S 1 5) とを行ったが、 本発明はこ れに限定されない。 彩度/輝度の変更 (S6〜S9) と階調変換 (S 1 0〜S 1 5) との何れか一方を省略してもよい。 階調変換 (S 1 0〜S 1 5) を省 略する場合には、 ステップ S 9の後で RGB変換の処理を行うことが必要に なる。 彩度/輝度の変更 (S6〜S9) と階調変換 (S 1 0〜S 1 5) との双 方を省略する場合は、 ステップ S 5の処理も不要となり、 ステップ S 4の処 理の後で RGB変換の処理を行うことが必要になる。 彩度/輝度の変更 (S6 〜S9) を省略する場合は、 双六角錐モデルの色空間 (図 1 0) の他、 片六 角錐モデルや円柱モデルなどの色空間を適用できる。
上記した実施形態では、 画像処理装置 1 2に入力されるカラー画像が RG B画像である例を説明したが、 本発明はこれに限定されない。 そのカラー画 像が YC b C r画像である場合にも本発明を適用できる。 この場合、 YCb C「画像を RGB画像に変換した後、 図 2の処理を開始することになる。

Claims

請求の範囲
[1 ] カラ一画像の各画素の色相を求める処理手段と、
前記色相の最頻値を検出する検出手段と、
予め定めた 2つの色相の境界値と前記最頻値との差に応じて、 前記力ラー 画像の各画素の色相を変更する変更手段と、
を備えたことを特徴とする画像処理装置。
[2] 請求項 1に記載の画像処理装置において、
前記処理手段は、 前記色相に加えて各画素の彩度と輝度とを求め、 前記変更手段は、 前記色相の変更に加えて前記彩度および前記輝度の変更 も行い、 色相軸と彩度軸と輝度軸とによる色空間で、 前記彩度の異なる複数 の注目画素が互いに最も離れるように、 前記カラー画像の各画素の彩度およ び輝度を変更することを特徴とする画像処理装置。
[3] 請求項 2に記載の画像処理装置において、
前記変更手段による変更後の色相と彩度と輝度とに基づいて、 前記カラー 画像の各画素の赤緑青の各色成分を求め、 前記色空間で前記複数の注目画素 が互いに最も離れるように、 前記各色成分の階調を変換する変換手段を備え ことを特徴とする画像処理装置。
[4] 請求項 1に記載の画像処理装置において、
前記処理手段は、 前記色相に加えて各画素の彩度と輝度とを求め、 前記変更手段による変更後の色相と前記処理手段が求めた彩度および輝度 とに基づいて、 前記カラー画像の各画素の赤緑青の各色成分を求め、 色相軸 と彩度軸と輝度軸とによる色空間で、 前記彩度の異なる複数の注目画素が互 いに最も離れるように、 前記各色成分の階調を変換する変換手段を備えたこ とを特徴とする画像処理装置。
[5] 請求項 3または請求項 4に記載の画像処理装置において、
前記変換手段は、 テーブルを使って前記各色成分の階調を変換することを 特徴とする画像処理装置。
[6] 請求項 2から請求項 5の何れか 1項に記載の画像処理装置において、 前記複数の注目画素をユーザ指示に基づいて抽出する抽出手段を備えたこ とを特徴とする画像処理装置。
[7] 請求項 1から請求項 6の何れか 1項に記載の画像処理装置において、 前記処理手段は、 ネガポジ反転後の前記カラー画像を用いて、 各画素の少 なくとも前記色相を求めることを特徴とする画像処理装置。
[8] 請求項 1から請求項 7の何れか 1項に記載の画像処理装置において、 前記力ラー画像のうち予め定めた色彩値の注目領域を選択する選択手段を 備えたことを特徴とする画像処理装置。
[9] 請求項 8に記載の画像処理装置において、
前記選択手段は、 前記注目領域をユーザ指示に基づいて選択することを特 徴とする画像処理装置。
[10] 請求項 8または請求項 9に記載の画像処理装置において、
前記カラー画像における前記注目領域の数または面積比を測定する測定手 段を備えたことを特徴とする画像処理装置。
[11] 請求項 1から請求項 1 0の何れか 1項に記載の画像処理装置において、 前記力ラー画像は、 好酸球を撮影した画像であることを特徴とする画像処 理装置。
[12] カラ一画像の各画素の色相を求める処理手順と、
前記色相の最頻値を検出する検出手順と、
予め定めた 2つの色相の境界値と前記最頻値との差に応じて、 前記力ラー 画像の各画素の色相を変更する変更手順と、
をコンピュータに実行させるための画像処理プログラム。
PCT/JP2007/000742 2006-07-10 2007-07-09 Dispositif de traitement d'images et programme de traitement d'images WO2008007461A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/280,520 US20090110273A1 (en) 2006-07-10 2007-07-09 Image Processing Device and Image Processing Program
EP07766974.5A EP2040218B1 (en) 2006-07-10 2007-07-09 Image processing device and image processing program
US12/339,925 US8406514B2 (en) 2006-07-10 2008-12-19 Image processing device and recording medium storing image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006189607A JP4791900B2 (ja) 2006-07-10 2006-07-10 画像処理装置および画像処理プログラム
JP2006-189607 2006-07-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/339,925 Continuation-In-Part US8406514B2 (en) 2006-07-10 2008-12-19 Image processing device and recording medium storing image processing program

Publications (1)

Publication Number Publication Date
WO2008007461A1 true WO2008007461A1 (fr) 2008-01-17

Family

ID=38923032

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/000742 WO2008007461A1 (fr) 2006-07-10 2007-07-09 Dispositif de traitement d'images et programme de traitement d'images

Country Status (4)

Country Link
US (1) US20090110273A1 (ja)
EP (1) EP2040218B1 (ja)
JP (1) JP4791900B2 (ja)
WO (1) WO2008007461A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008120525A1 (ja) * 2007-03-23 2008-10-09 Dic Corporation 光ディスク中間層用紫外線硬化型組成物および光ディスク
JPWO2021060358A1 (ja) * 2019-09-26 2021-04-01

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5380973B2 (ja) 2008-09-25 2014-01-08 株式会社ニコン 画像処理装置及び画像処理プログラム
WO2010044432A1 (ja) * 2008-10-17 2010-04-22 オリンパスメディカルシステムズ株式会社 内視鏡システムおよび内視鏡画像処理装置
US8929622B2 (en) * 2009-12-09 2015-01-06 Manipal Institute Of Technology Method and apparatus for in vitro analysis of the physical response of blood-vessels to vaso-active agents
JP5652421B2 (ja) * 2012-03-30 2015-01-14 ウシオ電機株式会社 光透過性成形品の外観検査装置
JP6108994B2 (ja) * 2013-07-04 2017-04-05 オリンパス株式会社 画像処理装置、撮像装置、および画像処理用プログラム
JP6092792B2 (ja) 2014-01-20 2017-03-08 富士フイルム株式会社 内視鏡システム用プロセッサ装置、内視鏡システム、内視鏡システム用プロセッサ装置の作動方法、内視鏡システムの作動方法
JP2015169991A (ja) * 2014-03-05 2015-09-28 キヤノン株式会社 画像処理装置、画像処理方法
JP6092336B1 (ja) * 2015-09-28 2017-03-08 国立大学法人 筑波大学 画像処理システム、画像処理方法及び画像処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6412381A (en) * 1987-07-06 1989-01-17 Dainippon Printing Co Ltd Picture information conversion method
JPH03127284A (ja) * 1989-10-13 1991-05-30 Brother Ind Ltd カラー画像処理装置
JPH04248681A (ja) * 1991-02-04 1992-09-04 Nippon Telegr & Teleph Corp <Ntt> カラー画像強調・弛緩処理方法
JPH05174142A (ja) * 1991-12-20 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> カラー画像輪郭強調・弛緩処理方法
JPH10302069A (ja) * 1997-04-24 1998-11-13 Sumitomo Osaka Cement Co Ltd 物体識別装置
JP2002271808A (ja) * 2001-03-13 2002-09-20 Minolta Co Ltd 画像中の赤目を補正するプログラム、記録媒体および赤目補正方法
JP2003506796A (ja) 1999-08-04 2003-02-18 クロマビジョン メディカル システムズ インコーポレイテッド 光学顕微鏡使用における色彩閾値を与える方法およびその装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4418782C2 (de) * 1993-05-21 1997-01-09 Mitsubishi Electric Corp System und Verfahren zum Einstellen eines Farbbildes
JP3400888B2 (ja) * 1995-03-29 2003-04-28 大日本スクリーン製造株式会社 カラー画像の色変更方法
JP2001175158A (ja) * 1999-12-20 2001-06-29 Kumagai Gumi Co Ltd 視覚疑似体験方法及び装置
US7033819B2 (en) * 2000-11-08 2006-04-25 Surface Logix, Inc. System for monitoring cell motility in real-time
US6980691B2 (en) * 2001-07-05 2005-12-27 Corel Corporation Correction of “red-eye” effects in images
FI118878B (fi) * 2003-06-17 2008-04-15 Nokia Corp Menetelmä määrättyjen toimintojen tilatietojen prosessoimiseksi langattomassa päätelaitteessa
GB0413956D0 (en) * 2004-06-22 2004-07-28 Ici Plc A colour display system
JP5012315B2 (ja) * 2007-08-20 2012-08-29 セイコーエプソン株式会社 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6412381A (en) * 1987-07-06 1989-01-17 Dainippon Printing Co Ltd Picture information conversion method
JPH03127284A (ja) * 1989-10-13 1991-05-30 Brother Ind Ltd カラー画像処理装置
JPH04248681A (ja) * 1991-02-04 1992-09-04 Nippon Telegr & Teleph Corp <Ntt> カラー画像強調・弛緩処理方法
JPH05174142A (ja) * 1991-12-20 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> カラー画像輪郭強調・弛緩処理方法
JPH10302069A (ja) * 1997-04-24 1998-11-13 Sumitomo Osaka Cement Co Ltd 物体識別装置
JP2003506796A (ja) 1999-08-04 2003-02-18 クロマビジョン メディカル システムズ インコーポレイテッド 光学顕微鏡使用における色彩閾値を与える方法およびその装置
JP2002271808A (ja) * 2001-03-13 2002-09-20 Minolta Co Ltd 画像中の赤目を補正するプログラム、記録媒体および赤目補正方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Kensa To Gijutsu", vol. 28, 2000, IGAKU-SHOIN LTD.
"Standard Kensa ketsueki-Gaku", 2003, THE JAPANESE SOCIETY FOR LABORATORY HEMATOLOGY
CLIM. LAB. HEAM, vol. 25, 2003, pages 139 - 147
See also references of EP2040218A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008120525A1 (ja) * 2007-03-23 2008-10-09 Dic Corporation 光ディスク中間層用紫外線硬化型組成物および光ディスク
JPWO2021060358A1 (ja) * 2019-09-26 2021-04-01
WO2021060358A1 (ja) * 2019-09-26 2021-04-01 東洋紡株式会社 分析装置およびプログラム

Also Published As

Publication number Publication date
JP4791900B2 (ja) 2011-10-12
EP2040218A1 (en) 2009-03-25
EP2040218A4 (en) 2010-10-06
JP2008020949A (ja) 2008-01-31
EP2040218B1 (en) 2017-08-23
US20090110273A1 (en) 2009-04-30

Similar Documents

Publication Publication Date Title
JP4791900B2 (ja) 画像処理装置および画像処理プログラム
US8849024B2 (en) Image processing device and medium storing image processing program
US11151716B2 (en) Methods and systems for assessing cell morphology
DK2973397T3 (en) Tissue-object-based machine learning system for automated assessment of digital whole-slide glass
JP4071186B2 (ja) 生物標本内の関心対象を識別するための方法及びシステム
EP2370951B1 (en) Generation of a multicolour image of an unstained biological specimen
Costa et al. Automatic identification of mycobacterium tuberculosis with conventional light microscopy
JP2018503906A (ja) イムノスコア計算における共発現解析のためのシステム及び方法
JP2012122852A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2004286666A (ja) 病理診断支援装置および病理診断支援プログラム
US8406514B2 (en) Image processing device and recording medium storing image processing program
JP2022050455A (ja) 試料除去領域選択方法
JP5154844B2 (ja) 画像処理装置および画像処理プログラム
WO2009009779A2 (en) Automated bone marrow cellularity determination
JP7026694B2 (ja) 画像解析装置、方法およびプログラム
CN112577905A (zh) 一种尿液颜色检测方法及分析仪
JP2009152868A (ja) 画像処理装置、及び画像処理プログラム
EP2927684A1 (en) Image measuring device and image measuring method
JP2008185337A (ja) 病理画像評価装置、病理画像評価方法、及び病理画像評価プログラム
JP4944641B2 (ja) 染色組織標本の陽性細胞の自動検出法
CN102203657B (zh) 制备经过处理的虚拟分析图像的步骤
CN102369473B (zh) 用于制备经处理的虚拟分析板的方法
JP2008304205A (ja) 分光特性推定装置および分光特性推定プログラム
JP2009041953A (ja) 定量分析装置、定量分析方法および定量分析プログラム
JPWO2018131091A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07766974

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12280520

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2007766974

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007766974

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU