JP6092336B1 - Image processing system, image processing method, and image processing program - Google Patents

Image processing system, image processing method, and image processing program Download PDF

Info

Publication number
JP6092336B1
JP6092336B1 JP2015189300A JP2015189300A JP6092336B1 JP 6092336 B1 JP6092336 B1 JP 6092336B1 JP 2015189300 A JP2015189300 A JP 2015189300A JP 2015189300 A JP2015189300 A JP 2015189300A JP 6092336 B1 JP6092336 B1 JP 6092336B1
Authority
JP
Japan
Prior art keywords
image
color
captured
image processing
colored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015189300A
Other languages
Japanese (ja)
Other versions
JP2017068308A (en
Inventor
光保 加藤
光保 加藤
永田 毅
毅 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Information and Research Institute Inc
University of Tsukuba NUC
Original Assignee
Mizuho Information and Research Institute Inc
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Information and Research Institute Inc, University of Tsukuba NUC filed Critical Mizuho Information and Research Institute Inc
Priority to JP2015189300A priority Critical patent/JP6092336B1/en
Application granted granted Critical
Publication of JP6092336B1 publication Critical patent/JP6092336B1/en
Publication of JP2017068308A publication Critical patent/JP2017068308A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】同一被写体を複数の手法で撮影した撮影画像において、ターゲット領域を効率的に特定するための画像処理システム、画像処理方法及び画像処理プログラムを提供する。【解決手段】画像処理装置20は、対象物について、第1及び第2の手法を用いて撮影した第1及び第2の撮影画像を記憶する撮影画像記憶部22と、出力部15に接続された制御部21とを備える。そして、制御部21が、第1の撮影画像に含まれるターゲット領域を第1配色で着色し、背景を黒色化した第1の画像を生成し、第2の撮影画像に含まれるターゲット領域を、第1配色とは異なる第2配色において着色し、背景を黒色化した第2の画像を生成し、第1、第2の画像において、それぞれ着色されたターゲット領域を用いて位置合わせして重ね合わせ、第1配色及び第2配色により生成された第3配色で着色された合成画像を生成して出力する。【選択図】図1An image processing system, an image processing method, and an image processing program for efficiently specifying a target area in a photographed image obtained by photographing the same subject by a plurality of methods. An image processing device is connected to an output unit and a captured image storage unit that stores first and second captured images captured using the first and second methods for an object. Control unit 21. Then, the control unit 21 generates a first image in which the target area included in the first captured image is colored with the first color scheme and the background is blackened, and the target area included in the second captured image is Colored in a second color scheme different from the first color scheme to generate a second image with a blackened background, and in each of the first and second images, alignment is performed using the colored target regions, respectively. Then, a composite image colored with the third color scheme generated by the first color scheme and the second color scheme is generated and output. [Selection] Figure 1

Description

本発明は、同一被写体を複数の手法で撮影した撮影画像において、ターゲット領域を可視化させるための画像処理システム、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing system, an image processing method, and an image processing program for visualizing a target area in captured images obtained by capturing the same subject by a plurality of methods.

標本組織内の特定の構成細胞を確認するために、標本組織の断面を撮影した画像を用いて細胞の状態を評価することがある。そこで、形態学的観点から細胞の画像を検索するための画像検索システムが検討されている(例えば、特許文献1参照。)。この文献に記載された画像検索システムの画像データベースには、細胞の画像と細胞の形態学的特徴の情報とを関連づけて記憶させておく。そして、検索条件として入力された細胞の形態学的特徴に基づいて、画像データベースを検索し、検索条件に適合した細胞の画像を表示部に表示する。   In order to confirm specific constituent cells in the specimen tissue, the state of the cells may be evaluated using an image obtained by photographing a cross section of the specimen tissue. Therefore, an image search system for searching cell images from a morphological viewpoint has been studied (for example, see Patent Document 1). In the image database of the image search system described in this document, cell images and cell morphological feature information are stored in association with each other. Then, the image database is searched based on the morphological characteristics of the cell input as the search condition, and the cell image that matches the search condition is displayed on the display unit.

更に、標本の断面を撮影したスライス画像において、この標本の中に含まれる特定の構成細胞を認識するための画像処理システムも検討されている(例えば、特許文献2参照。)。この文献に記載された技術では、画像処理装置の制御部は、スライス画像を記録し、連続した前後のスライス画像において位置合わせを行なう。次に、制御部は、最初のスライス画像において特定された組織輪郭について、他のスライス画像についての輪郭位置合わせを行なう。そして、制御部は、各スライス画像に含まれる細胞について2次元評価処理を実行する。次に、制御部は、各画像において特定した細胞について、同一又は別個の細胞を識別して、細胞数をカウントする3次元評価処理を実行し、細胞数を出力する。   Furthermore, an image processing system for recognizing a specific constituent cell contained in a specimen in a slice image obtained by photographing a cross section of the specimen has been studied (for example, see Patent Document 2). In the technique described in this document, the control unit of the image processing apparatus records slice images and performs alignment in consecutive slice images before and after. Next, the control unit performs contour alignment for the other slice images with respect to the tissue contour specified in the first slice image. And a control part performs a two-dimensional evaluation process about the cell contained in each slice image. Next, the control unit identifies the same or separate cells for the cells specified in each image, executes a three-dimensional evaluation process for counting the number of cells, and outputs the number of cells.

特開2003−30202号公報JP 2003-30202 A 特開2014−6100号公報JP 2014-6100 A

医療や生命医科学分野では、多角的に組織標本を観察するため、同一組織を複数の手段で撮影することがある。例えば、複数の細胞染色手法で同一組織を複数回、染色すれば、複数の物質の存在を可視化した複数枚の画像が得られる。複数枚の各画像には、各ターゲット物質が存在する領域が、特定の色で染色されているので、各物質の存在を容易に確認することができる。   In the medical and biomedical science fields, in order to observe tissue specimens from various angles, the same tissue may be photographed by a plurality of means. For example, if the same tissue is stained a plurality of times by a plurality of cell staining techniques, a plurality of images in which the presence of a plurality of substances is visualized can be obtained. In each of the plurality of images, the region where each target material exists is stained with a specific color, so that the presence of each material can be easily confirmed.

ここで、複数の物質が同時に存在する領域(ターゲット領域)を特定したり、複数の物質の内、一方のみが存在する領域を特定したりする場合がある。この場合、画像を見比べ、目視で確認する必要があり、確認に手間と時間がかかっていた。また、確認対象となる領域が多い場合、目視で複数の画像を見比べながらカウントできる数には限界があった。
本発明は、上述の問題に鑑みてなされたものであり、この目的は、同一被写体を複数の手法で撮影した撮影画像において、ターゲット領域を可視化させるための画像処理システム、画像処理方法及び画像処理プログラムを提供することにある。
Here, there are cases where a region (target region) where a plurality of substances are present simultaneously is specified, or a region where only one of the plurality of substances is present is specified. In this case, it is necessary to compare and visually check the images, and it takes time and effort to confirm the images. Further, when there are many regions to be confirmed, there is a limit to the number that can be counted while visually comparing a plurality of images.
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an image processing system, an image processing method, and an image processing for visualizing a target area in captured images obtained by capturing the same subject by a plurality of methods. To provide a program.

上記問題点を解決するための画像処理システムは、複数の手法を用いて撮影した複数の撮影画像を記憶する撮影画像記憶部と、出力部に接続された制御部とを備える。そして、前記撮影画像記憶部には、前記対象物を第1の手法により撮影した第1の撮影画像と、前記対象物を第2の手法により撮影した第2の撮影画像を記録する。制御部は、前記第1の手法に対して第1配色を割り当て、前記第1の手法とは異なる第2の手法に対して第2配色を割り当て、前記撮影画像記憶部に記録された前記第1の撮影画像に含まれるターゲット領域を第1配色で着色し、背景を黒色化した第1の画像を生成し、前記撮影画像記憶部に記録された前記第2の撮影画像に含まれるターゲット領域を、前記第1配色とは異なる第2配色において着色し、背景を黒色化した第2の画像を生成する。次に、前記相互情報量が最大となるような変形を用いて、前記第1、第2の画像において、それぞれ着色されたターゲット領域を位置合わせして重ね合わせ、前記第1配色及び前記第2配色により生成された第3配色で着色された合成画像を生成して出力する。これにより、第3配色により着色された合成画像を用いて、第1の画像、第2の画像に含まれるターゲット領域を可視化させることができる。 An image processing system for solving the above problem includes a captured image storage unit that stores a plurality of captured images captured using a plurality of methods, and a control unit connected to the output unit. And the said picked-up image memory | storage part records the 1st picked-up image which image | photographed the said object with the 1st method, and the 2nd picked-up image which image | photographed the said object with the 2nd method. Control unit assigns a first color with respect to the first method, allocates a second color for different second approach and the first approach, the first being recorded in the captured image storage unit the target area included in one of the captured image colored with the first color, the target area included the background to generate a first image obtained by blackening, the recorded second captured image in the captured image storage unit Are colored in a second color scheme different from the first color scheme to generate a second image having a black background. Then, using said modified as mutual information is maximized, the first, the second image, overlay target regions are colored respectively in register position, the first color and the second A composite image colored with the third color scheme generated by the two color scheme is generated and output. Thereby, the target area | region contained in a 1st image and a 2nd image can be visualized using the synthesized image colored with the 3rd color scheme.

・上記画像処理システムにおいては、前記第1配色、第2配色を、三原色の中から選択することが好ましい。これにより、色の表現法の一種で、赤(Red)、緑(Green)、青(Blue)の三原色(RGB)に基づいて、合成画像において、配色が重畳した領域を容易に視認することができる。すなわち、人間の網膜にある三種類の錐体細胞に色刺激として働きかけて、各色領域を識別することができる。   In the image processing system, it is preferable that the first color scheme and the second color scheme are selected from three primary colors. Thereby, it is a kind of color expression method, and based on the three primary colors (RGB) of red (Green) and blue (Blue), it is possible to easily visually recognize the region where the color scheme is superimposed in the composite image. it can. In other words, each color region can be identified by acting as a color stimulus on three types of pyramidal cells in the human retina.

・上記画像処理システムにおいては、前記第1、第2の撮影画像において輝度情報を取得し、前記輝度情報に基づいてターゲット領域を白色化した第1、第2の反転画像を生成し、前記第1、第2の反転画像に対して、前記第1配色、第2配色の値を全体に乗算することが好ましい。これにより、ターゲット領域を効率的に着色することができる。   In the image processing system, luminance information is acquired in the first and second captured images, and first and second inverted images in which a target area is whitened based on the luminance information are generated, and the first It is preferable to multiply the first and second inverted images by the values of the first color scheme and the second color scheme as a whole. Thereby, a target area | region can be colored efficiently.

・上記画像処理システムにおいては、更に、前記第1の画像に含まれる画素の画素値と、前記第2の画像に含まれる画素の画素値とを用いて、前記第1、第2の画像の何れかを変形した場合の相互情報量を算出し、前記相互情報量が最大となるような変形を用いて、前記第1の画像と第2の画像との位置合わせを行なう。これにより、同一被写体の特徴を用いて、複数の画像の位置合わせを行なうことができる。 -In the said image processing system, the pixel value of the pixel contained in the said 1st image and the pixel value of the pixel contained in the said 2nd image are further used for the said 1st, 2nd image. calculating a mutual information amount when deformed one, the mutual information amount using the modified such that the maximum will rows aligned between the first and second images. As a result, it is possible to align a plurality of images using the characteristics of the same subject.

・上記画像処理システムにおいては、前記合成画像を、色相(Hue)、彩度(Saturation)、明度(Lightness)を用いたHSV色空間で表し、前記HSV色空間において指定された値を用いて、ターゲット領域を特定することが好ましい。ここで、色相は色の種類、彩度は色の鮮やかさ、明度は色の明るさを表す。これにより、特定の色相を考慮して、色を調整することができる。   In the image processing system, the composite image is represented by an HSV color space using hue, saturation, and lightness, and using values specified in the HSV color space, It is preferable to specify the target area. Here, the hue represents the type of color, the saturation represents the vividness of the color, and the lightness represents the brightness of the color. Thereby, a color can be adjusted in consideration of a specific hue.

・上記画像処理システムにおいては、前記合成画像において、モルフォロジ演算によるクロージング処理を行なうことにより、ターゲット領域を変形して、前記ターゲット領域の数をカウントすることが好ましい。これにより、着色領域のむらや欠け等によるターゲット領域の変形を是正することができる。   -In the said image processing system, it is preferable to deform | transform a target area | region by performing the closing process by morphology operation in the said synthesized image, and to count the number of said target areas. Thereby, the deformation | transformation of the target area | region by the nonuniformity of a coloring area | region, a chip | tip, etc. can be corrected.

・上記画像処理システムにおいては、前記第1、第2の撮影画像は、評価対象組織のスライス標本を撮影した画像であって、前記第1の手法において、前記評価対象組織に含まれる第1の物質の発現領域を着色し、前記第2の手法において、前記評価対象組織に含まれる第2の物質の発現領域を着色し、前記第1の物質及び第2の物質が発現した領域をターゲット領域として検出することが好ましい。これにより、細胞組織において特定の領域(例えば、病理細胞)を特定することができる。   In the image processing system, the first and second captured images are images obtained by capturing slice samples of the evaluation target tissue. In the first technique, the first and second captured images are included in the evaluation target tissue. The substance expression region is colored, and in the second method, the expression region of the second substance contained in the tissue to be evaluated is colored, and the region where the first substance and the second substance are expressed is the target area. It is preferable to detect as Thereby, a specific area | region (for example, pathological cell) can be specified in cellular tissue.

本発明によれば、同一被写体を複数の手法で撮影した撮影画像において、ターゲット領域を効率的に特定することができる。   According to the present invention, it is possible to efficiently specify a target area in a photographed image obtained by photographing the same subject by a plurality of methods.

本実施形態のシステムの説明図であって、(a)はシステム概略、(b)は撮影画像記憶部、(c)は合成画像記憶部の説明図。It is explanatory drawing of the system of this embodiment, Comprising: (a) is a system outline, (b) is a picked-up image memory | storage part, (c) is explanatory drawing of a synthesized image memory | storage part. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図であって、(a)は位置合わせ処理、(b)は細胞認識処理、(c)モルフォロジ演算によるクロージング処理の説明図。It is explanatory drawing of the process sequence of this embodiment, Comprising: (a) is an alignment process, (b) is a cell recognition process, (c) It is explanatory drawing of the closing process by morphological operation. 本実施形態の画像の説明図であって、(a)はタンパク質αを染色した第1画像、(b)はタンパク質βを染色した第2画像、(c)はタンパク質γを染色した第3画像、(d)は第1画像について赤色を割り当てた第4画像、(e)は第2画像について緑色を割り当てた第5画像、(f)は第3画像について青色を割り当てた第6画像の説明図。It is explanatory drawing of the image of this embodiment, (a) is the 1st image which dye | stained protein (alpha), (b) is the 2nd image which dye | stained protein (beta), (c) is the 3rd image which dye | stained protein (gamma) , (D) is a fourth image assigned red for the first image, (e) is a fifth image assigned green for the second image, and (f) is a sixth image assigned blue for the third image. Figure. 本実施形態の画像の説明図であって、(a)は位置合わせを行なっていない合成画像、(b)は位置合わせを行なった合成画像の説明図。2A and 2B are explanatory diagrams of an image according to the present embodiment, in which FIG. 3A is a composite image that has not been aligned, and FIG.

以下、一実施形態を、図1〜図7に従って説明する。本実施形態では、同一組織を複数の手段で撮影した画像において、ターゲット領域(例えば、病理細胞)を特定するための画像処理システムとして説明する。   Hereinafter, an embodiment will be described with reference to FIGS. In this embodiment, an image processing system for specifying a target region (for example, a pathological cell) in an image obtained by photographing the same tissue with a plurality of means will be described.

ここでは、特許文献2と同様に、評価対象組織(第1の立体物)に内包される特定の細胞(第2の立体物)の細胞数をカウントする場合を想定する。このために、評価対象組織を等間隔(スライス間隔)でスライスしたスライス標本を作製する。この評価対象組織に含まれる構成細胞は、楕円体形状を有するものとする。   Here, as in Patent Document 2, it is assumed that the number of specific cells (second solid object) included in the evaluation target tissue (first solid object) is counted. For this purpose, slice specimens are prepared by slicing the evaluation target tissue at equal intervals (slice intervals). The constituent cells included in the tissue to be evaluated are assumed to have an ellipsoidal shape.

本実施形態では、評価対象組織の断面(スライス標本)において、特定の細胞を、所定の細胞染色方法によって染色する。この場合、複数の物質のそれぞれの検出領域を検出するために、各スライス標本を、異なる細胞染色方法によって、複数回の染色を行なう。具体的には、異なる色の染色剤を用いる場合や、染色後に脱色して、次の染色をして行なう場合がある。そして、染色毎に、異なる物質が着色されている組織について、スライス標本を拡大撮影した画像を準備する。これらの画像においては、複数種類の情報を可視化して組みわせることができるため、以下、マルチモーダル画像と呼ぶ。   In the present embodiment, specific cells are stained by a predetermined cell staining method in the cross section (slice specimen) of the tissue to be evaluated. In this case, in order to detect each detection region of a plurality of substances, each slice sample is stained a plurality of times by different cell staining methods. Specifically, there is a case where a different color dye is used, or a case where the color is removed after dyeing and the next dyeing is performed. Then, for each staining, an image obtained by magnifying a slice sample is prepared for a tissue colored with a different substance. In these images, since a plurality of types of information can be visualized and combined, they are hereinafter referred to as multimodal images.

図1(a)に示すように、この画像処理のため、入力部10、出力部15に接続された画像処理装置20を用いる。
入力部10は、キーボードやポインティングデバイス等、各種指示を入力するための入力手段から構成される。また、出力部15は、ディスプレイ等、情報処理結果を出力するための出力手段から構成される。
As shown in FIG. 1A, an image processing apparatus 20 connected to an input unit 10 and an output unit 15 is used for this image processing.
The input unit 10 includes input means for inputting various instructions such as a keyboard and a pointing device. The output unit 15 includes output means for outputting information processing results, such as a display.

画像処理装置20は、組織標本の断面を撮影した複数のスライス画像を用いて、この中に内包される特定の組織の細胞数を算出するコンピュータである。この画像処理装置20は、制御部21、撮影画像記憶部22、合成画像記憶部23、計算情報記憶部24を備えている。   The image processing apparatus 20 is a computer that calculates the number of cells of a specific tissue included in a plurality of slice images obtained by photographing a cross section of a tissue specimen. The image processing apparatus 20 includes a control unit 21, a captured image storage unit 22, a composite image storage unit 23, and a calculation information storage unit 24.

制御部21は、CPU、RAM、ROM等から構成された制御手段として機能し、後述する処理(管理段階、画像取得段階、色割当段階、位置調整段階、カウント段階等を含む処理)を行なう。このための画像処理プログラムを実行することにより、制御部21は、管理部210、色割当部211、位置調整部212、画像合成部213、カウント部214等として機能する。   The control unit 21 functions as a control unit including a CPU, a RAM, a ROM, and the like, and performs processing described later (processing including a management stage, an image acquisition stage, a color assignment stage, a position adjustment stage, a count stage, and the like). By executing an image processing program for this purpose, the control unit 21 functions as a management unit 210, a color assignment unit 211, a position adjustment unit 212, an image composition unit 213, a count unit 214, and the like.

管理部210は、画像処理対象のスライス画像を取得するとともに、後述する各手段を制御する処理を実行する。管理部210は、特許文献2と同様に、スライス画像を作成した時のスライス間隔、倍率を一時記憶するメモリを備えている。   The management unit 210 acquires a slice image to be processed, and executes processing for controlling each unit described later. Similar to Patent Document 2, the management unit 210 includes a memory that temporarily stores a slice interval and a magnification when a slice image is created.

色割当部211は、同一組織を撮影した複数の画像に対して、配色を割り当てる処理を実行する。
位置調整部212は、同一組織を撮影した複数の画像の位置を調整する処理を実行する。例えば、撮影位置によってずれている画像の位置を調整する。
画像合成部213は、同一組織を撮影した複数の画像を合成して、ターゲット領域を特定するための処理を実行する。
The color assigning unit 211 executes a process of assigning a color arrangement to a plurality of images obtained by photographing the same tissue.
The position adjustment unit 212 executes processing for adjusting the positions of a plurality of images obtained by imaging the same tissue. For example, the position of the shifted image is adjusted depending on the shooting position.
The image composition unit 213 performs a process for identifying a target area by compositing a plurality of images obtained by photographing the same tissue.

カウント部214は、合成画像記憶部23に記録された合成画像内のターゲット領域に基づいて、抽出領域をカウントする処理を実行する。本実施形態では、特許文献2に記載されている2次元評価手段と同様に、各スライス画像において撮影された特定の細胞の画像数をカウントする処理を実行する。更に、特許文献2に記載されている3次元評価手段と同様に、評価対象組織の3次元構造を考慮して、同一又は異なる特異細胞を判定して、評価対象組織に内包される特定の細胞の細胞数をカウントする処理を実行する。このため、複数のスライス画像に含まれる特定の細胞の連続性を担保するように、スライス画像に内包される特定の細胞の位置合わせ、スライス画像において、特定の細胞をカウントする画像範囲(輪郭)の特定を行なう。   The count unit 214 executes a process of counting the extraction area based on the target area in the composite image recorded in the composite image storage unit 23. In the present embodiment, similarly to the two-dimensional evaluation means described in Patent Document 2, processing for counting the number of images of specific cells photographed in each slice image is executed. Furthermore, in the same manner as the three-dimensional evaluation means described in Patent Document 2, a specific cell included in the evaluation target tissue is determined by determining the same or different specific cells in consideration of the three-dimensional structure of the evaluation target tissue. Execute the process of counting the number of cells. For this reason, in order to ensure the continuity of specific cells included in a plurality of slice images, alignment of specific cells included in the slice images and image range (contour) for counting specific cells in the slice images To identify.

図1(b)に示すように、撮影画像記憶部22には、評価対象組織をスライスした各断面を撮影した画像(スライス画像)についての撮影画像管理データ220が記録される。この撮影画像管理データ220は、ユーザによってスライス画像が指定された場合に記録される。撮影画像管理データ220は、画像番号、染色コード、スライス画像に関するデータを含んで構成される。   As illustrated in FIG. 1B, the captured image storage unit 22 stores captured image management data 220 for images (slice images) obtained by capturing each cross section obtained by slicing the evaluation target tissue. The captured image management data 220 is recorded when a slice image is designated by the user. The captured image management data 220 includes data relating to an image number, a staining code, and a slice image.

画像番号データ領域には、各スライス画像を特定するための識別子に関するデータが記録される。この画像番号は、初期値(ここでは「0」)から順番に、各断面位置の順番で連続した番号が設定される。   Data relating to an identifier for specifying each slice image is recorded in the image number data area. As this image number, a sequential number in the order of the cross-sectional positions is set in order from the initial value (here, “0”).

染色コードデータ領域には、この細胞組織の染色に用いた染色手法(第1,第2の手法)を特定するための識別子に関するデータが記録される。
スライス画像データ領域には、この画像番号により特定される断面位置の組織構造を撮影した画像に関するデータが記録される。本実施形態では、同じ断面位置で、異なる染色コードに関連づけられた複数の画像(第1、第2の撮影画像)が記録される。
In the staining code data area, data relating to an identifier for specifying the staining technique (first and second techniques) used for staining the cell tissue is recorded.
In the slice image data area, data relating to an image obtained by photographing the tissue structure at the cross-sectional position specified by the image number is recorded. In the present embodiment, a plurality of images (first and second captured images) associated with different staining codes are recorded at the same cross-sectional position.

図1(c)に示すように、合成画像記憶部23には、各撮影画像を合成した合成画像管理データ230が記録される。この合成画像管理データ230は、合成画像を生成した場合に記録される。合成画像管理データ230は、画像番号、合成画像、使用判定フラグに関するデータを含んで構成される。   As shown in FIG. 1C, the composite image management unit 230 records composite image management data 230 obtained by combining the captured images. This composite image management data 230 is recorded when a composite image is generated. The composite image management data 230 includes data relating to an image number, a composite image, and a use determination flag.

画像番号データ領域には、各合成画像の断面位置を特定するための識別子に関するデータが記録される。ここでは、撮影画像管理データ220に記録された画像番号と同じ番号を用いる。
合成画像データ領域には、この画像番号により特定される断面位置の組織構造の合成画像に関するデータが記録される。後述するように、この合成画像を、特許文献2に記載された技術に適用して、特定の細胞のカウントを行なう。
In the image number data area, data relating to an identifier for specifying the cross-sectional position of each composite image is recorded. Here, the same number as the image number recorded in the captured image management data 220 is used.
In the composite image data area, data relating to the composite image of the tissue structure at the cross-sectional position specified by the image number is recorded. As will be described later, this synthesized image is applied to the technique described in Patent Document 2 to count specific cells.

使用判定フラグデータ領域には、この合成画像の使用可否を判定するための識別子に関するデータが記録される。具体的には、3次元評価処理(特許文献2)と同様に、後述する3次元細胞のカウント処理において、他の合成画像とのずれが大きく、位置合わせができない場合、この合成画像を使用しないことを示す不使用フラグが記録される。   In the use determination flag data area, data relating to an identifier for determining whether or not the composite image can be used is recorded. Specifically, as in the three-dimensional evaluation process (Patent Document 2), in the three-dimensional cell counting process described later, this composite image is not used when there is a large deviation from other composite images and positioning cannot be performed. A non-use flag indicating that is recorded.

計算情報記憶部24には、特定の細胞のカウントに用いる計算情報が記録される。この計算情報記憶部24には、特許文献2と同様に、変形情報管理データ、組織輪郭管理データ、スライス内細胞管理データ、グループ化管理データが記録される。変形情報管理データには、撮影された特定の細胞の連続性を担保するために、スライス画像を変形させるための情報が記録される。組織輪郭管理データには、スライス画像において、特定の細胞をカウントする範囲を特定するための情報が記録される。スライス内細胞管理データには、各スライス画像に含まれる特定の細胞を抽出するための情報が記録される。グループ化管理データには、3次元構造を考慮して、複数のスライス画像で撮影された各特定の細胞のまとまりを特定するための情報が記録される。   The calculation information storage unit 24 records calculation information used for counting specific cells. Similar to Patent Document 2, deformation information management data, tissue contour management data, in-slice cell management data, and grouping management data are recorded in the calculation information storage unit 24. In the deformation information management data, information for deforming the slice image is recorded in order to ensure the continuity of the photographed specific cells. In the tissue outline management data, information for specifying a range in which specific cells are counted in the slice image is recorded. In the intra-slice cell management data, information for extracting specific cells included in each slice image is recorded. In the grouping management data, information for specifying a group of specific cells photographed with a plurality of slice images in consideration of the three-dimensional structure is recorded.

次に、上記のように構成された画像処理装置20において、評価対象組織内に含まれる特定の細胞を評価する場合の処理手順について、図2〜図7を用いて説明する。
(全体の概要)
まず、図2を用いて、全体の概要を説明する。評価対象組織内に含まれる小さな細胞を評価する場合、組織標本を所定の間隔(スライス間隔)でスライスする。そして、各断面において細胞を染色して、所定の倍率で撮影したスライス画像ファイルを作成する。上述したように、本実施形態では、異なる細胞染色手法を用いて、複数回の染色を行ない、染色毎に撮影を行なう。このスライス画像ファイルを、画像処理装置20の記憶部(ハードディスク等)や記憶媒体内に格納しておく。この場合、一つのファイルに複数のスライス画像を含めたり、スライスした順番にファイル名を設定した複数のスライス画像ファイルを用いたりすることができる。そして、画像処理装置20の画像処理プログラムを起動する。
Next, in the image processing apparatus 20 configured as described above, a processing procedure in the case of evaluating a specific cell included in the evaluation target tissue will be described with reference to FIGS.
(Overview of the whole)
First, the overall outline will be described with reference to FIG. When evaluating small cells contained in the tissue to be evaluated, the tissue specimen is sliced at a predetermined interval (slice interval). Then, cells are stained in each cross section, and a slice image file photographed at a predetermined magnification is created. As described above, in the present embodiment, a plurality of stainings are performed using different cell staining methods, and imaging is performed for each staining. This slice image file is stored in a storage unit (hard disk or the like) of the image processing apparatus 20 or a storage medium. In this case, a plurality of slice images can be included in one file, or a plurality of slice image files in which file names are set in the sliced order can be used. Then, the image processing program of the image processing apparatus 20 is activated.

この場合、まず、画像処理装置20の制御部21は、画像取得処理を実行する(ステップS1−1)。具体的には、制御部21の管理部210は、出力部15に、評価対象の組織を撮影したスライス画像を指定するための画像指定画面を出力する。ここで、画像指定画面を用いて、画像処理装置20の記憶部(ハードディスク等)や記憶媒体内に記録された評価対象のスライス画像を指定する。この場合、管理部210は、指定されたスライス画像を取得し、ファイルに含まれる順番やファイル名の順番に基づいて画像番号を付与する。そして、管理部210は、画像番号に関連付けたスライス画像を記録した撮影画像管理データ220を生成し、撮影画像記憶部22に登録する。   In this case, first, the control unit 21 of the image processing apparatus 20 executes an image acquisition process (step S1-1). Specifically, the management unit 210 of the control unit 21 outputs to the output unit 15 an image designation screen for designating a slice image obtained by imaging the tissue to be evaluated. Here, the slice image to be evaluated recorded in the storage unit (hard disk or the like) of the image processing apparatus 20 or the storage medium is designated using the image designation screen. In this case, the management unit 210 acquires the designated slice image and assigns an image number based on the order included in the file or the order of the file names. Then, the management unit 210 generates captured image management data 220 in which the slice image associated with the image number is recorded and registers it in the captured image storage unit 22.

図3は、本実施形態で用いる撮影画像を模式的に表わしたものである。ここでは、二つの撮影画像500,501を用いる場合を想定する。撮影画像500においては染色領域R1,R2,R3が含まれ、撮影画像501において染色領域R1,R3が含まれる。   FIG. 3 schematically shows a captured image used in the present embodiment. Here, it is assumed that two captured images 500 and 501 are used. The captured image 500 includes stained regions R1, R2, and R3, and the captured image 501 includes stained regions R1 and R3.

次に、画像処理装置20の制御部21は、色の割当処理を実行する(ステップS1−2)。具体的には、制御部21の色割当部211は、画像中の染色領域に対して、合成に必要な色を割り当てる。ここでは、染色手法毎に、三原色のいずれか異なる色を割り当てる。図3において、撮影画像500の染色領域R1〜R3には第1配色(例えば、RGBの「赤」)、撮影画像501の染色領域R1,R3には第2配色(例えば、RGBの「緑」)を割り当てる。この処理の詳細については、図4を用いて後述する。   Next, the control unit 21 of the image processing apparatus 20 executes a color assignment process (step S1-2). Specifically, the color assigning unit 211 of the control unit 21 assigns a color necessary for synthesis to the stained region in the image. Here, any one of the three primary colors is assigned for each staining method. In FIG. 3, the first color scheme (for example, RGB “red”) is used for the stained regions R1 to R3 of the captured image 500, and the second color scheme (for example, “green” for RGB) is used for the stained regions R1 and R3 of the captured image 501. ). Details of this processing will be described later with reference to FIG.

次に、断面位置毎に、以下の処理を繰り返す。本実施形態では、共通する画像番号に関連付けられたスライス画像により、同じ断面位置の画像を特定する。
ここでは、画像処理装置20の制御部21は、位置合わせ処理を実行する(ステップS1−3)。具体的には、制御部21の位置調整部212は、異なる染色手法によって染色された同一細胞組織の撮影毎の位置ずれを調整する。この処理の詳細については、図5を用いて後述する。
Next, the following processing is repeated for each cross-sectional position. In the present embodiment, images of the same cross-sectional position are specified by slice images associated with a common image number.
Here, the control unit 21 of the image processing apparatus 20 executes alignment processing (step S1-3). Specifically, the position adjustment unit 212 of the control unit 21 adjusts the positional deviation for each photographing of the same cell tissue stained by different staining methods. Details of this processing will be described later with reference to FIG.

次に、画像処理装置20の制御部21は、合成処理を実行する(ステップS1−4)。具体的には、制御部21の画像合成部213は、同じ断面位置のマルチモーダル画像を合成して、合成画像を生成する。図3の画像502において、撮影画像500と撮影画像501とが合成された染色領域R1,R3は第3配色(「赤」と「緑」との合成色)が発現する。一方、撮影画像500の染色領域R2は、元の第1配色(「赤」)を維持する。この処理の詳細については、図6を用いて後述する。   Next, the control unit 21 of the image processing apparatus 20 executes a composition process (step S1-4). Specifically, the image composition unit 213 of the control unit 21 synthesizes multimodal images at the same cross-sectional position to generate a composite image. In the image 502 of FIG. 3, the stained regions R1 and R3 where the captured image 500 and the captured image 501 are combined have a third color scheme (the combined color of “red” and “green”). On the other hand, the stained region R2 of the photographed image 500 maintains the original first color scheme (“red”). Details of this processing will be described later with reference to FIG.

次に、画像処理装置20の制御部21は、指定色の2次元細胞のカウント処理を実行する(ステップS1−5)。具体的には、制御部21のカウント部214は、2次元の合成画像内で指定された色領域を用いて、特定の細胞(粒子)の個数をカウントする。具体的には、指定色で合成された連続切片画像において、後述する細胞認識処理を行ない、色領域内部の細胞を認識する。そして、図3の画像503において、第3配色(「赤」と「緑」とが合成された「黄」)が発現した染色領域R1,R3を特定の細胞としてカウントする。特定の細胞のカウントについては、特許文献2の2次元評価処理を用いる。
そして、すべての断面位置について終了するまで、上記処理を繰り返す。
Next, the control unit 21 of the image processing apparatus 20 performs a count process of the two-dimensional cells of the designated color (Step S1-5). Specifically, the count unit 214 of the control unit 21 counts the number of specific cells (particles) using the color area specified in the two-dimensional composite image. Specifically, the cell recognition processing described later is performed on the continuous slice images synthesized with the designated color to recognize cells inside the color region. Then, in the image 503 in FIG. 3, the stained regions R1 and R3 in which the third color scheme (“yellow” in which “red” and “green” are combined) are expressed are counted as specific cells. The two-dimensional evaluation process of Patent Document 2 is used for counting specific cells.
Then, the above process is repeated until all the cross-sectional positions are completed.

次に、画像処理装置20の制御部21は、3次元細胞のカウント処理を実行する(ステップS1−6)。具体的には、制御部21のカウント部214は、合成された連続切片画像を位置合わせして、3次元組織内部の細胞数をカウントする。特定の細胞のカウントについては、特許文献2の3次元評価処理を用いる。   Next, the control unit 21 of the image processing apparatus 20 executes a three-dimensional cell count process (step S1-6). Specifically, the count unit 214 of the control unit 21 aligns the synthesized continuous section images and counts the number of cells inside the three-dimensional tissue. For the count of specific cells, the three-dimensional evaluation process of Patent Document 2 is used.

(色の割当処理)
次に、図4を用いて、色の割当処理(ステップS1−2)を説明する。ここでは、画像中の染色領域を、合成に必要な色に割り当てる。
(Color assignment process)
Next, the color assignment process (step S1-2) will be described with reference to FIG. Here, the dyed area in the image is assigned to a color necessary for synthesis.

まず、画像処理装置20の制御部21は、グレー化処理を実行する(ステップS2−1)。具体的には、制御部21の色割当部211は、撮影画像(カラー画像)の色情報を削除し、輝度情報のみとする。例えば、画像510においては、白色に近い背景色に対して、染色領域R1〜R3が「赤」に染色されている場合を想定する。画像511のように、色情報を削除することにより、輝度を用いて、背景領域に対して、染色領域R1〜R3が黒に近い配色の画像に変換される。   First, the control unit 21 of the image processing apparatus 20 executes a graying process (step S2-1). Specifically, the color assignment unit 211 of the control unit 21 deletes the color information of the captured image (color image) and sets only the luminance information. For example, in the image 510, it is assumed that the staining regions R1 to R3 are stained “red” with respect to a background color close to white. As in the image 511, by deleting the color information, the stained regions R1 to R3 are converted into an image having a color scheme close to black with respect to the background region using luminance.

次に、画像処理装置20の制御部21は、白黒反転処理を実行する(ステップS2−2)。具体的には、制御部21の色割当部211は、グレー化した画像について、白黒を反転させる。この場合、染色領域が白色に近い配色、背景領域が黒色に近い配色の画像に変換される。画像512のように、背景領域に対して、染色領域R1〜R3が白色に近い色に変換される。   Next, the control unit 21 of the image processing apparatus 20 executes black and white reversal processing (step S2-2). Specifically, the color assignment unit 211 of the control unit 21 inverts black and white for a grayed image. In this case, the image is converted into an image having a color scheme in which the staining area is close to white and a background area is close to black. As in the image 512, the stained regions R1 to R3 are converted into a color close to white with respect to the background region.

次に、画像処理装置20の制御部21は、指定色の割当処理を実行する(ステップS2−3)。具体的には、制御部21の色割当部211は、白黒反転画像全体に対して、撮影手法に対応した指定色のRGB値を乗算する。この場合、白色に近い配色の染色領域は指定色に変換される。一方、黒色に近い色の背景領域は、黒色を維持する。この場合、画像513のように、黒色に近い配色の背景領域に対して、染色領域R1〜R3が指定色(例えば、第1配色の「緑」)に着色される。   Next, the control unit 21 of the image processing apparatus 20 executes a designated color assignment process (step S2-3). Specifically, the color assignment unit 211 of the control unit 21 multiplies the entire black-and-white inverted image by the RGB value of the designated color corresponding to the shooting method. In this case, a dyed region having a color scheme close to white is converted into a designated color. On the other hand, the background area of a color close to black maintains black. In this case, as in the image 513, the dyed regions R1 to R3 are colored in a designated color (for example, “green” in the first color scheme) with respect to a background region having a color scheme close to black.

次に、画像処理装置20の制御部21は、背景カット処理を実行する(ステップS2−4)。具体的には、制御部21の色割当部211は、閾値以下の領域を黒色に設定する。本実施形態では、閾値を、公知技術(例えば、大津の手法)等で算出する。なお、閾値をユーザが画像を確認しながら指定するようにしてもよい。この場合、画像514のように、背景領域の各RGB値が最大値(255)となり、背景色が黒色に近い色から黒色に変換される。   Next, the control unit 21 of the image processing apparatus 20 performs background cut processing (step S2-4). Specifically, the color assignment unit 211 of the control unit 21 sets the area below the threshold value to black. In this embodiment, the threshold value is calculated by a known technique (for example, Otsu's method). Note that the user may specify the threshold while confirming the image. In this case, as in the image 514, each RGB value of the background region becomes the maximum value (255), and the background color is converted from a color close to black to black.

(位置合わせ処理)
次に、図5(a)を用いて、位置合わせ処理(ステップS1−3)を説明する。ここでは、同一組織を撮影した複数の画像の位置合わせを行なう。具体的には、マルチモーダル画像の位置合わせでは、相互情報量が最大となるアフィン変換条件(並行移動、回転、リサイズ)を求める。
(Alignment processing)
Next, the alignment process (step S1-3) will be described with reference to FIG. Here, a plurality of images obtained by photographing the same tissue are aligned. Specifically, in the alignment of multimodal images, an affine transformation condition (parallel movement, rotation, resizing) that maximizes the mutual information amount is obtained.

まず、画像処理装置20の制御部21は、同位置画像の特定処理を実行する(ステップS3−1)。具体的には、制御部21の位置調整部212は、処理対象の断面位置の撮影番号が記録され、色の割当処理が行われたマルチモーダル画像を特定する。   First, the control unit 21 of the image processing apparatus 20 executes the same position image specifying process (step S3-1). Specifically, the position adjustment unit 212 of the control unit 21 specifies the multimodal image in which the photographing number of the cross-sectional position to be processed is recorded and the color assignment processing is performed.

そして、アフィン変換条件毎に、以下の処理を繰り返す。
ここでは、画像処理装置20の制御部21は、相互情報量の算出処理を実行する(ステップS3−2)。具体的には、制御部21の位置調整部212は、以下の式を用いて、相互情報量を算出する。
Then, the following processing is repeated for each affine transformation condition.
Here, the control unit 21 of the image processing apparatus 20 executes a mutual information amount calculation process (step S3-2). Specifically, the position adjustment unit 212 of the control unit 21 calculates the mutual information amount using the following equation.

ここで、「ai」は画像Aの画素値(0〜255)、「bj」は画像Bの画素値(0〜255)である。
そして、同時分布関数p(ai,bj)は、以下のように表すことができる。
Here, “ai” is the pixel value (0 to 255) of the image A, and “bj” is the pixel value (0 to 255) of the image B.
The simultaneous distribution function p (ai, bj) can be expressed as follows.

また、周辺確率分布関数p(ai)、p(bj)は、以下のように表すことができる。   The peripheral probability distribution functions p (ai) and p (bj) can be expressed as follows.

更に、2次元ヒストグラムh(ai,bj)は、以下のように表すことができる。   Further, the two-dimensional histogram h (ai, bj) can be expressed as follows.

そして、位置調整部212は、算出した相互情報量を、アフィン変換条件(並行移動、回転、リサイズ)に関連付けてメモリに記憶する。
以上の処理を、すべてのアフィン変換条件について終了するまで繰り返す。
Then, the position adjustment unit 212 stores the calculated mutual information amount in the memory in association with the affine transformation conditions (parallel movement, rotation, resizing).
The above processing is repeated until all the affine transformation conditions are completed.

次に、画像処理装置20の制御部21は、相互情報量が最大値の位置の特定処理を実行する(ステップS3−3)。具体的には、制御部21の位置調整部212は、メモリに記憶された相互情報量の中で最大値を特定し、最大値に関連付けられたアフィン変換条件を特定する。
次に、画像処理装置20の制御部21は、位置合わせ結果の記録処理を実行する(ステップS3−4)。具体的には、制御部21の位置調整部212は、特定したアフィン変換条件を取得して、マルチモーダル画像の位置合わせを完了し、合成画像を生成し、合成画像記憶部23に記録する。
Next, the control unit 21 of the image processing apparatus 20 executes a process of specifying the position where the mutual information amount is the maximum value (step S3-3). Specifically, the position adjustment unit 212 of the control unit 21 specifies the maximum value among the mutual information amounts stored in the memory, and specifies the affine transformation condition associated with the maximum value.
Next, the control unit 21 of the image processing apparatus 20 executes a registration result recording process (step S3-4). Specifically, the position adjustment unit 212 of the control unit 21 acquires the specified affine transformation condition, completes the alignment of the multimodal image, generates a composite image, and records it in the composite image storage unit 23.

(細胞認識処理)
次に、図5(b)を用いて、指定色の2次元細胞のカウント処理(ステップS1−5)における細胞認識処理を説明する。
ここでは、まず、画像処理装置20の制御部21は、HSV変換処理を実行する(ステップS4−1)。具体的には、制御部21のカウント部214は、合成画像を、色相(H)、彩度(S)、明度(V)からなるHSV色空間に投影する。そして、カウント部214は、合成画像を出力部15に表示する。
(Cell recognition process)
Next, with reference to FIG. 5B, the cell recognition process in the two-dimensional cell counting process (step S1-5) of the designated color will be described.
Here, first, the control unit 21 of the image processing apparatus 20 executes HSV conversion processing (step S4-1). Specifically, the count unit 214 of the control unit 21 projects the composite image on an HSV color space composed of hue (H), saturation (S), and brightness (V). Then, the count unit 214 displays the composite image on the output unit 15.

次に、画像処理装置20の制御部21は、HSVの指定処理を実行する(ステップS4−2)。具体的には、制御部21のカウント部214は、色指定画面を出力部15に出力する。この色指定画面においては、色相(H)、彩度(S)、明度(V)を指定するための設定アイコン(例えば、スライダ)が設けられている。この色指定画面においては、指定色(例えば、「赤」、「緑」)の合成により発現する配色(「黄」)の代表値を初期値として設定しておく。このスライダを用いて、色領域(HSV値)の指定を行なうことができる。色指定画面において指定されたHSV値を取得したカウント部214は、出力部15に表示された合成画像を、HSV値に応じて変更する。   Next, the control unit 21 of the image processing apparatus 20 executes HSV designation processing (step S4-2). Specifically, the count unit 214 of the control unit 21 outputs a color designation screen to the output unit 15. In this color designation screen, setting icons (for example, sliders) for designating hue (H), saturation (S), and brightness (V) are provided. In this color designation screen, a representative value of a color scheme (“yellow”) that is expressed by synthesis of designated colors (for example, “red”, “green”) is set as an initial value. Using this slider, a color area (HSV value) can be specified. The count unit 214 that has acquired the HSV value designated on the color designation screen changes the composite image displayed on the output unit 15 according to the HSV value.

次に、画像処理装置20の制御部21は、指定範囲の色領域の抽出処理を実行する(ステップS4−3)。具体的には、制御部21のカウント部214は、HSV値に応じて、合成画像において、指定範囲の色領域(ターゲット領域)を抽出する。   Next, the control unit 21 of the image processing apparatus 20 performs a color region extraction process in a specified range (step S4-3). Specifically, the count unit 214 of the control unit 21 extracts a color region (target region) in a specified range in the composite image according to the HSV value.

次に、画像処理装置20の制御部21は、モルフォロジ演算によるクロージング処理を実行する(ステップS4−4)。具体的には、制御部21のカウント部214は、指定範囲の色領域の欠落を補間する。   Next, the control unit 21 of the image processing apparatus 20 executes a closing process based on a morphological operation (step S4-4). Specifically, the count unit 214 of the control unit 21 interpolates missing color regions in the specified range.

図5(c)の画像520に示すように、マルチモーダル画像の重ね合わせ状況に応じて、染色領域の一部が欠けている場合がある。この場合には、クロージング処理により、着色領域が欠けている領域が接合される。これにより、画像521に示すように、染色領域は、穴が開いたリング形状となる。   As shown in an image 520 in FIG. 5C, a part of the stained region may be missing depending on the overlapping state of the multimodal images. In this case, the region lacking the colored region is joined by the closing process. Thereby, as shown to the image 521, a dyeing | staining area | region becomes a ring shape with a hole.

次に、画像処理装置20の制御部21は、穴閉じ処理を実行する(ステップS4−5)。具体的には、制御部21のカウント部214は、リング形状の色領域内部を同じ色で埋める。これにより、画像523に示すように、染色領域を円形状にする。   Next, the control unit 21 of the image processing apparatus 20 executes a hole closing process (step S4-5). Specifically, the count unit 214 of the control unit 21 fills the inside of the ring-shaped color region with the same color. As a result, as shown in the image 523, the stained region is formed into a circular shape.

(実施例)
図6、図7は、組織のスライス標本に本実施形態を適用した実施例である。
図6(a)〜(c)は、同じスライス標本において、異なる抗体を用いて染色し、撮影したスライス画像である。ここで、図6(a)はタンパク質αの抗体を用いて染色した第1画像、図6(b)はタンパク質βの抗体を用いて染色した第2画像、図6(c)はタンパク質γの抗体を用いて染色した第3画像である。また、図6(d)〜(f)は、各画像を指定色で着色した画像である。図6(d)は第1画像に対して赤色を割り当てて着色した第4画像、図6(e)は第2画像に対して緑色を割り当てて着色した第5画像、図6(f)は第3画像に対して青色を割り当てて着色した第6画像である。
(Example)
6 and 7 show an example in which the present embodiment is applied to a tissue slice specimen.
FIGS. 6A to 6C are slice images that are stained with different antibodies and photographed in the same slice specimen. Here, FIG. 6 (a) is the first image stained with the protein α antibody, FIG. 6 (b) is the second image stained with the protein β antibody, and FIG. 6 (c) is the protein γ. It is the 3rd image dye | stained using the antibody. 6D to 6F are images obtained by coloring each image with a designated color. FIG. 6D is a fourth image colored by assigning red to the first image, FIG. 6E is a fifth image colored by assigning green to the second image, and FIG. It is the 6th image colored by assigning blue to the 3rd image.

図7は、各指定色で着色された第4画像〜第6画像の合成画像の説明図である。図7(a)は位置合わせを行なっていない合成画像、図7(b)は位置合わせを行なった合成画像である。図7(a)に示すように、位置合わせを行なっていない場合には、各色領域がばらついており、ターゲット領域の識別が困難である。一方、図7(b)に示すように、位置合わせを行なった場合には、各着色領域の重なりにより定まるターゲット領域を識別することができる。   FIG. 7 is an explanatory diagram of a composite image of the fourth image to the sixth image colored with each specified color. FIG. 7A is a composite image that has not been aligned, and FIG. 7B is a composite image that has been aligned. As shown in FIG. 7A, when the alignment is not performed, each color area varies, and it is difficult to identify the target area. On the other hand, as shown in FIG. 7B, when the alignment is performed, the target area determined by the overlapping of the colored areas can be identified.

本実施形態の画像処理システムによれば、以下のような効果を得ることができる。
(1)本実施形態では、画像処理装置20の制御部21は、色の割当処理(ステップS1−2)、位置合わせ処理(ステップS1−3)、合成処理(ステップS1−4)を実行する。これにより、複数の染色画像において、合成色に基づいて、共通して存在する領域を可視化して、容易に確認することができる。また、合成色の領域を用いて、ターゲット領域の数をカウントすることができる。
According to the image processing system of the present embodiment, the following effects can be obtained.
(1) In this embodiment, the control unit 21 of the image processing apparatus 20 executes a color assignment process (step S1-2), a registration process (step S1-3), and a composition process (step S1-4). . Thereby, in a plurality of stained images, a common existing area can be visualized and easily confirmed based on the composite color. In addition, the number of target areas can be counted using the composite color area.

(2)本実施形態の色の割当処理(ステップS1−2)では、染色手法毎に、三原色のいずれか異なる色を割り当てる。これにより、三原色のRGBに基づいて、合成画像において、配色が重畳した領域を容易に視認することができる。   (2) In the color assignment process (step S1-2) of the present embodiment, any one of the three primary colors is assigned for each staining method. Thereby, based on RGB of three primary colors, the area | region where the color scheme was superimposed can be easily visually recognized in a synthesized image.

(3)本実施形態の位置合わせ処理では、2次元ヒストグラムh(ai,bj)を用いる。これにより、マルチモーダル画像の特徴的な分布に基づいて、複数の画像の位置合わせを行なうことができる。   (3) In the alignment process of this embodiment, a two-dimensional histogram h (ai, bj) is used. Thereby, based on the characteristic distribution of a multimodal image, a plurality of images can be aligned.

(4)本実施形態の細胞認識処理では、画像処理装置20の制御部21は、HSV変換処理を実行する(ステップS4−1)。これにより、色相を考慮して、色変化を確認しながら、色を調整することができる。RGB値を調整する場合には、色相が変化する可能性があるが、HSV色空間を用いることにより、三原色を考慮した色調整を効率的に行なうことができる。   (4) In the cell recognition process of the present embodiment, the control unit 21 of the image processing apparatus 20 executes an HSV conversion process (step S4-1). Accordingly, it is possible to adjust the color while checking the color change in consideration of the hue. When the RGB values are adjusted, the hue may change, but by using the HSV color space, color adjustment considering the three primary colors can be performed efficiently.

更に、画像処理装置20の制御部21は、モルフォロジ演算によるクロージング処理を実行する(ステップS4−4)。これにより、特定の細胞の形状(楕円体形状)を考慮して、染色むらや、位置ずれを是正することができる。   Further, the control unit 21 of the image processing apparatus 20 performs a closing process by a morphological operation (step S4-4). This makes it possible to correct staining unevenness and misalignment in consideration of the shape of a specific cell (ellipsoidal shape).

また、上記実施形態は、以下のように変更してもよい。
・上記実施形態では、組織のスライス標本に内包される特定の細胞の細胞数を、マルチモーダル画像を用いてカウントする場合を想定した。本発明の適用対象は、これに限定されるものではなく、同一被写体を、複数の異なる手法で撮影したマルチモーダル画像に適用することができる。例えば、核磁気共鳴画像法(magnetic resonance imaging:MRI)やX線CTの撮影画像、構造物(例えば、建築物)における複数の検査手法等に用いることも可能である。
Moreover, you may change the said embodiment as follows.
In the above embodiment, it is assumed that the number of specific cells included in the tissue slice specimen is counted using a multimodal image. The application target of the present invention is not limited to this, and can be applied to multimodal images obtained by photographing the same subject by a plurality of different methods. For example, the present invention can be used for magnetic resonance imaging (MRI), X-ray CT images, a plurality of inspection methods for structures (for example, buildings), and the like.

また、同じ被写体において、異なる時間で撮影したマルチモーダル画像を用いてもよい。例えば、同一被写体を異なる時間に撮影し、撮影画像毎に、異なる指定色を割り当てる。これにより、ターゲット領域の経時変化を確認することができる。   Alternatively, multimodal images taken at different times on the same subject may be used. For example, the same subject is photographed at different times, and a different designated color is assigned to each photographed image. Thereby, the change with time of the target region can be confirmed.

・上記実施形態では、画像処理装置20の制御部21は、グレー化処理(ステップS2−1)、白黒反転処理(ステップS2−2)を実行する。ここでは、背景領域と染色領域とを識別することができればよく、上記処理の組み合わせに限定されるものではない。例えば、所定の色閾値を用いて、背景領域と染色領域とを識別し、背景領域を黒色、染色領域を白色になるように色変換を行なうようにしてもよい。   In the above embodiment, the control unit 21 of the image processing apparatus 20 executes the graying process (step S2-1) and the black and white reversal process (step S2-2). Here, it is sufficient that the background region and the stained region can be identified, and the present invention is not limited to the combination of the above processes. For example, a background color and a stained region may be identified using a predetermined color threshold, and color conversion may be performed so that the background region is black and the stained region is white.

・上記実施形態では、画像処理装置20の制御部21は、指定色の2次元細胞のカウント処理を実行する(ステップS1−5)。更に、画像処理装置20の制御部21は、指定色の3次元細胞のカウント処理を実行する(ステップS1−6)。カウント処理は必須ではなく、合成処理(ステップS1−4)により、マルチモーダル画像において、所定の領域を可視化させた合成画像の生成を目的とした処理を実行すればよい。   In the above embodiment, the control unit 21 of the image processing apparatus 20 executes the count process for the two-dimensional cells of the designated color (Step S1-5). Furthermore, the control unit 21 of the image processing apparatus 20 executes a count process for the three-dimensional cells of the designated color (step S1-6). The count process is not essential, and a process for generating a composite image in which a predetermined area is visualized in the multimodal image may be executed by the composite process (step S1-4).

・上記実施形態では、画像処理装置20の制御部21は、HSVの指定処理(ステップS4−2)、指定範囲の色領域の抽出処理(ステップS4−3)を実行する。ここでは、色指定画面において指定された配色の色領域を抽出する。色領域の抽出はこれに限定されるものではなく、例えば、予め割り当てられた指定色の合成により発現する配色を予測し、この配色に基づいて色領域を抽出するようにしてもよい。   In the above embodiment, the control unit 21 of the image processing apparatus 20 executes HSV designation processing (step S4-2) and color range extraction processing (step S4-3) of the designated range. Here, the color area of the color scheme designated on the color designation screen is extracted. The extraction of the color region is not limited to this, and for example, a color scheme that is expressed by the synthesis of a designated color assigned in advance may be predicted, and the color region may be extracted based on this color scheme.

・上記実施形態では、画像処理装置20の制御部21は、染色手法毎に、各染色領域に三原色のいずれかを割り当てる。各領域に割り当てる色は、三原色に限定されるものではない。複数の指定色の合成色が、他の配色と明確に識別できる色を割り当てるようにしてもよい。この場合には、各指定色の合成色を予測して、ターゲット領域を特定する。   In the above embodiment, the control unit 21 of the image processing apparatus 20 assigns one of the three primary colors to each staining area for each staining technique. The colors assigned to each area are not limited to the three primary colors. A composite color of a plurality of designated colors may be assigned a color that can be clearly distinguished from other color schemes. In this case, the target area is specified by predicting the combined color of each designated color.

10…入力部、15…出力部、20…画像処理装置、21…制御部、210…管理部、211…色割当部、212…位置調整部、213…画像合成部、214…カウント部、22…撮影画像記憶部、23…合成画像記憶部、24…計算情報記憶部。 DESCRIPTION OF SYMBOLS 10 ... Input part, 15 ... Output part, 20 ... Image processing apparatus, 21 ... Control part, 210 ... Management part, 211 ... Color allocation part, 212 ... Position adjustment part, 213 ... Image composition part, 214 ... Count part, 22 ... a captured image storage unit, 23 ... a composite image storage unit, 24 ... a calculation information storage unit.

Claims (8)

対象物について、複数の手法を用いて撮影した複数の撮影画像を記憶する撮影画像記憶部と、出力部に接続された制御部とを備えた画像処理システムであって、
前記撮影画像記憶部には、前記対象物を第1の手法により撮影した第1の撮影画像と、前記対象物を第2の手法により撮影した第2の撮影画像を記録し、
前記制御部が、
前記第1の手法に対して第1配色を割り当て、前記第1の手法とは異なる第2の手法に対して第2配色を割り当て、
前記撮影画像記憶部に記録された前記第1の撮影画像に含まれるターゲット領域を、割り当てられた前記第1配色で着色し、背景を黒色化した第1の画像を生成し、
前記撮影画像記憶部に記録された前記第2の撮影画像に含まれるターゲット領域を、前記第1配色とは異なる第2配色において着色し、背景を黒色化した第2の画像を生成し、
前記第1の画像に含まれる画素の画素値と、前記第2の画像に含まれる画素の画素値とを用いて、前記第1、第2の画像の何れかを変形した場合の相互情報量を算出し、
前記相互情報量が最大となるような変形を用いて、前記第1、第2の画像において、それぞれ着色されたターゲット領域を位置合わせして重ね合わせ、前記第1配色及び前記第2配色により生成された第3配色で着色された合成画像を生成して出力することを特徴とする画像処理システム。
An image processing system including a captured image storage unit that stores a plurality of captured images captured using a plurality of methods and a control unit connected to an output unit,
In the photographed image storage unit, a first photographed image obtained by photographing the object by the first technique and a second photographed image obtained by photographing the object by the second technique are recorded.
The control unit is
Assigning a first color scheme to the first method, assigning a second color scheme to a second method different from the first method,
The target areas included in the recorded first captured image in the captured image storage unit, assigned colored with the first color, to generate a first image obtained by blackening the background,
The target areas included in the recorded second captured image in the captured image storage unit, colored in different second color from said first color to generate a second image obtained by blackening the background,
Mutual information amount when one of the first and second images is transformed using the pixel value of the pixel included in the first image and the pixel value of the pixel included in the second image To calculate
Using said modified as mutual information is maximized, the first, the second image, overlay target regions are colored respectively in register position, by said first color and said second color An image processing system for generating and outputting a composite image colored with the generated third color scheme.
前記第1配色、第2配色を、三原色の中から選択することを特徴とする請求項1に記載の画像処理システム。   The image processing system according to claim 1, wherein the first color scheme and the second color scheme are selected from three primary colors. 前記第1、第2の撮影画像において輝度情報を取得し、
前記輝度情報に基づいてターゲット領域を白色化した第1、第2の反転画像を生成し、前記第1、第2の反転画像に対して、前記第1配色、第2配色の値を全体に乗算することを特徴とする請求項1又は2に記載の画像処理システム。
Obtaining luminance information in the first and second captured images;
Based on the luminance information, first and second inverted images in which the target area is whitened are generated, and the values of the first color scheme and the second color scheme are set for the first and second inverted images as a whole. The image processing system according to claim 1, wherein multiplication is performed.
前記合成画像を、色相、彩度、明度を用いたHSV色空間で表し、
前記HSV色空間において指定された値を用いて、ターゲット領域を特定することを特徴とする請求項1〜のいずれか一項に記載の画像処理システム。
The composite image is represented in an HSV color space using hue, saturation, and brightness,
Using the values specified in the HSV color space, the image processing system according to any one of claims 1 to 3, wherein the identifying the target area.
前記合成画像において、モルフォロジ演算によるクロージング処理を行なうことにより、前記ターゲット領域を変形して、前記ターゲット領域の数をカウントすることを特徴とする請求項1〜のいずれか一項に記載の画像処理システム。 In the composite image, by performing the closing process by morphological operation, the deformed target area, according to any one of claims 1 to 4, wherein counting the number of the target area image Processing system. 前記第1、第2の撮影画像は、評価対象組織のスライス標本を撮影した画像であって、
前記第1の手法において、前記評価対象組織に含まれる第1の物質の発現領域を着色し、前記第2の手法において、前記評価対象組織に含まれる第2の物質の発現領域を着色し、前記第1の物質及び第2の物質が発現した領域を前記ターゲット領域として検出することを特徴とする請求項1〜のいずれか一項に記載の画像処理システム。
The first and second photographed images are images obtained by photographing slice samples of the evaluation target tissue,
In the first method, the expression region of the first substance contained in the evaluation target tissue is colored, and in the second method, the expression region of the second substance contained in the evaluation target tissue is colored, the first material and the image processing system according to any one of claims 1 to 5, the second region material has been expressed, and detects as the target area.
対象物について、複数の手法を用いて撮影した複数の撮影画像を記憶する撮影画像記憶部と、出力部に接続された制御部とを備えた画像処理システムを用いて、画像処理を実行する方法であって、
前記撮影画像記憶部には、前記対象物を第1の手法により撮影した第1の撮影画像と、前記対象物を第2の手法により撮影した第2の撮影画像を記録し、
前記制御部が、
前記第1の手法に対して第1配色を割り当て、前記第1の手法とは異なる第2の手法に対して第2配色を割り当て、
前記撮影画像記憶部に記録された前記第1の撮影画像に含まれるターゲット領域を、割り当てられた前記第1配色で着色し、背景を黒色化した第1の画像を生成し、
前記撮影画像記憶部に記録された前記第2の撮影画像に含まれるターゲット領域を、前記第1配色とは異なる第2配色において着色し、背景を黒色化した第2の画像を生成し、
前記第1の画像に含まれる画素の画素値と、前記第2の画像に含まれる画素の画素値とを用いて、前記第1、第2の画像の何れかを変形した場合の相互情報量を算出し、
前記相互情報量が最大となるような変形を用いて、前記第1、第2の画像において、それぞれ着色されたターゲット領域を位置合わせして重ね合わせ、前記第1配色及び前記第2配色により生成された第3配色で着色された合成画像を生成して出力することを特徴とする画像処理方法。
A method of performing image processing on an object using an image processing system including a captured image storage unit that stores a plurality of captured images captured using a plurality of methods and a control unit connected to an output unit Because
In the photographed image storage unit, a first photographed image obtained by photographing the object by the first technique and a second photographed image obtained by photographing the object by the second technique are recorded.
The control unit is
Assigning a first color scheme to the first method, assigning a second color scheme to a second method different from the first method,
The target areas included in the recorded first captured image in the captured image storage unit, assigned colored with the first color, to generate a first image obtained by blackening the background,
The target areas included in the recorded second captured image in the captured image storage unit, colored in different second color from said first color to generate a second image obtained by blackening the background,
Mutual information amount when one of the first and second images is transformed using the pixel value of the pixel included in the first image and the pixel value of the pixel included in the second image To calculate
Using said modified as mutual information is maximized, the first, the second image, overlay target regions are colored respectively in register position, by said first color and said second color An image processing method comprising: generating and outputting a composite image colored with the generated third color scheme.
対象物について、複数の手法を用いて撮影した複数の撮影画像を記憶する撮影画像記憶部と、出力部に接続された制御部とを備えた画像処理システムを用いて、画像処理を実行させるためのプログラムであって、
前記撮影画像記憶部には、前記対象物を第1の手法により撮影した第1の撮影画像と、前記対象物を第2の手法により撮影した第2の撮影画像を記録し、
前記制御部を、
前記第1の手法に対して第1配色を割り当て、前記第1の手法とは異なる第2の手法に対して第2配色を割り当て、
前記撮影画像記憶部に記録された前記第1の撮影画像に含まれるターゲット領域を、割り当てられた前記第1配色で着色し、背景を黒色化した第1の画像を生成し、
前記撮影画像記憶部に記録された前記第2の撮影画像に含まれるターゲット領域を、前記第1配色とは異なる第2配色において着色し、背景を黒色化した第2の画像を生成し、
前記第1の画像に含まれる画素の画素値と、前記第2の画像に含まれる画素の画素値とを用いて、前記第1、第2の画像の何れかを変形した場合の相互情報量を算出し、
前記相互情報量が最大となるような変形を用いて、前記第1、第2の画像において、それぞれ着色されたターゲット領域を位置合わせして重ね合わせ、前記第1配色及び前記第2配色により生成された第3配色で着色された合成画像を生成して出力する手段として機
能させることを特徴とする画像処理プログラム。
To perform image processing on an object using an image processing system including a captured image storage unit that stores a plurality of captured images captured using a plurality of methods and a control unit connected to an output unit The program of
In the photographed image storage unit, a first photographed image obtained by photographing the object by the first technique and a second photographed image obtained by photographing the object by the second technique are recorded.
The control unit
Assigning a first color scheme to the first method, assigning a second color scheme to a second method different from the first method,
The target areas included in the recorded first captured image in the captured image storage unit, assigned colored with the first color, to generate a first image obtained by blackening the background,
The target areas included in the recorded second captured image in the captured image storage unit, colored in different second color from said first color to generate a second image obtained by blackening the background,
Mutual information amount when one of the first and second images is transformed using the pixel value of the pixel included in the first image and the pixel value of the pixel included in the second image To calculate
Using said modified as mutual information is maximized, the first, the second image, overlay target regions are colored respectively in register position, by said first color and said second color An image processing program that functions as means for generating and outputting a composite image colored with the generated third color scheme.
JP2015189300A 2015-09-28 2015-09-28 Image processing system, image processing method, and image processing program Active JP6092336B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015189300A JP6092336B1 (en) 2015-09-28 2015-09-28 Image processing system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189300A JP6092336B1 (en) 2015-09-28 2015-09-28 Image processing system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP6092336B1 true JP6092336B1 (en) 2017-03-08
JP2017068308A JP2017068308A (en) 2017-04-06

Family

ID=58261937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189300A Active JP6092336B1 (en) 2015-09-28 2015-09-28 Image processing system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6092336B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6782659B2 (en) 2017-03-30 2020-11-11 日本碍子株式会社 Honeycomb structure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023723A1 (en) * 2005-08-23 2007-03-01 Nihon Medi-Physics Co., Ltd. Image processing method, image processing program, and image processing device
JP2008020949A (en) * 2006-07-10 2008-01-31 Sapporo Medical Univ Image processing apparatus and image processing program
JP2008541179A (en) * 2005-05-18 2008-11-20 オリンパス・ソフト・イメージング・ソリューションズ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Separation of spectral or color superimposed image contributions in multicolor images, especially microscope multicolor transmission images
JP2013200287A (en) * 2012-03-26 2013-10-03 Kawasaki Gakuen POSITIVE RATE MEASUREMENT METHOD USING DOUBLE DYEING METHOD FOR Ki-67 INDEX CALCULATION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008541179A (en) * 2005-05-18 2008-11-20 オリンパス・ソフト・イメージング・ソリューションズ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Separation of spectral or color superimposed image contributions in multicolor images, especially microscope multicolor transmission images
WO2007023723A1 (en) * 2005-08-23 2007-03-01 Nihon Medi-Physics Co., Ltd. Image processing method, image processing program, and image processing device
JP2008020949A (en) * 2006-07-10 2008-01-31 Sapporo Medical Univ Image processing apparatus and image processing program
JP2013200287A (en) * 2012-03-26 2013-10-03 Kawasaki Gakuen POSITIVE RATE MEASUREMENT METHOD USING DOUBLE DYEING METHOD FOR Ki-67 INDEX CALCULATION

Also Published As

Publication number Publication date
JP2017068308A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
EP3692497B1 (en) Histopathological image analysis
JP7153095B2 (en) Image processing system and method for displaying multiple images of a biological sample
US10275880B2 (en) Image processing method and system for analyzing a multi-channel image obtained from a biological tissue sample being stained by multiple stains
EP2546802B1 (en) Generating artificial hyperspectral images using correlated analysis of co-registered images
CN105122306B (en) Region segmentation method and check device
US10929972B2 (en) Devices, systems and methods for automated quantitative scoring of digitized tissue images
US10089518B2 (en) Graphical user interface for analysis of red blood cells
JP6861717B2 (en) Computer-implemented composite tissue image with real-time adjustable interface
US9424640B2 (en) Pathological diagnosis support apparatus and pathological diagnosis support method
CN111656393A (en) Histological image analysis
JP6092336B1 (en) Image processing system, image processing method, and image processing program
US20190340415A1 (en) Automated system and method for creating and executing a scoring guide to assist in the analysis of tissue specimen
US11315251B2 (en) Method of operation of an artificial intelligence-equipped specimen scanning and analysis unit to digitally scan and analyze pathological specimen slides
JP7040537B2 (en) Imaging mass spectrometer
JP5910637B2 (en) Biological image analysis system, biological image analysis method, and biological image analysis program
JP2013221839A (en) Data analysis device, program, recording medium and data analysis method
CN114660057A (en) Method, apparatus and system for generating a graphical user interface for cell analysis

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170208

R150 Certificate of patent or registration of utility model

Ref document number: 6092336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250