JP2010025758A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2010025758A
JP2010025758A JP2008187685A JP2008187685A JP2010025758A JP 2010025758 A JP2010025758 A JP 2010025758A JP 2008187685 A JP2008187685 A JP 2008187685A JP 2008187685 A JP2008187685 A JP 2008187685A JP 2010025758 A JP2010025758 A JP 2010025758A
Authority
JP
Japan
Prior art keywords
image
region
illumination light
observation target
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008187685A
Other languages
Japanese (ja)
Inventor
Yoko Yamamoto
洋子 山本
Yuichi Ishikawa
雄一 石川
Kengo Takeuchi
賢吾 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japanese Foundation for Cancer Research
Olympus Corp
Original Assignee
Japanese Foundation for Cancer Research
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japanese Foundation for Cancer Research, Olympus Corp filed Critical Japanese Foundation for Cancer Research
Priority to JP2008187685A priority Critical patent/JP2010025758A/en
Publication of JP2010025758A publication Critical patent/JP2010025758A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To identify a specific tissue from another tissue without applying special staining. <P>SOLUTION: For example, an elastic fiber consists of an aggregate of fine fibers and is formed into a strip like or bundle-like shape. A cause is obscure, but, by this morphorogical feature, a phenomenon such that intensity of light is conversely increased under a certain condition without being attenuated in the elastic fiber or the region adjacent to the elastic fiber is experimentally confirmed. Then, an illumination light image wherein only illumination light is photographed in a pervious observation system and an H&E stained specimen image are acquired on the basis of the optical feature possessed by the elastic fiber and a region where the intensity of light is increased as compared with the illumination light image among the respective image positions of the acquired H&E stained specimen image is extracted or displayed to identify the specific tissue from another tissue without applying special staining. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば色素によって染色された生体の病理標本画像に対する画像処理装置および画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for a pathological specimen image of a living body stained with a pigment, for example.

生体組織標本、特に病理標本では、臓器摘出によって得たブロック標本や針生検によって得た標本を数μm程度に薄切りした後、様々な所見を得るために顕微鏡を用いて拡大観察することが広く行われている。中でも、光学顕微鏡を用いた透過観察は、機材が比較的安価で取り扱いが容易である上、歴史的に古くから行われてきたこともあって、最も普及している観察方法の一つである。この場合、薄切りされた生体標本は、光をほとんど吸収および散乱せず、無色透明に近いため、観察に先立って色素による染色を施すのが一般的である。   In biological tissue specimens, especially pathological specimens, block specimens obtained by organ excision and specimens obtained by needle biopsy are sliced into several μm, and are then widely observed with a microscope to obtain various findings. It has been broken. In particular, transmission observation using an optical microscope is one of the most popular observation methods because the equipment is relatively inexpensive and easy to handle and has been used historically. . In this case, the sliced biological specimen hardly absorbs and scatters light and is almost colorless and transparent. Therefore, it is general that the specimen is stained with a dye prior to observation.

染色手法としては種々のものが提案されており、その総数は100種類以上にも達するが、特に病理標本に関しては、色素として青紫色のヘマトキシリンと赤色のエオジンとの2つを用いるヘマトキシリン−エオジン染色(以下、“H&E染色”という)が標準的に用いられている。   Various dyeing methods have been proposed, and the total number thereof reaches 100 or more. Especially, regarding pathological specimens, hematoxylin-eosin staining using two of blue-purple hematoxylin and red eosin as pigments is proposed. (Hereinafter referred to as “H & E staining”) is used as standard.

H&E染色された病理標本に対して、癌かどうか、癌の場合にはその悪性度はどのレベルかが主な診断項目となる。ここで、癌の悪性度は、大きさや深さ、血管やリンパ管への浸潤の有無を確認する必要がある。特に、血管やリンパ管への浸潤の有無は、他臓器への転移の有無を診断する指標であり、治療方法の選択に大きく影響する。   The main diagnostic item is whether or not the H & E-stained pathological specimen is cancer, and in the case of cancer, what level of malignancy is. Here, it is necessary to confirm the grade and depth of cancer and the presence or absence of invasion into blood vessels and lymphatic vessels. In particular, the presence or absence of invasion into blood vessels or lymph vessels is an index for diagnosing the presence or absence of metastasis to other organs, and greatly affects the selection of a treatment method.

ところが、血管やリンパ管は、正常な組織状態では、形態的に位置を特定できるが、癌が進行すると組織の形態が崩れ、その視認が難しくなってしまう。このため、H&E染色では視認が難しい血管壁を構成する組織(弾性繊維)に対して特殊な染色を施すことで、色を変えて視覚的に強調する手法が臨床的に行われている。   However, blood vessels and lymphatic vessels can be identified morphologically in a normal tissue state, but when the cancer progresses, the tissue shape collapses, making it difficult to visually recognize it. For this reason, a technique for visually enhancing the color by applying special staining to a tissue (elastic fiber) constituting a blood vessel wall that is difficult to visually recognize by H & E staining is clinically performed.

特開2006−153742号公報JP 2006-153742 A

しかしながら、特殊染色を施す手法の場合、臨床現場でのコストや作業工程を増加させてしまうという問題がある。   However, in the case of a technique for performing special staining, there is a problem that costs and work processes at a clinical site are increased.

このため、実際に特殊染色を施すことなく、画像処理によって特定組織を抽出しようとする試みが提案されている(例えば、特許文献1参照)。すなわち、H&E染色標本内の組織(細胞核、細胞質、間質、空孔)の色情報(色相、彩度、明度)や平均輝度に基づいて各組織の特徴量を決定し、細胞分類に用いる分類テーブルを作成するようにしている。   For this reason, an attempt to extract a specific tissue by image processing without actually performing special staining has been proposed (see, for example, Patent Document 1). That is, the feature amount of each tissue is determined based on color information (hue, saturation, brightness) and average luminance of tissues (cell nucleus, cytoplasm, stroma, pores) in the H & E stained specimen, and classification used for cell classification I try to create a table.

つまり、特許文献1では、色情報や平均輝度値を特徴量としている。しかし、H&E染色標本において弾性繊維のように周囲組織と比較して色や輝度の違いが分かりにくい組織を抽出する場合には、抽出が困難であり、結局は、特殊染色を施さざるを得ない場合も多い。   That is, in Patent Document 1, color information and an average luminance value are used as feature amounts. However, in the case of extracting an H & E stained specimen, such as an elastic fiber, in which the difference in color and brightness is difficult to understand compared to the surrounding tissue, it is difficult to extract, and eventually, special staining must be performed. There are many cases.

本発明は、上記に鑑みてなされたものであって、特殊染色を施すことなく、特定組織を他の組織と区別可能な画像処理装置および画像処理方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide an image processing apparatus and an image processing method capable of distinguishing a specific tissue from other tissues without performing special staining.

上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得手段と、該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として抽出する抽出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes an image acquisition unit that acquires an observation target image obtained by photographing an observation target in a transmission observation system using illumination light, and Extraction means for extracting, as a region to be extracted, a region in which the light intensity is increased at a position in the acquired observation target image as compared with the case where the illumination light is photographed.

また、本発明にかかる画像処理装置は、照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得手段と、該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として表示する表示手段と、を備えることを特徴とする。   The image processing apparatus according to the present invention includes an image acquisition unit that acquires an observation target image obtained by photographing an observation target with a transmission observation system using illumination light, and the illumination at a position in the acquired observation target image. Display means for displaying, as an extraction target area, an area in which the light intensity is higher than when light is photographed.

また、本発明にかかる画像処理方法は、照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得工程と、該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として抽出する抽出工程と、を備えることを特徴とする。   The image processing method according to the present invention includes an image acquisition step of acquiring an observation target image obtained by photographing an observation target with a transmission observation system using illumination light, and the illumination at a position in the acquired observation target image. An extraction step of extracting, as an extraction target region, a region in which the light intensity is increased as compared with a case where light is photographed.

また、本発明にかかる画像処理方法は、照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得工程と、該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として表示する表示工程と、を備えることを特徴とする。   The image processing method according to the present invention includes an image acquisition step of acquiring an observation target image obtained by photographing an observation target with a transmission observation system using illumination light, and the illumination at a position in the acquired observation target image. A display step of displaying, as an extraction target area, an area where the light intensity is increased as compared with a case where light is photographed.

本発明にかかる画像処理装置および画像処理方法によれば、観察対象物が有する光学的特徴を利用することで、画像処理によって、観察対象物を他の組織と区別することができるという効果を奏する。   According to the image processing apparatus and the image processing method of the present invention, there is an effect that the observation target can be distinguished from other tissues by image processing by using the optical characteristics of the observation target. .

以下、図面を参照して、本発明を実施するための最良の形態である画像処理装置および画像処理方法について説明する。本発明は、実施の形態に限らず、本発明の趣旨を逸脱しない範囲であれば、種々の変形が可能である。   Hereinafter, an image processing apparatus and an image processing method which are the best mode for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the embodiment, and various modifications can be made without departing from the spirit of the present invention.

まず、図1−1および図1−2を参照して、従来方式と対比して、本実施の形態の概要について説明する。図1−1は、従来の特殊染色方式の画像例を示す説明図である。図1−1中に示すH&E染色画像は、癌の進行に伴う形状変化を生じた弾性繊維を含む画像例を示すものである。H&E染色画像では、弾性繊維を視認しにくいため、従来は、図1−1中の特殊染色画像に示すように、特殊染色を施すことで、弾性繊維を構造が不明瞭であっても視認できるように可視化しているものである。中央部の白っぽい領域周りのギザギザ状の黒い部分が弾性繊維として可視化されている。   First, referring to FIGS. 1-1 and 1-2, an outline of the present embodiment will be described in comparison with the conventional method. FIG. 1A is an explanatory diagram of an image example of a conventional special staining method. The H & E-stained image shown in FIG. 1-1 shows an example of an image including elastic fibers that have undergone a shape change with the progression of cancer. Since it is difficult to visually recognize the elastic fiber in the H & E dyed image, conventionally, as shown in the special dyed image in FIG. 1-1, the elastic fiber can be visually recognized even if the structure is unclear. It is what is visualized. A jagged black part around the whitish area in the center is visualized as an elastic fiber.

これに対して、本実施の形態では、弾性繊維の形態的特徴を利用するようにしたものである。一般に、光が半透明物質を透過する場合、物質の固有値とその厚さに基づいて減衰する(Lambert-Beerの法則)。すなわち、染色標本を透過する光は、染色された標本に含まれる色素によって減衰する。したがって、本来、染色標本画像において光強度が増加する現象は、撮影条件などによるノイズであると見なされる。しかしながら、弾性繊維または該弾性繊維に隣接する領域においては、ある条件下では、減衰することなく、逆に光強度が増加するという特異な現象(光学的特徴)が実験的に確認された。このような特異な現象が生じる要因は必ずしも明らかではないが、観察対象物の形態的特徴が要因として考えられる。例えば、観察対象物である特定の組織(例えば弾性繊維)は、細かい繊維の集合からなり、帯状や束状になっているとされている。このような形態的特徴によって、上述のような特異な現象が生じるものと考えられる。   On the other hand, in the present embodiment, the morphological characteristics of the elastic fiber are used. In general, when light passes through a translucent material, it attenuates based on the eigenvalue of the material and its thickness (Lambert-Beer law). That is, the light transmitted through the stained specimen is attenuated by the dye contained in the stained specimen. Therefore, the phenomenon in which the light intensity increases in the stained specimen image is considered to be noise due to photographing conditions or the like. However, in an elastic fiber or a region adjacent to the elastic fiber, a specific phenomenon (optical characteristic) in which the light intensity increases conversely without being attenuated under certain conditions was experimentally confirmed. The cause of such a unique phenomenon is not necessarily clear, but the morphological characteristics of the observation object are considered as factors. For example, a specific tissue (for example, elastic fiber) that is an observation object is composed of a collection of fine fibers, and is assumed to be in a band shape or a bundle shape. Such a morphological feature is considered to cause the unique phenomenon described above.

そこで、観察対象物(本実施の形態では弾性繊維のような特定組織)が有する形態的特徴ないし光学的特徴に基づき、図1−2中に示すように、透過観察系で照明光を主に撮影した画像(H&E染色された染色標本を載置するスライドガラスの画像)とH&E染色画像とを取得し、照明光画像とH&E染色画像との比較により各画像位置での光強度比をとり、一般にはノイズと考えられている光強度が増加している領域を光強度増加領域画像として抽出または表示するようにしたものである。図1−2中の、右側の画像例は、差分をとることにより抽出された光強度増加領域を示す画像例であり、白っぽい部分が光強度の増加した弾性繊維または弾性繊維に隣接する狭い領域を示している。このように、弾性繊維が有する形態的特徴光学的特徴を利用することで、特殊染色を施すことなく、弾性繊維を他の組織と明確に区別し得るものとなる。   Therefore, based on the morphological characteristics or optical characteristics of the observation target (a specific tissue such as an elastic fiber in this embodiment), as shown in FIG. Acquire a photographed image (image of a slide glass on which an H & E-stained stained specimen is placed) and an H & E-stained image, and compare the illumination light image and the H & E-stained image to obtain the light intensity ratio at each image position. In general, a region where the light intensity, which is considered to be noise, is increased is extracted or displayed as a light intensity increased region image. The image example on the right side in FIG. 1-2 is an image example showing the light intensity increasing region extracted by taking the difference, and the whitish part is a narrow region adjacent to the elastic fiber or the elastic fiber having the increased light intensity. Is shown. In this way, by utilizing the morphological characteristics and optical characteristics of the elastic fibers, the elastic fibers can be clearly distinguished from other tissues without special staining.

図2は、本実施の形態の画像処理方法を実施する画像処理装置の構成例を示す概略ブロック図である。本実施の形態の画像処理装置は、H&E染色された病理染色標本を観察対象とする光学顕微鏡に搭載された画像処理装置であり、画像処理部100と操作部109とメモリ110と制御部111とを備える。   FIG. 2 is a schematic block diagram illustrating a configuration example of an image processing apparatus that performs the image processing method of the present embodiment. The image processing apparatus according to the present embodiment is an image processing apparatus mounted on an optical microscope whose observation target is a pathologically stained specimen that has been subjected to H & E staining. The image processing unit 100, the operation unit 109, the memory 110, the control unit 111, and the like. Is provided.

画像処理部100は、画像撮像部101と対象領域抽出部102と光強度比算出部103と焦点位置決定部104と光強度増加領域作成部105と光強度比閾値処理部106と重畳画像作成部107と表示部108とを備える。ここで、各部の概略機能について説明する。画像撮像部101は、H&E染色された染色標本の画像と標本組織が存在していないスライドガラスのみの部分(以下、単にガラスという)の画像(照明光のみを撮影したガラス画像)とを撮像し、染色標本画像やガラス画像を取得するためのものである。対象領域抽出部102は、ガラス画像と染色標本画像とから処理対象領域を抽出するためのものである。光強度比算出部103は、ガラス画像と染色標本画像の対応する各画像位置における光強度比を算出するためのものである。焦点位置決定部104は、変化させた複数の焦点位置から最適な焦点位置を決定するためのものである。光強度増加領域画像作成部105は、決定された最適な焦点位置において光強度が増加している領域を選択し、画像化する処理を行うためのものである。光強度比閾値処理部106は、算出された光強度に対して閾値処理を行い、最適な光強度増加領域を抽出するためのものである。重畳画像作成部107は、光強度増加領域と判定された位置と染色標本画像の位置とを対応付けて重畳画像を作成するためのものである。表示部106は、画像、その他の各種情報を表示するためのものであり、LCD,ELD等のフラットパネルディスプレイ或いはCRTディスプレイからなる。   The image processing unit 100 includes an image capturing unit 101, a target region extracting unit 102, a light intensity ratio calculating unit 103, a focal position determining unit 104, a light intensity increasing region creating unit 105, a light intensity ratio threshold processing unit 106, and a superimposed image creating unit. 107 and a display unit 108. Here, an outline function of each unit will be described. The image capturing unit 101 captures an image of a stained specimen that has been subjected to H & E staining and an image of a glass-only portion (hereinafter simply referred to as glass) in which no specimen tissue exists (a glass image obtained by photographing only illumination light). In order to acquire a stained specimen image and a glass image. The target area extraction unit 102 is for extracting a processing target area from the glass image and the stained specimen image. The light intensity ratio calculation unit 103 is for calculating the light intensity ratio at each image position corresponding to the glass image and the stained specimen image. The focal position determination unit 104 is for determining an optimal focal position from a plurality of changed focal positions. The light intensity increasing region image creating unit 105 is for selecting a region where the light intensity is increasing at the determined optimum focal position and performing an image processing. The light intensity ratio threshold processing unit 106 performs threshold processing on the calculated light intensity and extracts an optimum light intensity increasing region. The superimposed image creating unit 107 creates a superimposed image by associating the position determined as the light intensity increasing region with the position of the stained specimen image. The display unit 106 is for displaying an image and various other information, and includes a flat panel display such as an LCD or an ELD or a CRT display.

メモリ109は、ガラス画像、染色標本画像や処理後のデータなど、各種データを一時的或いは永続的に記憶する。制御部111は、全体を統括的に制御するためのものである。操作部109は、各種処理に関する指示処理等を行うためのものである。   The memory 109 temporarily or permanently stores various data such as glass images, stained specimen images, and processed data. The control unit 111 is for overall control of the whole. The operation unit 109 is for performing an instruction process related to various processes.

以下、各部の機能等について、詳細に説明する。まず、画像撮像部101は、16枚のバンドパスフィルタをフィルタホイールで回転させて切り替えながら、面順次方式でマルチバンド画像を撮像する。このような撮像方式は、例えば、特開平7−120324号公報等で開示され、広く知られている。これにより、標本の各点に対して16バンドの画素値を有するマルチバンド画像が得られる。各バンドの画素値は、波長帯域λにおける光の強度に該当する。   Hereinafter, functions and the like of each unit will be described in detail. First, the image capturing unit 101 captures a multiband image by a frame sequential method while switching by switching 16 band pass filters with a filter wheel. Such an imaging method is disclosed and widely known, for example, in Japanese Patent Laid-Open No. 7-120324. As a result, a multiband image having 16 band pixel values for each point of the sample is obtained. The pixel value of each band corresponds to the light intensity in the wavelength band λ.

ここで、本来、色素は、観察対象となる染色標本内に3次元的に分布しているが、通常の透過観察系ではそのまま3次元像として捉えることはできず、染色標本内を透過した照明光をカメラの撮像素子上に投影した2次元像として観察される。したがって、ここでいう「標本の各点」とは、投影された撮像素子の各画素に対応する染色標本上の点を表し、染色標本上の点xは、マルチバンド画像上の位置xに対応しているものとする。   Here, although the dye is originally distributed three-dimensionally within the stained specimen to be observed, it cannot be regarded as a three-dimensional image as it is in a normal transmission observation system, and illumination that has passed through the stained specimen. It is observed as a two-dimensional image in which light is projected onto the image sensor of the camera. Therefore, the “each point of the specimen” here represents a point on the stained specimen corresponding to each pixel of the projected image sensor, and the point x on the stained specimen corresponds to the position x on the multiband image. Suppose you are.

なお、画像撮像部101は、ガラス画像と染色標本画像の各画像位置における光強度の情報を取得できればよく、グレースケール画像やRGBカラー画像が得られる撮像系であってもよい。以下、本実施の形態では、染色標本画像は16バンドのマルチバンド画像を示すものとする。   The image capturing unit 101 only needs to be able to acquire light intensity information at each image position of the glass image and the stained specimen image, and may be an image capturing system that can obtain a grayscale image or an RGB color image. Hereinafter, in the present embodiment, it is assumed that the stained specimen image indicates a 16-band multiband image.

ついで、画像撮像部101において、染色標本およびガラスを撮影する方法について図3−1〜図3−4を参照して説明する。本実施の形態では染色標本は複数の焦点位置で撮影するものとする。まず、図3−1に示すように、染色標本が載置されたガラスに対して、光学系121の染色標本に対する合焦点を探索し、この位置で染色標本を撮像し、染色標本画像を取得する。この際、染色標本内の弾性繊維以外の組織、例えば細胞核や赤血球などにピントが合う位置を合焦点とし、同一焦点位置でガラスのみの部分も撮影し、ガラス画像を取得する。ガラス画像は同一照明条件のもとに予め撮影したものを使用してもよい。また、同一照明条件のもとに予め撮影されたガラス画像から、ガラス画像が取り得る画素値を予め設定し、その画素値を持つガラス画像をモデルとして保持し、以降の処理で用いてもよい。さらに照明条件が異なる場合でも、ガラス画像と染色標本画像を正規化して用いればよい。   Next, a method for photographing a stained specimen and glass in the image capturing unit 101 will be described with reference to FIGS. In the present embodiment, the stained specimen is photographed at a plurality of focal positions. First, as shown in FIG. 3A, the focal point for the stained specimen of the optical system 121 is searched for the glass on which the stained specimen is placed, and the stained specimen is imaged at this position to obtain a stained specimen image. To do. At this time, a position where the tissue is focused on a tissue other than the elastic fiber in the stained specimen, for example, a cell nucleus or a red blood cell, is set as a focal point, and a glass-only portion is photographed at the same focal position to obtain a glass image. Glass images taken in advance under the same illumination conditions may be used. Further, a pixel value that can be taken by the glass image is set in advance from a glass image taken in advance under the same illumination condition, and the glass image having the pixel value may be held as a model and used in the subsequent processing. . Further, even when the illumination conditions are different, the glass image and the stained specimen image may be normalized and used.

つぎに、図3−2に示すように、合焦点から距離αだけ染色標本に近づけた焦点位置で染色標本を撮像し、染色標本画像を取得する。さらに、図3−3に示すように、合焦点から距離βだけ染色標本に近づけた焦点位置で染色標本を撮像し、染色標本画像を取得する。そして、図3−4に示すように、合焦点から距離γだけ染色標本から遠ざけた焦点位置で染色標本を撮像し、染色標本画像を取得する。このようにして、焦点位置を所定数N回(合焦点は含まない)変更して、撮像を繰り返す。撮像された画像は、メモリ110に記憶される。所定数Nは、1以上、すなわち、合焦点から1回以上焦点をずらすものとする。所定数Nは、予め設定しておいてもよく、1回以上N回以内として、任意に変更可能としてもよい。   Next, as shown in FIG. 3-2, the stained specimen is imaged at a focal position close to the stained specimen by a distance α from the focal point, and a stained specimen image is acquired. Further, as shown in FIG. 3C, the stained specimen is imaged at a focal position close to the stained specimen by a distance β from the focal point, and a stained specimen image is acquired. Then, as shown in FIG. 3-4, the stained sample is imaged at a focal position away from the stained sample by a distance γ from the focal point, and a stained sample image is acquired. In this way, the focus position is changed a predetermined number N times (not including the focal point), and imaging is repeated. The captured image is stored in the memory 110. The predetermined number N is 1 or more, that is, the focus is shifted one or more times from the focal point. The predetermined number N may be set in advance, or may be arbitrarily changed between one and N times.

対象領域抽出部102は、ガラス画像および染色標本画像から処理の対象とならない領域、すなわち、背景領域や背景領域との境界部分を除く処理を行う。ここで、背景領域との境界部分は、ガラスと組織との境目に相当し、光の入射角と組織の厚みの影響で、光強度が増加する増加的干渉が起こる可能性がある。そこで、本実施の形態では、弾性繊維等と区別するために、背景領域との境界部分は、仮に光強度が増加していたとしても対象領域からは除外する。この処理は、後述の光強度増加領域を抽出した後に行うようにしてもよい。   The target area extraction unit 102 performs a process of removing an area that is not a processing target from the glass image and the stained specimen image, that is, a background area and a boundary portion with the background area. Here, the boundary portion with the background region corresponds to the boundary between the glass and the tissue, and there is a possibility that incremental interference in which the light intensity increases due to the influence of the incident angle of light and the thickness of the tissue may occur. Therefore, in the present embodiment, in order to distinguish from the elastic fiber or the like, the boundary portion with the background region is excluded from the target region even if the light intensity is increased. This process may be performed after extracting a light intensity increasing region described later.

以下、背景領域および背景領域の抽出方法について説明する。まず、染色標本画像をグレースケール画像に変換し、各画像位置の画素値に対して閾値処理を施すことにより背景領域を抽出する。背景領域は、ガラスに該当し、周囲の組織領域と比較して高輝度領域として区別できるため、グレースケール画像の画素値に対して閾値処理を施すことによって、背景領域を大まかに抽出することができる。ここで、閾値Thは、画素値のヒストグラムに基づいて自動的に決定することも可能である。例えば、グレースケール画像の画素平均をGmean、標準偏差をGstdとした場合、閾値Thは、
Th=Gmean + Gstd
として算出される。そして、閾値Thより大きな画素値を持つ画像位置を背景領域として抽出する。また、ガラス画像の画素値に基づいて背景領域を特定してもよい。例えば、ガラス画像をグレースケール画像に変換し、各画像位置の画素値に対して差分が所定範囲内にある画素を背景領域とみなしてもよい。
Hereinafter, a background area and a background area extraction method will be described. First, a stained specimen image is converted into a gray scale image, and a background region is extracted by performing threshold processing on the pixel value at each image position. Since the background region corresponds to glass and can be distinguished as a high-intensity region compared to the surrounding tissue region, the background region can be roughly extracted by performing threshold processing on the pixel values of the grayscale image. it can. Here, the threshold Th g can be automatically determined based on a histogram of pixel values. For example, when the pixel average of a grayscale image is Gmean and the standard deviation is Gstd, the threshold Th g is
Th g = Gmean + Gstd
Is calculated as Then, an image position having a pixel value larger than the threshold Th g is extracted as a background area. Further, the background area may be specified based on the pixel value of the glass image. For example, a glass image may be converted into a grayscale image, and a pixel having a difference within a predetermined range with respect to a pixel value at each image position may be regarded as a background region.

このようにして抽出された背景領域とその他の領域とを区別するために、指標を付与する。この指標を、対象領域ラベルと称する。前述のグレースケール画像の背景領域に対応する染色標本画像の画像位置には処理対象外を意味する対象領域ラベルS、その他の領域に対応する染色標本画像の画像位置には対象領域ラベルSを付与する。さらに、対象領域ラベルS,Sに基づいて、2値画像として表示部108に表示させることもできる。この際、表示部108に表示させた2値画像を観察しながら、操作部109によって閾値を直接設定するようにしてもよい。 In order to distinguish the background area thus extracted from other areas, an index is assigned. This index is referred to as a target area label. The target region label S 0 meaning non-processing target is at the image position of the stained specimen image corresponding to the background region of the gray scale image, and the target region label S 1 is at the image position of the stained specimen image corresponding to the other region. Is granted. Furthermore, it can be displayed on the display unit 108 as a binary image based on the target area labels S 0 and S 1 . At this time, the threshold value may be directly set by the operation unit 109 while observing the binary image displayed on the display unit 108.

つづいて、抽出された背景領域との境界となる画像位置を求める。これは、前述の2値画像からエッジを抽出すればよく、その方法としては、一般に知られたエッジ抽出フィルタ(例えば、ソーベルフィルタ)などを用いればよい。このように抽出された2値画像における背景領域との境界位置に対応する染色標本画像の画像位置には、背景領域と同じく、対象領域ラベルSを付与し、処理対象外として区別する。各画像位置に付与された対象領域ラベルSまたはSの情報は、メモリ110に記憶される。以下の処理では、対象領域ラベルSを持つ画像位置を処理対象とする。 Subsequently, an image position serving as a boundary with the extracted background area is obtained. This can be done by extracting edges from the binary image described above, and using a generally known edge extraction filter (for example, Sobel filter) or the like. As in the background area, the target area label S 0 is assigned to the image position of the stained specimen image corresponding to the boundary position with the background area in the binary image extracted in this manner, and is distinguished from the processing target. Information on the target area label S 0 or S 1 assigned to each image position is stored in the memory 110. In the following process, the processing target image position with the target area label S 1.

まず、光強度比算出部103は、画像撮像部101で撮像した所定回数N回(合焦点を含まない)の焦点位置における染色標本画像およびガラス画像から、対象領域ラベルSを持つ画像位置の光強度比を算出する。ここで、画像位置P(x,y)における焦点位置j(j=1,2,3,…,N)の染色標本画像とガラス画像の光強度をそれぞれIi,j(x,y),Wi,j(x,y)とすると、光強度比Ri,j(x,y)は、
i,j(x,y)=Ii,j(x,y) / Wi,j(x,y)
として算出される。なお、添え字i(i=1,2,3,…,16)は、バンド番号を示している。
First, the light intensity ratio calculation unit 103, a predetermined number N of times taken by the imaging unit 101 from the image of the stained sample and glass image at the focus position of the (focus point not including) the image position with the target area label S 1 The light intensity ratio is calculated. Here, the light intensity of the stained specimen image and the glass image at the focal position j (j = 1, 2, 3,..., N) at the image position P (x, y) is represented by I i, j (x, y), When W i, j (x, y), the light intensity ratio R i, j (x, y) is
R i, j (x, y) = I i, j (x, y) / W i, j (x, y)
Is calculated as Note that the subscript i (i = 1, 2, 3,..., 16) indicates a band number.

ここで、弾性繊維を含む或る染色標本画像の画像位置P(x,y)における光強度グラフおよび光強度比グラフを図4および図5に示す。図4は、バンド毎のガラス画像と染色標本画像のそれぞれの光強度(明るさ)を示すグラフであり、図5は、図4に示した結果を比率に換算して示すグラフである。本実施の形態では、光強度比が1.0以上の領域、すなわち、染色標本画像のうちでガラス画像と比較して光強度が増加している領域を抽出するものである。光強度が増加する領域は、弾性繊維または弾性繊維に隣接する狭い領域が該当する。   Here, FIG. 4 and FIG. 5 show a light intensity graph and a light intensity ratio graph at an image position P (x, y) of a certain stained specimen image including elastic fibers. FIG. 4 is a graph showing the light intensity (brightness) of the glass image and the stained specimen image for each band, and FIG. 5 is a graph showing the result shown in FIG. 4 converted into a ratio. In the present embodiment, a region where the light intensity ratio is 1.0 or more, that is, a region where the light intensity is increased as compared with the glass image in the stained specimen image is extracted. The region where the light intensity increases corresponds to an elastic fiber or a narrow region adjacent to the elastic fiber.

図6および図7は、図4および図5のうち、光強度比が1.0以上となる13〜16バンドにおける光強度グラフと光強度比グラフとを抽出し拡大して示すものである。この13〜16バンドは、波長630nm〜780nmの波長帯域の照明光により撮像された画像例に相当し、経験的に、光強度比が1.0以上になることが多いことが確認されている。よって、光強度の増加現象が生じやすい複数の特定波長帯域に絞って光強度比を算出することで、光強度が増加する領域を抽出するようにしてもよい。   6 and 7 extract and expand the light intensity graph and the light intensity ratio graph in 13 to 16 bands in which the light intensity ratio is 1.0 or more in FIGS. 4 and 5. These 13 to 16 bands correspond to image examples taken with illumination light in the wavelength band of 630 nm to 780 nm, and it has been empirically confirmed that the light intensity ratio is often 1.0 or more. . Therefore, a region where the light intensity increases may be extracted by calculating the light intensity ratio by narrowing down to a plurality of specific wavelength bands in which the light intensity increase phenomenon is likely to occur.

ここで、光強度比が1.0より小さい画像位置の対象領域ラベルをSからSへ変更し、処理対象領域から除外する。このとき、対象領域ラベルSを持つ画像位置が、光強度の増加領域となる。各画像位置のバンド毎の光強度比、対象領域ラベル情報は、メモリ110に記憶される。 Here, the target area label of the image position whose light intensity ratio is smaller than 1.0 is changed from S 1 to S 0 and excluded from the processing target area. In this case, the image position with the target area label S 1 is, the incremental region of the light intensity. The light intensity ratio for each band at each image position and the target area label information are stored in the memory 110.

ついで、焦点位置決定部104は、各焦点位置について各画像位置の光強度比から最適な焦点位置を決定する。まず、染色標本画像内の対象領域ラベルSを持つ画像位置について、焦点位置j(j=1,2,3,…,N)における光強度比の平均Ei,jを求める。対象領域ラベルSを持つ画像位置の数をCount、対象領域ラベルSを持つ画像位置P(x,y)の光強度比の総和をΣRi,j(x,y)とすると、光強度比の平均Ei,jは、
i,j=ΣRi,j(x,y) /Count
により算出される。なお、添え字i(i=1,2,3,…,16)は、バンド番号を示している。そこで、光強度比の平均Ei,jが最大となる焦点位置kを最適焦点位置として決定する。このように、複数の焦点位置で対象画像を取得し、最終的に、最適焦点位置を決定することで、最も光強度増加が顕著に表れる画像によって、より最適な光強度増加領域を抽出することが可能となる。
Next, the focal position determination unit 104 determines an optimum focal position from the light intensity ratio of each image position for each focal position. First, the average E i, j of the light intensity ratio at the focal position j (j = 1, 2, 3,..., N) is obtained for the image position having the target region label S 1 in the stained specimen image. When the number of image positions having the target area label S 1 is Count j and the total light intensity ratio of the image positions P (x, y) having the target area label S 1 is ΣR i, j (x, y), The average intensity ratio E i, j is
E i, j = ΣR i, j (x, y) / Count j
Is calculated by Note that the subscript i (i = 1, 2, 3,..., 16) indicates a band number. Therefore, the focal position k that maximizes the average light intensity ratio E i, j is determined as the optimum focal position. In this way, by acquiring target images at a plurality of focal positions and finally determining the optimum focal position, a more optimal light intensity increasing region can be extracted from an image in which the light intensity increase is most noticeable. Is possible.

図8は、合焦点、所定回数N回の焦点位置および焦点位置決定部104で決定した最適焦点位置kの例を示す説明図である。決定された最適焦点位置kの情報は、メモリ110に記憶される。   FIG. 8 is an explanatory diagram illustrating an example of the in-focus point, the focus position N times the predetermined number of times, and the optimum focus position k determined by the focus position determination unit 104. Information on the determined optimum focus position k is stored in the memory 110.

つづいて、光強度増加領域作成部105は、焦点位置決定部104で決定した最適焦点位置kの対象領域ラベルS,Sに基づいて、光強度増加領域の画像を作成する。図9に、光強度増加領域とそれ以外の領域とを2値画像化(光強度増加領域:白、それ以外の領域:黒)して作成された光強度増加領域画像Uの例を示す。光強度増加領域画像Uの情報は、メモリ110に記憶される一方、必要に応じて表示部108に送られ表示に供される。 Subsequently, the light intensity increasing region creating unit 105 creates an image of the light intensity increasing region based on the target region labels S 0 and S 1 at the optimum focal position k determined by the focal position determining unit 104. FIG. 9 shows an example of a light intensity increasing region image U 0 created by binarizing the light intensity increasing region and the other region (light intensity increasing region: white, other region: black). . The information of the light intensity increase area image U 0 is stored in the memory 110, and is sent to the display unit 108 for display as needed.

さらに、光強度閾値処理部106は、対象領域ラベルSを持つ画像位置の光強度に対して、ガラス画像の光強度に基づいて閾値処理を施すことにより、より最適な光強度増加領域を抽出する。 Further, the light intensity threshold processing unit 106, extracts to light intensity of the image position with the target area labels S 1, by performing threshold processing on the basis of the light intensity of the glass image, a more optimal light intensity increasing region To do.

最適焦点位置k、画像位置P(x,y)におけるガラス画像の光強度Wi,k(x,y)に対する画像全体の光強度の標準偏差をWstdとすると、強度閾値Thは、
Th =Wstd/2
となるように決定する。
When the standard deviation of the light intensity of the entire image with respect to the light intensity W i, k (x, y) of the glass image at the optimum focus position k and the image position P (x, y) is Wstd i , the intensity threshold Th b is
Th b = Wstd i / 2
To be determined.

そして、画像位置P(x,y)における染色標本画像の光強度Ii,k(x,y)とガラス画像の光強度Wi,k(x,y)との差分Δ=Ii,k(x,y)−Wi,k(x,y)が強度閾値Thよりも大きい場合のみ、光強度増加領域に該当する画像位置とする。 The difference Δ = I i, k between the light intensity I i, k (x, y) of the stained specimen image and the light intensity W i, k (x, y) of the glass image at the image position P (x, y). Only when (x, y) −W i, k (x, y) is larger than the intensity threshold Th b , the image position corresponding to the light intensity increasing region is set.

一方、強度閾値Th以下の画像位置の対象領域ラベルをSからSへ変更する。後述するように、強度閾値Thは、事前に作成された光強度増加領域画像Uを表示部108で確認しながら、操作部109から直接設定するようにしてもよい。更新された対象領域ラベルS,Sに基づいて、光強度増加領域作成部105において光強度増加領域画像Uが作成される。図10は、光強度増加領域画像Uの画像例を示す説明図である。光強度増加領域画像Uの情報は、メモリ110に記憶される一方、必要に応じて表示部108に送られ表示に供される。 On the other hand, the target area label of the image position below the intensity threshold Th b is changed from S 1 to S 0 . As will be described later, the intensity threshold Th b may be set directly from the operation unit 109 while confirming the light intensity increase region image U 0 created in advance on the display unit 108. Based on the updated target region labels S 0 and S 1 , the light intensity increasing region creating unit 105 creates a light intensity increasing region image U 1 . Figure 10 is an explanatory view showing an image example of the light intensity increase area image U 1. Information of the light intensity increase area image U 1, while being stored in the memory 110, is subjected to the display are sent to the display unit 108 as needed.

このようにして染色標本画像の各画像位置における対象領域ラベルが決定すると、弾性繊維の位置情報を提供することができる。すなわち、光強度増加領域が弾性繊維に該当する場合には、直接、その画像位置が当てはまる。また、弾性繊維に隣接する狭い領域が該当する場合には、対象領域ラベルSに囲まれている領域を弾性繊維と見なすことができる。これは、後述するような画像化による呈示の他に、例えば、その領域の持つ特徴量を新たに算出することも可能となる。 When the target area label at each image position of the stained specimen image is determined in this way, the position information of the elastic fiber can be provided. That is, when the light intensity increasing region corresponds to an elastic fiber, the image position is directly applied. Further, if the narrow region adjacent to the elastic fibers applicable, can be considered a region surrounded by the target area labeled S 1 and elastic fibers. In addition to the presentation by imaging as described later, for example, it is also possible to newly calculate the feature amount of the area.

さらに、重畳画像作成部107は、メモリ110に記憶されている合焦点における染色標本画像と光強度増加領域画像Uとから重畳画像を作成し、作成した重畳画像の情報を表示部108へ送る。すなわち、染色標本画像上に光強度増加領域画像Uを重畳させて表示させる。図11は、重畳画像の表示例を示す説明図である。これによれば、特殊染色方式の場合と同様に、弾性繊維の位置を視認可能とした画像を呈示することができる。 Further, the superimposed image creating unit 107 creates a superimposed image from the stained specimen image at the focal point stored in the memory 110 and the light intensity increasing region image U 1, and sends information about the created superimposed image to the display unit 108. . That superimposes and displays the light intensity increase area image U 1 on the image of the stained sample. FIG. 11 is an explanatory diagram illustrating a display example of a superimposed image. According to this, similarly to the case of the special dyeing method, it is possible to present an image in which the position of the elastic fiber is visible.

表示部108は、前述したように、メモリ110に記憶されている各焦点位置(合焦点を含む所定回数N+1分)での染色標本画像や、光強度増加領域画像U,Uや、重畳画像を表示する。さらには、各画像位置の光強度グラフ、光強度比グラフを表示させることもできる。ここで、複数の画像やグラフがメモリ110に記憶されている場合には、表示する画像やグラフを、操作部109を通じてユーザが選択できるようにしてもよい。 As described above, the display unit 108 displays the stained specimen image at each focal position (predetermined number of times N + 1 including the focused point) stored in the memory 110, the light intensity increased region images U 0 and U 1, and the superimposition. Display an image. Furthermore, a light intensity graph and a light intensity ratio graph at each image position can be displayed. Here, when a plurality of images and graphs are stored in the memory 110, the user may be able to select an image or graph to be displayed through the operation unit 109.

操作部109は、ユーザに対し、光強度閾値処理部106における強度閾値Thを指定する機能を提供する。すなわち、ユーザは、表示部108に表示された光強度増加領域画像Uを観察することで、マウスなどを用いて光強度グラフに基づき任意の閾値を指定することを可能とする。また、対象領域抽出部102に対して背景領域の境界位置を直接指定する機能も提供している。さらには、操作部109の操作によって、表示可能な画像全てを表示させたり、表示画像を選択することも可能である。 The operation unit 109 provides the user with a function of designating the intensity threshold Th b in the light intensity threshold processing unit 106. That is, the user can specify an arbitrary threshold value based on the light intensity graph using a mouse or the like by observing the light intensity increasing region image U 0 displayed on the display unit 108. In addition, a function of directly specifying the boundary position of the background area is also provided to the target area extraction unit 102. Furthermore, all the displayable images can be displayed or a display image can be selected by operating the operation unit 109.

従来の特殊染色方式の画像例を示す説明図である。It is explanatory drawing which shows the example of an image of the conventional special dyeing | staining system. 本発明の弾性繊維の抽出処理の画像例の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the example of an image of the extraction process of the elastic fiber of this invention. 本発明の実施の形態の画像処理装置の構成例を示す概略ブロック図である。It is a schematic block diagram which shows the structural example of the image processing apparatus of embodiment of this invention. 複数の焦点位置で染色標本およびガラスを撮影する方法を示す説明図である。It is explanatory drawing which shows the method to image | photograph the dyeing | staining sample and glass in a some focus position. 複数の焦点位置で染色標本およびガラスを撮影する方法を示す説明図である。It is explanatory drawing which shows the method to image | photograph the dyeing | staining sample and glass in a some focus position. 複数の焦点位置で染色標本およびガラスを撮影する方法を示す説明図である。It is explanatory drawing which shows the method to image | photograph the dyeing | staining sample and glass in a some focus position. 複数の焦点位置で染色標本およびガラスを撮影する方法を示す説明図である。It is explanatory drawing which shows the method to image | photograph the dyeing | staining sample and glass in a some focus position. バンド毎のガラス画像と染色標本画像のそれぞれの光強度(明るさ)を示すグラフである。It is a graph which shows each light intensity (brightness) of the glass image and stained specimen image for every band. 図4に示した結果を比率に換算して示すグラフである。It is a graph which converts and shows the result shown in FIG. 4 in the ratio. 13〜16バンドのガラス画像と染色標本画像のそれぞれの光強度(明るさ)を抽出し拡大して示すグラフである。It is a graph which expands and shows each light intensity (brightness) of the glass image of 13-16 bands, and a dyed specimen image. 図6に示した結果を比率に換算し拡大して示すグラフである。7 is a graph showing the results shown in FIG. 合焦点、所定回数N回の焦点位置および決定した最適焦点位置kの例を示す説明図である。It is explanatory drawing which shows the example of a focal point, the focus position of N times of predetermined times, and the determined optimal focus position k. 2値画像化して作成された光強度増加領域画像Uの画像例を示す説明図である。And binary image is an explanatory view showing an image example of the light intensity increase area image U 0 that was created. 光強度増加領域画像Uの画像例を示す説明図である。It is an explanatory view showing an image example of the light intensity increase area image U 1. 重畳画像の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of a superimposed image.

符号の説明Explanation of symbols

101 画像撮像部
102 対象領域抽出部
103 光強度比算出部
104 焦点位置決定部
105 光強度増加領域画像作成部
106 光強度比閾値処理部
107 重畳画像作成部
108 表示部
DESCRIPTION OF SYMBOLS 101 Image pick-up part 102 Target area extraction part 103 Light intensity ratio calculation part 104 Focus position determination part 105 Light intensity increase area | region image creation part 106 Light intensity ratio threshold value processing part 107 Superimposed image creation part 108 Display part

Claims (16)

照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得手段と、
該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として抽出する抽出手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring an observation target image obtained by photographing an observation target in a transmission observation system using illumination light;
An extraction means for extracting a region where the light intensity is increased as compared with the case where the illumination light is captured at a position in the acquired observation target image;
An image processing apparatus comprising:
前記抽出手段は、前記観察対象画像内の位置で、前記照明光を撮影した場合の画素値に相当する画素値よりも大きな値に相当する画素値を示す領域を前記抽出対象の領域として抽出することを特徴とする請求項1に記載の画像処理装置。   The extraction unit extracts, as the extraction target region, a region that indicates a pixel value corresponding to a value larger than a pixel value corresponding to a pixel value when the illumination light is captured at a position in the observation target image. The image processing apparatus according to claim 1. 前記画像取得手段は、前記照明光を撮影した照明光画像を取得し、
前記抽出手段は、前記観察対象画像と前記照明光画像とを比較して、前記観察対象画像内の位置で前記照明光画像の画素値よりも大きな値を示す領域を抽出することで、前記抽出対象の領域を抽出することを特徴とする請求項2に記載の画像処理装置。
The image acquisition means acquires an illumination light image obtained by photographing the illumination light,
The extraction means compares the observation target image with the illumination light image, and extracts a region showing a value larger than a pixel value of the illumination light image at a position in the observation target image, thereby extracting the extraction The image processing apparatus according to claim 2, wherein a target area is extracted.
前記画像取得手段は、前記照明光を撮影した照明光画像を取得し、
前記抽出手段は、前記照明光画像と前記観察対象画像の各画像位置におる光強度比に基づいて、前記抽出対象の領域を抽出することを特徴とする請求項1に記載の画像処理装置。
The image acquisition means acquires an illumination light image obtained by photographing the illumination light,
The image processing apparatus according to claim 1, wherein the extraction unit extracts the extraction target region based on a light intensity ratio at each image position of the illumination light image and the observation target image.
前記抽出手段は、前記光強度比が、所定の閾値より大きい領域を前記抽出対象の領域として抽出することを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the extraction unit extracts a region where the light intensity ratio is larger than a predetermined threshold as the extraction target region. 前記抽出手段は、前記観察対象画像内の所定の高輝度領域と当該高輝度領域の境界部分の領域とを除外した領域を、前記抽出対象の領域として抽出することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。   The said extraction means extracts the area | region which excluded the predetermined high-intensity area | region in the said observation object image, and the area | region of the boundary part of the said high-intensity area | region as said extraction object area | region. The image processing apparatus according to claim 5. 前記抽出手段は、前記観察対象画像内の前記観察対象物以外の領域を、前記抽出対象の領域として抽出することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit extracts a region other than the observation target in the observation target image as the extraction target region. 前記観察対象画像は、波長630nm〜780nmの照明光により撮影された画像に相当する画像であることを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the observation target image is an image corresponding to an image photographed with illumination light having a wavelength of 630 nm to 780 nm. 前記観察対象物は、色素によって染色された病理標本であることを特徴とする請求項1〜8のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the observation object is a pathological specimen stained with a pigment. 前記抽出対象の領域は、弾性繊維あるいは該弾性繊維に隣接する領域であることを特徴とする請求項1〜9のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction target region is an elastic fiber or a region adjacent to the elastic fiber. 前記画像取得手段は、観察対象に対して複数の焦点位置で撮影して前記観察対象画像を取得することを特徴とする請求項1〜10のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image acquisition unit acquires the observation target image by photographing the observation target at a plurality of focal positions. 照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得手段と、
該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として表示する表示手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring an observation target image obtained by photographing an observation target in a transmission observation system using illumination light;
Display means for displaying, as a region to be extracted, a region where the light intensity is increased at a position in the acquired observation target image as compared with the case where the illumination light is captured;
An image processing apparatus comprising:
前記表示手段は、前記病理標本画像上に前記抽出対象の領域を重畳表示することを特徴とする請求項12に記載の画像処理装置。   The image processing apparatus according to claim 12, wherein the display unit superimposes and displays the extraction target region on the pathological specimen image. 照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得工程と、
該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として抽出する抽出工程と、
を備えることを特徴とする画像処理方法。
An image acquisition step of acquiring an observation target image obtained by photographing an observation target in a transmission observation system using illumination light;
An extraction step of extracting a region where the light intensity is increased as compared with the case where the illumination light is photographed at a position in the acquired observation target image;
An image processing method comprising:
前記画像取得工程は、観察対象に対して複数の焦点位置で撮影して前記観察対象画像を取得することを特徴とする請求項14に記載の画像処理方法。   The image processing method according to claim 14, wherein the image acquisition step acquires the observation target image by photographing the observation target at a plurality of focal positions. 照明光を用いた透過観察系で観察対象物を撮影した観察対象画像を取得する画像取得工程と、
該取得した観察対象画像内の位置で、前記照明光を撮影した場合よりも光強度が増加している領域を抽出対象の領域として表示する表示工程と、
を備えることを特徴とする画像処理方法。
An image acquisition step of acquiring an observation target image obtained by photographing an observation target in a transmission observation system using illumination light;
A display step of displaying an area where the light intensity is increased as compared with a case where the illumination light is captured at a position in the acquired observation target image, as an extraction target area;
An image processing method comprising:
JP2008187685A 2008-07-18 2008-07-18 Image processing apparatus and method Withdrawn JP2010025758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008187685A JP2010025758A (en) 2008-07-18 2008-07-18 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008187685A JP2010025758A (en) 2008-07-18 2008-07-18 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2010025758A true JP2010025758A (en) 2010-02-04

Family

ID=41731732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008187685A Withdrawn JP2010025758A (en) 2008-07-18 2008-07-18 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2010025758A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014083743A1 (en) * 2012-11-27 2014-06-05 パナソニック株式会社 Image measuring device and image measuring method
JP2014526700A (en) * 2011-09-15 2014-10-06 オリンパス株式会社 Image evaluation apparatus for medical diagnosis support, medical diagnosis support system, and operation control method thereof
CN113706468A (en) * 2021-07-27 2021-11-26 河北光兴半导体技术有限公司 Glass defect detection method based on BP neural network

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014526700A (en) * 2011-09-15 2014-10-06 オリンパス株式会社 Image evaluation apparatus for medical diagnosis support, medical diagnosis support system, and operation control method thereof
WO2014083743A1 (en) * 2012-11-27 2014-06-05 パナソニック株式会社 Image measuring device and image measuring method
US9558551B2 (en) 2012-11-27 2017-01-31 Panasonic Intellectual Property Management Co., Ltd. Image measurement apparatus and image measurement method for determining a proportion of positive cell nuclei among cell nuclei included in a pathologic examination specimen
CN113706468A (en) * 2021-07-27 2021-11-26 河北光兴半导体技术有限公司 Glass defect detection method based on BP neural network

Similar Documents

Publication Publication Date Title
JP7344568B2 (en) Method and system for digitally staining label-free fluorescent images using deep learning
EP3432776B1 (en) Imaging method for determining stray fibers
EP3776458B1 (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
JP2023508284A (en) Method and system for digital staining of microscopic images using deep learning
US9517013B2 (en) Image processing apparatus, microscope system, endoscope system, and image processing method
JP5185151B2 (en) Microscope observation system
JP6791245B2 (en) Image processing device, image processing method and image processing program
JP5804220B1 (en) Image processing apparatus and image processing program
JP6342810B2 (en) Image processing
EP3188125B1 (en) Cell region determination method, cell imaging system, and cell image processing apparatus
JP6362062B2 (en) Image generating apparatus and image generating method
Nellros et al. Automated image analysis of iron-ore pellet structure using optical microscopy
JP2010025758A (en) Image processing apparatus and method
JP2016014974A (en) Image processing method and image processor
JP5269637B2 (en) Image processing apparatus and image processing program
JP2020124495A (en) Image processing device using change in pseudo color pattern characteristics depending on intensity or luminance, image processing method and medical observation apparatus including image processing device
US20190325577A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP2018128759A (en) Shininess removing device
JP2018126234A (en) Time intensity curve measuring apparatus
CN114305298A (en) Image processing method, device and equipment
Dendere et al. Image fusion for autofocusing in fluorescence microscopy for tuberculosis screening
Dendere et al. Comparison of image fusion and focus function-based techniques for autofocusing in fluorescence microscopy for tuberculosis screening

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111004