JP2013174823A - Image processing device, microscope system and image processing method - Google Patents

Image processing device, microscope system and image processing method Download PDF

Info

Publication number
JP2013174823A
JP2013174823A JP2012040718A JP2012040718A JP2013174823A JP 2013174823 A JP2013174823 A JP 2013174823A JP 2012040718 A JP2012040718 A JP 2012040718A JP 2012040718 A JP2012040718 A JP 2012040718A JP 2013174823 A JP2013174823 A JP 2013174823A
Authority
JP
Japan
Prior art keywords
image
information
specimen
unit
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012040718A
Other languages
Japanese (ja)
Inventor
Yoko Abe
洋子 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012040718A priority Critical patent/JP2013174823A/en
Publication of JP2013174823A publication Critical patent/JP2013174823A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Biological Materials (AREA)
  • Microscoopes, Condenser (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device or the like in which matching between thinly cut specimen images mutually different in a cut piece, a dyeing method or the like can be performed with high accuracy.SOLUTION: An image processing device includes: a component separation part 143 which separates and extracts specimen components photographed in each image from two images obtained by imaging two cut pieces collected from one specimen based on first foresight information on the specimen components of the specimen; a contribution rate calculation part 144 which calculates the degree of contribution contributed to alignment processing by the separated and extracted specimen components based on second foresight information on the specimen component; and a matching processing part 145 which specifies the relative position between the two images by calculating an appreciation value based on the degree of contribution.

Description

本発明は、顕微鏡により取得された生体組織標本の画像を処理する画像処理装置、顕微鏡システム、及び画像処理方法に関する。   The present invention relates to an image processing apparatus, a microscope system, and an image processing method for processing an image of a biological tissue specimen acquired by a microscope.

従来、病理標本を含む生体組織標本に対する診断は、臓器摘出によって取得したブロック標本や針生検によって取得された標本等を数ミクロン程度の厚さに薄切し、この薄切された標本を顕微鏡で拡大した観察像を観察することにより行われている。光学顕微鏡を用いた透過観察は、機材が比較的安価で取り扱いが容易である上、歴史的にも古くから行われており、最も普及している観察方法の一つである。また、近年では、光学顕微鏡に取り付けられたカメラにより観察像を撮像することによって取得された画像上で診断を行うことが主流となっている。   Conventionally, diagnosis of biological tissue specimens including pathological specimens has been performed by slicing block specimens obtained by organectomy or specimens obtained by needle biopsy to a thickness of about several microns, and slicing the sliced specimens with a microscope. This is done by observing an enlarged observation image. Transmission observation using an optical microscope is one of the most widespread observation methods, since the equipment is relatively inexpensive and easy to handle, and has been performed historically. In recent years, it has become the mainstream to make a diagnosis on an image acquired by capturing an observation image with a camera attached to an optical microscope.

ところで、薄切された生体組織標本(以下、薄切標本という)は光をほとんど吸収したり散乱したりせず、無色透明に近い。そのため、一般的には、顕微鏡観察に先立って、薄切標本に染色が施される。染色手法としては種々のものが提案されており、その総数は100種類以上にも達する。その中でも、特に病理標本に対しては、青紫色のヘマトキシリン及び赤色のエオシンの2つの色素を用いるヘマトキシリン−エオシン染色(以下、HE染色と記す)が標準的に用いられている。   By the way, a sliced biological tissue specimen (hereinafter referred to as a sliced specimen) hardly absorbs or scatters light and is nearly colorless and transparent. For this reason, generally, prior to microscopic observation, a sliced specimen is stained. Various dyeing techniques have been proposed, and the total number reaches 100 or more. Among them, especially for pathological specimens, hematoxylin-eosin staining (hereinafter referred to as HE staining) using two pigments of blue-violet hematoxylin and red eosin is used as standard.

また、臨床的には、HE染色では観察目的とする生体組織の視認が難しい場合や、生体組織の形態診断を補間する場合に、HE染色とは異なる特殊な染色を標本に施し、観察対象の組織の色を変えて視覚的に強調する手法が用いられることもある。さらに、病理組織診断においては、例えば癌組織の抗原抗体反応を可視化するための各種マーカータンパク質を用いる免疫染色が用いられることもある。   Further, clinically, when it is difficult to visually recognize a biological tissue to be observed by HE staining, or when morphological diagnosis of a biological tissue is interpolated, a special staining different from HE staining is applied to the specimen, A technique that visually enhances the color of the tissue may be used. Further, in histopathological diagnosis, for example, immunostaining using various marker proteins for visualizing antigen-antibody reaction of cancer tissue may be used.

このように、病理標本の観察に際しては複数種類の染色方法が用いられる場合が多い。このため、一般的には、1つのブロック標本から採取された複数の薄切標本に対して互いに異なる染色を施し、それらを顕微鏡装置において撮像することによって得られた画像(薄切標本画像)間で、組織や構造物の状態の比較観察することが行われている。従って、複数の薄切標本画像間における位置合わせ(マッチング)を正確に行うことが重要となる。   Thus, when observing a pathological specimen, a plurality of types of staining methods are often used. Therefore, in general, a plurality of sliced specimens collected from one block specimen are stained differently from each other, and images (thin slice specimen images) obtained by imaging them with a microscope apparatus Thus, comparative observation of the state of tissues and structures is performed. Therefore, it is important to accurately perform alignment (matching) between a plurality of sliced specimen images.

薄切標本画像のマッチングに関連する技術として、例えば、特許文献1には、HE染色及び免疫染色(IHC)がそれぞれ施された連続切片の薄切標本画像を、位相限定相関法等によりマッチングすることが開示されている。   As a technique related to matching of sliced specimen images, for example, Patent Document 1 discloses matching of sliced slice specimen images that have been subjected to HE staining and immunostaining (IHC) by phase-only correlation or the like. It is disclosed.

国際公開第2008/108059号International Publication No. 2008/108059

上記特許文献1に開示されたマッチング方法においては、マッチング対象の薄切標本同士が、状態の変化が少ない、即ち類似した連続切片であることが前提となっている。
しかしながら、同一のブロック標本から採取したとはいえ、薄切標本間では切片が異なるため、薄切標本内の組織等の状態が完全に一致することはない。特に、切片が離れた薄切標本間では、一方の薄切標本に現れていた組織等が他方の薄切標本では消失していたり、組織等の形状が大きく変化する場合がある。また、互いに異なる種類の染色が施された薄切標本間では、組織等の見え方が大きく異なるため、薄切標本画像間で共通する組織等を発見することは非常に困難である。これらの場合、薄切標本画像同士の類似性が低くなるため、位置合わせが可能な薄切標本が限定されてしまう。
The matching method disclosed in Patent Document 1 is based on the premise that thin sliced samples to be matched have little change in state, that is, similar continuous sections.
However, even though the samples were collected from the same block specimen, the sections of the sliced specimens are different, so that the state of the tissue or the like in the sliced specimen does not completely match. In particular, between sliced specimens with separated sections, the tissue or the like that appeared in one sliced specimen may disappear in the other sliced specimen, or the shape of the tissue or the like may change greatly. In addition, since the appearance of tissues and the like is greatly different between sliced specimens that have been subjected to different types of staining, it is very difficult to find tissues that are common between sliced specimen images. In these cases, since the similarity between the sliced specimen images is low, the sliced specimens that can be aligned are limited.

本発明は、上記に鑑みてなされたものであって、切片や染色法等が互いに異なる薄切標本画像間における位置合わせを高精度に行うことができる画像処理装置、顕微鏡システム、及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above, and an image processing apparatus, a microscope system, and an image processing method capable of performing high-precision alignment between sliced specimen images having different sections and staining methods. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、1つの標本から採取された2つの切片をそれぞれ撮像して得られた2つの画像から、前記標本の標本構成要素に関する第1の先見情報に基づいて、各画像に写った標本構成要素を分離抽出する標本構成要素分離部と、標本構成要素に関する第2の先見情報に基づいて、分離抽出された前記標本構成要素が位置合わせ処理に寄与する寄与度を算出する寄与度算出部と、前記寄与度に基づく評価値を算出することにより、前記2つの画像間の相対位置を特定する位置合わせ処理部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the image processing apparatus according to the present invention provides a sample of the specimen from two images obtained by imaging two sections taken from one specimen. Based on the first foresight information relating to the constituent elements, the specimen constituent element separating unit for separating and extracting the specimen constituent elements shown in each image, and the sample separated and extracted based on the second foresight information relating to the specimen constituent elements A contribution calculation unit that calculates a contribution that a component contributes to the alignment process; an alignment processing unit that specifies a relative position between the two images by calculating an evaluation value based on the contribution; and It is characterized by providing.

上記画像処理装置において、前記第1の先見情報は、前記標本構成要素の色分布特性を表す情報であり、前記第2の先見情報は、前記標本構成要素の形状の特徴を表す情報であることを特徴とする。   In the image processing apparatus, the first look-ahead information is information representing a color distribution characteristic of the sample component, and the second look-ahead information is information representing a shape characteristic of the sample component. It is characterized by.

上記画像処理装置は、前記病理標本の属性に関する情報を設定する属性情報設定部と、前記属性に関する情報に基づいて前記第1及び第2の先見情報を取得する先見情報取得部と、をさらに備えることを特徴とする。   The image processing apparatus further includes an attribute information setting unit that sets information related to the attribute of the pathological specimen, and a foresight information acquisition unit that acquires the first and second foresight information based on the information related to the attribute. It is characterized by that.

上記画像処理装置において、前記病理標本の属性に関する情報は、前記病理標本を採取した生体内の部位を表す情報であり、前記先見情報取得部は、生体内の部位と、該部位に含まれる標本構成要素とを関連づけた情報を介して、前記第1及び第2の先見情報を取得することを特徴とする。   In the image processing apparatus, the information related to the attribute of the pathological specimen is information representing a part in the living body from which the pathological specimen is collected, and the foresight information acquisition unit includes the part in the living body and the specimen included in the part. The first and second foresight information is acquired through information associated with a component.

上記画像処理装置において、前記標本構成要素分離部は、前記各画像を構成する複数の画素の色特徴量を算出し、該色特徴量と前記第1の先見情報とに基づいて、前記複数の画素から標本構成要素に対応する画素群を抽出することを特徴とする。   In the image processing apparatus, the sample component separation unit calculates a color feature amount of a plurality of pixels constituting each image, and based on the color feature amount and the first look-ahead information, A pixel group corresponding to the sample component is extracted from the pixel.

上記画像処理装置において、前記寄与度算出部は、前記第2の先見情報を参照して、前記標本構成要素分離部が分離抽出した前記標本構成要素の形状の特徴を取得し、該形状の特徴に基づいて前記寄与度を算出することを特徴とする。   In the image processing apparatus, the contribution calculation unit refers to the second look-ahead information, acquires the feature of the shape of the sample component separated and extracted by the sample component separation unit, and the feature of the shape The contribution is calculated based on the above.

上記画像処理装置において、前記標本構成要素分離部は、前記各画像を構成する複数の画素から標本構成要素に対応する画素群を抽出してラベリング処理を施すことにより、該標本構成要素に対応するラベル領域からなるラベル画像を生成し、前記位置合わせ処理部は、前記2つの画像にそれぞれ対応する前記ラベル画像間における位置合わせを行うことを特徴とする。   In the image processing device, the sample component separation unit corresponds to the sample component by extracting a pixel group corresponding to the sample component from a plurality of pixels constituting each image and performing a labeling process. A label image including a label area is generated, and the alignment processing unit performs alignment between the label images corresponding to the two images, respectively.

上記画像処理装置において、前記標本構成要素は、弾性繊維を含む主組織、細胞膜、細胞質、赤血球、細胞核、腔とのうちの少なくとも1種を含むことを特徴とする。   In the image processing apparatus, the specimen component includes at least one of a main tissue including elastic fibers, a cell membrane, a cytoplasm, a red blood cell, a cell nucleus, and a cavity.

本発明に係る顕微鏡システムは、上記画像処理装置と、前記薄切標本が載置されるステージと、前記ステージに向けて照明光を照射する照明光学系と、前記ステージと対向して設けられた対物光学系と、前記対物光学系の撮像視野に対する前記ステージの位置を変化させる移動手段と、前記対物光学系を透過した観察光を撮像して画像情報を生成する撮像部と、を備え、前記画像処理装置は、前記撮像部によって生成された画像情報を取得する画像取得部をさらに有することを特徴とする。   A microscope system according to the present invention is provided to face the stage, the image processing apparatus, a stage on which the sliced specimen is placed, an illumination optical system that irradiates illumination light toward the stage, and the stage. An objective optical system, a moving means for changing the position of the stage relative to the imaging field of the objective optical system, and an imaging unit that images the observation light transmitted through the objective optical system and generates image information, The image processing apparatus further includes an image acquisition unit that acquires image information generated by the imaging unit.

上記顕微鏡システムにおいて、前記画像処理装置は、予め取得された第1の画像と、前記ステージ上に載置された前記薄切標本を前記撮像部が撮像することによって生成され、前記画像取得部を介して取得された画像情報に対応する第2の画像との間における位置合わせ処理を行い、前記位置合わせ処理の処理結果に応じて前記移動手段を制御することにより、前記撮像視野を変化させる制御部をさらに備えることを特徴とする。   In the microscope system, the image processing device is generated by the imaging unit imaging the first image acquired in advance and the sliced specimen placed on the stage, and the image acquisition unit Control for changing the imaging field of view by performing alignment processing with the second image corresponding to the image information acquired through the control, and controlling the moving means according to the processing result of the alignment processing It further has a section.

本発明に係る画像処理方法は、1つの標本から採取された2つの切片をそれぞれ撮像して得られた2つの画像から、前記標本の標本構成要素に関する第1の先見情報に基づいて、各画像に写った標本構成要素を分離抽出する標本構成要素分離ステップと、標本構成要素に関する第2の先見情報に基づいて、分離抽出された前記標本構成要素が位置合わせ処理に寄与する寄与度を算出する寄与度算出ステップと、前記寄与度に基づく評価値を算出することにより、前記2つの画像間の相対位置を特定する位置合わせ処理ステップと、を含むことを特徴とする。   The image processing method according to the present invention is based on first look-ahead information relating to the sample component of the specimen from two images obtained by imaging two sections taken from one specimen respectively. Based on the sample component separation step for separating and extracting the sample components reflected in the above and the second look-ahead information relating to the sample components, the degree of contribution that the sample components extracted and contributed to the alignment processing is calculated The method includes a contribution calculation step, and an alignment processing step that specifies a relative position between the two images by calculating an evaluation value based on the contribution.

本発明によれば、各画像に写った標本構成要素を先見情報に基づいて分離抽出し、各標本構成要素が画像間の位置合わせ処理に寄与する寄与度を算出し、この寄与度に基づいて評価値を算出することにより、2つの画像間の相対位置を特定するので、切片や染色法が互いに異なる薄切標本画像間であっても、高精度な位置合わせを行うことが可能となる。   According to the present invention, the sample components captured in each image are separated and extracted based on the foresight information, the degree of contribution that each sample component contributes to the alignment processing between images is calculated, and based on this contribution By calculating the evaluation value, the relative position between the two images is specified, so that it is possible to perform highly accurate alignment even between sliced specimen images having different sections and staining methods.

図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention. 図2は、薄切標本を採取した器官及び臓器と、各臓器に含まれる主な標本構成要素とを関連付けた先見情報を示すテーブルである。FIG. 2 is a table showing foreseeing information in which organs and organs from which thin sliced specimens are collected are associated with main specimen constituent elements included in each organ. 図3は、標本構成要素の形状の特徴の先見情報を示すテーブルである。FIG. 3 is a table showing foreseeing information of the shape characteristics of the specimen constituent elements. 図4は、標本構成要素と染色の種類と色分布情報とを関連づけた先見情報を示すテーブルである。FIG. 4 is a table showing foresight information in which specimen constituent elements, staining types, and color distribution information are associated with each other. 図5は、色分布特性の一例であるCIExy表色系におけるxy色度図である。FIG. 5 is an xy chromaticity diagram in the CIExy color system, which is an example of color distribution characteristics. 図6は、色分布特性の一例である分光透過率のスペクトルの一例を示すグラフである。FIG. 6 is a graph illustrating an example of a spectrum of spectral transmittance that is an example of color distribution characteristics. 図7は、色分布特性の一例である色素量の分布図の例である。FIG. 7 is an example of a distribution diagram of the amount of pigment, which is an example of color distribution characteristics. 図8は、図1に示す画像処理装置の動作を示すフローチャートである。FIG. 8 is a flowchart showing the operation of the image processing apparatus shown in FIG. 図9は、画像処理対象である薄切標本画像の一例を示す模式図である。FIG. 9 is a schematic diagram illustrating an example of a sliced specimen image that is an image processing target. 図10は、標本属性設定画面の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a sample attribute setting screen. 図11は、標本構成要素の分離抽出及びラベル画像の作成処理を示すフローチャートである。FIG. 11 is a flowchart showing the separation and extraction of the sample components and the label image creation process. 図12は、ラベル画像の例を示す模式図である。FIG. 12 is a schematic diagram illustrating an example of a label image. 図13は、寄与率の算出処理を示すフローチャートである。FIG. 13 is a flowchart showing a contribution rate calculation process. 図14は、対円形比率分布の一例を示すヒストグラムである。FIG. 14 is a histogram showing an example of the ratio of circular to circular ratio distribution. 図15は、マッチング処理を示すフローチャートである。FIG. 15 is a flowchart showing the matching process. 図16は、マッチング処理を説明するための図である。FIG. 16 is a diagram for explaining the matching process. 図17は、各区画におけるマッチング処理の例を説明するための図である。FIG. 17 is a diagram for explaining an example of matching processing in each section. 図18は、マッチング結果の表示例を示す模式図である。FIG. 18 is a schematic diagram illustrating a display example of matching results. 図19は、本発明の実施の形態2に係る顕微鏡システムの構成を示す図である。FIG. 19 is a diagram showing a configuration of a microscope system according to Embodiment 2 of the present invention. 図20は、図19に示す顕微鏡システムの動作を示すフローチャートである。FIG. 20 is a flowchart showing the operation of the microscope system shown in FIG. 図21は、本発明の実施の形態2に係る顕微鏡観察方法を説明するための模式図である。FIG. 21 is a schematic diagram for explaining a microscope observation method according to the second embodiment of the present invention.

以下、本発明に係る画像処理装置、顕微鏡システム、及び画像処理方法の実施の形態について、図面を参照しながら詳細に説明する。なお、これらの実施の形態により本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   Hereinafter, embodiments of an image processing apparatus, a microscope system, and an image processing method according to the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to these embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。
図1に示すように、実施の形態1に係る画像処理装置10は、病理標本等の1つの生体組織標本の複数の切片における薄切標本の顕微鏡観察画像(以下、薄切標本画像、又は、単に画像ともいう)間での位置合わせ(マッチング)処理を実行する装置であり、当該画像処理装置10に対する指示や情報の入力を受け付ける入力部11と、薄切標本画像やその他の情報を画面表示する表示部12と、本画像処理で使用するプログラム等が記憶された記憶部13と、薄切標本画像間のマッチング処理を行う演算部14と、これらの各部の動作を制御する制御部15とを備える。また、画像処理装置10には画像データベース21を有する記録装置20が設けられている。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
As shown in FIG. 1, the image processing apparatus 10 according to Embodiment 1 includes a microscopic observation image (hereinafter referred to as a sliced specimen image or a sliced specimen image) of a plurality of sections of one biological tissue specimen such as a pathological specimen. An input unit 11 that receives an instruction and information input to the image processing apparatus 10, and displays a sliced sample image and other information on a screen. A display unit 12, a storage unit 13 storing a program used in the main image processing, a calculation unit 14 that performs matching processing between sliced specimen images, and a control unit 15 that controls operations of these units. Is provided. The image processing apparatus 10 is provided with a recording apparatus 20 having an image database 21.

入力部11は、キーボード、各種ボタン、各種スイッチ等の入力デバイスや、マウスやタッチパネル等のポインティングデバイスを含み、これらのデバイスを介して入力された信号を受け付けて制御部15に入力する。また、入力部11は、ユーザが上記デバイスを用いて、画像データベース21に記録された画像ファイルのうちから所望の画像ファイルを選択した場合に、当該ファイルを選択する選択信号を制御部15に入力する画像ファイル指定部111を有する。   The input unit 11 includes input devices such as a keyboard, various buttons, and various switches, and pointing devices such as a mouse and a touch panel. The input unit 11 receives a signal input through these devices and inputs the signal to the control unit 15. In addition, when the user selects a desired image file from among the image files recorded in the image database 21 using the device, the input unit 11 inputs a selection signal for selecting the file to the control unit 15. An image file designating unit 111 for performing the operation.

表示部12は、例えば、LCD、有機ELディスプレイ、CRTディスプレイ等の表示装置によって構成され、制御部15から出力された制御信号に従って、種々の情報や画像が所定の形式で配置された各種画面を表示する。   The display unit 12 is configured by a display device such as an LCD, an organic EL display, or a CRT display, for example, and displays various screens on which various information and images are arranged in a predetermined format in accordance with a control signal output from the control unit 15. indicate.

記憶部13は、更新記録可能なフラッシュメモリ、RAM、ROM等の半導体メモリや、内蔵若しくはデータ通信端子で接続されたハードディスク、MO、CD−R、DVD−R等の記録媒体及び該記録媒体に記録された情報を読み取る読取装置等によって構成される。記憶部13は、演算部14及び制御部15がそれぞれ実行する各種プログラムや各種設定情報を記録するほか、記録装置20から読み込まれた画像ファイルを一時的に記憶する。具体的には、記憶部13は、複数の薄切標本画像間でのマッチング処理を行う画像処理プログラム131と、当該画像処理プログラムの実行中に演算部14が使用する先見情報が記憶される先見情報記憶部132とを有する。   The storage unit 13 includes a semiconductor memory such as flash memory, RAM, and ROM that can be updated and recorded, a recording medium such as a hard disk, MO, CD-R, and DVD-R that is built in or connected by a data communication terminal, and the recording medium. It is comprised by the reader etc. which read the recorded information. The storage unit 13 records various programs executed by the calculation unit 14 and the control unit 15 and various setting information, and temporarily stores an image file read from the recording device 20. Specifically, the storage unit 13 stores an image processing program 131 that performs a matching process between a plurality of sliced specimen images, and a foresight in which foresight information used by the calculation unit 14 during execution of the image processing program is stored. And an information storage unit 132.

ここで、先見情報とは、薄切標本の部位や、薄切標本を構成する組織や細胞中の構造物といった要素(以下、これらをまとめて構成要素又は標本構成要素ともいう)や、各標本構成要素の特徴や、薄切標本に施した染色の種類及び特性等に関する一般的な情報、又は、実験により予め取得された情報(教師データ)のことである。これらの先見情報は、薄切標本画像から標本構成要素を分離抽出したり、各標本構成要素のマッチング処理への寄与率を算出したりする際に用いられる。なお、標本構成要素には、大きく分類して、生体を構成する主組織及び一般組織と、腔と、特異領域とが含まれる。主組織は、臓器に多く含まれる組織であり、弾性繊維、膠原繊維、血管等を含む。一般組織は、主組織以外の要素であり、細胞質、細胞膜、細胞核(以下、単に核ともいう)等の細胞内の構成要素や、赤血球、白血球等の血球(血液細胞)等を含む。腔とは、主組織や一般組織が存在しない領域であり、例えば、管状組織の断面や細胞質の隙間等に相当する。特異領域は、顕微鏡装置において弾性繊維や弾性繊維が隣接する領域に照射された光が、ある条件下で、減衰することなく、逆に光強度が増加するという特異的な現象を示す領域である。なお、このような特異的な現象は、弾性繊維のように細かい繊維の集合が帯状や束状になっている場合生じるものと考えられる。
先見情報の具体的な内容については後述する。
Here, the foresight information refers to elements of the sliced specimen, elements such as tissues and structures constituting the sliced specimen (hereinafter collectively referred to as constituent elements or specimen constituent elements), and each specimen. This is general information regarding the characteristics of the constituent elements, the type and characteristics of staining applied to the sliced specimen, or information (teacher data) acquired in advance by experiments. These pieces of foreseeing information are used when separating and extracting specimen constituent elements from the sliced specimen image and calculating the contribution rate of each specimen constituent element to the matching process. Note that the specimen constituent elements are roughly classified and include main tissues and general tissues constituting a living body, cavities, and specific areas. The main tissue is a tissue that is abundant in organs, and includes elastic fibers, collagen fibers, blood vessels, and the like. A general tissue is an element other than the main tissue, and includes intracellular components such as cytoplasm, cell membrane, cell nucleus (hereinafter also simply referred to as nucleus), blood cells (blood cells) such as red blood cells and white blood cells, and the like. A cavity is a region where there is no main tissue or general tissue, and corresponds to, for example, a cross-section of a tubular tissue or a gap between cytoplasms. The singular region is a region that exhibits a specific phenomenon in which the light applied to the region adjacent to the elastic fiber or the elastic fiber in the microscopic device is not attenuated under certain conditions and conversely increases the light intensity. . Such a specific phenomenon is considered to occur when a collection of fine fibers such as elastic fibers is in the form of a band or bundle.
Specific contents of the foresight information will be described later.

演算部14は、例えばCPU等のハードウェアによって構成され、画像処理プログラム131を読み込むことにより、画像データベース21から読み込んだ複数の薄切標本画像間におけるマッチング処理を実行する。   The calculation unit 14 is configured by hardware such as a CPU, for example, and executes a matching process between a plurality of sliced sample images read from the image database 21 by reading the image processing program 131.

より詳細には、演算部14は、処理対象である2つの薄切標本画像に写った薄切標本の属性を設定する標本属性設定部141と、設定された属性に基づいて記憶部13から先見情報を取得する先見情報取得部142と、薄切標本画像内の標本構成要素を先見情報に基づいて分離抽出する標本構成要素分離部143と、分離抽出された各標本構成要素のマッチング処理への寄与率を先見情報に基づいて算出する寄与率算出部144と、算出された寄与率に基づいてマッチング評価値を算出することにより、2つの薄切標本画像間の相対位置を特定するマッチング処理部145とを有する。   More specifically, the calculation unit 14 sets a sample attribute setting unit 141 that sets an attribute of a sliced sample captured in two sliced sample images to be processed, and a foresight from the storage unit 13 based on the set attribute. A foresight information acquisition unit 142 for acquiring information, a sample component separation unit 143 for separating and extracting the sample components in the sliced specimen image based on the foresight information, and a matching process for each sample component extracted and extracted A contribution rate calculation unit 144 that calculates the contribution rate based on the foresight information, and a matching processing unit that specifies a relative position between the two sliced sample images by calculating a matching evaluation value based on the calculated contribution rate 145.

制御部15は、例えばCPU等のハードウェアによって構成され、記憶部13に記憶された各種プログラムを読み込むことにより、入力部11から入力される操作信号等に従って、画像処理装置10を構成する各部への指示やデータの転送等を行い、画像処理装置10全体の動作を統括的に制御する。   The control unit 15 is configured by hardware such as a CPU, for example, and by reading various programs stored in the storage unit 13, to each unit configuring the image processing apparatus 10 according to an operation signal input from the input unit 11. Instruction, data transfer, and the like, and overall operation of the image processing apparatus 10 is controlled.

このような画像処理装置10は、例えばパーソナルコンピュータやワークステーション等の汎用の装置によって構成することができる。   Such an image processing apparatus 10 can be configured by a general-purpose device such as a personal computer or a workstation.

記録装置20は、例えば、画像処理装置10とデータ通信端子で接続されたハードディスク、MO、CD−R、DVD−R等の記録媒体及び該記録媒体に記録された情報を読み取る読取装置によって構成される。なお、記録装置20は、画像処理装置10に内蔵させても良く、この場合、上記列挙した種々の記録媒体及び読み取り装置のほか、更新記録可能なフラッシュメモリ、RAM、ROM等の半導体メモリ等を用いることができる。   The recording device 20 includes, for example, a recording medium such as a hard disk, MO, CD-R, and DVD-R connected to the image processing apparatus 10 through a data communication terminal, and a reading device that reads information recorded on the recording medium. The Note that the recording device 20 may be built in the image processing device 10. In this case, in addition to the various recording media and reading devices listed above, update-recordable flash memory, semiconductor memory such as RAM and ROM, etc. Can be used.

画像データベース21は、1つの生体組織標本の複数の切片における薄切標本を顕微鏡装置において撮像することにより生成された複数の画像ファイルを記録している。各画像ファイルは、薄切標本画像の画像データ及び付帯情報を含んでいる。付帯情報には、例えば、生体組織標本を採取した臓器の種類、薄切標本に施した染色の種類、薄切標本画像を撮像した際の検鏡法、画像の倍率、薄切切片の厚さ等の情報が含まれる。   The image database 21 records a plurality of image files generated by imaging thin sliced specimens in a plurality of sections of one biological tissue specimen with a microscope apparatus. Each image file includes image data of the sliced specimen image and accompanying information. The incidental information includes, for example, the type of organ from which the biological tissue specimen was collected, the type of staining applied to the sliced specimen, the microscopic method when the sliced specimen image was imaged, the magnification of the image, and the thickness of the sliced section Etc. are included.

次に、先見情報記憶部132に記憶された先見情報の内容について説明する。
図2は、薄切標本を採取した器官及び臓器と、各臓器に含まれる主な標本構成要素とを関連付けた先見情報を示すテーブルである。例えば、肺から採取された薄切標本においては、弾性繊維、細気管支、及び血管が主な標本構成要素となる。
Next, the content of the foresight information stored in the foresight information storage unit 132 will be described.
FIG. 2 is a table showing foreseeing information in which organs and organs from which thin sliced specimens are collected are associated with main specimen constituent elements included in each organ. For example, in a sliced specimen collected from the lung, elastic fibers, bronchioles and blood vessels are the main specimen components.

図3は、各標本構成要素の形状の特徴を表す先見情報のテーブルである。形状の特徴は、例えば、核の場合には厚みn、赤血球の場合には径rd、血管の場合には長手方向と直交する断面の径bd、弾性繊維の場合には同断面の径edによってそれぞれ表される。   FIG. 3 is a table of foreseeing information representing the shape characteristics of each specimen component. The feature of the shape is, for example, the thickness n in the case of the nucleus, the diameter rd in the case of red blood cells, the diameter bd of the cross section perpendicular to the longitudinal direction in the case of blood vessels, and the diameter ed of the same cross section in the case of elastic fibers. Each is represented.

図4は、各標本構成要素を染色可能な染色の種類と、標本構成要素及び染色の種類の組み合わせに応じて決まる各画素の色分布特性を表すデータとを表す先見情報のテーブルである。色分布特性は、例えば、CIExy表色系におけるxy色度図や、分光透過率のスペクトルや、推定色素量の分布等によって表すことができる。   FIG. 4 is a table of look-ahead information representing the types of staining that can stain each specimen component and data representing the color distribution characteristics of each pixel determined according to the combination of the specimen components and the type of staining. The color distribution characteristics can be represented by, for example, an xy chromaticity diagram in the CIExy color system, a spectrum of spectral transmittance, a distribution of estimated dye amount, and the like.

図5は、CIExy表色系におけるxy色度図である。xy色度図上の領域P1、P2、…は、標本構成要素及び染色の種類に応じた色分布特性を表す。色分布特性としてxy色度図を用いる場合、図4に示す色分布特性のデータ1、2、…として、図5に例示するような領域P1、P2、…を表す座標データが記憶される。   FIG. 5 is an xy chromaticity diagram in the CIExy color system. The regions P1, P2,... on the xy chromaticity diagram represent color distribution characteristics according to the sample constituent elements and the type of staining. When the xy chromaticity diagram is used as the color distribution characteristic, coordinate data representing the regions P1, P2,... As illustrated in FIG. 5 is stored as the color distribution characteristic data 1, 2,.

図6は、薄切標本画像の画素位置に対応する薄切標本上の点における分光透過率のスペクトルの一例を示すグラフである。色分布特性として分光透過率の推定スペクトルを用いる場合、図4に示す色分布特性のデータ1、2、…として、図6に例示するようなスペクトルデータが記憶される。   FIG. 6 is a graph showing an example of a spectrum of spectral transmittance at a point on the sliced sample corresponding to the pixel position of the sliced sample image. When an estimated spectrum of spectral transmittance is used as the color distribution characteristic, spectral data as illustrated in FIG. 6 is stored as the color distribution characteristic data 1, 2,... Shown in FIG.

なお、分光透過率のスペクトルは、マルチバンドで撮像された各バンド(波長帯域)に対応する薄切標本画像から、次の演算により推定することができる。
分光透過率t(xn,λk)は、背景画像における各画素の画素値I0(xn,λk)と、薄切標本画像における各画素の画素値I(xn,λk)とを用いて、次式(1)により与えられる。ここで、背景画像とは、標本を載置せずに取得した顕微鏡画像のことである。また、xnは薄切標本画像を構成する各画素の画素位置を示す位置ベクトルであり、n=1〜N(Nは薄切標本画像の画素数)である。λkは各バンドの中心波長を示す(kはバンド数)。

Figure 2013174823
The spectrum of the spectral transmittance can be estimated from the sliced sample image corresponding to each band (wavelength band) imaged in multiband by the following calculation.
Spectral transmittance t (x n, λ k), the pixel of each pixel in the background image value I 0 (x n, λ k ) and the pixel value I of each pixel in the thin section sample image (x n, λ k) And is given by the following equation (1). Here, the background image is a microscopic image obtained without placing a specimen. Further, x n is a position vector indicating the pixel position of each pixel constituting the sliced specimen image, and n = 1 to N (N is the number of pixels of the sliced specimen image). λ k indicates the center wavelength of each band (k is the number of bands).
Figure 2013174823

図7は、薄切標本画像の画素位置に対応する薄切標本上の点における色素量の分布図の例であり、HE染色が施された標本構成要素(核、細胞質、繊維、血液)の色素量分布を示している。色分布特性として色素量を用いる場合、図4に示す色分布特性のデータ1、2、…として、図7に例示するような色素量の分布データが記憶される。   FIG. 7 is an example of a distribution diagram of a pigment amount at a point on a thin slice sample corresponding to a pixel position of the thin slice sample image. Sample components (nucleus, cytoplasm, fiber, blood) subjected to HE staining are shown in FIG. The pigment amount distribution is shown. When the dye amount is used as the color distribution characteristic, the dye amount distribution data illustrated in FIG. 7 is stored as the color distribution characteristic data 1, 2,... Shown in FIG.

なお、薄切標本上における色素量は、マルチバンドで撮像された各バンド(波長帯域)の薄切標本画像から、次の演算により推定することができる。
まず、式(1)により分光透過率t(xn,λk)を算出する。その後、Lambert−Beer則に従って、当該分光透過率t(xn,λk)を与える次式(2)を複数の波長成分λkに関して連立させた連立方程式を解く。

Figure 2013174823
式(2)において、係数kH(λk)及びkE(λk)は、色素H及び色素Eにそれぞれ対応する係数であり、波長に依存して決まる物質固有の値である。また、値dHは色素Hの色素量であり、値dEは色素Eの色素量である。なお、HE染色以外の色素についても、上述した方法と同様にして算出することができる。 The amount of dye on the sliced specimen can be estimated from the sliced specimen image of each band (wavelength band) imaged in multiband by the following calculation.
First, the spectral transmittance t (x n , λ k ) is calculated from the equation (1). After that, according to the Lambert-Beer rule, a simultaneous equation in which the following equation (2) that gives the spectral transmittance t (x n , λ k ) is simultaneous with respect to a plurality of wavelength components λ k is solved.
Figure 2013174823
In Expression (2), coefficients k Hk ) and k Ek ) are coefficients corresponding to the dye H and the dye E, respectively, and are values specific to the substance determined depending on the wavelength. The value d H is the amount of dye H, and the value d E is the amount of dye E. In addition, it can calculate similarly to the method mentioned above also about pigments other than HE dyeing | staining.

次に、画像処理装置10の動作について説明する。図8は、画像処理装置10の動作を示すフローチャートである。
まず、画像処理に先立って、画像処理装置10は、画像データベース21に記録されている複数の画像ファイルを表示部12に表示させる。ユーザは、表示された画像ファイルのうちから、位置合わせする2つの薄切標本画像の画像ファイルを、マウス等の入力デバイスを用いて選択する。入力部11は、2つの画像ファイルの選択信号を受け付けて制御部15に入力する。
なお、ここで表示される画像は、1つの病理標本から採取された2つの切片(薄切標本)に対してそれぞれ撮像された画像である。
Next, the operation of the image processing apparatus 10 will be described. FIG. 8 is a flowchart showing the operation of the image processing apparatus 10.
First, prior to image processing, the image processing apparatus 10 causes the display unit 12 to display a plurality of image files recorded in the image database 21. The user selects two thin slice sample image files to be aligned from the displayed image files using an input device such as a mouse. The input unit 11 receives selection signals for two image files and inputs them to the control unit 15.
In addition, the image displayed here is an image each image | photographed with respect to the 2 section | slice (thin slice sample) extract | collected from one pathological sample.

ステップS10において、制御部15は、選択された2つの画像ファイルを画像データベース21から取得し、記憶部13に一時的に記憶させる。   In step S <b> 10, the control unit 15 acquires the two selected image files from the image database 21 and temporarily stores them in the storage unit 13.

図9は、画像処理対象である薄切標本画像の一例を示す模式図である。図9に示す薄切標本画像M1には、弾性繊維a10、その他の主組織a11、核a12、赤血球a13、特異領域a14、腔a15等の標本構成要素が写っている。なお、画像M1の4隅は顕微鏡の視野外である背景領域a16である。また、図9には、上記の標本構成要素以外に、例えば血管の内部や髄質等のように、後述するマッチング処理の対象にならない領域a17も示されている。
上述した各種標本構成要素の有無、位置、形状等は、ステップS10において取得される2つの薄切標本画像間で異なっている可能性が高い。
FIG. 9 is a schematic diagram illustrating an example of a sliced specimen image that is an image processing target. In the sliced specimen image M1 shown in FIG. 9, specimen constituent elements such as an elastic fiber a10, other main tissues a11, nuclei a12, erythrocytes a13, singular regions a14, and cavities a15 are shown. The four corners of the image M1 are background areas a16 that are outside the field of view of the microscope. In addition to the above-described specimen constituent elements, FIG. 9 also shows a region a17 that is not a target of matching processing, which will be described later, such as the inside of a blood vessel or the medulla.
The presence / absence, position, shape, and the like of the various specimen components described above are likely to be different between the two sliced specimen images acquired in step S10.

続くステップS11において、標本属性設定部141は、取得された画像ファイルから画像データの付帯情報を読み出し、該付帯情報に基づいて薄切標本の属性を設定する。さらに、標本属性設定部141は、設定された薄切標本の属性が表示された画面を作成し、表示部12に表示させる。   In subsequent step S11, the sample attribute setting unit 141 reads the auxiliary information of the image data from the acquired image file, and sets the attribute of the sliced sample based on the auxiliary information. Furthermore, the sample attribute setting unit 141 creates a screen on which the attributes of the set sliced sample are displayed, and causes the display unit 12 to display the screen.

図10は、表示部12に表示される標本属性設定画面の一例を示す模式図である。図10に示す標本属性設定画面B1には、ユーザが選択した画像処理対象2つの薄切標本画像M2a、M2bと、薄切標本画像M2a、M2bに写った臓器の種類(例えば、肝臓)、薄切標本画像M2a、M2bに写った薄切標本に施された染色の種類(例えば、HE染色、DAB染色)、薄切標本画像M2a、M2bをそれぞれ撮像した際の検鏡方法(例えば、明視野観察、明視野観察)、薄切標本画像M2a、M2bの倍率(例えば、10倍、40倍)、薄切標本の厚さ(例えば、4μm)、薄切標本画像M2a、M2bの切片(スライス)間距離(例えば、不連続、12μm)等の属性情報と、OKボタンb1と、キャンセルボタンb2とが示されている。なお、薄切標本の厚さが4μmであり、薄切標本画像M2aと薄切標本画像M2bとのスライス間距離が12μmであるということは、両画像は、3スライス分離れていることになる。   FIG. 10 is a schematic diagram illustrating an example of a sample attribute setting screen displayed on the display unit 12. The specimen attribute setting screen B1 shown in FIG. 10 includes two sliced specimen images M2a and M2b selected by the user, the types of organs (for example, liver) reflected in the sliced specimen images M2a and M2b, Types of staining (for example, HE staining and DAB staining) applied to the sliced specimens shown in the sliced specimen images M2a and M2b, and a spectroscopic method when imaging the sliced specimen images M2a and M2b (for example, bright field) Observation, bright field observation), magnifications of sliced specimen images M2a, M2b (eg, 10 times, 40 times), thickness of sliced specimens (eg, 4 μm), slices of sliced specimen images M2a, M2b (slices) Attribute information such as a distance (for example, discontinuity, 12 μm), an OK button b1, and a cancel button b2 are shown. Note that the thickness of the sliced specimen is 4 μm and the distance between the slices of the sliced specimen image M2a and the sliced specimen image M2b is 12 μm, which means that the two images are separated by three slices. .

ユーザは、これらの属性情報を標本属性設定画面B1上で確認し、間違いなければOKボタンb1をマウス等の入力デバイスを用いて選択する。それに応じて、入力部11は、OKボタンb1の選択信号を受け付けて制御部15に入力する。標本属性設定部141は、制御部15からの制御信号に従って、標本属性設定画面B1に表示された内容で標本属性を確定する。   The user confirms the attribute information on the sample attribute setting screen B1, and if there is no mistake, selects the OK button b1 using an input device such as a mouse. In response to this, the input unit 11 receives a selection signal for the OK button b1 and inputs it to the control unit 15. The sample attribute setting unit 141 determines the sample attribute with the content displayed on the sample attribute setting screen B1 according to the control signal from the control unit 15.

また、標本属性設定画面B1において、各属性情報の表示内容は、例えばプルダウンメニューにより変更可能となっており、ユーザは、マウス等の入力デバイスを用いて所望の属性情報の内容を変更した上で、OKボタンb1を選択することにより、当該属性情報を変更することができる。この場合、入力部11は、属性情報の変更情報及びOKボタンb1の選択信号を受け付けて制御部15に入力する。標本属性設定部141は、制御部15からの制御信号に従って、変更後の内容で標本属性を確定する。   In the sample attribute setting screen B1, the display contents of each attribute information can be changed by, for example, a pull-down menu, and the user changes the contents of desired attribute information using an input device such as a mouse. The attribute information can be changed by selecting the OK button b1. In this case, the input unit 11 receives the change information of the attribute information and the selection signal of the OK button b1 and inputs them to the control unit 15. The sample attribute setting unit 141 determines the sample attribute with the changed content according to the control signal from the control unit 15.

続くステップS12において、先見情報取得部142は、設定された標本属性に基づいて、先見情報記憶部132から先見情報を取得する。詳細には、まず、標本属性のうち、薄切標本が採取された臓器(例えば、肝臓)に基づいて、図2に示すテーブルから、主な標本構成要素(例えば、静脈、肝細胞、毛細胆管)が取得される。また、取得された標本構成要素に基づいて、図3に示すテーブルから、各標本構成要素の形状の特徴が取得される。さらに、標本属性のうちの染色の種類(例えば、HE染色、DAB染色)と図2に示すテーブルから取得された標本構成要素とに基づいて、色分布特性を表すデータが取得される。   In subsequent step S12, the foresight information acquisition unit 142 acquires the foresight information from the foresight information storage unit 132 based on the set sample attribute. Specifically, first, based on the organ (for example, liver) from which the sliced specimen is collected among the sample attributes, main sample components (for example, veins, hepatocytes, capillaries) from the table shown in FIG. ) Is acquired. Further, based on the acquired specimen components, the shape characteristics of each specimen component are acquired from the table shown in FIG. Furthermore, data representing color distribution characteristics is acquired based on the type of staining (for example, HE staining, DAB staining) among the sample attributes and the sample components acquired from the table shown in FIG.

続くステップS13において、標本構成要素分離部143は、処理対象である2つの薄切標本画像の各々から標本構成要素を分離抽出し、各標本構成要素に対応するラベル画像を作成する。図11は、標本構成要素の分離抽出及びラベル画像の作成処理を示すフローチャートである。以下においては、例として、図9に示す薄切標本画像M1に対する処理を説明する。   In subsequent step S13, the sample component separation unit 143 separates and extracts the sample components from each of the two sliced sample images to be processed, and creates a label image corresponding to each sample component. FIG. 11 is a flowchart showing the separation and extraction of the sample components and the label image creation process. In the following, as an example, processing for the sliced sample image M1 shown in FIG. 9 will be described.

まず、ステップS131において、標本構成要素分離部143は、画像M1から背景領域a16を除去する。
続くステップS132において、標本構成要素分離部143は、画像M1から腔a15を抽出する。ここで、腔は標本構成要素が存在しない領域なので、画像M1内から輝度値が所定の閾値よりも高い領域を腔15aとして抽出すれば良い。なお、輝度値Yは、例えば、各画素の画素値(R値、G値、B値)から、次式(3)によって与えられる。
Y=0.30R+0.59G+0.11B …(3)
First, in step S131, the sample component separation unit 143 removes the background region a16 from the image M1.
In subsequent step S132, the specimen component separation unit 143 extracts the cavity a15 from the image M1. Here, since the cavity is an area where no specimen component exists, an area having a luminance value higher than a predetermined threshold may be extracted from the image M1 as the cavity 15a. The luminance value Y is given by the following equation (3) from the pixel values (R value, G value, B value) of each pixel, for example.
Y = 0.30R + 0.59G + 0.11B (3)

ステップS133において、標本構成要素分離部143は、先見情報取得部142が取得した先見情報に基づき、腔a15を除く領域から、主組織及び一般組織の領域に対応する画素群を抽出する。これらの画素群は、例えば、画像M1内の各画素の画素値から色特徴量(例えば、CIExy表色系におけるxy色度図上の座標、分光透過率の推定スペクトル、推定色素量)を算出し、先見情報における標本構成要素ごとの色分布特性から主成分分析を行うことによって抽出することができる。或いは、画像M1内の各画素の色特徴量に対し、先見情報の色分布特性を教師データとして、サポートベクターマシン(SVM)等の判別器を用いた学習判別処理を実行することにより、各標本構成要素に該当する画素群を抽出しても良い。それにより、画像M1の場合、弾性繊維a10、その他の主組織a11、核a12、及び赤血球a13が抽出される。   In step S133, the specimen component separation unit 143 extracts a pixel group corresponding to the main tissue region and the general tissue region from the region excluding the cavity a15 based on the foresight information acquired by the foresight information acquisition unit 142. For example, these pixel groups calculate color feature amounts (for example, coordinates on the xy chromaticity diagram in the CIExy color system, estimated spectrum of spectral transmittance, and estimated dye amount) from the pixel values of each pixel in the image M1. Then, it can be extracted by performing principal component analysis from the color distribution characteristics for each sample component in the foresight information. Alternatively, for each color feature amount of each pixel in the image M1, by performing learning discrimination processing using a discriminator such as a support vector machine (SVM) using the color distribution characteristics of the foresight information as teacher data, each sample You may extract the pixel group applicable to a component. Thereby, in the case of the image M1, the elastic fiber a10, the other main tissue a11, the nucleus a12, and the red blood cell a13 are extracted.

ステップS134において、標本構成要素分離部143は、画像M1から腔a15、主組織、及び一般組織を抽出した後の残った領域から、特異領域a14を抽出する。より詳細には、まず、残った領域を各画素の輝度値により二値化し、輝度値が所定の値以上である領域を特異的な画素として抽出する。そして、互いに隣接する複数の特異的な画素が存在する場合、それらの画素領域を特異領域として抽出する。一方、点在する特異的な画素はノイズと判断されて抽出されない。なお、輝度値の代わりに、各画素の画素値から算出された推定色素量を用いて特異領域a14を抽出しても良い。   In step S134, the specimen component separation unit 143 extracts the singular region a14 from the remaining region after extracting the cavity a15, the main tissue, and the general tissue from the image M1. More specifically, first, the remaining area is binarized by the luminance value of each pixel, and an area having a luminance value equal to or greater than a predetermined value is extracted as a specific pixel. When there are a plurality of specific pixels adjacent to each other, these pixel regions are extracted as specific regions. On the other hand, the scattered specific pixels are determined as noise and are not extracted. Note that the singular region a14 may be extracted using the estimated pigment amount calculated from the pixel value of each pixel instead of the luminance value.

ステップS135において、標本構成要素分離部143は、ステップS132〜S134において抽出された領域(弾性繊維a10、その他の主組織a11、核a12、赤血球a13、特異領域a14、及び腔a15)に対して公知のラベリング処理を施して、連結された画素の集まりを1つのラベル領域とするラベル画像を生成する。それにより、抽出された各領域内の細かな情報が排除され、各領域を形状情報のみで特徴づけることが可能となる。なお、弾性繊維a10等の繊維組織の場合には、線分を構成する画素の連結性を判定し、連結していると判定された画素同士を1つのラベル領域とする。また、各ラベル領域は、ラベル領域の種類ごと(即ち、対応する標本構成要素の種類ごと)にインデックスされる。   In step S135, the specimen component separation unit 143 is publicly known for the regions (elastic fiber a10, other main tissue a11, nucleus a12, red blood cell a13, singular region a14, and cavity a15) extracted in steps S132 to S134. In this way, a label image is generated in which a group of connected pixels is used as one label area. Thereby, fine information in each extracted region is excluded, and each region can be characterized only by shape information. In the case of a fiber structure such as the elastic fiber a10, the connectivity of the pixels constituting the line segment is determined, and the pixels determined to be connected are defined as one label region. Each label area is indexed for each type of label area (that is, for each type of corresponding sample component).

図12は、画像M1に対応するラベル画像の例を示す模式図である。図12に示すラベル画像M3には、弾性組織のラベル領域(以下、弾性組織ラベルという)b10、主組織のラベル領域(以下、主組織ラベルという)b11−1、b11−2、…、核のラベル領域(以下、核ラベルという)b12−1、b12−2、…、赤血球のラベル領域(以下、赤血球ラベルという)b13−1、b13−2、…、特異領域のラベル領域(以下、特異領域ラベルという)b14−1、b14−2、…、及び腔のラベル領域(以下、腔ラベルという)b15−1、b15−2、…が示されている。
その後、処理はメインルーチンに戻る。
FIG. 12 is a schematic diagram illustrating an example of a label image corresponding to the image M1. 12 includes an elastic tissue label region (hereinafter referred to as an elastic tissue label) b10, a main tissue label region (hereinafter referred to as a main tissue label) b11-1, b11-2,. Label regions (hereinafter referred to as nuclear labels) b12-1, b12-2,..., Red blood cell label regions (hereinafter referred to as red blood cell labels) b13-1, b13-2,. .., And cavity label areas (hereinafter referred to as cavity labels) b15-1, b15-2,.
Thereafter, the process returns to the main routine.

ステップS13に続くステップS14において、寄与率算出部144は、各ラベル領域に対応する標本構成要素の先見情報(図3参照)に基づいて、各ラベル領域がマッチング処理に寄与する寄与率を算出する。図13は、寄与率の算出処理を示すフローチャートである。以下においては、例として、図12に示すラベル画像M3に対する処理を説明する。   In step S14 following step S13, the contribution rate calculation unit 144 calculates the contribution rate that each label region contributes to the matching process based on the look-ahead information (see FIG. 3) of the sample component corresponding to each label region. . FIG. 13 is a flowchart showing a contribution rate calculation process. In the following, as an example, processing for the label image M3 shown in FIG. 12 will be described.

まず、ステップS141において、寄与率算出部144は、ラベル画像M3内に存在する特異領域ラベルb14−1、b14−2、…の寄与率をゼロに設定する。これは、特異領域は、マッチング対象である2つの画像のいずれか一方にしか含まれていない可能性が高いので、マッチング処理に使用しないようにするためである。   First, in step S141, the contribution rate calculation unit 144 sets the contribution rates of the unique region labels b14-1, b14-2,... Existing in the label image M3 to zero. This is because the singular region has a high possibility of being included in only one of the two images to be matched, and is not used for the matching process.

続くステップS142において、寄与率算出部144は、標本構成要素の形状の特徴に関する先見情報(図3参照)に基づき、標本構成要素の厚みが薄切標本のスライス間距離以下である標本構成要素のラベル領域の寄与率をゼロに設定する。ここで、スライス間距離tは、薄切標本の厚みdと切片間隔sとにより、t=d×sで表される。例えば、核ラベルb12−1、b12−2、…の場合、核の厚みがnμmであるため、n≦tである場合に核ラベルb12の寄与率はゼロに設定される。これは、厚みがスライス間距離以下である標本構成要素は、マッチング対象である2つの画像のいずれか一方にしか含まれていない可能性が高いので、マッチング処理に使用しないようにするためである。   In the subsequent step S142, the contribution rate calculation unit 144 selects the sample component whose thickness is less than or equal to the inter-slice distance of the sliced sample based on the foresight information (see FIG. 3) regarding the shape characteristics of the sample component. Set the contribution of the label area to zero. Here, the distance t between slices is expressed by t = d × s by the thickness d of the sliced specimen and the section interval s. For example, in the case of the nuclear labels b12-1, b12-2,..., The thickness of the nucleus is n μm, and therefore the contribution ratio of the nuclear label b12 is set to zero when n ≦ t. This is because a sample component whose thickness is equal to or less than the distance between slices is likely to be included in only one of the two images to be matched, so that it is not used for the matching process. .

ステップS143において、寄与率算出部144は、残りの(即ち、寄与率がゼロに設定されていない)ラベル領域について、形状特徴量を算出する。ラベル領域の形状特徴量としては、面積、周囲長、円形度、最大フィレ径、最小フィレ径、伸長度等が挙げられる。   In step S143, the contribution rate calculation unit 144 calculates shape feature amounts for the remaining label regions (that is, the contribution rate is not set to zero). Examples of the shape feature amount of the label area include area, perimeter length, circularity, maximum fillet diameter, minimum fillet diameter, and extension degree.

ステップS144において、寄与率算出部144は、ステップS143において算出した形状特徴量から、各ラベル領域の対円形比率を算出する。対円形比率ρは、円形度e、最大フィレ径fmax、及び最小フィレ径fminを用いて、次式(4)により与えられる。
ρ=e×(fmin/fmax) …(4)
In step S144, the contribution rate calculation unit 144 calculates the ratio of the label area to the circle from the shape feature amount calculated in step S143. The ratio ρ to circular is given by the following equation (4) using the circularity e, the maximum fillet diameter f max , and the minimum fillet diameter f min .
ρ = e × (f min / f max ) (4)

ステップS145において、寄与率算出部144は、ステップS144において算出した対円形比率の分布を作成し、この分布から、各ラベル領域の寄与率を算出する。図14は、対円形比率分布の一例を示すヒストグラムである。各ラベル領域の寄与率VCRは、そのラベル領域について算出された対円形比率ρのラベル数Lを、ヒストグラムにおける最大ラベル数Lmaxで正規化したものであり、VCR=L/Lmaxで与えられる。
その後、処理はメインルーチンに戻る。
In step S145, the contribution rate calculation unit 144 creates a distribution of the ratio of circularity calculated in step S144, and calculates the contribution rate of each label area from this distribution. FIG. 14 is a histogram showing an example of the ratio of circular to circular ratio distribution. The contribution rate V CR of each label area is obtained by normalizing the label number L of the ratio to circularity ρ calculated for the label area by the maximum label number L max in the histogram, and V CR = L / L max Given.
Thereafter, the process returns to the main routine.

続くステップS15において、マッチング処理部145は、2つの薄切標本画像からそれぞれ作成されたラベル画像間におけるマッチング処理を、各ラベル領域の寄与率に基づいて実行する。マッチング処理としては、パターンの変形を許容する、即ち、回転やスケールの変化に影響されず、パターンの際立つ特徴を選択してマッチングすることが可能なテンプレートマッチング(例えば、幾何学的パターンマッチング)が用いられる。なお、パターンマッチング処理の具体的手法については特に限定されず、公知の手法を用いることができる。   In subsequent step S15, the matching processing unit 145 executes matching processing between the label images respectively created from the two sliced sample images based on the contribution ratio of each label region. As the matching process, there is a template matching (for example, geometric pattern matching) that allows a pattern to be deformed, that is, is not affected by a rotation or a change in scale, and can select and match a characteristic feature of the pattern. Used. The specific method of the pattern matching process is not particularly limited, and a known method can be used.

図15は、マッチング処理を示すフローチャートである。また、図16は、マッチング処理を説明するための模式図である。
まず、ステップS151において、マッチング処理部145は、テンプレート画像又はテンプレート領域を設定する。この際、マッチング対象である2つのラベル画像の倍率が互いに異なる場合、マッチング処理部145は、倍率が大きい方のラベル画像をテンプレート画像として設定する。併せて、テンプレート画像となる倍率が大きい方の画像のサイズを縮小して、マッチングされる方のラベル画像の倍率に合わせておく。図16(a)は、マッチングされるラベル画像M3を示す模式図であり、図16(b)はテンプレート画像として設定されたラベル画像(以下、テンプレート画像)Tを示す模式図である。
FIG. 15 is a flowchart showing the matching process. FIG. 16 is a schematic diagram for explaining the matching process.
First, in step S151, the matching processing unit 145 sets a template image or a template region. At this time, when the magnifications of the two label images to be matched are different from each other, the matching processing unit 145 sets the label image having the larger magnification as the template image. At the same time, the size of the image with the larger magnification serving as the template image is reduced to match the magnification of the label image to be matched. FIG. 16A is a schematic diagram showing a matched label image M3, and FIG. 16B is a schematic diagram showing a label image (hereinafter referred to as a template image) T set as a template image.

また、マッチング対象である2つのラベル画像の倍率が等しい場合、マッチング処理部145は、いずれか一方のラベル画像をテンプレート画像として設定する。なお、テンプレート画像の設定は、ユーザが手動で画像を選択したり、或いは画像内の一部の領域を選択できるようにしても良い。この場合、マッチング処理部145は、入力部11からの入力信号に従い、選択された画像又は領域をテンプレート画像として設定する。   Further, when the two label images to be matched have the same magnification, the matching processing unit 145 sets one of the label images as a template image. Note that the template image may be set such that the user can manually select an image or select a partial area in the image. In this case, the matching processing unit 145 sets the selected image or region as a template image according to the input signal from the input unit 11.

続くステップS152において、マッチング処理部145は、テンプレート画像(領域)Tに含まれるラベル領域のマッチング順を決定する。マッチング順は、基本的には、面積が大きいラベル領域が優先される。また、ラベル領域の種類ごとに面積のばらつきがある場合には、面積が最も大きいラベル領域と同種のラベル領域に対して、連続するマッチング順が与えられる。例えば、3つの核ラベルの面積がそれぞれ30、15、5(単位は任意)であり、3つの細胞質ラベルの面積がそれぞれ50、20、10(同上)である場合、3つの細胞質ラベルの面積が大きい順、次いで、3つの核ラベルの面積が大きい順にマッチング順が与えられる。   In subsequent step S152, the matching processing unit 145 determines the matching order of the label areas included in the template image (area) T. For the matching order, basically, a label area having a large area is given priority. In addition, when there is a variation in area for each type of label area, a continuous matching order is given to the same label area as the label area having the largest area. For example, if the areas of three nuclear labels are 30, 15, 5 (units are arbitrary) and the areas of three cytoplasmic labels are 50, 20, 10 (same as above), the areas of the three cytoplasmic labels are Matching order is given in descending order, then in order of increasing area of the three nuclear labels.

ステップS153において、マッチング処理部145は、テンプレート画像T及びラベル画像M3内の各ラベル領域について、マッチングを行う際に指標となる特徴量ACHを算出する。特徴量ACHとしては、例えば、幾何学的パラメータや、ラベルのスペクトル分析(高速フーリエ変換(FFT)によって算出されるスペクトル成分)等が挙げられる。 In step S153, the matching processing unit 145 calculates a feature amount ACH that serves as an index when matching is performed for each label region in the template image T and the label image M3. Examples of the feature amount A CH include geometric parameters, label spectrum analysis (spectral components calculated by fast Fourier transform (FFT)), and the like.

続いて、マッチング処理部145は、図16(c)に示すように、ラベル画像M3上でテンプレート画像Tをスキャンし、テンプレート画像Tと重なったラベル画像M3内の各区画に対してループAの処理を実行する。以下のステップS154、S155においては、図17に示すように、テンプレート画像Tと、ラベル画像M3内の一区画M3−i(i=1、2、…)との間での処理を説明する。図17(a)に示すように、テンプレート画像Tには、細胞質ラベルC1-1、C1-2と、核ラベルN1-1、N1-2、N1-3とが示されている。また、図17(b)に示すように、区画M3−iには、細胞質ラベルC2-1、C2-2、C2-3と、核ラベルN2-1、N2-2とが示されている。 Subsequently, as shown in FIG. 16C, the matching processing unit 145 scans the template image T on the label image M3, and loops A for each section in the label image M3 that overlaps the template image T. Execute the process. In the following steps S154 and S155, as shown in FIG. 17, processing between the template image T and one section M3-i (i = 1, 2,...) In the label image M3 will be described. As shown in FIG. 17A, the template image T shows cytoplasm labels C 1-1 and C 1-2 and nuclear labels N 1-1 , N 1-2 and N 1-3. Yes. As shown in FIG. 17 (b), the compartment M3-i has cytoplasmic labels C2-1 , C2-2 , C2-3 and nuclear labels N2-1 , N2-2. It is shown.

ステップS154において、マッチング処理部145は、テンプレート画像Tと区画M3−iとの間で、ラベル領域ごとのマッチング誤差を算出する。そのために、まず、マッチング処理部145は、各ラベル領域がマッチングに寄与する度合いを示す特徴量Fを算出する。この特徴量Fは、ステップS14において算出した寄与率VCRと、ステップS153において算出した特徴量ACHとの積によって与えられる。例えば、細胞質ラベルC1-1のマッチングに寄与する特徴量F(C1-1)は、細胞質ラベルC1-1の特徴量ACH(C1-1)と寄与率VCR(C1-1)との積ACH(C1-1)×VCR(C1-1)となる。 In step S154, the matching processing unit 145 calculates a matching error for each label area between the template image T and the section M3-i. For this purpose, the matching processing unit 145 first calculates a feature amount F indicating the degree to which each label region contributes to matching. This feature F has a contribution ratio V CR calculated in step S14, given by the product between the feature amount A CH calculated in step S153. For example, the cytoplasmic label C contributes feature quantity matching 1-1 F (C 1-1), the characteristic quantity of cytoplasmic label C 1-1 A CH (C 1-1) the contribution rate V CR (C 1- 1 )) A CH (C 1-1 ) × V CR (C 1-1 )

続いて、マッチング処理部145は、ステップS152において決定したマッチング順で、テンプレート画像T内のラベル領域を抽出し、区画M3−i内の同種のラベル領域との間のマッチング誤差を算出する。マッチング誤差は、特徴量F同士の差分の絶対値が最小となる値として与えられる。例えば、図17の場合、細胞質ラベルC1-1の区画M3−i内の細胞質ラベルC2-1、C2-3、C2-3とのマッチング誤差M(C1)は、次式(5)のとおりとなる。

Figure 2013174823
Subsequently, the matching processing unit 145 extracts label regions in the template image T in the matching order determined in step S152, and calculates a matching error with the same type of label region in the section M3-i. The matching error is given as a value that minimizes the absolute value of the difference between the feature amounts F. For example, in the case of FIG. 17, the matching error M (C1) with the cytoplasmic labels C 2-1 , C 2-3 , C 2-3 in the compartment M3-i of the cytoplasmic label C 1-1 is expressed by the following equation (5) ).
Figure 2013174823

また、細胞質ラベルC1-2と区画M3−i内の細胞質ラベルC2-1、C2-3、C2-3とのマッチング誤差M(C2)は、次式(6)のとおりとなる。

Figure 2013174823
Also, cytoplasmic label C 2-1 cytoplasmic label C 1-2 the compartment M3-i, C 2-3, matching error M (C2) of the C 2-3 becomes as the following equation (6) .
Figure 2013174823

核ラベルN1-1〜N1-3のマッチング誤差M(N1)〜M(N3)も同様にして、次式(7)〜(9)により算出される。

Figure 2013174823
Nuclear matching error M (N1) of the label N 1-1 ~N 1-3 ~M (N3) are similarly calculated by the following equation (7) to (9).
Figure 2013174823

さらに、マッチング処理部145は、ラベル領域の種類ごとに、後述するマッチングスコアの算出において除外すべきマッチング誤差のはずれ値を検出する。例えば、核ラベルN1-1〜N1-3に対しては、マッチング誤差M(N1)〜M(N3)の平均A(N)及び標準偏差σ(N)を次式(10)及び(11)により算出し、平均A(N)±標準偏差σ(N)の範囲に入らないマッチング誤差をはずれ値とする。

Figure 2013174823
Further, the matching processing unit 145 detects an outlier value of a matching error that should be excluded in calculation of a matching score, which will be described later, for each type of label region. For example, for the nuclear labels N 1-1 to N 1-3 , the average A (N) and standard deviation σ (N) of the matching errors M (N1) to M (N3) are expressed by the following equations (10) and (10): 11), a matching error that does not fall within the range of average A (N) ± standard deviation σ (N) is defined as an outlier.
Figure 2013174823

この場合、次式(12)又は(13)を満たすマッチング誤差M(Nj)が除外される(j=1〜3)。
M(Nj)>(A(N)+σ(N)) …(12)
M(Nj)<(A(N)−σ(N)) …(13)
In this case, a matching error M (Nj) that satisfies the following expression (12) or (13) is excluded (j = 1 to 3).
M (Nj)> (A (N) + σ (N)) (12)
M (Nj) <(A (N) −σ (N)) (13)

ここで、同じ種類のラベル領域において、ほとんどのラベル領域のマッチング精度が高いにもかかわらず、一部のラベル領域のマッチング精度が極端に小さい場合に、そのようなラベル領域のマッチング誤差を含めて演算を行うと、マッチングスコアが低くなってしまう。これは、例えば、図17に示すテンプレート画像T内の核ラベルN1-1、N1-2に対して、区画M3−i内の核ラベルN2-1、N2-2が良好にマッチしているにもかかわらず、テンプレート画像T内の核ラベルN1-3に対応するラベルが、区画内M3−iに偶然存在していないような場合に相当する。そこで、上述したように、ラベル領域の種類ごとにマッチング誤差のはずれ値を予め除外して、その種類のラベル領域の平均的なマッチング誤差をもとに演算を行うことにより、マッチングスコアに対するはずれ値の影響を低減することができる。 Here, when the matching accuracy of some label regions is extremely small even though the matching accuracy of most label regions is high in the same type of label region, include such label region matching errors. When the calculation is performed, the matching score is lowered. This is because, for example, the nuclear labels N 2-1 and N 2-2 in the section M3-i match well with the nuclear labels N 1-1 and N 1-2 in the template image T shown in FIG. This corresponds to the case where the label corresponding to the nuclear label N 1-3 in the template image T does not exist by chance in the section M3-i. Therefore, as described above, the outlier value for the matching score is calculated by excluding the outlier value of the matching error for each type of label area and performing the calculation based on the average matching error of the label area of that type. Can be reduced.

続くステップS155において、マッチング処理部145は、当該区画M3−iにおけるマッチングスコア(マッチング評価値)を算出する。そのために、マッチング処理部145は、まず、上式(5)〜(9)から、ラベル領域の種類ごとにマッチング誤差を加算して、細胞質ラベル全体のマッチング誤差M(C)、及び核ラベル全体のマッチング誤差M(N)を算出する。この際、マッチング処理部145は、はずれ値として検出されたマッチング誤差(例えば、マッチング誤差M(N3))を除外して演算を行う。
M(C)=M(C1)+M(C2)
M(N)=M(N1)+M(N2)
In subsequent step S155, the matching processing unit 145 calculates a matching score (matching evaluation value) in the section M3-i. For this purpose, the matching processing unit 145 first adds a matching error for each type of label region from the above formulas (5) to (9), thereby matching the matching error M (C) of the entire cytoplasmic label and the entire nuclear label. The matching error M (N) is calculated. At this time, the matching processing unit 145 performs the calculation by excluding the matching error (for example, the matching error M (N3)) detected as the outlier.
M (C) = M (C1) + M (C2)
M (N) = M (N1) + M (N2)

マッチング処理部145は、これらのマッチング誤差M(C)及びM(N)から、区域M3−iにおけるマッチングスコアMを、次式(14)により算出する。

Figure 2013174823
The matching processing unit 145 calculates a matching score M in the section M3-i from the matching errors M (C) and M (N) by the following equation (14).
Figure 2013174823

マッチング処理部145は、ラベル画像M3内の区画に対して上記ループAの処理を実行した後、ステップS156において、マッチングスコアMが最大となる区画を選択する。選択された区画が、ラベル画像M3に対するラベル画像(テンプレート画像)Tの相対位置を表す。
その後、処理はメインルーチンに戻る。
The matching processing unit 145 performs the process of the loop A on the section in the label image M3, and then selects a section having the maximum matching score M in step S156. The selected section represents the relative position of the label image (template image) T with respect to the label image M3.
Thereafter, the process returns to the main routine.

ステップS15に続くステップS16において、演算部14は、マッチング結果を出力する。これに応じて、制御部15は、マッチング結果を所定の形式で表示部12に表示させる。図18は、マッチング結果の表示例を示す模式図である。図18に示すマッチング結果表示画面B2は、図10に示す標本属性設定画面B1に対して、マッチング領域表示枠b3と、重ね合わせ画像表示欄b4と、画像変形情報表示欄b5とを追加した形式となっている。   In step S16 following step S15, the calculation unit 14 outputs a matching result. In response to this, the control unit 15 displays the matching result on the display unit 12 in a predetermined format. FIG. 18 is a schematic diagram illustrating a display example of matching results. The matching result display screen B2 shown in FIG. 18 has a format in which a matching area display frame b3, a superimposed image display field b4, and an image deformation information display field b5 are added to the sample attribute setting screen B1 shown in FIG. It has become.

マッチング領域表示枠b3は、薄切標本画像M2a、M2b間で対応する領域を表す。例えば、倍率が大きい方の薄切標本画像M2b全体がテンプレート画像として用いられた場合、薄切標本画像M2bに対応する薄切標本画像M2a内の領域を示す枠が、薄切標本画像M2a上に表示される。   The matching area display frame b3 represents a corresponding area between the sliced specimen images M2a and M2b. For example, when the entire sliced sample image M2b having the larger magnification is used as the template image, a frame indicating an area in the sliced sample image M2a corresponding to the sliced sample image M2b is on the sliced sample image M2a. Is displayed.

重ね合わせ画像表示欄b4は、画像M2aと画像M2bとの間で対応する領域同士を重ね合わせた画像が表示される欄である。   The superimposed image display column b4 is a column in which an image in which corresponding regions are overlapped between the image M2a and the image M2b is displayed.

画像変形情報表示欄b5は、画像M2a、M2b間で対応する領域同士に変化が見られる場合に、その変化の内容が表示される欄である。具体的には、画像のスケール情報、いずれかの画像が回転している場合における回転角度情報、マッチングの確からしさを表す類似度等の情報が表示される。   The image deformation information display column b5 is a column in which the content of the change is displayed when there is a change in the corresponding areas between the images M2a and M2b. Specifically, information such as image scale information, rotation angle information when any image is rotating, and similarity indicating the likelihood of matching are displayed.

以上説明したように、実施の形態1によれば、標本構成要素の先見情報に基づいて、各標本構成要素に対応するラベル領域がマッチング処理に寄与する寄与度を算出し、寄与度及び各ラベル領域の特徴量とに基づいてパターンマッチングを行うので、生体組織標本の切片間で変化の大きい標本構成要素をマッチングスコアの演算から積極的に排除することができる。従って、処理対象の薄切標本画像間で切片が離れていたり、薄切標本に施した染色が互いに異なっている場合であっても、精度の高いマッチング処理を行うことが可能となる。   As described above, according to the first embodiment, the contribution degree that the label region corresponding to each sample constituent element contributes to the matching process is calculated based on the foresight information of the sample constituent element, and the contribution degree and each label Since pattern matching is performed based on the feature amount of the region, sample components that change greatly between sections of the biological tissue sample can be positively excluded from the calculation of the matching score. Therefore, even when the slices are separated between the sliced specimen images to be processed or the stains applied to the sliced specimens are different from each other, highly accurate matching processing can be performed.

なお、実施の形態1において、画像処理装置10は、記録装置20に格納された画像データベース21から画像ファイルを取得しているが、画像を取得する手段については特に限定されず、例えば、ネットワーク経由で画像ファイルを取得することとしても良い。この場合、記憶装置20の構成は不要となる。   In the first embodiment, the image processing apparatus 10 acquires the image file from the image database 21 stored in the recording apparatus 20, but the means for acquiring the image is not particularly limited, and for example, via a network It is good also as acquiring an image file by. In this case, the configuration of the storage device 20 is not necessary.

また、実施の形態1において、演算部14は、記憶部13から先見情報を取得しているが、先見情報を取得する手段については特に限定されない。例えば、画像ファイルに先見情報を付帯させ、画像ファイルを読み込むと同時に先見情報が取得されることとしても良いし、画像の属性情報に基づいてネットワーク経由で検索を行うことにより先見情報を取得することとしても良い。
また、本実施形態においては、2つの画像に対する位置合わせ処理を例として説明したが、2つ以上の画像を一度に処理することも可能である。
In the first embodiment, the calculation unit 14 acquires the foresight information from the storage unit 13, but the means for acquiring the foresight information is not particularly limited. For example, the foresight information may be attached to the image file, and the foresight information may be acquired at the same time as the image file is read, or the foresight information is acquired by performing a search via the network based on the attribute information of the image. It is also good.
In the present embodiment, the alignment process for two images has been described as an example. However, two or more images can be processed at a time.

(実施の形態2)
次に、本発明の実施の形態2について説明する。
図19は、実施の形態2に係る顕微鏡システムの構成を示す図である。図19に示すように、実施の形態2に係る顕微鏡システム1は、複数の検鏡法による観察が可能な顕微鏡装置30と、顕微鏡装置30における観察画像を撮像して画像データを生成して出力する撮像部40と、撮像部40から出力された画像データを処理する画像処理装置10−2と、画像処理装置10−2の制御の下で顕微鏡装置30の動作を制御する顕微鏡制御部50とを備える。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
FIG. 19 is a diagram illustrating a configuration of a microscope system according to the second embodiment. As shown in FIG. 19, the microscope system 1 according to the second embodiment generates a microscopic device 30 that can be observed by a plurality of spectroscopic methods, and generates and outputs image data by capturing an observation image in the microscopic device 30. An image capturing unit 40, an image processing device 10-2 that processes image data output from the image capturing unit 40, and a microscope control unit 50 that controls the operation of the microscope device 30 under the control of the image processing device 10-2. Is provided.

顕微鏡装置30は、略C字形のアーム部31と、該アーム部31に設けられた落射照明用光源32及び落射照明光学系32aと、透過照明用光源33及び透過照明光学系33aと、アーム部31に取り付けられた標本ステージ34と、観察光路L0上に標本ステージ34と対向して配置された対物レンズ351を含む対物レンズユニット35と、観察光路L0上に設けられたキューブユニット36と、観察光路L0上に設けられた三眼鏡筒ユニット37と、該三眼鏡筒ユニット37を介して設けられた接眼レンズユニット38と、三眼鏡筒ユニット37に連結された結像レンズユニット39とを有する。この結像レンズユニット39の端部に、撮像部40が設けられている。 The microscope apparatus 30 includes a substantially C-shaped arm part 31, an epi-illumination light source 32 and an epi-illumination optical system 32a provided on the arm part 31, a trans-illumination light source 33 and a trans-illumination optical system 33a, and an arm part. An objective lens unit 35 including an objective lens 351 disposed on the observation optical path L 0 so as to face the specimen stage 34, and a cube unit 36 provided on the observation optical path L 0. A trinocular tube unit 37 provided on the observation optical path L 0 , an eyepiece unit 38 provided via the trinocular tube unit 37, and an imaging lens unit 39 connected to the trinocular tube unit 37; Have An imaging unit 40 is provided at the end of the imaging lens unit 39.

落射照明光学系32aは、落射照明用光源32から出射した落射照明光を集光して観察光路L0の方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。一方、透過照明光学系33aは、透過照明用光源33から出射した透過照明光を集光して観察光路L0の方向に導く種々の光学部材(コレクタレンズ、フィルタユニット、視野絞り、シャッタ、開口絞り、コンデンサ光学素子ユニット、トップレンズユニット等)を含む。 Epi-illumination optical system 32a includes various optical members for guiding incident illumination light emitted from the epi-illumination light source 32 in the direction of the observation optical path L 0 by condensing (filter unit, a shutter, a field stop, an aperture stop, etc.) . On the other hand, transmission illumination optical system 33a is various optical members (a collector lens for guiding the direction of the observation optical path L 0 the transmitted illumination light emitted from the transmissive illumination light source 33 is focused, the filter unit, field stop, shutter, aperture Aperture, condenser optical element unit, top lens unit, etc.).

標本ステージ34には、観察対象である標本(薄切標本)Sが載置される。標本ステージ34は、図示しない駆動装置により駆動されて、観察光路L0と直交する平面内を2次元的に移動することにより、対物レンズ351の視野に対する標本Sの領域を変化させる。 On the specimen stage 34, a specimen (sliced specimen) S to be observed is placed. The specimen stage 34 is driven by a driving device (not shown) and moves two-dimensionally in a plane orthogonal to the observation optical path L 0 , thereby changing the region of the specimen S with respect to the field of view of the objective lens 351.

標本ステージ34には、図示しないモータ及び顕微鏡制御部50の下で動作するモータ駆動部が設けられており、顕微鏡制御部50を介して画像処理装置10−2から標本ステージ34の位置を制御することができる。また、標本ステージ34には図示しないエンコーダが設けられており、このエンコーダの出力信号を顕微鏡制御部50を介して画像処理装置10−2に入力することにより、画像処理装置10−2において標本ステージ34の位置を把握することができる。   The specimen stage 34 is provided with a motor drive unit (not shown) that operates under the microscope and the microscope control unit 50, and controls the position of the specimen stage 34 from the image processing apparatus 10-2 via the microscope control unit 50. be able to. The sample stage 34 is provided with an encoder (not shown). By inputting an output signal of the encoder to the image processing apparatus 10-2 via the microscope control unit 50, the sample stage is set in the image processing apparatus 10-2. The position of 34 can be grasped.

対物レンズユニット35は、倍率が互いに異なる複数の対物レンズ351、352と、これらの対物レンズ351、352を保持するレボルバ353とを含む。レボルバ353を回転させて、観察光路L0上の標本ステージ34と対向する位置に配置される対物レンズ351、352を切り替えることにより、顕微鏡画像の倍率を変化させることができる。なお、図19においては、対物レンズ351が観察光路L0上に配置された状態を示している。また、レボルバ353には、図示しないエンコーダ及び対物レンズ351、352を個別に検出可能なセンサが設けられており、エンコーダ及びセンサからの出力信号を顕微鏡制御部50を介して画像処理装置10−2に入力することにより、画像処理装置10−2において、現在どの倍率の対物レンズが観察光路L0上に配置されているかを把握することができる。 The objective lens unit 35 includes a plurality of objective lenses 351 and 352 having different magnifications, and a revolver 353 that holds these objective lenses 351 and 352. The magnification of the microscope image can be changed by rotating the revolver 353 and switching the objective lenses 351 and 352 disposed at positions facing the sample stage 34 on the observation optical path L 0 . FIG. 19 shows a state where the objective lens 351 is arranged on the observation optical path L 0 . The revolver 353 is provided with an encoder (not shown) and a sensor capable of individually detecting the objective lenses 351 and 352, and an output signal from the encoder and sensor is sent to the image processing apparatus 10-2 via the microscope control unit 50. by inputting, in the image processing device 10-2 can grasp what magnification of the objective lens current is provided in the observation light path L 0 in.

キューブユニット36は、複数の光学キューブ361、362と、これらの光学キューブ361、362を切換可能に保持するキューブ切換部363とを含み、各種検鏡法に応じて、観察光路L0上に配置される光学キューブ361、362を切り替える。 The cube unit 36 includes a plurality of optical cubes 361 and 362 and a cube switching unit 363 that holds the optical cubes 361 and 362 in a switchable manner, and is arranged on the observation optical path L 0 according to various spectroscopic methods. The optical cubes 361 and 362 are switched.

三眼鏡筒ユニット37は、対物レンズ351から入射した標本Sの観察光(透過光又は蛍光光)を、接眼レンズユニット38の方向と結像レンズユニット39の方向とに分岐する。
接眼レンズユニット38は、ユーザが標本Sを直接観察する際に用いられる。
The trinocular tube unit 37 branches the observation light (transmitted light or fluorescent light) of the sample S incident from the objective lens 351 into the direction of the eyepiece unit 38 and the direction of the imaging lens unit 39.
The eyepiece unit 38 is used when the user directly observes the specimen S.

結像レンズユニット39には、複数のズームレンズと、これらのズームレンズの位置を変化させる駆動部(図示せず)とを含むズーム部が設けられている。ズーム部は、ズームレンズの位置を調整することにより、撮像視野内の撮像対象を拡大又は縮小させる。   The imaging lens unit 39 is provided with a zoom unit including a plurality of zoom lenses and a drive unit (not shown) that changes the positions of these zoom lenses. The zoom unit enlarges or reduces the imaging target in the imaging field by adjusting the position of the zoom lens.

撮像部40は、例えばCCD等の撮像素子を含み、各画素において互いに異なる複数の波長帯域(バンド)における画素レベル(画素値)を持つカラー画像を撮像可能なマルチバンドカメラによって構成される。   The imaging unit 40 includes an imaging element such as a CCD, for example, and is configured by a multiband camera that can capture color images having pixel levels (pixel values) in a plurality of different wavelength bands (bands) in each pixel.

撮像部40は、対物レンズ351にから出射し、結像レンズユニット39を介して入射した光(観察光)を受光する受光面40aを有し、観察光を対応する画像データを生成して画像処理装置10−2に出力する。   The imaging unit 40 includes a light receiving surface 40a that receives light (observation light) emitted from the objective lens 351 and incident through the imaging lens unit 39, and generates image data corresponding to the observation light to generate an image. The data is output to the processing device 10-2.

画像処理装置10−2は、図1に示す画像処理装置10に対し、画像取得部16を更に備えた構成を有する。画像取得部16は、撮像部40から出力された画像データの入力を受け付けるインタフェースである。なお、画像取得部16以外の画像処理装置10−2の構成及び動作は、実施の形態1と同様である。   The image processing apparatus 10-2 has a configuration further including an image acquisition unit 16 with respect to the image processing apparatus 10 shown in FIG. The image acquisition unit 16 is an interface that receives input of image data output from the imaging unit 40. The configuration and operation of the image processing apparatus 10-2 other than the image acquisition unit 16 are the same as those in the first embodiment.

顕微鏡制御部50は、制御部15から出力される各種制御信号に従って、顕微鏡装置30における標本ステージ34や結像レンズユニット39内のズーム部等の動作を制御する。また、顕微鏡制御部50は、顕微鏡装置30の各部(標本ステージ34やレボルバ353に設けられたエンコーダ等)から出力された出力信号を受け付け、画像処理装置10−2に出力する。画像処理装置10−2は、これらの出力信号から、標本ステージ34の位置や使用中の対物レンズの倍率といった顕微鏡装置30の状態を認識することができる。   The microscope control unit 50 controls operations of the specimen stage 34 and the zoom unit in the imaging lens unit 39 in the microscope apparatus 30 according to various control signals output from the control unit 15. In addition, the microscope control unit 50 receives an output signal output from each unit of the microscope apparatus 30 (such as an encoder provided in the specimen stage 34 or the revolver 353), and outputs the output signal to the image processing apparatus 10-2. The image processing apparatus 10-2 can recognize the state of the microscope apparatus 30 such as the position of the sample stage 34 and the magnification of the objective lens in use from these output signals.

次に、実施の形態2に係る顕微鏡観察方法を説明する。図20は、実施の形態2に係る顕微鏡システム1の動作を示すフローチャートである。
まず、画像処理に先立って、ユーザは、分析対象である生体標本から採取した薄切標本Sを顕微鏡装置30の標本ステージ34上に載置すると共に、レボルバ353を回転させて低倍率の対物レンズをセットする。ここで、低倍率とは、薄切標本画像を取得する場合、通常は20倍〜60倍程度で撮像されるのに対し、例えば4倍程度の倍率を意味する。また、ユーザは、表示部12に表示された画像ファイルのうちから、薄切標本Sと同じ生体組織標本から採取された薄切標本の画像ファイルを、マウス等の入力デバイスを用いて選択する。入力部11は、画像ファイルの選択信号を受け付けて制御部15に入力する。
Next, a microscope observation method according to the second embodiment will be described. FIG. 20 is a flowchart showing the operation of the microscope system 1 according to the second embodiment.
First, prior to image processing, the user places the sliced specimen S collected from the biological specimen to be analyzed on the specimen stage 34 of the microscope apparatus 30 and rotates the revolver 353 to obtain a low-magnification objective lens. Set. Here, the low magnification means that when a sliced specimen image is acquired, the image is usually captured at a magnification of about 20 to 60 times, whereas the magnification is about 4 times, for example. Further, the user selects an image file of a sliced specimen collected from the same biological tissue specimen as the sliced specimen S from the image files displayed on the display unit 12 using an input device such as a mouse. The input unit 11 receives an image file selection signal and inputs it to the control unit 15.

ステップS20において、制御部15は、選択された画像ファイルを画像データベース21から取得し、記憶部13に一時的に記憶させる。図21(a)は、選択された画像ファイルから再生された薄切標本画像の例を示す模式図である。   In step S <b> 20, the control unit 15 acquires the selected image file from the image database 21 and temporarily stores it in the storage unit 13. FIG. 21A is a schematic diagram illustrating an example of a sliced sample image reproduced from a selected image file.

続くステップS21において、顕微鏡システム1は、薄切標本Sを低倍率で撮像し、薄切標本画像の画像データ及び付帯情報を生成する。生成された画像データ及び付帯情報は、画像取得部16を介して画像処理装置10−2に入力される。これにより、薄切標本Sが全体的に写った薄切標本画像が取得される。図21(b)は、新たに撮像された低倍率の薄切標本画像の例を示す模式図である。   In subsequent step S21, the microscope system 1 images the sliced specimen S at a low magnification, and generates image data and incidental information of the sliced specimen image. The generated image data and incidental information are input to the image processing apparatus 10-2 via the image acquisition unit 16. As a result, a sliced specimen image in which the sliced specimen S is shown as a whole is acquired. FIG. 21B is a schematic diagram illustrating an example of a low-magnification sliced sample image that is newly captured.

ステップS22において、標本属性設定部141は、画像データベース21から取得された画像ファイル及び新たに生成された画像データ及び付帯情報に基づいて薄切標本の属性を設定する。
その後のステップS12〜S15の処理は、実施の形態1と同様である。
In step S <b> 22, the specimen attribute setting unit 141 sets the attributes of the sliced specimen based on the image file acquired from the image database 21, newly generated image data, and incidental information.
The subsequent steps S12 to S15 are the same as those in the first embodiment.

ステップS15におけるマッチング処理の終了後、ユーザがレボルバ353を回転させて、顕微鏡装置30における撮像倍率を高倍率(例えば、20倍〜60倍程度)に変化させると、画像処理装置10−2は、マッチング結果に基づき、撮像倍率に応じた薄切標本Sの撮像領域を設定する(ステップS23)。例えば、画像処理装置10−2は、画像M5に対して、低倍率の画像M6における区画M7のマッチング類似度が高いと判断すると、区画M7に対応する薄切標本S内の領域が対物レンズ351の撮像視野に入るように、標本ステージ34を駆動するための制御信号を出力する。   When the user rotates the revolver 353 after the matching process in step S15 is finished and changes the imaging magnification of the microscope apparatus 30 to a high magnification (for example, about 20 to 60 times), the image processing apparatus 10-2 Based on the matching result, an imaging region of the sliced specimen S corresponding to the imaging magnification is set (step S23). For example, when the image processing apparatus 10-2 determines that the matching similarity of the section M7 in the low-magnification image M6 is high with respect to the image M5, the region in the sliced sample S corresponding to the section M7 is the objective lens 351. A control signal for driving the specimen stage 34 is output so as to be in the imaging field of view.

ステップS24において、顕微鏡システム1は、設定された撮像領域を高倍率で撮像することにより、区画M7の詳細情報を表す薄切標本画像の画像データ及び付帯情報を生成する。生成された画像データ及び付帯情報を含む画像ファイルは、画像処理装置10−2に取り込まれ、表示部12に表示され、或いは、適宜画像処理が施されると共に、画像データベース21に格納される。   In step S <b> 24, the microscope system 1 generates image data and incidental information of a sliced sample image representing detailed information of the section M <b> 7 by imaging the set imaging region at a high magnification. The generated image file including the image data and the accompanying information is taken into the image processing apparatus 10-2 and displayed on the display unit 12, or appropriately subjected to image processing and stored in the image database 21.

以上説明したように、実施の形態2によれば、ユーザは、選択した薄切標本画像に対応する領域の画像を、別の薄切標本を撮像することにより、リアルタイムに取得することが可能となる。従って、ユーザは、関心のある薄切標本画像の近傍の領域や関連のある領域について、さらに拡大した画像で詳細に観察したい場合や、別の染色や別の検鏡法を用いて異なる観点から観察したい場合にも、容易に所望の画像を取得することが可能となる。   As described above, according to the second embodiment, the user can acquire an image of a region corresponding to the selected sliced specimen image in real time by imaging another sliced specimen. Become. Therefore, if the user wants to observe the area near or related to the sliced specimen image of interest in detail with a further enlarged image, or using a different staining or another microscopic method, Even when it is desired to observe, a desired image can be easily acquired.

なお、実施の形態2においては、対物レンズの倍率をユーザが手動で変更しているが、対物レンズ351、352を保持するレボルバ353に回転駆動手段を設け、この回転駆動手段の動作を顕微鏡制御部50を介して画像処理装置10−2側で制御することにより、顕微鏡装置30における撮像倍率を自動で変更できるようにしても良い。或いは、結像レンズユニット39に設けられたズーム部の動作を顕微鏡制御部50を介して画像処理装置10−2側で制御することにより、顕微鏡装置30における撮像倍率を自動で変更するようにしても良い。   In the second embodiment, the user manually changes the magnification of the objective lens. However, the revolver 353 that holds the objective lenses 351 and 352 is provided with a rotation driving unit, and the operation of the rotation driving unit is controlled by a microscope. The imaging magnification in the microscope apparatus 30 may be automatically changed by controlling the image processing apparatus 10-2 via the unit 50. Alternatively, by controlling the operation of the zoom unit provided in the imaging lens unit 39 on the side of the image processing device 10-2 via the microscope control unit 50, the imaging magnification in the microscope device 30 is automatically changed. Also good.

以上説明した実施の形態1及び2はそのままに限定されるものではなく、各実施の形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を除外して形成してもよい。あるいは、異なる実施の形態に示した構成要素を適宜組み合わせて形成してもよい。   Embodiments 1 and 2 described above are not limited as they are, and various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiments and modifications. . For example, some components may be excluded from all the components shown in the embodiment. Or you may form combining the component shown in different embodiment suitably.

1 顕微鏡システム
10、10−2 画像処理装置
11 入力部
111 画像ファイル指定部
12 表示部
13 記憶部
131 画像処理プログラム
132 先見情報記憶部
14 演算部
141 標本属性設定部
142 先見情報取得部
143 標本構成要素分離部
144 寄与率算出部
145 マッチング処理部
15 制御部
16 画像取得部
20 記録装置
21 画像データベース
30 顕微鏡装置
31 アーム部
32 落射照明用光源
32a 落射照明光学系
33 透過照明用光源
33a 透過照明光学系
34 標本ステージ
35 対物レンズユニット
351、352 対物レンズ
353 レボルバ
36 キューブユニット
361、362 光学キューブ
363 キューブ切換部
37 三眼鏡筒ユニット
38 接眼レンズユニット
39 結像レンズユニット
40 撮像部
40a 受光面
50 顕微鏡制御部
DESCRIPTION OF SYMBOLS 1 Microscope system 10, 10-2 Image processing apparatus 11 Input part 111 Image file designation | designated part 12 Display part 13 Storage part 131 Image processing program 132 Foresight information storage part 14 Calculation part 141 Specimen attribute setting part 142 Foresight information acquisition part 143 Specimen structure Element separation unit 144 Contribution rate calculation unit 145 Matching processing unit 15 Control unit 16 Image acquisition unit 20 Recording device 21 Image database 30 Microscope device 31 Arm unit 32 Epi-illumination light source 32a Epi-illumination optical system 33 Trans-illumination light source 33a Trans-illumination optical System 34 Specimen stage 35 Objective lens unit 351, 352 Objective lens 353 Revolver 36 Cube unit 361, 362 Optical cube 363 Cube switching unit 37 Trinocular tube unit 38 Eyepiece unit 39 Imaging lens unit 4 Imaging unit 40a receiving surface 50 microscope control unit

Claims (11)

1つの標本から採取された2つの切片をそれぞれ撮像して得られた2つの画像から、前記標本の標本構成要素に関する第1の先見情報に基づいて、各画像に写った標本構成要素を分離抽出する標本構成要素分離部と、
標本構成要素に関する第2の先見情報に基づいて、分離抽出された前記標本構成要素が位置合わせ処理に寄与する寄与度を算出する寄与度算出部と、
前記寄与度に基づく評価値を算出することにより、前記2つの画像間の相対位置を特定する位置合わせ処理部と、
を備えることを特徴とする画像処理装置。
Based on the first look-ahead information on the sample components of the sample, the sample components shown in each image are separated and extracted from two images obtained by imaging two sections taken from one sample. A specimen component separation unit to perform,
Based on the second foresight information related to the sample component, a contribution calculation unit that calculates a contribution that the sample component extracted and contributed to the alignment process;
An alignment processing unit that specifies a relative position between the two images by calculating an evaluation value based on the contribution;
An image processing apparatus comprising:
前記第1の先見情報は、前記標本構成要素の色分布特性を表す情報であり、
前記第2の先見情報は、前記標本構成要素の形状の特徴を表す情報であることを特徴とする請求項1に記載の画像処理装置。
The first foreseeing information is information representing a color distribution characteristic of the sample component,
The image processing apparatus according to claim 1, wherein the second look-ahead information is information representing a feature of a shape of the specimen component.
前記病理標本の属性に関する情報を設定する属性情報設定部と、
前記属性に関する情報に基づいて前記第1及び第2の先見情報を取得する先見情報取得部と、
をさらに備えることを特徴とする請求項1又は2に記載の画像処理装置。
An attribute information setting unit for setting information on attributes of the pathological specimen;
A foresight information acquisition unit that acquires the first and second foresight information based on information about the attribute;
The image processing apparatus according to claim 1, further comprising:
前記病理標本の属性に関する情報は、前記病理標本を採取した生体内の部位を表す情報であり、
前記先見情報取得部は、生体内の部位と、該部位に含まれる標本構成要素とを関連づけた情報を介して、前記第1及び第2の先見情報を取得することを特徴とする請求項3に記載の画像処理装置。
Information on the attribute of the pathological specimen is information representing a part in the living body where the pathological specimen is collected,
The said foresight information acquisition part acquires the said 1st and 2nd foresight information via the information which linked | related the site | part in a biological body and the sample component contained in this site | part. An image processing apparatus according to 1.
前記標本構成要素分離部は、前記各画像を構成する複数の画素の色特徴量を算出し、該色特徴量と前記第1の先見情報とに基づいて、前記複数の画素から標本構成要素に対応する画素群を抽出することを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。   The sample component separation unit calculates a color feature amount of a plurality of pixels constituting each image, and based on the color feature amount and the first look-ahead information, the plurality of pixels are converted into sample component elements. The image processing apparatus according to claim 1, wherein a corresponding pixel group is extracted. 前記寄与度算出部は、前記第2の先見情報を参照して、前記標本構成要素分離部が分離抽出した前記標本構成要素の形状の特徴を取得し、該形状の特徴に基づいて前記寄与度を算出することを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。   The contribution calculation unit refers to the second look-ahead information, acquires the shape feature of the sample component separated and extracted by the sample component separation unit, and based on the shape feature, the contribution degree The image processing apparatus according to claim 1, wherein: 前記標本構成要素分離部は、前記各画像を構成する複数の画素から標本構成要素に対応する画素群を抽出してラベリング処理を施すことにより、該標本構成要素に対応するラベル領域からなるラベル画像を生成し、
前記位置合わせ処理部は、前記2つの画像にそれぞれ対応する前記ラベル画像間における位置合わせを行うことを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
The sample component separation unit extracts a group of pixels corresponding to the sample component from a plurality of pixels constituting each image and performs a labeling process, whereby a label image including a label region corresponding to the sample component Produces
The image processing apparatus according to claim 1, wherein the alignment processing unit performs alignment between the label images corresponding to the two images, respectively.
前記標本構成要素は、弾性繊維を含む主組織、細胞膜、細胞質、赤血球、細胞核、腔とのうちの少なくとも1種を含むことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。   The image according to any one of claims 1 to 7, wherein the specimen component includes at least one of a main tissue including elastic fibers, a cell membrane, a cytoplasm, a red blood cell, a cell nucleus, and a cavity. Processing equipment. 請求項1〜8のいずれか1項に記載の画像処理装置と、
前記薄切標本が載置されるステージと、
前記ステージに向けて照明光を照射する照明光学系と、
前記ステージと対向して設けられた対物光学系と、
前記対物光学系の撮像視野に対する前記ステージの位置を変化させる移動手段と、
前記対物光学系を透過した観察光を撮像して画像情報を生成する撮像部と、
を備え、
前記画像処理装置は、前記撮像部によって生成された画像情報を取得する画像取得部をさらに有することを特徴とする顕微鏡システム。
The image processing apparatus according to any one of claims 1 to 8,
A stage on which the sliced specimen is placed;
An illumination optical system that emits illumination light toward the stage;
An objective optical system provided facing the stage;
Moving means for changing the position of the stage relative to the imaging field of view of the objective optical system;
An imaging unit that images the observation light transmitted through the objective optical system and generates image information;
With
The microscope system further includes an image acquisition unit that acquires image information generated by the imaging unit.
前記画像処理装置は、予め取得された第1の画像と、前記ステージ上に載置された前記薄切標本を前記撮像部が撮像することによって生成され、前記画像取得部を介して取得された画像情報に対応する第2の画像との間における位置合わせ処理を行い、
前記位置合わせ処理の処理結果に応じて前記移動手段を制御することにより、前記撮像視野を変化させる制御部をさらに備えることを特徴とする請求項9に記載の顕微鏡システム。
The image processing device is generated when the imaging unit captures the first image acquired in advance and the sliced specimen placed on the stage, and is acquired via the image acquisition unit. Perform alignment processing with the second image corresponding to the image information,
The microscope system according to claim 9, further comprising a control unit that changes the imaging field of view by controlling the moving unit according to a processing result of the alignment process.
1つの標本から採取された2つの切片をそれぞれ撮像して得られた2つの画像から、前記標本の標本構成要素に関する第1の先見情報に基づいて、各画像に写った標本構成要素を分離抽出する標本構成要素分離ステップと、
標本構成要素に関する第2の先見情報に基づいて、分離抽出された前記標本構成要素が位置合わせ処理に寄与する寄与度を算出する寄与度算出ステップと、
前記寄与度に基づく評価値を算出することにより、前記2つの画像間の相対位置を特定する位置合わせ処理ステップと、
を含むことを特徴とする画像処理方法。
Based on the first look-ahead information on the sample components of the sample, the sample components shown in each image are separated and extracted from two images obtained by imaging two sections taken from one sample. A sample component separating step,
A contribution calculation step of calculating a contribution that the sample component separated and extracted contributes to the alignment process based on the second foresight information regarding the sample component;
An alignment processing step for specifying a relative position between the two images by calculating an evaluation value based on the contribution;
An image processing method comprising:
JP2012040718A 2012-02-27 2012-02-27 Image processing device, microscope system and image processing method Pending JP2013174823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012040718A JP2013174823A (en) 2012-02-27 2012-02-27 Image processing device, microscope system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012040718A JP2013174823A (en) 2012-02-27 2012-02-27 Image processing device, microscope system and image processing method

Publications (1)

Publication Number Publication Date
JP2013174823A true JP2013174823A (en) 2013-09-05

Family

ID=49267744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012040718A Pending JP2013174823A (en) 2012-02-27 2012-02-27 Image processing device, microscope system and image processing method

Country Status (1)

Country Link
JP (1) JP2013174823A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014038408A1 (en) * 2012-09-06 2014-03-13 ソニー株式会社 Information processing device, information processing method, and program
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof
JPWO2015098342A1 (en) * 2013-12-26 2017-03-23 浜松ホトニクス株式会社 Image processing method, image processing apparatus, image processing program, and storage medium storing image processing program
CN106725564A (en) * 2015-11-25 2017-05-31 东芝医疗系统株式会社 Image processing apparatus and image processing method
JP2018503906A (en) * 2014-12-30 2018-02-08 ベンタナ メディカル システムズ, インコーポレイテッド System and method for co-expression analysis in immunoscore calculation
WO2019039035A1 (en) * 2017-08-25 2019-02-28 富士フイルム株式会社 Learning device, method, and program for determiner, and determiner
WO2019181845A1 (en) * 2018-03-19 2019-09-26 一般財団法人未来科学研究所 Biological tissue analyzing device, biological tissue analyzing program, and biological tissue analyzing method
JP2019533805A (en) * 2016-10-07 2019-11-21 ベンタナ メディカル システムズ, インコーポレイテッド Digital pathology system and associated workflow for providing visualized slide-wide image analysis

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11152105B2 (en) 2012-09-06 2021-10-19 Japanese Foundation For Cancer Research Information processing apparatus, information processing method, and program
JPWO2014038408A1 (en) * 2012-09-06 2016-08-08 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2014038408A1 (en) * 2012-09-06 2014-03-13 ソニー株式会社 Information processing device, information processing method, and program
US11817202B2 (en) 2012-09-06 2023-11-14 Japanese Foundation For Cancer Research Information processing apparatus, information processing method, and program
US10223765B2 (en) 2012-09-06 2019-03-05 Sony Corporation Information processing apparatus, information processing method, and program
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof
JPWO2015098342A1 (en) * 2013-12-26 2017-03-23 浜松ホトニクス株式会社 Image processing method, image processing apparatus, image processing program, and storage medium storing image processing program
JP2018503906A (en) * 2014-12-30 2018-02-08 ベンタナ メディカル システムズ, インコーポレイテッド System and method for co-expression analysis in immunoscore calculation
JP7092503B2 (en) 2014-12-30 2022-06-28 ベンタナ メディカル システムズ, インコーポレイテッド Systems and methods for co-expression analysis
CN106725564A (en) * 2015-11-25 2017-05-31 东芝医疗系统株式会社 Image processing apparatus and image processing method
JP2017097836A (en) * 2015-11-25 2017-06-01 東芝メディカルシステムズ株式会社 Image processor, image processing method, and ultrasonic diagnostic apparatus
JP2019533805A (en) * 2016-10-07 2019-11-21 ベンタナ メディカル システムズ, インコーポレイテッド Digital pathology system and associated workflow for providing visualized slide-wide image analysis
US11010892B2 (en) 2016-10-07 2021-05-18 Ventana Medical Systems, Inc. Digital pathology system and associated workflow for providing visualized whole-slide image analysis
JPWO2019039035A1 (en) * 2017-08-25 2020-02-27 富士フイルム株式会社 Learning device for discriminator, method and program, and discriminator
US11328522B2 (en) 2017-08-25 2022-05-10 Fujifilm Corporation Learning device, method, and program for discriminator, and discriminator
WO2019039035A1 (en) * 2017-08-25 2019-02-28 富士フイルム株式会社 Learning device, method, and program for determiner, and determiner
WO2019181845A1 (en) * 2018-03-19 2019-09-26 一般財団法人未来科学研究所 Biological tissue analyzing device, biological tissue analyzing program, and biological tissue analyzing method

Similar Documents

Publication Publication Date Title
JP2013174823A (en) Image processing device, microscope system and image processing method
JP5490568B2 (en) Microscope system, specimen observation method and program
EP3776458B1 (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
JP2022534157A (en) Computer-assisted review of tumors on histological images and postoperative tumor margin assessment
RU2553078C2 (en) Method of microdissection and information processing system
US9522396B2 (en) Apparatus and method for automatic detection of pathogens
JP5508792B2 (en) Image processing method, image processing apparatus, and image processing program
JP6053327B2 (en) Microscope system, specimen image generation method and program
JP6120675B2 (en) Microscope system, image generation method and program
JP2011002341A (en) Microscopic system, specimen observation method, and program
JP2024019639A (en) Microscope system, program, and projection image generation method
US11449973B2 (en) Enhanced extended depth of focusing on biological samples
WO2013132998A1 (en) Image processing device, microscope system, and image processing method
JP2010540931A (en) Method and system using multiple wavelengths for processing biological specimens
US20230266819A1 (en) Annotation data collection using gaze-based tracking
JP2010261762A (en) Specimen preparing device and specimen preparing method
WO2018128091A1 (en) Image analysis program and image analysis method
US20200074628A1 (en) Image processing apparatus, imaging system, image processing method and computer readable recoding medium
JP2008304205A (en) Spectral characteristics estimation apparatus and spectral characteristics estimation program
EP4396792A1 (en) System and method for identifying and counting biological species
JP2013113818A (en) Image processing device, microscope system, image processing method and image processing program
US8929639B2 (en) Image processing apparatus, image processing method, image processing program, and virtual microscope system
WO2021166089A1 (en) Evaluation assistance device, evaluation assistance system, evaluation assistance method, and program