JP7181000B2 - BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD - Google Patents
BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD Download PDFInfo
- Publication number
- JP7181000B2 JP7181000B2 JP2018099386A JP2018099386A JP7181000B2 JP 7181000 B2 JP7181000 B2 JP 7181000B2 JP 2018099386 A JP2018099386 A JP 2018099386A JP 2018099386 A JP2018099386 A JP 2018099386A JP 7181000 B2 JP7181000 B2 JP 7181000B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- membrane
- biological tissue
- images
- estimator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/22—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
- G01N23/225—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
- G01N23/2251—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Description
本発明は生物組織画像処理装置及び方法に関する。 The present invention relates to a biological tissue image processing apparatus and method.
生物組織の三次元構造を解析し又はそれをイメージングするための手法として、三次元顕微鏡法が知られている。三次元顕微鏡法においては、一般に、電子顕微鏡又は光学顕微鏡が用いられる。例えば、走査型電子顕微鏡(Scanning Electron Microscope)を用いた三次元顕微鏡法として、Focused Ion Beam SEM(FIB-SEM)法、Serial Block-Face SEM(SBF-SEM)法、及び、連続切片SEM(Serial Section SEM)法(非特許文献1を参照)が提案されている。連続切片SEM法は、アレイトモグラフィ(Array-tomography)法とも呼ばれている。 Three-dimensional microscopy is known as a technique for analyzing or imaging the three-dimensional structure of biological tissue. Electron or optical microscopes are generally used in three-dimensional microscopy. For example, as three-dimensional microscopy methods using a scanning electron microscope (Scanning Electron Microscope), Focused Ion Beam SEM (FIB-SEM) method, Serial Block-Face SEM (SBF-SEM) method, and serial section SEM (Serial Section SEM) method (see Non-Patent Document 1) has been proposed. The serial section SEM method is also called array-tomography method.
連続切片SEM法では、生物組織の試料から、深さ方向に連なる複数の試料切片(極薄片)が切り出され、それらが基板上に配列される。基板上の各試料切片が走査型電子顕微鏡により順次観察され、これにより複数の画像が取得される。取得された複数の画像に基づいて、生物組織に含まれる特定の器官(細胞、ミトコンドリア、核等)の三次元構造が解析され、あるいは、それがイメージングされる。連続切片SEM法によれば、既に観察した試料切片を再び観察することが可能である。 In the continuous section SEM method, a plurality of sample sections (ultrathin sections) are cut out from a biological tissue sample and arranged on a substrate. Each sample section on the substrate is sequentially observed by a scanning electron microscope, thereby acquiring a plurality of images. Based on a plurality of acquired images, the three-dimensional structure of specific organs (cells, mitochondria, nuclei, etc.) contained in biological tissue is analyzed or imaged. According to the serial section SEM method, it is possible to re-observe a sample section that has already been observed.
上記のように、生物組織について、その三次元構造を解析又はイメージングする場合、生物組織における複数の深さに位置する面又は層が観察され、これにより複数の深さに対応する複数の画像が取得される。その上で、各画像に対して、注目要素(Target Component)を検出又は識別する処理が適用される。ここで、注目要素は、画像処理に際して、検出対象又は識別対象となる特定の組織構成要素(又は細胞構成要素)である。最終的な解析対象又は画像化対象が注目要素とされてもよいし、最終的な解析対象又は画像化対象とは別の組織構成要素が注目要素とされてもよい。後者の例を挙げると、細胞膜に囲まれた細胞内腔(細胞質)の画像化に際しては、最初に、細胞膜が注目要素として検出又は識別される。 As described above, when analyzing or imaging the three-dimensional structure of a biological tissue, planes or layers located at multiple depths in the biological tissue are observed, thereby generating multiple images corresponding to the multiple depths. is obtained. Then, a process of detecting or identifying a target component is applied to each image. Here, the target element is a specific tissue component (or cell component) to be detected or identified during image processing. The final target of analysis or imaging may be the target element, or a tissue component different from the final target of analysis or imaging may be the target element. To give an example of the latter, when imaging a cell lumen (cytoplasm) surrounded by a cell membrane, the cell membrane is first detected or identified as an element of interest.
多数の画像において注目要素を検出又は識別する処理の全部を手作業で行うのは非常に大変である。その処理を機械学習型の推定器に行わせることが考えられる。しかし、生物組織は非常に複雑な三次元構造を有しており、また、それには個体差もある。推定結果としての複数の注目要素画像を、目視観察しながら、必要に応じて、マニュアル修正することが必要となる。その作業を支援する手段又はツールの実現が望まれている。なお、時間軸上において並ぶ複数の注目要素画像についても、それらのマニュアル修正を支援する手段又はツールの実現が望まれている。 Manually performing the entire process of detecting or identifying elements of interest in a large number of images is very tedious. It is conceivable to have a machine learning type estimator perform the processing. However, biological tissue has a very complicated three-dimensional structure, and it also has individual differences. It is necessary to perform manual correction as necessary while visually observing a plurality of target element images as estimation results. Implementation of means or tools to support the work is desired. It is desired to implement a means or tool for assisting manual correction of a plurality of target element images arranged on the time axis.
本発明の目的は、生物組織画像処理において、空間軸上又は時間軸上で連なる複数の注目要素画像に対するマニュアル修正を支援することにある。あるいは、本発明の目的は、生物組織画像処理において、複数の注目要素画像に対するマニュアル修正を効率的に又は正確に行えるようにすることにある。 SUMMARY OF THE INVENTION An object of the present invention is to support manual correction of a plurality of target element images that are continuous on the spatial axis or the time axis in biological tissue image processing. Another object of the present invention is to enable efficient or accurate manual correction of a plurality of target element images in biological tissue image processing.
本発明に係る生物組織画像処理装置は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含み、前記複数の元画像から複数の注目要素画像を生成する画像生成部と、前記複数の注目要素画像の中からユーザー選択された空間軸上又は時間軸上の位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の注目要素画像へ反映させる作業支援部と、を含むものである。 A biological tissue image processing apparatus according to the present invention applies a process of estimating a target element contained in the biological tissue to a plurality of original images that are consecutively obtained on the spatial axis or the time axis obtained by observing the biological tissue. An image generator that includes a machine learning type estimator and generates a plurality of target element images from the plurality of original images, and a user-selected position on the spatial axis or the time axis from the plurality of target element images and a work support unit for retrieving a specific attention element image corresponding to and displaying it as a work target image, and for reflecting a user's modification of the work target image to the specific attention element image.
本発明に係る生物組織画像処理方法は、機械学習型の膜推定器に対して、生物組織の顕微鏡観察により得られた複数の深さに対応する複数の元画像を入力し、これにより前記複数の深さに対応する複数の膜尤度マップを得る工程と、前記複数の膜尤度マップに基づいて、前記複数の深さに対応する複数の膜画像を得る工程と、前記複数の膜画像の中からユーザーにより選択された深さに対応する特定の膜画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の膜画像へ反映させる工程と、を含むものである。 In the biological tissue image processing method according to the present invention, a plurality of original images corresponding to a plurality of depths obtained by microscopic observation of a biological tissue are input to a machine-learning-type membrane estimator. obtaining a plurality of membrane likelihood maps corresponding to the depths of the membrane, obtaining a plurality of membrane images corresponding to the plurality of depths based on the plurality of membrane likelihood maps, and the plurality of membrane images extracting a specific membrane image corresponding to the depth selected by the user from among the images, displaying it as an image to be worked, and reflecting the user's modification of the image to be worked on to the specific membrane image; includes.
上記方法は、ハードウエアの機能又はソフトウエアの機能として実現され、後者の場合、その機能を実行するプログラムが、ネットワーク又は可搬型記憶媒体を介して、情報処理装置へインストールされる。情報処理装置の概念には、パーソナルコンピュータ、電子顕微鏡システム、光学顕微鏡システム等が含まれる。 The above method is implemented as a hardware function or a software function, and in the latter case, a program for executing the function is installed in the information processing apparatus via a network or a portable storage medium. The concept of information processing apparatus includes a personal computer, an electron microscope system, an optical microscope system, and the like.
本発明によれば、生物組織画像処理において、複数の注目要素画像に対するマニュアル修正を支援できる。あるいは、本発明によれば、生物組織画像処理において、複数の注目要素画像に対するマニュアル修正を効率的に又は正確に行える。 Advantageous Effects of Invention According to the present invention, manual correction of a plurality of target element images can be supported in biological tissue image processing. Alternatively, according to the present invention, in biological tissue image processing, manual correction can be efficiently or accurately performed on a plurality of target element images.
(A)実施形態の概要
実施形態に係る生物組織画像処理装置には、機械学習型の推定器を含む画像生成部、及び、作業支援部が含まれる。機械学習型の推定器は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して、生物組織に含まれる注目要素(より正確には注目要素の像)を推定する処理を適用するものである。この処理により、複数の元画像から複数の注目要素画像が生成される。作業支援部は、複数の注目要素画像の中からユーザー選択された位置に対応する特定の注目要素画像を取り出して、それを作業対象画像として表示し、作業対象画像に対するユーザーの修正を特定の注目要素画像へ反映させるものである。
(A) Outline of Embodiment A biological tissue image processing apparatus according to an embodiment includes an image generation unit including a machine learning estimator, and a work support unit. A machine-learning estimator extracts an element of interest (more precisely, an image of an element of interest) included in the biological tissue for a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue. is applied. Through this processing, a plurality of target element images are generated from a plurality of original images. The work support unit extracts a specific attention element image corresponding to a position selected by the user from among the plurality of attention element images, displays it as an image to be worked, and performs correction of the image to be worked by the user. This is reflected in the element image.
上記構成によれば、空間軸上又は時間軸上の位置を選択すると、選択された位置に対応する特定の注目要素画像が作業対象画像として表示される。表示された作業対象画像を修正すれば、その修正が作業対象画像つまり特定の注目要素画像に反映される。修正作業過程において、例えば、空間軸上又は時間軸上で隣接する2つの注目要素画像を対比したい場合、空間軸上又は時間軸上で隣接する2つの位置を交互に選択すればよい。具体的には、例えば、空間軸上のある深さから浅い側又は深い側へ、深さを順次選択しながら、表示された個々の作業対象画像に対して必要な修正を施すようにしてもよい。このように、上記構成によれば、複数の位置に対応する複数の注目要素画像を修正する場合に、作業効率を高められ、あるいは、作業の正確性を高められる。実施形態においては、空間軸としての深さ軸上において並ぶ複数の元画像が推定器に入力されるが、時間軸上において並ぶ複数の画像が推定器に入力されてもよい。 According to the above configuration, when a position on the spatial axis or the time axis is selected, a specific target element image corresponding to the selected position is displayed as the work target image. If the displayed image for work is modified, the modification is reflected in the image for work, that is, the specific focused element image. In the correction work process, for example, when it is desired to compare two target element images adjacent on the spatial axis or temporal axis, two adjacent positions on the spatial axis or temporal axis may be alternately selected. Specifically, for example, the depth may be selected sequentially from a certain depth on the spatial axis to the shallow side or the deep side, and necessary corrections may be made to the displayed individual work target images. good. Thus, according to the above configuration, when correcting a plurality of target element images corresponding to a plurality of positions, it is possible to improve work efficiency or improve work accuracy. In the embodiment, a plurality of original images aligned on the depth axis as the spatial axis are input to the estimator, but a plurality of images aligned on the time axis may be input to the estimator.
注目要素は、特定の組織構成要素又は特定の細胞構成要素であり、実施形態において、注目要素は細胞膜である。細胞膜によって囲まれた細胞内腔(細胞質)、細胞内の小器官(オルガネラ)等が注目要素とされてもよい。機械学習型の推定器は、例えばCNNで構成されるが、他のタイプの機械学習型の推定器が利用されてもよい。実施形態において、作業支援部は、推定器の学習過程で推定器に与えられる正解画像を生成する場合においても利用され得る。実施形態においては、連続切片SEM法(アレイトモグラフィ法)により複数の元画像が取得されているが、FIB-SEM法、SBF-SEM法、その他の手法により複数の元画像が取得されてもよい。各注目要素画像を修正するユーザーは、通常、生物組織について一定の知識を有する専門家である。他の者において各注目要素画像が修正されてもよい。 The element of interest is a particular tissue component or a particular cellular component, and in embodiments the element of interest is a cell membrane. A cell lumen (cytoplasm) surrounded by a cell membrane, an intracellular organelle (organelle), and the like may be the elements of interest. The machine-learning estimator is for example a CNN, but other types of machine-learning estimators may be used. In an embodiment, the work support unit can also be used when generating a correct image to be given to the estimator during the learning process of the estimator. In the embodiment, a plurality of original images are acquired by serial section SEM method (array tomography method), but even if a plurality of original images are acquired by FIB-SEM method, SBF-SEM method, or other methods, good. A user who modifies each element-of-interest image is usually an expert with some knowledge of biological tissue. Each attention element image may be modified by others.
実施形態において、推定器は、複数の元画像に基づいて複数の注目要素尤度マップを生成し、画像生成部は、複数の注目要素尤度マップに基づいて複数の注目要素画像を生成する画像生成器を含む。すなわち、実施形態において、画像生成部は、推定器と、画像生成器と、により構成される。それら全体が機械学習型推定部により構成されてもよい。画像生成器は例えば二値化器により構成される。 In an embodiment, the estimator generates a plurality of element-of-interest likelihood maps based on a plurality of original images, and the image generator generates a plurality of element-of-interest images based on the plurality of element-of-interest likelihood maps. Contains a generator. That is, in the embodiment, the image generator is composed of an estimator and an image generator. All of them may be configured by a machine learning type estimator. The image generator is composed of, for example, a binarizer.
実施形態において、作業支援部は、作業対象画像を含む作業ウインドウを表示し、作業ウインドウには、位置を選択する際に操作される位置選択用表示要素が含まれる。この構成によれば、位置選択用表示要素を操作することにより、位置を簡便に選択できる。位置選択用表示要素として、所定の軸上をスライド運動する表示要素としてのスライダを有するものを採用するのが望ましい。そのような構成によれば、選択する位置を直感的に認識し易くなり、操作性を向上できる。実施形態において、位置選択用表示要素は深さ選択用表示要素である。 In the embodiment, the work support unit displays a work window including a work target image, and the work window includes position selection display elements that are operated when selecting a position. According to this configuration, the position can be easily selected by operating the display element for position selection. As the display element for position selection, it is desirable to employ a slider as a display element that slides along a predetermined axis. With such a configuration, it becomes easier to intuitively recognize the position to be selected, and operability can be improved. In embodiments, the position selection display element is a depth selection display element.
実施形態において、作業ウインドウには、更に、作業対象画像の内容を追加する際に操作される追加用表示要素と、作業対象画像の内容を削除する際に操作される削除用表示要素と、が含まれる。例えば、作業対象画像として細胞膜を示す膜画像が表示されている状態において、追加用表示要素の操作によって膜画像中における膜途切れ部分に複数の膜画素が補間され、一方、削除用表示要素の操作によって膜画像中における誤推定部分(例えばミトコンドリアの膜に相当する複数の膜画素)が削除される。 In the embodiment, the work window further includes an addition display element that is operated when adding the content of the work target image and a deletion display element that is operated when deleting the content of the work target image. included. For example, in a state in which a membrane image showing cell membranes is displayed as an image to be worked on, a plurality of membrane pixels are interpolated in membrane discontinuities in the membrane image by operating the display element for addition, while the display element for deletion is operated. removes erroneously estimated portions (for example, a plurality of membrane pixels corresponding to mitochondrial membranes) in the membrane image.
実施形態において、作業ウインドウには、更に、作業対象画像に対して所定単位でラベリングを行う際に操作されるラベリング用表示要素が含まれる。ラベリングは、三次元の繋がり関係を管理するための属性付け、つまりラベル付けである。例えば、ある深さにおける細胞内領域と他の深さにおける細胞内領域が同じ細胞に属すると判断された場合、それらの領域に対して同じラベルが与えられる。その作業はアノテーションに相当するものである。実施形態においては、作業対象画像の修正を行いつつ、ラベリングを行えるので、作業効率を高められる。ラベリングが自動的に行われてもよい。あるいは、ラベリングに際して1又は複数の候補が自動的に選定及び提示されてもよい。 In the embodiment, the work window further includes labeling display elements that are operated when labeling the work target image in predetermined units. Labeling is attribution, that is, labeling, for managing three-dimensional connections. For example, if an intracellular region at one depth and an intracellular region at another depth are determined to belong to the same cell, the same label is given to those regions. The work is equivalent to annotation. In the embodiment, since the labeling can be performed while correcting the image to be worked on, work efficiency can be improved. Labeling may be done automatically. Alternatively, one or more candidates may be automatically selected and presented for labeling.
実施形態において、作業支援部は、作業対象画像の表示に際し、その背景画像として、選択された位置に対応する特定の元画像を同時に表示する機能を有する。この構成によれば、元画像を参照しながら、作業対象画像を修正し又はラベル付けすることが可能となるので、その作業性又はその正確性を高められる。合成表示される元画像及び作業支援画像を相互に識別できるように、望ましくは、それらの内で一方の画像が白黒で表示され、それらの内で他方がカラーで表示される。 In the embodiment, the work support unit has a function of simultaneously displaying a specific original image corresponding to the selected position as a background image when displaying the work target image. According to this configuration, it is possible to correct or label the image to be worked while referring to the original image, so that workability or accuracy can be improved. Preferably, one of the images is displayed in black and white and the other is displayed in color so that the original image and the work support image to be synthesized and displayed can be distinguished from each other.
実施形態において、作業支援部は、作業対象画像を表示する機能に加えて、選択された位置に対応する特定の元画像を表示する機能、及び、選択された位置に対応する特定の注目要素尤度マップを表示する機能を有する。元画像が表示されれば、その元画像を参考にしながら、作業対象画像を修正することが可能となる。また、注目要素尤度マップが表示されれば、推定器の推定結果の妥当性や二値化処理の結果等の妥当性を評価することが可能となる。実施形態においては、作業支援部により、複数の元画像からなる第1の画像スタック、複数の注目要素尤度マップからなる第2の画像スタック、及び、複数の注目要素画像からなる第3の画像スタック、の3つのスタックが相互に対応付けられながら管理される。 In the embodiment, in addition to the function of displaying the image to be worked on, the work support unit has a function of displaying a specific original image corresponding to the selected position, and a function of displaying a specific target element likelihood corresponding to the selected position. It has a function to display the degree map. When the original image is displayed, it is possible to correct the image to be worked on while referring to the original image. Also, if the target element likelihood map is displayed, it becomes possible to evaluate the validity of the estimation result of the estimator, the validity of the result of the binarization processing, and the like. In the embodiment, the work support unit generates a first image stack consisting of a plurality of original images, a second image stack consisting of a plurality of element-of-interest likelihood maps, and a third image consisting of a plurality of element-of-interest likelihood maps. Stacks are managed while being associated with each other.
実施形態において、作業支援部は、選択された位置に対応する、特定の元画像、特定の注目要素尤度マップ、及び、特定の注目要素画像の内のいずれかの画像の表示に際し、当該画像に対して、当該画像と同じ種類の画像であって、選択された位置とは異なる位置に対応する他の画像を重ねて表示する機能を有する。空間軸上又は時間軸上の組織の連続性から、当該軸上において並ぶ複数の画像を同時に重ねて表示すれば、相互の対比から、修正の要否を的確に判断することが可能となる。また、そのような重合表示によれば、ラベル付けを正確に行うことが可能となる。重合表示に際しては、少なくとも上側の画像の透過度を可変できるように構成するのが望ましい。空間軸上又は時間軸上において連なる3枚以上の画像が重ね合わされてもよい。 In the embodiment, when displaying any one of the specific original image, the specific target element likelihood map, and the specific target element image corresponding to the selected position, the work support unit displays the image , another image that is of the same type as the image and that corresponds to a position different from the selected position is superimposed and displayed. From the continuity of tissue on the spatial axis or the time axis, if a plurality of images aligned on the axis are displayed in a superimposed manner, it is possible to accurately judge the necessity of correction from the mutual comparison. In addition, such a superimposed display enables accurate labeling. In overlapping display, it is desirable to configure so that the transparency of at least the upper image can be varied. Three or more consecutive images may be superimposed on the spatial axis or the temporal axis.
実施形態において、作業支援部は、複数の注目要素画像に対するラベル付け結果に基づいて、そのラベル付け結果を表す三次元像を作成しその三次元像を表示する三次元像処理部を有する。この構成によれば、三次元像を観察しながら、作業対象画像の修正やラベル付け結果の修正を行える。三次元像によれば、各深さで行われた修正やラベル付けの結果の適否を容易に判断することが可能となる。例えば、ラベル付けが誤っている場合、三次元像が不自然に歪んだり、三次元像において不自然な欠損部又は突起部が生じたりする。そのような情報に基づいてラベル付け結果等が修正される。 In the embodiment, the work support unit has a 3D image processing unit that creates a 3D image representing the labeling results based on the labeling results for a plurality of target element images and displays the 3D image. According to this configuration, it is possible to correct the image to be worked on and the result of labeling while observing the three-dimensional image. The three-dimensional image makes it possible to easily judge the adequacy of the corrections and labeling done at each depth. For example, incorrect labeling can result in unnatural distortion of the three-dimensional image, or unnatural defects or protrusions in the three-dimensional image. Labeling results and the like are modified based on such information.
実施形態において、作業支援部は、複数の注目要素画像の中における第1の注目要素画像に対するラベル付け結果に基づいて、複数の注目要素画像の中における第2の注目要素画像の中から1又は複数のラベル付け候補を選定する候補選定部を有する。この構成は、空間軸又は時間軸上の組織の連続性を前提として、ある位置でのラベル付け結果を、他の位置でのラベル付けに役立てるものである。この構成によれば、ラベル付けに際してのユーザーの負担が軽減される。 In the embodiment, the work support unit selects one or It has a candidate selection unit that selects a plurality of labeling candidates. This configuration assumes tissue continuity on the spatial or temporal axis, and the labeling result at one position is useful for labeling at another position. This configuration reduces the user's burden in labeling.
実施形態において、候補選定部は、第1の注目要素画像においてラベル付けされた部分と、第2の注目要素画像に含まれる各ラベル付け候補と、の間における類似度に基づいて、各ラベル付け候補の表示態様を変化させる。この構成によれば、各ラベル付け候補の表示態様から、繋がり可能性の大小を直感的に認識できるので、ユーザーによるラベル付けを支援することが可能となる。 In the embodiment, the candidate selection unit performs each labeling based on the degree of similarity between the labeled portion in the first target element image and each labeling candidate included in the second target element image. Change the display mode of candidates. According to this configuration, the degree of connection possibility can be intuitively recognized from the display mode of each labeling candidate, so it is possible to assist the user in labeling.
実施形態に係る生物組織画像処理装置は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して生物組織に含まれる特定の膜を推定する処理を適用し、これにより複数の位置に対応する複数の第1膜尤度マップを生成する機械学習型の第1膜推定器と、第1膜推定器とは異なるタイプの機械学習型の膜推定器であって、複数の元画像に対して特定の膜を推定する処理を適用し、これにより複数の第2膜尤度マップを生成する機械学習型の第2膜推定器と、複数の第1膜尤度マップに基づいて複数の位置に対応する複数の膜画像を生成する画像生成器と、複数の注目要素画像の中からユーザーにより選択された位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示する作業支援部であって、複数の第1膜尤度マップと複数の第2膜尤度マップの差分に基づいて作業対象画像に含まれる修正候補を識別表示する作業支援部と、を含むものである。この構成は、2種類の機械学習型の膜推定器を併用するものである。2つの膜推定器の推定結果が解離している部分について、ユーザーに対して修正を促せる。なお、膜以外の注目要素が推定対象とされてもよい。3種類以上の膜推定器が利用されてもよい。 A biological tissue image processing apparatus according to an embodiment applies a process of estimating a specific film included in a biological tissue to a plurality of original images obtained by observing the biological tissue and continuing on the spatial axis or the time axis. , thereby generating a plurality of first membrane likelihood maps corresponding to a plurality of positions, and a machine learning membrane estimator of a different type from the first membrane estimator. a machine-learning second membrane estimator that applies a process of estimating a specific membrane to a plurality of original images and thereby generates a plurality of second membrane likelihood maps; a plurality of first membrane likelihood maps; An image generator for generating a plurality of film images corresponding to a plurality of positions based on a degree map; A work support unit for displaying as a work target image, the work support unit identifying and displaying correction candidates included in the work target image based on differences between the plurality of first membrane likelihood maps and the plurality of second membrane likelihood maps. and This configuration uses two types of machine-learning film estimators together. The user can be urged to correct the part where the estimation results of the two membrane estimators are dissociated. Note that an element of interest other than the film may be an estimation target. More than two types of film estimators may be used.
上記の推定器を含むN(但しNは3以上の整数)個の注目要素推定器を設け、N個の注目要素推定器から出力されたN個の注目要素尤度マップに基づいて作業対象画像に含まれる修正候補を特定しそれを識別表示してもよい。その場合、N個の注目要素尤度マップに基づいて、画素ごとに注目要素尤度のばらつき情報を演算し、そのばらつき情報に基づいて修正候補となる画素を特定するようにしてもよい。ばらつき情報は例えば標準偏差である。 N target element estimators including the above estimators (where N is an integer of 3 or more) are provided, and based on the N target element likelihood maps output from the N target element estimators, a work target image may be identified and identified. In this case, based on the N target element likelihood maps, the target element likelihood variation information may be calculated for each pixel, and correction candidate pixels may be specified based on the variation information. Variation information is, for example, standard deviation.
実施形態に係る生物組織画像処理装置は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して生物組織に含まれる細胞膜を推定する処理を適用し、これにより複数の位置に対応する複数の膜尤度マップを生成する機械学習型の第1推定器と、第1推定器と一体化又は別体化された推定器であって、複数の元画像に対して生物組織に含まれるオルガネラを推定する処理を適用し、これにより複数のオルガネラ尤度マップを生成する機械学習型の第2推定器と、複数のオルガネラ尤度マップに基づいて、複数の膜尤度マップを補正する補正部と、補正後の複数の膜尤度マップに基づいて複数の位置に対応する複数の膜画像を生成する画像生成器と、複数の膜画像の中からユーザーにより選択された位置に対応する特定の膜画像を取り出してそれを作業対象画像として表示する作業支援部と、を含むものである。この構成は、細胞膜以外の注目要素としてのオルガネラ(細胞内小器官)を別途推定し、その推定結果を膜尤度マップの補正で利用するものである。細胞膜の推定に際しては、オルガネラ又はその膜が誤認対象となりやすい。上記構成は、オルガネラ又はその膜を別途推定し、その推定結果に基づいて、膜尤度マップを優良化するものである。単一の推定器が第1推定器及び第2推定器として機能してもよい。第1推定器と第2推定器がそれぞれ別々の推定器により構成されてもよい。なお、細胞膜とオルガネラとの組み合わせ以外の組み合わせに対して、上記同様の構成を適用することも考えられる。3つ以上の推定対象が並列的に推定されてもよい。 A biological tissue image processing apparatus according to an embodiment applies a process of estimating a cell membrane contained in a biological tissue to a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue, A machine learning type first estimator that generates a plurality of membrane likelihood maps corresponding to a plurality of positions by and an estimator integrated or separate from the first estimator, wherein A machine learning type second estimator that generates a plurality of organelle likelihood maps by applying a process of estimating organelles contained in a biological tissue, and a plurality of membranes based on the plurality of organelle likelihood maps. A correction unit that corrects the likelihood map, an image generator that generates a plurality of membrane images corresponding to a plurality of positions based on the plurality of corrected membrane likelihood maps, and a user selects from among the plurality of membrane images. a work support unit for extracting a specific film image corresponding to the determined position and displaying it as a work target image. In this configuration, organelles (organelles in cells) as elements of interest other than cell membranes are separately estimated, and the estimation results are used in correcting the membrane likelihood map. When estimating cell membranes, organelles or their membranes are likely to be misidentified. The above configuration separately estimates the organelle or its membrane, and improves the membrane likelihood map based on the estimation result. A single estimator may function as the first estimator and the second estimator. The first estimator and the second estimator may be composed of separate estimators. It is also conceivable to apply the same configuration as described above to combinations other than the combination of cell membranes and organelles. Three or more estimation targets may be estimated in parallel.
実施形態においては、推定器の学習過程には、一次学習過程及び二次学習過程が含まれ、二次学習過程では作業支援部による修正を経た複数の注目要素画像が推定器に与えられる。すなわち、推定器の学習過程及びその後の画像処理過程の両方において作業支援部が機能する。 In the embodiment, the estimator's learning process includes a primary learning process and a secondary learning process, and in the secondary learning process, the estimator is provided with a plurality of target element images that have been modified by the work support unit. That is, the work support unit functions both in the learning process of the estimator and in the subsequent image processing process.
(B)実施形態の詳細
図1には、実施形態に係る生物組織画像処理システムが示されている。図示された生物組織画像処理システム10は、生物組織について、三次元構造の解析やイメージングを行うためのシステムである。この生物組織画像処理システムを利用して、例えば、人体又は動物の脳内の神経細胞を三次元的に表現した画像が生成される。生物中の任意の組織、器官、その他が解析対象又はイメージング対象になり得る。
(B) Details of Embodiment FIG. 1 shows a biological tissue image processing system according to an embodiment. The illustrated biological tissue image processing system 10 is a system for analyzing and imaging the three-dimensional structure of biological tissue. Using this biological tissue image processing system, for example, an image that expresses nerve cells in the brain of a human body or an animal three-dimensionally is generated. Any tissue, organ, etc. in an organism can be an analysis target or an imaging target.
図1に示す構成例において、生物組織画像処理システム10は、試料前処理装置12、連続切片作成装置14、走査型電子顕微鏡(SEM)16、及び、生物組織画像処理装置18によって構成されている。
In the configuration example shown in FIG. 1, the biological tissue image processing system 10 includes a
試料前処理装置12は、生体から取り出された組織20に対して前処理を行う装置であり、又は、その前処理のための各種の器具に相当する。前処理として、固定処理、染色処理、導電処理、樹脂包埋処理、整形処理等が挙げられる。それらの全部又は一部が、必要に応じて、実施される。染色処理においては四酸化オスミウム、酢酸ウラン、クエン酸鉛等が用いられてもよい。染色処理が以下に説明する各試料切片に対して行われてもよい。前処理に含まれる一部又は全部の工程が手作業によって行われてもよい。
The
連続切片作成装置14は、SEM16の外部に設けられ、あるいは、SEM16の内部に設けられる。連続切片作成装置14により、前処理後のキュービック状の試料から、深さ方向(Z方向)に並ぶ複数の試料切片24が切り出される。その際には、ウルトラミクロトーム等の装置が利用されてもよい。その作業が手作業で行われてもよい。複数の試料切片24により、試料切片群22が構成される。実際には、切り出された複数の試料切片は、基板28上に所定の配列で配置される。基板28は、例えば、ガラス基板、シリコーン基板である。図1においては、基板28上に、2つの試料切片列からなる試料切片アレイ22Aが構成されているが、それは例示に過ぎない。基板28及び試料切片アレイ22Aにより、試料ユニット26が構成される。
The
ちなみに、個々の試料切片24における縦及び横のサイズは、例えば、nmオーダー又はμmオーダーである。それ以上のサイズ(例えばmmオーダーのサイズ)を有する試料切片24が作製されてもよい。個々の試料切片24の厚み(Z方向のサイズ)は、例えば、数nm~数百nmであり、実施形態においては、その厚みは例えば30~70nmの範囲内である。本願明細書において挙げる数値はいずれも例示である。
Incidentally, the vertical and horizontal sizes of each
SEM16は、電子銃、偏向器(走査器)、対物レンズ、試料室、検出器34等を有している。試料室内には、試料ユニット26を保持するステージ、及び、そのステージを移動させる移動機構、が設けられている。SEM16内の制御部により、移動機構の動作つまりステージの移動が制御される。具体的には、試料切片アレイ22Aの中から選択された特定の試料切片24に対して電子ビーム30が照射される。照射位置を走査(例えばラスタースキャン)させながら、各照射位置から放出される反射電子32が検出器34で検出される。これによりSEM画像が形成される。これが試料切片24ごとに実行される。その結果として、複数の試料切片24の観察結果である複数のSEM画像38が得られる。複数のSEM画像38はSEM画像スタック36を構成する。
The
なお、Z方向に直交する方向をX方向と定義し、Z方向及びX方向に直交する方向をY方向と定義した場合、望ましくは、X方向観察範囲及びY方向観察範囲が互いに一致するように、各試料切片24における観察範囲(電子ビーム二次元走査範囲)が定められる。反射電子32ではなく、二次電子等が検出されてもよい。SEM16内の制御部は、電子ビーム30を形成するための加速電圧を可変する機能も備えている。生物組織、生物組織中の観察対象、観察目的等に応じて、電子ビーム形成時の加速電圧が切り替えられてもよい。一般に、後述する膜推定器の学習過程及びその後の生物組織の解析過程では同じ加速電圧が設定される。
If the direction orthogonal to the Z direction is defined as the X direction, and the direction orthogonal to the Z direction and the X direction is defined as the Y direction, it is preferable that the observation range in the X direction and the observation range in the Y direction match each other. , an observation range (electron beam two-dimensional scanning range) in each
上記のSEM画像スタック36は、Z方向における複数の深さ(深さ軸上の複数の深さ)に対応する(換言すればデータ記憶空間内でZ方向に並ぶ)複数のSEM画像38により構成される。各SEM画像38は、生物組織画像処理装置18側から見て、元画像又は入力画像である。各SEM画像38は電子データであり、各SEM画像がSEM16から生物組織画像処理装置18へ、ネットワーク又は可搬型記憶媒体を介して、伝送される。
The
生物組織画像処理装置18は、図示の構成例において、パーソナルコンピュータによって構成されている。生物組織画像処理装置18がSEM16内に組み込まれてもよく、生物組織画像処理装置18がSEM16等を制御するシステムコンピュータ内に組み込まれてもよい。生物組織画像処理装置18によりSEM16が制御されてもよい。
The biological tissue image processing apparatus 18 is configured by a personal computer in the illustrated configuration example. Biological tissue imaging device 18 may be incorporated within
生物組織画像処理装置18は、本体40、表示器46及び入力器48を有している。本体40が有する複数の機能については、後に、図2以降の各図に基づいて詳しく説明する。図1においては、本体40が発揮する代表的な2つの機能(膜推定機能及び加工機能)がそれぞれブロックとして表現されている。具体的には、本体40は、機械学習型の膜推定器42及び加工ツールユニット(作業支援部)44を有している。表示器46は、LCD、有機EL表示デバイス等によって構成される。入力器48は、ユーザーによって操作されるキーボード、ポインティングデバイス等によって構成される。
The biological tissue image processing device 18 has a
図2には、本体40についての第1構成例が示されている。本体40は、機械学習型の膜推定器42、二値化器(画像生成器)50、加工ツールユニット(作業支援部)44、ボリュームデータ処理部56、等を有する。加工ツールユニット44は、修正部52及びラベリング処理部54を有している。ボリュームデータ処理部56は、解析部56A及びレンダリング部56Bを有している。
FIG. 2 shows a first configuration example of the
図2に示される各構成の実体は、ユーザーの作業又は行為に相当する部分を除いて、基本的に、CPU、GPU等の汎用プロセッサによって実行されるソフトウエアつまりプログラムである。もっとも、それらの構成の一部又は全部が専用プロセッサ又は他のハードウエアによって構成されてもよい。生物組織画像処理装置が有する機能の全部又は一部がネットワーク上に存在する1又は複数の情報処理デバイスにより実行されてもよい。以下、本体40内の各構成について詳述する。
The entity of each configuration shown in FIG. 2 is basically software, that is, a program executed by a general-purpose processor such as CPU, GPU, etc., except for the portion corresponding to user's work or action. However, part or all of those configurations may be configured by dedicated processors or other hardware. All or part of the functions of the biological tissue image processing apparatus may be executed by one or more information processing devices present on a network. Each configuration in the
膜推定器42は、膜推定手段として機能する。膜推定器42は、入力された元画像(SEM画像)58に対して膜推定処理を適用し、これによって膜尤度マップ60を出力するものである。図示の構成例において、膜推定器42は、CNN(Convolutional Neural Network)により構成されている。その具体的な構成例については後に図3を用いて説明する。CNNによって膜が正しく推定されるように、CNNの実際の稼働に先立って、CNN学習過程が事前に実行される。その学習過程には、一次学習過程(初期学習過程)と、二次学習過程と、が含まれる。
The
一次学習過程では、教師データを構成する複数の画像ペアが膜推定器42に与えられ、これにより膜推定器42内のCNNパラメータ群が優良化(最適化)される。すなわち、膜推定器42内に機械学習結果が蓄積される。ここで、個々の画像ペアは、元画像(SEM画像)58とそれに対応する正解画像68とにより構成される。正解画像68は、例えば、元画像58に対する手作業により作成される。教師なし機械学習器、簡易な識別器(例えばSVM(Support Vector Machine))等によって、元画像58から正解画像68が作成されてもよい。この場合、かかる識別器に対して元画像58を入力し、その出力に基づいてユーザーにおいて識別器がある程度働いていると判断できた場合に、その出力を正解画像68として利用してもよい。一定の一次学習過程を経た膜推定器42の出力に基づいて正解画像68が作成されてもよい。
In the primary learning process, a plurality of image pairs forming training data are provided to the
続く二次学習過程では、一次学習過程を経て膜推定器42がある程度働くことを前提として、膜推定器42に対して、一次学習過程と同様に、教師データとして複数の画像ペアが与えられる。実施形態においては、その教師データは、一次学習過程で利用された複数の画像ペアと二次学習過程で追加された複数の画像ペアとにより構成される。追加される各画像ペアは、元画像58とそれに対応する正解画像64Aとからなる。正解画像64Aは、膜推定器42から加工ツールユニット44までの構成により、生物画像処理装置自身によって作成される。具体的には、元画像58を膜推定器42に入力すると、膜推定器42から推定結果画像として膜尤度マップ60が出力される。膜尤度マップ60に基づく仮膜画像の生成、及び、加工ツールユニット44を利用した仮膜画像62に対するユーザー(専門家)修正を経て、正解画像64Aが作成される。個々の処理については後に詳述する。仮膜画像62を正解画像62Aとして利用することも考えられる。二次学習過程により、膜推定器42内のCNNパラメータ群が更に優良化される。つまり、膜推定器42内に機械学習結果が更に蓄積される。二次学習過程は、例えば、元画像58に対する推定処理の結果が、元画像58に対応する正解画像68,64Aに十分に類似したと判断された場合に終了する。その後、必要に応じて、上記同様の手法により、膜推定器42の再学習が実行される。
In the subsequent secondary learning process, on the premise that the
二次学習過程では、膜推定結果を基礎として正解画像を作成できるので、元画像から正解画像の全部を手作業で作成する場合に比べ、ユーザーの負担が大幅に軽減される。二次学習過程後における必要な学習過程においても同様である。なお、一次学習過程及び二次学習過程において、膜推定器42に対し、複数の画像ペアが一括して与えられて、それがバッチ処理されてもよい。
In the secondary learning process, a correct image can be created based on the film estimation result, so the burden on the user is greatly reduced compared to manually creating all correct images from the original image. The same applies to the necessary learning process after the secondary learning process. In the primary learning process and the secondary learning process, a plurality of image pairs may be collectively given to the
データベース57には、複数の元画像58、複数の正解画像68,68A等が格納される。膜推定器42とデータベース57とが一体化されてもよい。機械学習型の膜推定器として、U-netが利用されてもよく、また、SVM、ランダムフォレスト等が利用されてもよい。
A
二値化器50は、画像生成器として機能するものである。具体的には、二値化器50は、後に図4を用いて例示するように、膜尤度マップ60に対する二値化処理により、仮膜画像62を生成するモジュールである。膜尤度マップ60は、二次元配列された複数の膜尤度からなる。個々の膜尤度は、膜である確からしさ(確率)を示す数値である。膜尤度は例えば0から1の間をとる。膜尤度マップ60を膜尤度画像として捉えることもできる。実施形態において、二値化器50には閾値が設定されており、閾値以上の膜尤度を1に変換し、閾値未満の膜尤度を0に変換する。その結果として生成される画像が仮膜画像62である。実施形態においては、便宜上、修正前の膜画像を修正後の膜画像から区別するために、修正前の膜画像を仮膜画像62と呼んでいる。
The
なお、膜推定器42及び二値化器50の両者により画像生成部61が構成される。画像生成部61の全体がCNN等により構成されてもよい。その場合でも、膜尤度マップ及び仮膜画像の段階的な生成を観念できる。仮膜画像62を正解画像62Aとして用いることも可能である。二値化処理前に、膜尤度マップ60に対して、ノイズ除去、エッジ強調等の処理が適用されてもよい。
Both the
加工ツールユニット44は、作業支援部又は作業支援手段として機能するものである。加工ツールユニット44は、情報処理の観点から見て、表示処理機能及び画像処理機能を有している。作業の観点から見て、修正機能及びラベリング機能を有しており、図2においては、それらの機能が修正部52及びラベリング処理部54として表現されている。加工ツールユニット44が発揮する具体的な複数の機能については後に図5を用いて整理する。ここでは、その概要又はその主要な機能について説明する。
The
修正部52は、後に図6において例示する作業ウインドウを介して、ユーザーに対して作業対象となった仮膜画像を作業対象画像として表示し、また、作業対象画像上におけるユーザーの修正指示を受け付けるものである。修正内容は作業対象画像となった仮膜画像に反映される。作業対象画像内に例えば膜の途切れ部分が含まれる場合、その途切れ部分に対して膜画素群が追加される。作業対象画像内に例えば膜以外の部分が含まれ、その部分が膜として誤認されている場合、その部分を構成する膜画素群が削除される。そのような追加及び削除に際し、ユーザーの作業又は操作を支援し各仮膜画像を管理するモジュールが修正部52である。
The
図示の構成例においては、修正部52(又は加工ツールユニット44)に対して、生成された仮膜画像62の他に、入力された元画像58、及び、生成された膜尤度マップ60も順次入力されている。これにより、作業対象画像としての仮膜画像と共に、又はそれに代えて、作業対象画像に対応する元画像58又は膜尤度マップ60を表示することが可能である。これに関しては、後に図7、8を用いて説明する。修正部52において実行される補間処理については、後に図9、10等を用いて説明する。
In the illustrated configuration example, in addition to the generated
ラベリング処理部54は、修正後の膜画像(又は修正未了の膜画像)に含まれる個々の領域(細胞内腔)に対して、ラベリング(ペイント及びラベル付け)を行うためのモジュールである。ラベリングには、ユーザーによるマニュアルでのラベリング、及び、自動的なラベリングがある。ラベリングについては、後に図12、13を用いて説明する。ラベリング結果を管理するための管理テーブルについては、後に図14に例示する。修正作業及びラベリング作業が完了した段階で、細胞内腔とそれ以外とが区別された三次元ラベリングデータ66が構成される。それがボリュームデータ処理部56へ送られる。
The
ボリュームデータ処理部56には、図示の構成例において、複数の元画像からなる元画像スタック(SEM画像スタック)36が入力されている。元画像スタック36はボリュームデータを構成するものである。また、ボリュームデータ処理部56には、上記のように、三次元ラベリングデータ66も入力されている。それもボリュームデータの一種である。
In the illustrated configuration example, the volume
解析部56Aは、例えば、三次元ラベリングデータ66に基づいて、対象器官(例えば神経細胞)を解析する。例えば、形態、体積、長さ等が解析されてもよい。その際、三次元ラベリングデータを参照しながら元画像スタック36が解析される。レンダリング部56Bは、三次元ラベリングデータ66に基づいて、三次元画像(立体的表現画像)を形成するものである。例えば、三次元ラベリングデータ66に基づいて、元画像スタック36の中から画像化部分が抽出され、それに対してレンダリング処理が適用されてもよい。
56 A of analysis parts analyze a target organ (for example, nerve cell) based on the three-
既に説明した二次学習過程においては、修正後の各膜画像64がそれぞれ正解画像64Aとして膜推定器42に入力される。各正解画像64Aの作製に際して、膜推定器42による推定結果を利用することができるので、且つ、加工ツールユニット44を利用することができるので、それらを利用しない場合に比べて、各正解画像64Aの作製負担が大幅に削減される。すなわち、上記構成によれば、膜推定器42の学習過程で要する労力及び時間を削減することが可能である。二次学習過程後の解析過程においては、膜推定器42及び加工ツールユニット44の併用により、解析対象又はレンダリング対象となる画像群の品質を高められ、また、その画像群を簡便かつ迅速に生成することが可能である。後に説明するように、加工ツールユニット44は、三次元像処理部(三次元像生成手段)及び候補選定部(候補選定手段)としても機能する。
In the already explained secondary learning process, each
図3には、膜推定器42の構成例が模式的に示されている。膜推定器42は、多数の層を有しており、それには、入力層80、畳み込み層82、プーリング層84、出力層86等が含まれる。それらはCNNパラメータ群88に従って作用する。CNNパラメータ群88には、多数の重み係数、多数のバイアス値、その他が含まれる。CNNパラメータ群88は最初に初期値群94によって構成される。例えば、乱数等を利用して初期値群94が生成される。
FIG. 3 schematically shows a configuration example of the
学習過程では、評価部90及び更新部92が機能する。例えば、評価部90は、教師データを構成する複数の画像ペア(元画像58とそれに対応する正解画像68,64A)に基づいて評価値を計算するものである。具体的には、元画像58に対する推定処理の結果60Aと元画像58に対応する正解画像68,64Aとを誤差関数に順次与えることにより評価値が演算される。更新部92は、その評価値が良い方向に変化するように、CNNパラメータ群88を更新する。それを繰り返すことによって、CNNパラメータ群88が全体的に最適化される。実際には、評価値が一定値に到達した時点で、学習過程の終了が判断される。図3に示した構成は単なる例示に過ぎず、膜推定器42として、多様な構造を有する推定器を利用することが可能である。
In the learning process, the
図4には、二値化器の作用が示されている。膜推定器から膜尤度マップ60が出力される。膜尤度マップ60は、複数の画素に相当する複数の膜尤度60aからなるものであり、個々の膜尤度60aは膜であることの確からしさを示す数値である。符号50Aで示すように、二値化器は膜尤度マップ60を二値化し、これにより二値化画像としての仮膜画像62を生成する。二値化に際しては、個々の膜尤度60aが閾値と比較される。例えば、閾値以上の膜尤度60aが値1を有する画素62aに変換され、閾値未満の膜尤度60aが値0を有する画素62bに変換される。画素62aが膜を構成する画素(膜画素)として取り扱われる。閾値はユーザーにより可変設定し得る。その設定が自動化されてもよい。例えば、仮膜画像62を観察しながら閾値が可変されてもよい。
FIG. 4 shows the operation of the binarizer. A
図5には、加工ツールユニットが有する複数の機能が整理されている。上段(A)には修正部が有する複数の機能が示されており、下段(B)にはラベリング処理部が有する複数の機能が示されている。それらの機能の詳細又は具体例については、図6以降の各図を参照しながら説明する。ここでは、それらの機能について概説する。 FIG. 5 organizes a plurality of functions possessed by the processing tool unit. The upper part (A) shows a plurality of functions of the correction unit, and the lower part (B) shows a plurality of functions of the labeling processing unit. Details or specific examples of these functions will be described with reference to FIG. 6 and subsequent drawings. This section outlines their functions.
まず、修正部の機能について説明する。仮膜画像に対する修正には、大別して、マニュアル修正(A1)と自動修正(A2)とがある。マニュアル修正(A1)では、修正ツールとしての仮想的なペン及び仮想的な消しゴムが利用される。ペンは膜を描く(非膜画素を膜画素に転換する)ための修正ツールであり、消しゴムは膜を消去する(膜画素を非膜画像に転換する)ための修正ツールである。他の修正ツールが設けられてもよい。 First, the functions of the correction section will be described. Corrections to the temporary membrane image are roughly classified into manual correction (A1) and automatic correction (A2). Manual correction (A1) uses a virtual pen and a virtual eraser as correction tools. The pen is a correction tool for drawing membranes (converting non-membrane pixels into membrane pixels), and the eraser is a correction tool for erasing membranes (converting membrane pixels into non-membrane images). Other correction tools may be provided.
マニュアル修正(A1)に際しては、(A11)で示されるように、ユーザーによって選択された深さに対応する仮膜画像が作業対象画像としてカラーで表示される。その際、背景画像として、選択された深さに対応する元画像が白黒画像として表示される。(A12)で示されるように、選択された深さを基準として、深さ方向に並んだ同種の複数の画像(元画像、膜尤度マップ又は仮膜画像)を重ねて表示することも可能である。更に、(A13)で示されるように、マニュアル修正作業を支援するために、修正候補が表示されてもよい。 During the manual correction (A1), as indicated by (A11), the temporary membrane image corresponding to the depth selected by the user is displayed in color as the image to be worked on. At that time, the original image corresponding to the selected depth is displayed as a black and white image as a background image. As shown in (A12), it is also possible to superimpose and display multiple images of the same type (original image, membrane likelihood map, or temporary membrane image) arranged in the depth direction based on the selected depth. is. Further, as indicated by (A13), correction candidates may be displayed to assist manual correction work.
自動修正(A2)では、仮膜画像に含まれる膜途切れ部分が自動的に補間される。具体的には、ユーザー指定された2点の間が自動的に連結される。そのために幾つかの機能が用意されており、必要に応じて、それらの中からいずれかの機能が選択される。例えば、(A21)で示されるように、作業対象画像(仮膜画像)に基づいて、作業対象画像上の2点間が補間されてもよい。(A22)で示されるように、作業対象画像に対応する元画像に基づいて、作業対象画像上の2点間が補間されてもよい。(A23)で示されるように、作業対象画像に対応する尤度マップに基づいて、作業対象画像上の2点間が補間されてもよい。(A24)で示されるように、深さ方向に連なる複数の画像(元画像、膜尤度マップ又は仮膜画像)に基づいて、三次元補間が実行されてもよい。 The automatic correction (A2) automatically interpolates the film discontinuous portion included in the temporary film image. Specifically, two points specified by the user are automatically connected. Several functions are prepared for this purpose, and one of them is selected as required. For example, as indicated by (A21), interpolation may be made between two points on the image for work based on the image for work (temporary membrane image). As indicated by (A22), interpolation may be performed between two points on the image for work based on the original image corresponding to the image for work. As indicated by (A23), interpolation may be performed between two points on the image for work based on the likelihood map corresponding to the image for work. As indicated by (A24), three-dimensional interpolation may be performed based on a plurality of images (original image, membrane likelihood map, or temporary membrane image) arranged in the depth direction.
次に、ラベリング処理部の機能について説明する。ラベリング方法として、マニュアルラベリング(B1)と、自動ラベリング(B2)とがある。 Next, the function of the labeling processor will be described. As labeling methods, there are manual labeling (B1) and automatic labeling (B2).
マニュアルラベリング(B1)では、ラベリングツールが利用され、ユーザーによって特定の領域(閉領域)がラベリング対象として指定される。すると、その領域がペイント処理され、また、その領域に対して固有のラベルが付与される。ラベルは、繋がり関係を管理するための識別子又は属性値である。その際、必要に応じて、(B11)で示されるように、作業対象画像上に、他の深さに対応する画像(例えば、ラベリング済みの隣接する仮膜画像)がオーバーレイ表示されてもよい。あるいは、(B12)で示されるように、深さ方向における領域間の繋がり関係が自動的に判定され、作業対象画像上に1又は複数のラベリング候補が表示されてもよい。その際に繋がり可能性の大小が自動的に判定され、その判定結果に基づいて各ラベリング候補の表示態様が制御されてもよい。 In manual labeling (B1), a labeling tool is used, and a user designates a specific region (closed region) as a labeling target. The area is then painted and a unique label is given to the area. A label is an identifier or an attribute value for managing connection relationships. At that time, as shown in (B11), an image corresponding to another depth (for example, an adjacent provisional membrane image that has been labeled) may be overlaid on the work target image, if necessary. . Alternatively, as indicated by (B12), the connection relationship between regions in the depth direction may be automatically determined, and one or more labeling candidates may be displayed on the work target image. At that time, the degree of connection possibility may be automatically determined, and the display mode of each labeling candidate may be controlled based on the determination result.
自動ラベリング(B2)においては、レイヤ間での領域の繋がり関係が自動的に判定され、これによってペイント及びラベル付けが自動的に遂行される。その場合、例えば、(B21)で示すように、ラベル付けされた特定の領域について、その代表座標を通過する垂線(Z方向に平行な仮想線)を定義し、その垂線が通過する1又は複数の領域に対して、特定の領域に付されたラベルと同じラベルを付すようにしてもよい(串刺し方式)。その場合、特定の領域が存在する深さを基準深さとして、深さ方向の両側に一定の範囲を設定し、その範囲内において自動的なラベリングが実行されてもよい。また、(B22)で示されるように、深さ方向における領域間の類似度等を基準として、レイヤ間において繋がり関係を自動的に判定し、その判定結果に基づいて自動的にラベリングを行うようにしてもよい。自動的なラベリングが実行された場合、通常、そのラベリング結果がユーザーにおいて目視確認される。 In automatic labeling (B2), the connection relation of regions between layers is automatically determined, and painting and labeling are automatically performed by this. In that case, for example, as shown in (B21), for a specific labeled region, define a perpendicular (virtual line parallel to the Z direction) passing through the representative coordinates, and one or more , the same label as the label attached to the specific area may be attached (skewering method). In that case, a certain range may be set on both sides in the depth direction with the depth at which the specific region exists as the reference depth, and automatic labeling may be performed within that range. Further, as indicated by (B22), based on the degree of similarity between regions in the depth direction, etc., the connection relationship between layers is automatically determined, and labeling is automatically performed based on the determination result. can be When automatic labeling is performed, the labeling result is usually visually confirmed by the user.
以上挙げた機能は例示であり、ユーザーによる修正作業及びラベリング作業が効率的となり、あるいは、その負担が軽減されるように、更には、三次元ラベリングデータの品質が高まるように、加工ツールユニットを構成するのが望ましい。 The above-mentioned functions are examples, and the processing tool unit is used so that the correction work and labeling work by the user are efficient, the burden is reduced, and the quality of the three-dimensional labeling data is improved. preferably configured.
図6には、加工ツールユニットにより表示される作業ウインドウが例示されている。図示の例において、作業ウインドウ100は、表示画像102を含んでいる。表示画像102は、ユーザーによって選択された深さに対応する仮膜画像(作業対象画像)及び元画像からなる複合画像である。グレイスケース画像としての元画像が背景画像を構成しており、それに対して、カラー画像(例えば青色画像)としての仮膜画像(作業対象画像)が重畳表示されている。なお、図示された表示画像102は脳組織を示しており、そこには、複数の細胞の断面が現れている。同時に、細胞内の小器官(ミトコンドリア等)の断面も現れている。
FIG. 6 exemplifies a working window displayed by the processing tool unit. In the illustrated example,
タブ104が選択された場合、上記で説明した表示画像102が表示される。タブ105が選択された場合、グレイスケール画像としての元画像だけが表示される。タブ106が選択された場合、グレイスケール画像としての膜尤度マップ(膜尤度画像)だけが表示される。尤度マップの観察により、閾値が適切に設定されていること等を確認できる。また、元画像の単独表示によれば、膜の細部を詳細観察することが容易となる。作業対象画像としての仮膜画像だけを表示するタブを追加してもよい。膜尤度マップを背景画像とし、それに対して仮膜画像が重畳表示されてもよい。
When
深さ選択ツール108は、Z方向(つまり空間軸としての深さ軸上)において、特定の深さ(表示位置としての表示深さ)を選択するための表示要素(操作要素)である。それは、Z軸を表すZ軸シンボル108bと、Z軸シンボル108bに沿ってスライド運動するスライダとしてのマーカー108aと、からなる。マーカー108aを移動させて、所望の深さを選択することが可能である。このような深さ選択ツール108によれば、選択する深さや深さ変化量を直感的に認識し易いという利点を得られる。なお、Z軸シンボル108bの左端点が深さゼロに相当し、Z軸シンボル108bの右端点が最大深さに相当している。他の形態を有する深さ選択ツールを採用してもよい。深さ入力欄114は、深さを数値として直接的に指定するための欄である。深さ入力欄114に、マーカー108aの位置によって現在選択されている深さが数値として表示されてもよい。
The
透過度調整ツール110は、表示画像102が表示されている状態において、合成表示されているカラーの仮膜画像(作業対象画像)の透過度(表示重み)を調整するためのツールである。例えば、マーカー110aを左側へ移動させると、カラーの仮膜画像の表示重みが小さくなり、その透明度が上がって、元画像が支配的に表示されるようになる。逆に、マーカー110aを右側へ移動させると、カラーの仮膜画像の表示重みが大きくなり、その透明度が下がって、カラーの仮膜画像がよりはっきりと表現されるようになる。
The
重合表示ツール112は、現在表示されている画像(表示画像、元画像又は膜尤度マップ)に対して、深さ方向に浅い側に隣接する画像(表示画像、元画像又は膜尤度マップ)又は深さ方向に深い側に隣接する画像(表示画像、元画像又は膜尤度マップ)を重ねて表示する場合において操作されるものである。マーカー112aを左側へ移動させると、浅い側に隣接する画像に対する表示重みが大きくなり、逆に、マーカー112aを右側へ移動させると、深い側に隣接する画像に対する表示重みが大きくなる。3つ以上の画像を重ね合わせて表示してもよい。もっとも、あまり多くの画像を重ね合わせると、画像内容が複雑になり過ぎてしまうので、少数の画像を重ね合わせるのが望ましい。このような重合表示によれば、奥行き情報を得られ易くなる。
The overlapping
ボタン列115は、仮想的な複数のボタン116,118,120,121,122,126によって構成される。ボタン116は、画像ズーム(拡大又は縮小)を行う場合に操作される表示要素である。ボタン118は、ペンツールを利用する場合に操作される表示要素である。ボタン118をオンにすると、カーソルの形態がペン形に代わり、それを用いて膜画素の追加を行える。ペンのサイズを変更することも可能である。ボタン120は、消しゴムを利用する場合に操作される表示要素である。ボタン120をオンにすると、カーソルの形態が消しゴム形に代わり、それを用いて膜画素の削除を行える。消しゴムのサイズを変更することも可能である。
The
ボタン121は、ペイントを行う場合に操作される表示要素である。ボタン121をオンした上で、いずれかの領域を指定すれば、その領域が塗り潰される。また、ボタン121の操作によって、ペイント(又はラベリング)のために用意されている複数の機能の中から任意の機能を選択することも可能である。オブジェクト番号(ラベル)付けボタン122の操作により、カラーパレット124が表示される。例えば、ペイント処理済み領域に対して、カラーパレットの中から選択されたカラーが与えられる。これにより、その領域が、選択されたカラーによって着色される。個々の色がそれぞれオブジェクト番号に対応付けられている。レイヤ間にわたって複数の領域に対して同じカラーつまり同じオブジェクト番号を付与すれば、それらの領域によって特定細胞内の三次元内腔領域が画定される。
A
ボタン126は、白黒反転用のボタンである。それを操作すると、表示された画像において、黒く表示されていた部分が白く表示され、逆に白く表示されていた部分が黒く表示される。
A
上記の他、三次元像を表示させるためのボタンを設けるのが望ましい。三次元像の表示に関しては後に図15及び図16を用いて説明する。図6に示した作業ウインドウ100の内容は例示に過ぎず、ユーザー作業においてその作業性が良好になるように、その内容が適宜定められるのが望ましい。
In addition to the above, it is desirable to provide a button for displaying a three-dimensional image. Display of a three-dimensional image will be described later with reference to FIGS. 15 and 16. FIG. The content of the
図7及び図8に基づいて、加工ツールユニットにおける表示処理について説明する。図7に示す処理は図5において(A11)で示した表示処理に相当するものである。図8に示す処理は図5において(A12)及び(B11)で示した表示処理に相当するものである。 Display processing in the processing tool unit will be described based on FIGS. 7 and 8. FIG. The processing shown in FIG. 7 corresponds to the display processing indicated by (A11) in FIG. The processing shown in FIG. 8 corresponds to the display processing shown by (A12) and (B11) in FIG.
図7において、元画像スタック130は、Z方向(深さ方向)に並ぶ複数の元画像により構成される。膜尤度マップスタック132は、Z方向に並ぶ複数の膜尤度マップにより構成される。仮膜画像スタック134は、Z方向に並ぶ複数の仮膜画像スタックにより構成される。個々の仮膜画像は、その修正後において膜画像となるが、それは便宜上の区別であり、ここでは、修正前及び修正後を区別することなく、仮膜画像と称することにする。それらのスタック130,132,134は、加工ツールユニットによって管理され、あるいは、生物組織処理装置が有する制御部によって管理される。
In FIG. 7, the
元画像の表示が指定されている場合、元画像スタック130から、ユーザーによって選択された深さZiに対応する元画像130iが取り出され、それが表示器46に表示される。膜尤度マップの表示が指定されている場合、膜尤度マップスタック132から、ユーザーによって選択された深さZiに対応する膜尤度マップ132iが取り出され、それが表示器46に表示される。仮膜画像の表示が指定されている場合、仮膜画像スタック134から、ユーザーによって選択された深さZiに対応する仮膜画像134iが取り出され、それが表示器46に表示される。実際には、深さZiに対応する元画像130i上に、深さZiに対応する仮膜画像134iが合成され、その合成画像が表示器46に表示される。合成に先立って、仮膜画像134iが例えば青色のカラー画像に変換される。また合成時においては、元画像130iに対して表示重みw0が乗算され、仮膜画像134iに対して表示重みw1が乗算される。各表示重みw0、w1をユーザーにより変更し得る。
If display of the original image is specified, the
仮膜画像134iは作業対象画像であり、それに対してユーザーが修正を行うと、符号135で示されるように、その修正内容が直ちに仮膜画像134iに反映される。深さZiを変更しながら、表示された各作業対象画像に対して、修正処理及びラベリング処理が施される。その過程において、必要に応じて、元画像130i又は膜尤度マップ132iを単独で表示することも可能である。実施形態においては、リングバッファ内に過去m回分の修正内容が修正履歴として管理されており、必要に応じて、Undo操作を行える。
The
図8には、重合表示が選択された場合の表示処理が示されている。図7に示した構成と同様の構成には同一符号を付しその説明を省略する。図示した表示処理では、3種類の表示画像に対して重合表示処理を選択的に適用することが可能である。一部の画像だけに対して重合表示処理が適用されてもよい。 FIG. 8 shows display processing when superimposed display is selected. Components similar to those shown in FIG. 7 are denoted by the same reference numerals, and descriptions thereof are omitted. In the illustrated display processing, it is possible to selectively apply superimposition display processing to three types of display images. The overlapping display process may be applied to only some images.
元画像の表示が指定されている場合であって、Z方向に浅い側の隣接画像の重合表示が指示された場合、元画像スタック130から、深さZiに対応する元画像130i及び深さZi-1に対応する元画像130i-1が取り出される。それらが重合されて表示される。元画像130iに対して、深さZi+1に対応する元画像130i+1を重合する場合にも、上記同様の処理が実行される。なお、追加的に表示される元画像130i-1,130i+1の透過度は、表示重みw3を可変することによって調整される。
When the display of the original image is designated, and the overlapped display of the adjacent image shallower in the Z direction is instructed, the
膜尤度マップの表示が指定されている場合であって、Z方向に浅い側(又は深い側)の隣接画像の重合表示が指示された場合、膜尤度マップスタック132から、深さZiに対応する膜尤度マップ132i、及び、深さZi-1(又は深さZi+1)に対応する膜尤度マップ132i-1(又は膜尤度マップ132i+1)が取り出される。それらが重合されて、表示される。
When the display of the membrane-likelihood map is specified, and when superimposed display of adjacent images on the shallow side (or deep side) in the Z direction is instructed, the membrane-
これと同様に、仮膜画像の表示が指定されている場合であって、Z方向に浅い側(又は深い側)の隣接画像の重合表示が指示された場合、仮膜画像スタック134から、深さZiに対応する仮膜画像134i、及び、深さZi-1(又は深さZi+1)に対応する仮膜画像134i-1(又は仮膜画像134i+1)が取り出される。それらが重合されて、表示される。その場合、実際には、隣接する2つの合成画像が重合表示されることになる。合成処理後に重合処理されてもよい。
Similarly, when display of a temporary membrane image is specified and superimposition display of an adjacent image on the shallow side (or deep side) in the Z direction is instructed, from the temporary
図9には、補間処理の第1例が示されている。これは図5において(A21)で示した補間処理に相当するものである。図9において、仮膜画像スタック134から深さZiに対応する仮膜画像が取り出され、それが作業対象画像140として表示される。作業対象画像140の修正過程において、ユーザーにより、膜途切れ部分146の両端が2つの点142,144により指定される。2つの点142,144の間が作業対象画像140の内容に基づいて自動的に補間される。符号148は、自動的に追加された補間線(連結線)を示している。その場合、スプライン補間その他の技術を利用し得る。なお、作業対象画像140中において、細胞膜以外の細胞構成要素が膜として検出されている場合、符号150で示されるように、それが消しゴムによって消去される。
FIG. 9 shows a first example of interpolation processing. This corresponds to the interpolation processing indicated by (A21) in FIG. In FIG. 9, the temporary membrane image corresponding to the depth Z i is retrieved from the temporary
図10には、補間処理の第2例が示されている。これは図5において(A22)で示した補間処理に相当するものである。図10において、仮膜画像スタック134から、深さZiに対応する仮膜画像が取り出され、それが作業対象画像140として表示される。作業対象画像140上において、ユーザーにより、膜途切れ部分の両端が2つの点142,144により指定される。一方、元画像スタック130から、深さZiに対応する元画像152も取り出される。その元画像152に対して必要に応じてエッジ強調処理が適用される。その上で、元画像152上において、2つの点142,144に対応する2つの点が特定され(符号154を参照)、それらの点の間が補間される(符号156を参照)。例えば、2つの点の間を結ぶ経路が探索される。その場合には公知の各種技術を利用可能である。図10において、作業対象画像140上には、探索された経路と同じ形態を有する補間線158が追加されている。経路の探索に際しては、例えば、最短経路問題を解く各種の方法を利用し得る。例えば、Dijkstra法が利用されてもよい。上記同様の手法によって三次元の経路が探索されてもよい。
FIG. 10 shows a second example of interpolation processing. This corresponds to the interpolation processing indicated by (A22) in FIG. In FIG. 10, the temporary membrane image corresponding to the depth Zi is retrieved from the temporary
図11には、修正前の仮膜画像180と修正後の仮膜画像182とが示されている。修正前の仮膜画像180には、膜途切れ部分184,188が含まれる。修正後の仮膜画像182においては、符号186及び符号190で示されているように、膜途切れ部分が補修されている。また、修正前の仮膜画像180には、非膜部分192,196が含まれている。修正後の仮膜画像182においては、符号194及び符号198で示されているように、それらの非膜部分が消失している。修正後の仮膜画像182によれば、ラベリングを的確に行うことが可能となり、ひいては、三次元ラベリングデータの品質を高めることが可能となる。
FIG. 11 shows a
図12には、ラベリング処理に含まれる三次元繋ぎ処理が例示されている。その内容は図5において(B21)で示した処理又は(B22)で示した処理に相当するものである。図12においては、Z方向に並ぶ複数の仮膜画像D1~D4が示されている。深さZiに対応する仮膜画像D1が作業対象画像である。それが以下に説明する処理での基準画像とされる。 FIG. 12 exemplifies three-dimensional connection processing included in the labeling processing. The content corresponds to the process indicated by (B21) or the process indicated by (B22) in FIG. FIG. 12 shows a plurality of temporary film images D1 to D4 arranged in the Z direction. The temporary film image D1 corresponding to the depth Zi is the work target image. It is used as a reference image in the processing described below.
上記の(B21)で示した処理においては、基準画像である仮膜画像D1に含まれる領域R1について代表点が特定される。例えば、代表点として中心点、重心点等が特定される。次いで、その代表点を通過する垂線Cが定義される。基準画像から、例えば、深い側にN枚の仮膜画像が参照され、それらの画像において垂線Cが通過している各領域が特定される。そして、垂線Cが通過している領域R1,R2,R3,R4,・・・に対して、同じラベルが付与される。また、以上の処理が基準画像から浅い側のN枚の仮膜画像に対して適用されてもよい。自動的なラベリングの結果は、通常、ユーザーによって目視確認される。 In the process shown in (B21) above, a representative point is specified for the region R1 included in the temporary membrane image D1, which is the reference image. For example, a central point, a barycentric point, or the like is specified as a representative point. A perpendicular line C is then defined that passes through the representative point. From the reference image, for example, N temporary membrane images are referenced on the deep side, and each region through which the perpendicular line C passes is specified in these images. The same label is assigned to the regions R1, R2, R3, R4, . . . through which the perpendicular C passes. Also, the above processing may be applied to the N temporary membrane images on the shallow side from the reference image. The result of automatic labeling is usually visually confirmed by the user.
上記の(B22)で示した処理においては、仮膜画像D1に含まれる領域R1(の外縁)が仮膜画像D2上に投影され、投影領域R1aが定義される。仮膜画像D2上において、投影領域R1aに対して最も重なり合う領域R2が特定される。続いて、領域R2が仮膜画像D3上に投影され、投影領域R2aが定義される。仮膜画像D3上において、投影領域R2aに対して最も重なり合う領域R3が特定される。同様に、仮膜画像D4上において、投影領域R3aが定義され、それに基づいて領域R4が特定される。領域R1、及び、それを出発点として特定された領域R2,R3,R4の全部に対して、同じラベルが付与される。 In the process shown in (B22) above, (the outer edge of) the area R1 included in the temporary membrane image D1 is projected onto the temporary membrane image D2 to define the projection area R1a. A region R2 that most overlaps with the projection region R1a is specified on the temporary membrane image D2. Subsequently, the region R2 is projected onto the temporary membrane image D3 to define a projection region R2a. A region R3 that most overlaps with the projection region R2a is specified on the temporary membrane image D3. Similarly, a projection region R3a is defined on the temporary membrane image D4, and a region R4 is specified based thereon. The same label is assigned to the region R1 and all of the regions R2, R3, and R4 identified from it as a starting point.
上記の処理では、投影元の領域がレイヤ変更時に逐次更新されていたが、それを固定するようにしてもよい。例えば、領域R1を仮膜画像D2,D3,D4に投影するようにしてもよい。また、上記の処理では、基準画像からZ方向の一方側に繋がり先が探索されていたが、基準画像からZ方向の両側に繋がり先が探索されてもよい。その探索範囲がユーザー選択されてもよい。いずれにしても、自動的なラベリングの結果が、通常、ユーザーによって目視確認される。その場合には、図6に示した作業ウインドウが利用される。 In the above process, the projection source area is updated when the layer is changed, but it may be fixed. For example, the region R1 may be projected onto the temporary membrane images D2, D3, and D4. Also, in the above processing, the connection destination is searched for on one side in the Z direction from the reference image, but the connection destination may be searched for on both sides in the Z direction from the reference image. The search scope may be user-selected. In any case, the result of automatic labeling is usually visually confirmed by the user. In that case, the working window shown in FIG. 6 is used.
以上説明した三次元繋ぎ処理は例示であり、上記以外の三次元繋ぎ処理が採用されてもよい。領域間における繋がり関係の特定に際しては、領域ごとの1又は複数の特徴量が利用され得る。領域の特徴量として、面積、形態、周囲長、重心点、輝度ヒストグラム、テクスチャ、等が利用されてもよい。あるいは、領域間の特徴量として、重合面積、代表点間距離、等が利用されてもよい。 The three-dimensional connection processing described above is an example, and three-dimensional connection processing other than the above may be adopted. One or a plurality of feature amounts for each region may be used to identify the connection relationship between regions. Area, shape, perimeter, center of gravity, luminance histogram, texture, etc. may be used as the feature amount of the region. Alternatively, a superimposed area, a distance between representative points, or the like may be used as the feature amount between regions.
図13には、候補表示の一例が示されている。その処理は、図5において(A13)で示した処理に相当するものである。深さZiに対応する仮膜画像(作業対象画像)200上に、投影領域202が定義されている。投影領域202は、例えば、深さZi-1に対応する仮膜画像上でラベル付けされた元領域の投影により定義される領域である。仮膜画像200において、投影領域202と重なり合う複数の領域204a,204b,204cが特定される。また、投影領域202(又は元領域)と、各領域204a,204b,204cとの間で、それぞれ類似度(例えば重合面積)が演算される。各領域204a,204b,204cについて演算された各類似度に基づいて、各領域204a,204b,204cがそれぞれ異なるカラーで識別表現される。すなわち、類似度の違いが色相の違いとして識別表現される。これにより、ユーザーは、個々の領域204a,204b,204cの類似度を参考にしながら、ラベリングを行うことが可能となる。例えば、図示の例では、最も類似度の大きい領域204aに対して、元領域に付与したラベルと同じラベルが付与される。
FIG. 13 shows an example of candidate display. This process corresponds to the process indicated by (A13) in FIG. A
図14には、管理テーブルが例示されている。図示された管理テーブル206は、ラベリング処理の結果を管理するためのテーブルである。管理テーブル206は、例えば、上記ラベリング処理部の中に構築される。管理テーブル206は、複数のレコード206aからなり、個々のレコード206aは1つの画素に対応している。レコード206aにおいては、画素座標、クラス、及び、ラベルが管理されている。クラスは、画素の属性として、膜、膜内部、及び、その他を識別するデータである。ラベルは、三次元データ空間内において繋がり関係を特定する数値データである。繋がり関係のある(ある細胞膜の内部の)画素群には同じラベルが付与される。
FIG. 14 exemplifies a management table. The illustrated management table 206 is a table for managing the results of labeling processing. The management table 206 is constructed, for example, in the labeling processing section. The management table 206 consists of a plurality of
次に、図15及び図16を用いて、作業ウインドウの他の例について説明する。図15において、図6に示した構成と同様の構成には同一符号を付し、その説明を省略する。 Next, another example of the work window will be described with reference to FIGS. 15 and 16. FIG. In FIG. 15, the same reference numerals are given to the same configurations as those shown in FIG. 6, and the description thereof will be omitted.
図15において、作業ウインドウ100A内のボタン列115には、三次元像表示のためのボタン210が含まれる。ボタン210を操作すると、表示画像102上に又はそれとは別の場所に、サブ表示画像212が表示される。図示の例では、サブ表示画像212は、三次元空間を表すワイヤーフレーム(座標系を示す図形)213、及び、その内部に表現された三次元像215を含む。三次元像215は、図示の例では、3つの部分214a,214b,214cの集合体である。各部分214a,214b,214cはそれぞれ細胞内腔の三次元形態を示している。
In FIG. 15, a
具体的には、ラベリング処理によって生成された三次元ラベリングデータに基づいてレンダリング処理を実行することにより、立体感を有する三次元像215が生成されている。視点、光源等のパラメータはユーザーにより変更され得る。サブ表示画像212が別ウインドウの形式でポップアップ表示されてもよい。三次元像215の参照により、修正結果の妥当性やラベリング処理結果の妥当性を容易に判断することが可能となる。
Specifically, a three-
サブ表示画像212には、現在選択されている深さを示す枠図形216が含まれる。作業ウインドウ100A内に含まれる深さ選択ツール108において、マーカー108aをスライド移動させると、表示されている作業対象画像の内容が変化し、同時に、枠図形216が深さ方向に運動する。枠図形216の位置を参照することによって、三次元データ空間内における作業対象レイヤを直感的に認識することが可能となる。
The
図16に示される三次元像226,227が表示されてもよい。三次元像226,227は、ある細胞内腔を複数のディスク228の積層体として表現したものである。このような三次元像226,227によれば、各試料切片の厚さを三次元像に反映させることが可能となる。複数のディスクに代えて複数の平板状円板を表示するようにしてもよい。
Three-
図17には、生物組織画像処理装置の本体の第2構成例が示されている。図2に示した構成と同様の構成には同一符号を付し、その説明を省略する。 FIG. 17 shows a second configuration example of the main body of the biological tissue image processing apparatus. Components similar to those shown in FIG. 2 are denoted by the same reference numerals, and descriptions thereof are omitted.
本体40Aにおいて、膜推定器250は、細胞膜と他の膜(図示の構成例ではミトコンドリア膜)とを同時に推定する機能を有している。膜推定器250に対して元画像(SEM画像)58を入力すると、細胞膜の推定結果として膜尤度マップA254が出力され、同時に、ミトコンドリア膜の推定結果として膜尤度マップB258が出力される。
In the
膜尤度マップ補正部262は、膜尤度マップBに基づいて、膜尤度マップAを補正するモジュールである。具体的には、膜尤度マップB258を構成する座標(x,y)の膜尤度bが判定閾値α以上であれば、膜尤度マップA254における座標(x,y)の膜尤度aの値が0に置換される。一方、膜尤度マップB258における座標(x,y)の膜尤度bが判定閾値αよりも小さければ、膜尤度マップA254における座標(x,y)の膜尤度aの値が維持される。膜尤度マップ補正部262から、補正後の膜尤度マップ264が出力される。二値化器50は膜尤度マップ264を二値化処理し、仮膜画像62を生成する。
The membrane likelihood
二値化器50及び修正部52に対して並列に設けられた二値化器268及び修正部270は、膜尤度マップB258に基づいて正解画像272を作成するためのものである。二値化器268は、二値化器50と同様の機能を有し、膜尤度マップBから仮膜画像を生成する。修正部270は、修正部52と同様の機能を有する。修正部52により、仮膜画像がマニュアルで修正され、あるいは、自動的に修正され、これにより正解画像272が生成される。加工ツールユニット266は、修正部52、ラベリング処理部54、及び、修正部270によって構成されている。
A
膜推定器250における細胞膜の学習のために、元画像58とそれに対応する正解画像64A,68とが教師データとして利用される。正解画像64Aは修正部52による修正が行われた後の膜画像64であり、正解画像68は元画像から別途作成された画像である。膜推定器250におけるミトコンドリア膜についての学習のために、元画像58とそれに対応する正解画像272,274とが教師データとして利用される。正解画像272は修正部270による修正が行われた後の膜画像であり、正解画像274は元画像から別途作成された画像である。なお、教師データとして、正解画像64Aに代えて、仮膜画像62を用いることもできる。
For cell membrane learning in the
第2構成例によれば、細胞膜の推定結果が他の推定結果により補正されるので、細胞膜の推定精度を高めることが可能となる。また、ミトコンドリア膜を示す膜画像の修正に際して、図6に示した作業ウインドウを利用することができるから、その修正作業において作業効率を高められる。 According to the second configuration example, the estimation result of the cell membrane is corrected by another estimation result, so it is possible to improve the estimation accuracy of the cell membrane. Moreover, since the work window shown in FIG. 6 can be used when correcting the membrane image showing the mitochondrial membrane, the work efficiency can be improved in the correction work.
上記第2構成例では、膜尤度マップB258における膜尤度が閾値α以上である場合に補正が実行されていたが、膜尤度マップB258における膜尤度の大小に応じて補正度合いが可変されるようにしてもよい。単一の膜推定器250に代えて、細胞膜を推定する膜推定器とミトコンドリア膜を推定する膜推定器とを併設するようにしてもよい。その場合、望ましくは、2つの膜推定器がそれぞれ機械学習型の推定器で構成される。細胞膜、ミトコンドリア、及び、背景を個別的に且つ同時に推定する多クラス推定型の推定器を設けてもよい。
In the second configuration example, the correction is performed when the membrane likelihood in the membrane likelihood map B258 is equal to or greater than the threshold value α, but the degree of correction varies depending on the magnitude of the membrane likelihood in the membrane likelihood map B258. may be made. Instead of the
図18には、生物組織画像処理装置の本体の第3構成例が示されている。本体40Bは、元画像58を入力して膜推定を行う2つの機械学習型膜推定器280,282を有する。2つの機械学習型膜推定器280,282は互いに異なる構成を有し、すなわち、それらのタイプ又は方式は互いに相違する。例えば、膜推定器280は、図2に示した膜推定器42に相当し、それは例えばCNNにより構成される。膜推定器282は例えばランダムフォレストにより構成される。膜推定器280,282はいずれも細胞膜の推定を行うためのものであるが、それらの性質又は特性に相違があることから、2つの膜推定器280,282の推定結果は必ずしも同一にならない。例えば、元画像中のある部分について、膜推定器280,282の内の一方が膜と判断し、それらの内の他方も膜と判断することもあれば、膜推定器280,282の内の一方が膜と判断し、それらの内の他方が非膜と判断することもある。
FIG. 18 shows a third configuration example of the main body of the biological tissue image processing apparatus. The
処理部296は、膜推定器280から出力された膜尤度マップA284と膜推定器282から出力された膜尤度マップB286とを比較し、両者の差が大きい画素(又は画素群)を修正候補として判定するものである。図示の構成例では、処理部296から修正部306へ修正候補を特定する情報302が送られている。修正部306内に処理部296が設けられもよい。
The
二値化器292は、図2に示した二値化器50に相当し、それは膜尤度マップA284から仮膜画像298を生成するものである。二値化器294は、二値化器292と同様の作用を発揮するものであり、それは膜尤度マップB286から仮膜画像300を生成するものである。
The
加工ツールユニット304は、図2に示した加工ツールユニット44と同様の機能を有し、それは、修正部306及びラベリング処理部310を有する。修正部306は、二値化器292から出力された仮膜画像298及び二値化器294から出力された仮膜画像300に対して修正を施すためのものである。修正後の膜画像308がラベリング処理部310に送られている。その膜画像308は、正解画像312として膜推定器280へ送られている。修正後の膜画像309は、正解画像316として膜推定器282へ送られている。加工ツールユニット304は、選択された深さに対応する仮膜画像の表示に際して、あるいは、入力された仮膜画像298の表示に際して、修正候補を識別表示する機能を有する。修正候補の特定及びその識別表示については、後に図19及び図20を用いて説明する。なお、修正後の膜画像309がラベリング処理部310へ送られてもよい。
The
膜推定器280の学習過程では、膜推定器280に対して、元画像58とそれに対応する正解画像312,314とが教師データとして入力される。正解画像312は、修正後の膜画像308である。正解画像314は、元画像から別途作成されたものである。膜推定器282の学習過程では、膜推定器282に対して、元画像58とそれに対応する正解画像316,318とが教師データとして入力される。正解画像316は、修正後の膜画像309である。正解画像318は、元画像から別途作成されたものである。
In the learning process of the
図19及び図20に基づいて、上記第3構成例の動作(特に処理部及び修正部の動作)を説明する。 Based on FIG.19 and FIG.20, the operation|movement (especially operation|movement of a process part and a correction part) of the said 3rd structural example is demonstrated.
図19において、S30では、画素単位で、膜尤度マップAと膜尤度マップBとが比較される。比較単位を他の単位としてもよい。2つの膜尤度マップA,Bの比較により差分マップが生成される。S32では、差分マップを構成する複数の差分値がソートされる。すなわち、それらについて順位付けがなされる。S34では、ソート後の差分値列において、上位M個の差分値が特定される。すなわち、最大の差分値を含むM個の差分値が特定される。それらに対応する複数の画素がそれぞれ修正候補となる。S36では、作業対象画像上において、複数の修正候補が識別表示される。例えば、高輝度表示され、あるいは、特定の色相で表示される。 In FIG. 19, in S30, the membrane likelihood map A and the membrane likelihood map B are compared on a pixel-by-pixel basis. The unit of comparison may be another unit. A difference map is generated by comparing the two membrane likelihood maps A and B. FIG. In S32, a plurality of difference values forming the difference map are sorted. That is, they are ranked. In S34, the top M difference values are identified in the sorted difference value sequence. That is, M difference values are identified, including the largest difference value. A plurality of pixels corresponding to them are candidates for correction. In S36, a plurality of correction candidates are identified and displayed on the work target image. For example, it is displayed with high brightness or with a specific hue.
その表示例が図20に模式的に示されている。作業対象画像320上において、局所部分322,324は、複数の修正候補画像が密集している部分である。通常、このように複数の修正候補画素が局所的に密集する。場合によっては、エッジに沿って、複数の修正候補画素が並ぶ。いずれにしても、このような候補表示によれば、ユーザーにおいて、修正を行った方がよい部分、あるいは、2つの膜推定結果に解離が生じた部分を特定し、その部分に対して、必要な補正を施すことが可能となる。これにより修正作業の正確性を高められる。
A display example thereof is schematically shown in FIG.
更に第4構成例として、並列的に演算されたN個の膜尤度マップに基づいて画素単位でばらつき情報を演算し、そのばらつき情報から修正候補を特定して、それを識別表示する態様が考えられる(但しNは3以上の整数である)。具体的には、タイプの異なるN個の膜推定器と、それらから出力されるN個の膜尤度マップに基づいて画素単位で膜尤度の標準偏差を演算する演算器と、画素単位での膜尤度の標準偏差に基づいて画素単位で修正候補か否かを判定する判定器と、修正候補となる画素を識別表示する表示処理器と、を設けるものである。ばらつき情報として標準偏差以外の情報(例えば分散又はそれに相当する情報)を演算するようにしてもよい。この構成は、N個の推定結果が揃わない場合には膜でない可能性が高いのでそれを修正候補として表示するものである。 Furthermore, as a fourth configuration example, there is a mode in which variation information is calculated for each pixel based on N membrane likelihood maps calculated in parallel, correction candidates are specified from the variation information, and they are identified and displayed. (where N is an integer of 3 or more). Specifically, N membrane estimators of different types, a calculator for computing the standard deviation of the membrane likelihood on a pixel-by-pixel basis based on the N membrane-likelihood maps output from them, and a display processor for identifying and displaying pixels that are candidates for correction. Information other than the standard deviation (for example, variance or information corresponding thereto) may be calculated as the variation information. With this configuration, if the N estimation results are not aligned, it is highly likely that it is not a film, so it is displayed as a correction candidate.
上記実施形態によれば、作業ウインドウに含まれる深さ選択ツールの操作によって、所望の深さに対応する仮膜画像を作業ウインドウ内に表示し、それに対して必要な修正やラベル付けを行うことが可能である。深さを段階的に変更しながら仮膜画像の修正を繰り返すことが容易であり、組織の連続性を考慮しながら、効率的に修正作業を進めることが可能である。また、仮膜画像の表示に際しては、それに対応する(同じ深さの)元画像が背景画像として表示されるので、元画像と仮膜画像とを対比しながら、つまり推定結果の妥当性を確認しながら、修正作業を行える。 According to the above embodiment, by operating the depth selection tool included in the work window, the temporary membrane image corresponding to the desired depth is displayed in the work window, and necessary corrections and labeling can be performed thereon. is possible. It is easy to repeat the correction of the temporary membrane image while changing the depth step by step, and it is possible to efficiently proceed with the correction work while considering the continuity of the tissue. In addition, when the temporary membrane image is displayed, the corresponding original image (of the same depth) is displayed as a background image. While you are at it, you can make corrections.
修正作業に際して、ラベリングされた部分の三次元像を観察できるようにすれば、各深さの仮膜画像の修正やラベル付けの適否を判断することも可能である。また、深さの異なる複数の画像の重合表示によれば、例えば2つの領域の不自然な重なり(修正エラー又はラベリングエラー)等を容易に特定することが可能となる。 If the three-dimensional image of the labeled portion can be observed during the correction work, it is possible to judge the suitability of the correction and labeling of the temporary membrane image at each depth. In addition, superimposed display of a plurality of images with different depths makes it possible to easily identify, for example, an unnatural overlap (correction error or labeling error) between two regions.
複数の元画像が透過型電子顕微鏡や光学顕微鏡によって取得されてもよい。細胞膜ではなく、細胞内腔、細胞内小器官(オルガネラ)、その他が推定器における推定対象とされてもよい。上記実施形態では、連続切片SEM法が採用されていたが、FIB-SEM法、SBF-SEM法、その他の手法が採用されてもよい。空間軸上で連なる画像列ではなく、時間軸上で連なる画像列が処理対象とされてもよい。 A plurality of original images may be acquired with a transmission electron microscope or an optical microscope. Instead of cell membranes, intracellular cavities, intracellular organelles, and the like may be subject to estimation by the estimator. Although the continuous section SEM method was adopted in the above embodiment, FIB-SEM method, SBF-SEM method, and other methods may be adopted. An image sequence that is continuous on the time axis may be processed instead of the image sequence that is continuous on the spatial axis.
上記の実施形態において、二次学習過程を経た膜推定器を有する生物組織画像処理装置(又はそれに相当するソフトウエア)がユーザーに対して提供又は納入されてもよい。二次学習過程を経たパラメータセットがインターネット上のクラウド(サーバー)からユーザー側の情報処理装置へ提供されてもよい。 In the above embodiments, a biological tissue image processing device (or software equivalent thereto) having a film estimator that has undergone a secondary learning process may be provided or delivered to the user. A parameter set that has undergone the secondary learning process may be provided to the user's information processing device from a cloud (server) on the Internet.
10 生物組織画像処理システム、16 走査型電子顕微鏡(SEM)、18 生物組織画像処理装置、42 膜推定器、44 加工ツールユニット(作業支援部)、50 二値化器、52 修正部、54 ラベリング部、56 ボリュームデータ処理部。 10 biological tissue image processing system, 16 scanning electron microscope (SEM), 18 biological tissue image processing device, 42 membrane estimator, 44 processing tool unit (work support unit), 50 binarizer, 52 correction unit, 54 labeling section, 56 volume data processing section;
Claims (17)
前記複数の注目要素画像の中からユーザー選択された空間軸上又は時間軸上の位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の注目要素画像へ反映させる作業支援部と、
を含み、
前記画像生成部は、前記推定器として、異なるタイプの機械学習型の複数の推定器を含み、
前記複数の推定器にそれぞれ前記複数の元画像が入力され、
前記作業支援部は、前記複数の推定器がそれぞれ生成した複数の注目要素尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する、
ことを特徴とする生物組織画像処理装置。 By generating a plurality of target element likelihood maps based on a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue, the target element likelihood map is included in the biological tissue with respect to the plurality of original images. an image generation unit that includes a machine learning estimator that applies processing for estimating a target element, and generates a plurality of target element images from the plurality of original images based on the plurality of target element likelihood maps ;
Extracting a specific attention element image corresponding to a position on the space axis or the time axis selected by the user from the plurality of attention element images, displaying it as a work target image, and modifying the work target image by the user a work support unit for reflecting the above-mentioned specific target element image;
including
The image generator includes a plurality of different types of machine learning estimators as the estimators,
The plurality of original images are input to the plurality of estimators, respectively;
The work support unit identifies and displays correction candidates included in the work target image based on differences between the plurality of target element likelihood maps respectively generated by the plurality of estimators.
A biological tissue image processing apparatus characterized by:
前記注目要素は特定の膜であり、
前記複数の推定器には、第1膜推定器と前記第1膜推定器とは異なるタイプの機械学習型の第2膜推定器とが含まれ、
前記第1膜推定器は、前記複数の元画像に対して前記膜を推定する処理を適用し、これにより複数の第1膜尤度マップを生成し、
前記第2膜推定器は、前記複数の元画像に対して前記膜を推定する処理を適用し、これにより複数の第2膜尤度マップを生成し、
前記作業支援部は、前記複数の第1膜尤度マップと前記複数の第2膜尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing device according to claim 1,
the element of interest is a specific membrane;
the plurality of estimators include a first film estimator and a second film estimator of machine learning type different from the first film estimator;
The first membrane estimator applies a process of estimating the membrane to the plurality of original images, thereby generating a plurality of first membrane likelihood maps;
The second membrane estimator applies a process of estimating the membrane to the plurality of original images, thereby generating a plurality of second membrane likelihood maps;
The work support unit identifies and displays correction candidates included in the work target image based on differences between the plurality of first membrane likelihood maps and the plurality of second membrane likelihood maps.
A biological tissue image processing apparatus characterized by:
前記複数の注目要素画像の中からユーザー選択された空間軸上又は時間軸上の位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の注目要素画像へ反映させる作業支援部と、
を含み、
前記画像生成部は、前記推定器として、第1推定器と第2推定器とを含み、
前記第1推定器は、前記複数の元画像に対して前記生物組織に含まれる細胞膜を推定する処理を適用し、これにより複数の膜尤度マップを生成し、
前記第2推定器は、前記第1推定器と一体化又は別体化された推定器であって、前記複数の元画像に対して前記生物組織に含まれるオルガネラを推定する処理を適用し、これにより複数のオルガネラ尤度マップを生成し、
前記複数のオルガネラ尤度マップに基づいて、前記複数の膜尤度マップを補正する補正部が設けられ、
前記画像生成部は、前記補正部による補正後の複数の膜尤度マップに基づいて、前記複数の注目要素画像として複数の膜画像を生成する、
ことを特徴とする生物組織画像処理装置。 By generating a plurality of target element likelihood maps based on a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue, the target element likelihood map is included in the biological tissue with respect to the plurality of original images. an image generation unit that includes a machine learning estimator that applies processing for estimating a target element, and generates a plurality of target element images from the plurality of original images based on the plurality of target element likelihood maps;
Extracting a specific attention element image corresponding to a position on the space axis or the time axis selected by the user from the plurality of attention element images, displaying it as a work target image, and modifying the work target image by the user a work support unit for reflecting the above-mentioned specific target element image;
including
The image generator includes a first estimator and a second estimator as the estimators,
The first estimator applies processing for estimating cell membranes contained in the biological tissue to the plurality of original images, thereby generating a plurality of membrane likelihood maps;
The second estimator is an estimator integrated with or separated from the first estimator, and applies a process of estimating organelles contained in the biological tissue to the plurality of original images, This generates multiple organelle likelihood maps,
a correction unit that corrects the plurality of membrane likelihood maps based on the plurality of organelle likelihood maps;
The image generation unit generates a plurality of membrane images as the plurality of target element images based on the plurality of membrane likelihood maps corrected by the correction unit.
A biological tissue image processing apparatus characterized by:
前記作業支援部は、前記作業対象画像を含む作業ウインドウを表示し、
前記作業ウインドウには、前記位置を選択する際に操作される位置選択用表示要素が含まれる、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 3 ,
The work support unit displays a work window including the work target image,
The work window includes a position selection display element that is operated when selecting the position.
A biological tissue image processing apparatus characterized by:
前記作業ウインドウには、更に、前記作業対象画像の内容を追加する際に操作される追加用表示要素と、前記作業対象画像の内容を削除する際に操作される削除用表示要素と、が含まれる、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing device according to claim 4 ,
The work window further includes an addition display element operated when adding the content of the work target image and a deletion display element operated when deleting the content of the work target image. to be
A biological tissue image processing apparatus characterized by:
前記作業ウインドウには、更に、前記作業対象画像に対して所定単位でラベリングを行う際に操作されるラベリング用表示要素が含まれる、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to claim 5 ,
The work window further includes labeling display elements that are operated when labeling the work target image in predetermined units.
A biological tissue image processing apparatus characterized by:
前記作業支援部は、前記作業対象画像の表示に際し、その背景画像として、前記選択された位置に対応する特定の元画像を同時に表示する機能を有する、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 6 ,
The work support unit has a function of simultaneously displaying a specific original image corresponding to the selected position as a background image when displaying the work target image.
A biological tissue image processing apparatus characterized by:
前記作業支援部は、前記作業対象画像を表示する機能に加えて、前記選択された位置に対応する特定の元画像を表示する機能、及び、前記選択された位置に対応する特定の注目要素尤度マップを表示する機能を有する、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 7 ,
The work support unit, in addition to the function of displaying the work target image, has a function of displaying a specific original image corresponding to the selected position, and a function of displaying a specific target element likelihood corresponding to the selected position. with the function of displaying a degree map,
A biological tissue image processing apparatus characterized by:
前記作業支援部は、前記選択された位置に対応する、特定の元画像、特定の注目要素尤度マップ、及び、前記特定の注目要素画像の内のいずれかの画像の表示に際し、当該画像に対して、当該画像と同じ種類の画像であって前記選択された位置とは異なる位置に対応する他の画像を重ねて表示する機能を有する、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 8 ,
When displaying any one of the specific original image, the specific target element likelihood map, and the specific target element image corresponding to the selected position, the work support unit may display the image with On the other hand, it has a function of superimposing and displaying another image that is of the same type as the image and that corresponds to a position different from the selected position,
A biological tissue image processing apparatus characterized by:
前記作業支援部は、前記複数の注目要素画像に対するラベル付け結果に基づいて、そのラベル付け結果を表す三次元像を作成しその三次元像を表示する三次元像処理部を有し、
前記三次元像を観察しながら前記作業対象画像の修正及びそれに対するラベル付けを行える、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 9 ,
The work support unit has a three-dimensional image processing unit that creates a three-dimensional image representing the labeling result based on the labeling result for the plurality of target element images and displays the three-dimensional image,
modifying and labeling the image to be worked on while observing the three-dimensional image;
A biological tissue image processing apparatus characterized by:
前記作業支援部は、前記複数の注目要素画像の中における第1の注目要素画像に対するラベル付け結果に基づいて、前記複数の注目要素画像の中における第2の注目要素画像の中から1又は複数のラベル付け候補を選定する候補選定部を有する、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 10 ,
The work support unit selects one or more second target element images among the plurality of target element images based on the labeling result for the first target element image among the plurality of target element images. has a candidate selection unit that selects labeling candidates for
A biological tissue image processing apparatus characterized by:
前記候補選定部は、前記第1の注目要素画像においてラベル付けされた部分と、前記第2の注目要素画像に含まれる各ラベル付け候補と、の間における類似度に基づいて、前記各ラベル付け候補の表示態様を変化させる、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing device according to claim 11 ,
The candidate selection unit performs each labeling based on the degree of similarity between the labeled portion in the first target element image and each labeling candidate included in the second target element image. change the display mode of candidates,
A biological tissue image processing apparatus characterized by:
前記推定器の学習過程には一次学習過程及び二次学習過程が含まれ、
前記二次学習過程では前記作業支援部による修正を経た複数の注目要素画像が前記推定器に与えられる、
ことを特徴とする生物組織画像処理装置。 In the biological tissue image processing apparatus according to any one of claims 1 to 12 ,
the learning process of the estimator includes a primary learning process and a secondary learning process;
In the secondary learning process, a plurality of target element images that have been modified by the work support unit are provided to the estimator.
A biological tissue image processing apparatus characterized by:
前記複数の膜尤度マップに基づいて、前記複数の深さに対応する複数の膜画像を得る工程と、
前記複数の膜画像の中からユーザーにより選択された深さに対応する特定の膜画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の膜画像へ反映させる工程と、
前記複数の膜推定器がそれぞれ生成した複数の膜尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する工程と、
を含む、ことを特徴とする生物組織画像処理方法。 A plurality of original images corresponding to a plurality of depths obtained by microscopic observation of a biological tissue are input to a plurality of different types of machine learning type film estimators, thereby corresponding to the plurality of depths. obtaining a plurality of membrane likelihood maps;
obtaining a plurality of membrane images corresponding to the plurality of depths based on the plurality of membrane likelihood maps;
A specific membrane image corresponding to the depth selected by the user is extracted from the plurality of membrane images and displayed as an image to be worked, and the user's modification of the image to be worked is reflected in the specific membrane image. and
identifying and displaying correction candidates included in the image to be worked on based on differences between the plurality of membrane likelihood maps respectively generated by the plurality of membrane estimators;
A biological tissue image processing method comprising:
前記ユーザーの修正を経た複数の膜画像を利用して前記膜推定器に学習を行わせる工程を含む、
ことを特徴とする生物組織画像処理方法。 In the biological tissue image processing method according to claim 14 ,
training the membrane estimator using a plurality of membrane images that have been modified by the user;
A biological tissue image processing method characterized by:
異なるタイプの機械学習型の複数の膜推定器に対して、生物組織の顕微鏡観察により得られた複数の深さに対応する複数の元画像を入力し、これにより前記複数の深さに対応する複数の膜尤度マップを生成する機能と、
前記複数の膜尤度マップに基づいて、前記複数の深さに対応する複数の膜画像を生成する機能と、
前記複数の膜画像の中からユーザーにより選択された深さに対応する特定の膜画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の膜画像へ反映させる機能と、
前記複数の膜推定器がそれぞれ生成した複数の膜尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する機能と、
を含む、ことを特徴とするプログラム。 A program for processing a biological tissue image in an information processing device,
A plurality of original images corresponding to a plurality of depths obtained by microscopic observation of a biological tissue are input to a plurality of different types of machine learning type film estimators, thereby corresponding to the plurality of depths. the ability to generate multiple membrane likelihood maps;
a function of generating a plurality of membrane images corresponding to the plurality of depths based on the plurality of membrane likelihood maps;
A specific membrane image corresponding to the depth selected by the user is extracted from the plurality of membrane images and displayed as an image to be worked, and the user's modification of the image to be worked is reflected in the specific membrane image. and
a function of identifying and displaying a correction candidate included in the work target image based on the difference between the plurality of membrane likelihood maps respectively generated by the plurality of membrane estimators;
A program characterized by comprising:
前記ユーザーの修正を経た複数の膜画像を利用して前記膜推定器に学習を行わせる機能を含む、
ことを特徴とするプログラム。 17. The program according to claim 16 ,
including a function to train the membrane estimator using a plurality of membrane images that have been modified by the user;
A program characterized by
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099386A JP7181000B2 (en) | 2018-05-24 | 2018-05-24 | BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD |
PCT/JP2019/019739 WO2019225504A1 (en) | 2018-05-24 | 2019-05-17 | Biological tissue image processing device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099386A JP7181000B2 (en) | 2018-05-24 | 2018-05-24 | BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019204312A JP2019204312A (en) | 2019-11-28 |
JP7181000B2 true JP7181000B2 (en) | 2022-11-30 |
Family
ID=68616674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018099386A Active JP7181000B2 (en) | 2018-05-24 | 2018-05-24 | BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7181000B2 (en) |
WO (1) | WO2019225504A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100183217A1 (en) | 2007-04-24 | 2010-07-22 | Seung H Sebastian | Method and apparatus for image processing |
JP2012037861A (en) | 2010-07-12 | 2012-02-23 | Sony Corp | Microscope control device, image display device, image control server, method for generating focus position information, image display method, image control method, and microscopic image control system |
JP2013152426A (en) | 2011-12-27 | 2013-08-08 | Canon Inc | Image processing device, image processing system, image processing method and program |
WO2016190129A1 (en) | 2015-05-22 | 2016-12-01 | コニカミノルタ株式会社 | Image processing device, image processing method, and program for image processing |
JP2017027138A (en) | 2015-07-16 | 2017-02-02 | コニカミノルタ株式会社 | Image processing device, image processing method, and program for image processing |
JP2018011870A (en) | 2016-07-22 | 2018-01-25 | キヤノン株式会社 | Image processing device, image processing system, image processing method, and program |
-
2018
- 2018-05-24 JP JP2018099386A patent/JP7181000B2/en active Active
-
2019
- 2019-05-17 WO PCT/JP2019/019739 patent/WO2019225504A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100183217A1 (en) | 2007-04-24 | 2010-07-22 | Seung H Sebastian | Method and apparatus for image processing |
JP2012037861A (en) | 2010-07-12 | 2012-02-23 | Sony Corp | Microscope control device, image display device, image control server, method for generating focus position information, image display method, image control method, and microscopic image control system |
JP2013152426A (en) | 2011-12-27 | 2013-08-08 | Canon Inc | Image processing device, image processing system, image processing method and program |
WO2016190129A1 (en) | 2015-05-22 | 2016-12-01 | コニカミノルタ株式会社 | Image processing device, image processing method, and program for image processing |
JP2017027138A (en) | 2015-07-16 | 2017-02-02 | コニカミノルタ株式会社 | Image processing device, image processing method, and program for image processing |
JP2018011870A (en) | 2016-07-22 | 2018-01-25 | キヤノン株式会社 | Image processing device, image processing system, image processing method, and program |
Non-Patent Citations (1)
Title |
---|
内橋堅志 他,敵対的生成モデルを用いた電子顕微鏡画像からの神経細胞膜セグメンテーション,第31回人工知能学会全国大会論文集,2017年,4K1-4in2,pp.1-4 |
Also Published As
Publication number | Publication date |
---|---|
JP2019204312A (en) | 2019-11-28 |
WO2019225504A1 (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7181001B2 (en) | BIOLOGICAL TISSUE IMAGE PROCESSING SYSTEM AND MACHINE LEARNING METHOD | |
US9177378B2 (en) | Updating landmarks to improve coregistration as regions of interest are corrected | |
CN110379020B (en) | Laser point cloud coloring method and device based on generation countermeasure network | |
CN109584156A (en) | Micro- sequence image splicing method and device | |
CN111932673B (en) | Object space data augmentation method and system based on three-dimensional reconstruction | |
CN108961144A (en) | Image processing system | |
JP6985856B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
US20200111219A1 (en) | Object tracking using image segmentation | |
US10657712B2 (en) | System and techniques for automated mesh retopology | |
JP2019192215A (en) | 3d quantitative analysis of retinal layers with deep learning | |
US11594051B2 (en) | Microscope system and projection unit | |
JP2019207535A (en) | Information processing apparatus, information processing method, and program | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
WO2019180833A1 (en) | Cell observation device | |
JP2013111359A (en) | Image processing device, method, and program | |
JP7181000B2 (en) | BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD | |
US11508045B1 (en) | Microscopy system and method for generating stylized contrast images | |
JP7181002B2 (en) | BIOLOGICAL TISSUE IMAGE PROCESSING SYSTEM AND MACHINE LEARNING METHOD | |
JP7181003B2 (en) | BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD | |
CN110717910A (en) | CT image target detection method and CT scanner | |
CN115170793A (en) | Small sample image segmentation self-calibration method for industrial product quality inspection | |
JP2011198006A (en) | Object detecting apparatus, object detecting method, and object detecting program | |
CN113744195B (en) | Automatic hRPE cell microtubule detection method based on deep learning | |
JP6843319B2 (en) | Information processing equipment, programs and information processing methods | |
JP6283083B1 (en) | Method and program for associating regions existing in two images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |