JP7181000B2 - BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD - Google Patents

BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD Download PDF

Info

Publication number
JP7181000B2
JP7181000B2 JP2018099386A JP2018099386A JP7181000B2 JP 7181000 B2 JP7181000 B2 JP 7181000B2 JP 2018099386 A JP2018099386 A JP 2018099386A JP 2018099386 A JP2018099386 A JP 2018099386A JP 7181000 B2 JP7181000 B2 JP 7181000B2
Authority
JP
Japan
Prior art keywords
image
membrane
biological tissue
images
estimator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018099386A
Other languages
Japanese (ja)
Other versions
JP2019204312A (en
Inventor
功記 小西
正文 三村
三雄 須賀
秀夫 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jeol Ltd
Nikon Corp
Original Assignee
Jeol Ltd
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jeol Ltd, Nikon Corp filed Critical Jeol Ltd
Priority to JP2018099386A priority Critical patent/JP7181000B2/en
Priority to PCT/JP2019/019739 priority patent/WO2019225504A1/en
Publication of JP2019204312A publication Critical patent/JP2019204312A/en
Application granted granted Critical
Publication of JP7181000B2 publication Critical patent/JP7181000B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Description

本発明は生物組織画像処理装置及び方法に関する。 The present invention relates to a biological tissue image processing apparatus and method.

生物組織の三次元構造を解析し又はそれをイメージングするための手法として、三次元顕微鏡法が知られている。三次元顕微鏡法においては、一般に、電子顕微鏡又は光学顕微鏡が用いられる。例えば、走査型電子顕微鏡(Scanning Electron Microscope)を用いた三次元顕微鏡法として、Focused Ion Beam SEM(FIB-SEM)法、Serial Block-Face SEM(SBF-SEM)法、及び、連続切片SEM(Serial Section SEM)法(非特許文献1を参照)が提案されている。連続切片SEM法は、アレイトモグラフィ(Array-tomography)法とも呼ばれている。 Three-dimensional microscopy is known as a technique for analyzing or imaging the three-dimensional structure of biological tissue. Electron or optical microscopes are generally used in three-dimensional microscopy. For example, as three-dimensional microscopy methods using a scanning electron microscope (Scanning Electron Microscope), Focused Ion Beam SEM (FIB-SEM) method, Serial Block-Face SEM (SBF-SEM) method, and serial section SEM (Serial Section SEM) method (see Non-Patent Document 1) has been proposed. The serial section SEM method is also called array-tomography method.

連続切片SEM法では、生物組織の試料から、深さ方向に連なる複数の試料切片(極薄片)が切り出され、それらが基板上に配列される。基板上の各試料切片が走査型電子顕微鏡により順次観察され、これにより複数の画像が取得される。取得された複数の画像に基づいて、生物組織に含まれる特定の器官(細胞、ミトコンドリア、核等)の三次元構造が解析され、あるいは、それがイメージングされる。連続切片SEM法によれば、既に観察した試料切片を再び観察することが可能である。 In the continuous section SEM method, a plurality of sample sections (ultrathin sections) are cut out from a biological tissue sample and arranged on a substrate. Each sample section on the substrate is sequentially observed by a scanning electron microscope, thereby acquiring a plurality of images. Based on a plurality of acquired images, the three-dimensional structure of specific organs (cells, mitochondria, nuclei, etc.) contained in biological tissue is analyzed or imaged. According to the serial section SEM method, it is possible to re-observe a sample section that has already been observed.

甲賀ほか「連続切片SEM法とゴルジ装置の3D構造解析への応用」顕微鏡,49巻3号,2014.Koga et al., "Serial section SEM method and its application to 3D structure analysis of Golgi apparatus," Microscopy, Vol.49, No.3, 2014.

上記のように、生物組織について、その三次元構造を解析又はイメージングする場合、生物組織における複数の深さに位置する面又は層が観察され、これにより複数の深さに対応する複数の画像が取得される。その上で、各画像に対して、注目要素(Target Component)を検出又は識別する処理が適用される。ここで、注目要素は、画像処理に際して、検出対象又は識別対象となる特定の組織構成要素(又は細胞構成要素)である。最終的な解析対象又は画像化対象が注目要素とされてもよいし、最終的な解析対象又は画像化対象とは別の組織構成要素が注目要素とされてもよい。後者の例を挙げると、細胞膜に囲まれた細胞内腔(細胞質)の画像化に際しては、最初に、細胞膜が注目要素として検出又は識別される。 As described above, when analyzing or imaging the three-dimensional structure of a biological tissue, planes or layers located at multiple depths in the biological tissue are observed, thereby generating multiple images corresponding to the multiple depths. is obtained. Then, a process of detecting or identifying a target component is applied to each image. Here, the target element is a specific tissue component (or cell component) to be detected or identified during image processing. The final target of analysis or imaging may be the target element, or a tissue component different from the final target of analysis or imaging may be the target element. To give an example of the latter, when imaging a cell lumen (cytoplasm) surrounded by a cell membrane, the cell membrane is first detected or identified as an element of interest.

多数の画像において注目要素を検出又は識別する処理の全部を手作業で行うのは非常に大変である。その処理を機械学習型の推定器に行わせることが考えられる。しかし、生物組織は非常に複雑な三次元構造を有しており、また、それには個体差もある。推定結果としての複数の注目要素画像を、目視観察しながら、必要に応じて、マニュアル修正することが必要となる。その作業を支援する手段又はツールの実現が望まれている。なお、時間軸上において並ぶ複数の注目要素画像についても、それらのマニュアル修正を支援する手段又はツールの実現が望まれている。 Manually performing the entire process of detecting or identifying elements of interest in a large number of images is very tedious. It is conceivable to have a machine learning type estimator perform the processing. However, biological tissue has a very complicated three-dimensional structure, and it also has individual differences. It is necessary to perform manual correction as necessary while visually observing a plurality of target element images as estimation results. Implementation of means or tools to support the work is desired. It is desired to implement a means or tool for assisting manual correction of a plurality of target element images arranged on the time axis.

本発明の目的は、生物組織画像処理において、空間軸上又は時間軸上で連なる複数の注目要素画像に対するマニュアル修正を支援することにある。あるいは、本発明の目的は、生物組織画像処理において、複数の注目要素画像に対するマニュアル修正を効率的に又は正確に行えるようにすることにある。 SUMMARY OF THE INVENTION An object of the present invention is to support manual correction of a plurality of target element images that are continuous on the spatial axis or the time axis in biological tissue image processing. Another object of the present invention is to enable efficient or accurate manual correction of a plurality of target element images in biological tissue image processing.

本発明に係る生物組織画像処理装置は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含み、前記複数の元画像から複数の注目要素画像を生成する画像生成部と、前記複数の注目要素画像の中からユーザー選択された空間軸上又は時間軸上の位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の注目要素画像へ反映させる作業支援部と、を含むものである。 A biological tissue image processing apparatus according to the present invention applies a process of estimating a target element contained in the biological tissue to a plurality of original images that are consecutively obtained on the spatial axis or the time axis obtained by observing the biological tissue. An image generator that includes a machine learning type estimator and generates a plurality of target element images from the plurality of original images, and a user-selected position on the spatial axis or the time axis from the plurality of target element images and a work support unit for retrieving a specific attention element image corresponding to and displaying it as a work target image, and for reflecting a user's modification of the work target image to the specific attention element image.

本発明に係る生物組織画像処理方法は、機械学習型の膜推定器に対して、生物組織の顕微鏡観察により得られた複数の深さに対応する複数の元画像を入力し、これにより前記複数の深さに対応する複数の膜尤度マップを得る工程と、前記複数の膜尤度マップに基づいて、前記複数の深さに対応する複数の膜画像を得る工程と、前記複数の膜画像の中からユーザーにより選択された深さに対応する特定の膜画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の膜画像へ反映させる工程と、を含むものである。 In the biological tissue image processing method according to the present invention, a plurality of original images corresponding to a plurality of depths obtained by microscopic observation of a biological tissue are input to a machine-learning-type membrane estimator. obtaining a plurality of membrane likelihood maps corresponding to the depths of the membrane, obtaining a plurality of membrane images corresponding to the plurality of depths based on the plurality of membrane likelihood maps, and the plurality of membrane images extracting a specific membrane image corresponding to the depth selected by the user from among the images, displaying it as an image to be worked, and reflecting the user's modification of the image to be worked on to the specific membrane image; includes.

上記方法は、ハードウエアの機能又はソフトウエアの機能として実現され、後者の場合、その機能を実行するプログラムが、ネットワーク又は可搬型記憶媒体を介して、情報処理装置へインストールされる。情報処理装置の概念には、パーソナルコンピュータ、電子顕微鏡システム、光学顕微鏡システム等が含まれる。 The above method is implemented as a hardware function or a software function, and in the latter case, a program for executing the function is installed in the information processing apparatus via a network or a portable storage medium. The concept of information processing apparatus includes a personal computer, an electron microscope system, an optical microscope system, and the like.

本発明によれば、生物組織画像処理において、複数の注目要素画像に対するマニュアル修正を支援できる。あるいは、本発明によれば、生物組織画像処理において、複数の注目要素画像に対するマニュアル修正を効率的に又は正確に行える。 Advantageous Effects of Invention According to the present invention, manual correction of a plurality of target element images can be supported in biological tissue image processing. Alternatively, according to the present invention, in biological tissue image processing, manual correction can be efficiently or accurately performed on a plurality of target element images.

実施形態に係る生物組織画像処理システムを示す概念図である。1 is a conceptual diagram showing a biological tissue image processing system according to an embodiment; FIG. 生物組織画像処理装置の本体の第1構成例を示すブロック図である。1 is a block diagram showing a first configuration example of a main body of a biological tissue image processing apparatus; FIG. 機械学習型膜推定器の構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of a machine-learning film estimator; 膜尤度マップに基づく仮膜画像の生成を示す図である。FIG. 11 illustrates generation of a temporary membrane image based on a membrane likelihood map; 加工ツールユニットが有する複数の機能を示す図である。FIG. 4 is a diagram showing a plurality of functions possessed by the processing tool unit; 作業ウインドウの第1例を示す図である。FIG. 4 is a diagram showing a first example of a work window; 表示処理を説明するための図である。It is a figure for demonstrating a display process. 他の表示処理を説明するための図である。It is a figure for demonstrating another display process. 補間処理の第1例を説明するための図である。It is a figure for demonstrating the 1st example of an interpolation process. 補間処理の第2例を説明するための図である。It is a figure for demonstrating the 2nd example of an interpolation process. 修正前の膜画像と修正後の膜画像とを示す図である。FIG. 10 is a diagram showing a film image before correction and a film image after correction; ラベリング処理の一例を示す図である。It is a figure which shows an example of labeling processing. 複数のラベル付け候補の提示を示す図である。FIG. 11 illustrates presentation of multiple labeling candidates; 管理テーブルの一例を示す図である。It is a figure which shows an example of a management table. 作業ウインドウの第2例を示す図である。FIG. 10 is a diagram showing a second example of a work window; 三次元像を示す図である。FIG. 3 is a diagram showing a three-dimensional image; 生物組織画像処理装置の本体の第2構成例を示すブロック図である。FIG. 10 is a block diagram showing a second configuration example of the main body of the biological tissue image processing apparatus; 生物組織画像処理装置の本体の第3構成例を示すブロック図である。FIG. 11 is a block diagram showing a third configuration example of the main body of the biological tissue image processing apparatus; 第3構成例における処理内容を示すフローチャートである。13 is a flow chart showing processing contents in the third configuration example. 第3構成例における処理結果を示す図である。It is a figure which shows the process result in a 3rd structural example.

(A)実施形態の概要
実施形態に係る生物組織画像処理装置には、機械学習型の推定器を含む画像生成部、及び、作業支援部が含まれる。機械学習型の推定器は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して、生物組織に含まれる注目要素(より正確には注目要素の像)を推定する処理を適用するものである。この処理により、複数の元画像から複数の注目要素画像が生成される。作業支援部は、複数の注目要素画像の中からユーザー選択された位置に対応する特定の注目要素画像を取り出して、それを作業対象画像として表示し、作業対象画像に対するユーザーの修正を特定の注目要素画像へ反映させるものである。
(A) Outline of Embodiment A biological tissue image processing apparatus according to an embodiment includes an image generation unit including a machine learning estimator, and a work support unit. A machine-learning estimator extracts an element of interest (more precisely, an image of an element of interest) included in the biological tissue for a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue. is applied. Through this processing, a plurality of target element images are generated from a plurality of original images. The work support unit extracts a specific attention element image corresponding to a position selected by the user from among the plurality of attention element images, displays it as an image to be worked, and performs correction of the image to be worked by the user. This is reflected in the element image.

上記構成によれば、空間軸上又は時間軸上の位置を選択すると、選択された位置に対応する特定の注目要素画像が作業対象画像として表示される。表示された作業対象画像を修正すれば、その修正が作業対象画像つまり特定の注目要素画像に反映される。修正作業過程において、例えば、空間軸上又は時間軸上で隣接する2つの注目要素画像を対比したい場合、空間軸上又は時間軸上で隣接する2つの位置を交互に選択すればよい。具体的には、例えば、空間軸上のある深さから浅い側又は深い側へ、深さを順次選択しながら、表示された個々の作業対象画像に対して必要な修正を施すようにしてもよい。このように、上記構成によれば、複数の位置に対応する複数の注目要素画像を修正する場合に、作業効率を高められ、あるいは、作業の正確性を高められる。実施形態においては、空間軸としての深さ軸上において並ぶ複数の元画像が推定器に入力されるが、時間軸上において並ぶ複数の画像が推定器に入力されてもよい。 According to the above configuration, when a position on the spatial axis or the time axis is selected, a specific target element image corresponding to the selected position is displayed as the work target image. If the displayed image for work is modified, the modification is reflected in the image for work, that is, the specific focused element image. In the correction work process, for example, when it is desired to compare two target element images adjacent on the spatial axis or temporal axis, two adjacent positions on the spatial axis or temporal axis may be alternately selected. Specifically, for example, the depth may be selected sequentially from a certain depth on the spatial axis to the shallow side or the deep side, and necessary corrections may be made to the displayed individual work target images. good. Thus, according to the above configuration, when correcting a plurality of target element images corresponding to a plurality of positions, it is possible to improve work efficiency or improve work accuracy. In the embodiment, a plurality of original images aligned on the depth axis as the spatial axis are input to the estimator, but a plurality of images aligned on the time axis may be input to the estimator.

注目要素は、特定の組織構成要素又は特定の細胞構成要素であり、実施形態において、注目要素は細胞膜である。細胞膜によって囲まれた細胞内腔(細胞質)、細胞内の小器官(オルガネラ)等が注目要素とされてもよい。機械学習型の推定器は、例えばCNNで構成されるが、他のタイプの機械学習型の推定器が利用されてもよい。実施形態において、作業支援部は、推定器の学習過程で推定器に与えられる正解画像を生成する場合においても利用され得る。実施形態においては、連続切片SEM法(アレイトモグラフィ法)により複数の元画像が取得されているが、FIB-SEM法、SBF-SEM法、その他の手法により複数の元画像が取得されてもよい。各注目要素画像を修正するユーザーは、通常、生物組織について一定の知識を有する専門家である。他の者において各注目要素画像が修正されてもよい。 The element of interest is a particular tissue component or a particular cellular component, and in embodiments the element of interest is a cell membrane. A cell lumen (cytoplasm) surrounded by a cell membrane, an intracellular organelle (organelle), and the like may be the elements of interest. The machine-learning estimator is for example a CNN, but other types of machine-learning estimators may be used. In an embodiment, the work support unit can also be used when generating a correct image to be given to the estimator during the learning process of the estimator. In the embodiment, a plurality of original images are acquired by serial section SEM method (array tomography method), but even if a plurality of original images are acquired by FIB-SEM method, SBF-SEM method, or other methods, good. A user who modifies each element-of-interest image is usually an expert with some knowledge of biological tissue. Each attention element image may be modified by others.

実施形態において、推定器は、複数の元画像に基づいて複数の注目要素尤度マップを生成し、画像生成部は、複数の注目要素尤度マップに基づいて複数の注目要素画像を生成する画像生成器を含む。すなわち、実施形態において、画像生成部は、推定器と、画像生成器と、により構成される。それら全体が機械学習型推定部により構成されてもよい。画像生成器は例えば二値化器により構成される。 In an embodiment, the estimator generates a plurality of element-of-interest likelihood maps based on a plurality of original images, and the image generator generates a plurality of element-of-interest images based on the plurality of element-of-interest likelihood maps. Contains a generator. That is, in the embodiment, the image generator is composed of an estimator and an image generator. All of them may be configured by a machine learning type estimator. The image generator is composed of, for example, a binarizer.

実施形態において、作業支援部は、作業対象画像を含む作業ウインドウを表示し、作業ウインドウには、位置を選択する際に操作される位置選択用表示要素が含まれる。この構成によれば、位置選択用表示要素を操作することにより、位置を簡便に選択できる。位置選択用表示要素として、所定の軸上をスライド運動する表示要素としてのスライダを有するものを採用するのが望ましい。そのような構成によれば、選択する位置を直感的に認識し易くなり、操作性を向上できる。実施形態において、位置選択用表示要素は深さ選択用表示要素である。 In the embodiment, the work support unit displays a work window including a work target image, and the work window includes position selection display elements that are operated when selecting a position. According to this configuration, the position can be easily selected by operating the display element for position selection. As the display element for position selection, it is desirable to employ a slider as a display element that slides along a predetermined axis. With such a configuration, it becomes easier to intuitively recognize the position to be selected, and operability can be improved. In embodiments, the position selection display element is a depth selection display element.

実施形態において、作業ウインドウには、更に、作業対象画像の内容を追加する際に操作される追加用表示要素と、作業対象画像の内容を削除する際に操作される削除用表示要素と、が含まれる。例えば、作業対象画像として細胞膜を示す膜画像が表示されている状態において、追加用表示要素の操作によって膜画像中における膜途切れ部分に複数の膜画素が補間され、一方、削除用表示要素の操作によって膜画像中における誤推定部分(例えばミトコンドリアの膜に相当する複数の膜画素)が削除される。 In the embodiment, the work window further includes an addition display element that is operated when adding the content of the work target image and a deletion display element that is operated when deleting the content of the work target image. included. For example, in a state in which a membrane image showing cell membranes is displayed as an image to be worked on, a plurality of membrane pixels are interpolated in membrane discontinuities in the membrane image by operating the display element for addition, while the display element for deletion is operated. removes erroneously estimated portions (for example, a plurality of membrane pixels corresponding to mitochondrial membranes) in the membrane image.

実施形態において、作業ウインドウには、更に、作業対象画像に対して所定単位でラベリングを行う際に操作されるラベリング用表示要素が含まれる。ラベリングは、三次元の繋がり関係を管理するための属性付け、つまりラベル付けである。例えば、ある深さにおける細胞内領域と他の深さにおける細胞内領域が同じ細胞に属すると判断された場合、それらの領域に対して同じラベルが与えられる。その作業はアノテーションに相当するものである。実施形態においては、作業対象画像の修正を行いつつ、ラベリングを行えるので、作業効率を高められる。ラベリングが自動的に行われてもよい。あるいは、ラベリングに際して1又は複数の候補が自動的に選定及び提示されてもよい。 In the embodiment, the work window further includes labeling display elements that are operated when labeling the work target image in predetermined units. Labeling is attribution, that is, labeling, for managing three-dimensional connections. For example, if an intracellular region at one depth and an intracellular region at another depth are determined to belong to the same cell, the same label is given to those regions. The work is equivalent to annotation. In the embodiment, since the labeling can be performed while correcting the image to be worked on, work efficiency can be improved. Labeling may be done automatically. Alternatively, one or more candidates may be automatically selected and presented for labeling.

実施形態において、作業支援部は、作業対象画像の表示に際し、その背景画像として、選択された位置に対応する特定の元画像を同時に表示する機能を有する。この構成によれば、元画像を参照しながら、作業対象画像を修正し又はラベル付けすることが可能となるので、その作業性又はその正確性を高められる。合成表示される元画像及び作業支援画像を相互に識別できるように、望ましくは、それらの内で一方の画像が白黒で表示され、それらの内で他方がカラーで表示される。 In the embodiment, the work support unit has a function of simultaneously displaying a specific original image corresponding to the selected position as a background image when displaying the work target image. According to this configuration, it is possible to correct or label the image to be worked while referring to the original image, so that workability or accuracy can be improved. Preferably, one of the images is displayed in black and white and the other is displayed in color so that the original image and the work support image to be synthesized and displayed can be distinguished from each other.

実施形態において、作業支援部は、作業対象画像を表示する機能に加えて、選択された位置に対応する特定の元画像を表示する機能、及び、選択された位置に対応する特定の注目要素尤度マップを表示する機能を有する。元画像が表示されれば、その元画像を参考にしながら、作業対象画像を修正することが可能となる。また、注目要素尤度マップが表示されれば、推定器の推定結果の妥当性や二値化処理の結果等の妥当性を評価することが可能となる。実施形態においては、作業支援部により、複数の元画像からなる第1の画像スタック、複数の注目要素尤度マップからなる第2の画像スタック、及び、複数の注目要素画像からなる第3の画像スタック、の3つのスタックが相互に対応付けられながら管理される。 In the embodiment, in addition to the function of displaying the image to be worked on, the work support unit has a function of displaying a specific original image corresponding to the selected position, and a function of displaying a specific target element likelihood corresponding to the selected position. It has a function to display the degree map. When the original image is displayed, it is possible to correct the image to be worked on while referring to the original image. Also, if the target element likelihood map is displayed, it becomes possible to evaluate the validity of the estimation result of the estimator, the validity of the result of the binarization processing, and the like. In the embodiment, the work support unit generates a first image stack consisting of a plurality of original images, a second image stack consisting of a plurality of element-of-interest likelihood maps, and a third image consisting of a plurality of element-of-interest likelihood maps. Stacks are managed while being associated with each other.

実施形態において、作業支援部は、選択された位置に対応する、特定の元画像、特定の注目要素尤度マップ、及び、特定の注目要素画像の内のいずれかの画像の表示に際し、当該画像に対して、当該画像と同じ種類の画像であって、選択された位置とは異なる位置に対応する他の画像を重ねて表示する機能を有する。空間軸上又は時間軸上の組織の連続性から、当該軸上において並ぶ複数の画像を同時に重ねて表示すれば、相互の対比から、修正の要否を的確に判断することが可能となる。また、そのような重合表示によれば、ラベル付けを正確に行うことが可能となる。重合表示に際しては、少なくとも上側の画像の透過度を可変できるように構成するのが望ましい。空間軸上又は時間軸上において連なる3枚以上の画像が重ね合わされてもよい。 In the embodiment, when displaying any one of the specific original image, the specific target element likelihood map, and the specific target element image corresponding to the selected position, the work support unit displays the image , another image that is of the same type as the image and that corresponds to a position different from the selected position is superimposed and displayed. From the continuity of tissue on the spatial axis or the time axis, if a plurality of images aligned on the axis are displayed in a superimposed manner, it is possible to accurately judge the necessity of correction from the mutual comparison. In addition, such a superimposed display enables accurate labeling. In overlapping display, it is desirable to configure so that the transparency of at least the upper image can be varied. Three or more consecutive images may be superimposed on the spatial axis or the temporal axis.

実施形態において、作業支援部は、複数の注目要素画像に対するラベル付け結果に基づいて、そのラベル付け結果を表す三次元像を作成しその三次元像を表示する三次元像処理部を有する。この構成によれば、三次元像を観察しながら、作業対象画像の修正やラベル付け結果の修正を行える。三次元像によれば、各深さで行われた修正やラベル付けの結果の適否を容易に判断することが可能となる。例えば、ラベル付けが誤っている場合、三次元像が不自然に歪んだり、三次元像において不自然な欠損部又は突起部が生じたりする。そのような情報に基づいてラベル付け結果等が修正される。 In the embodiment, the work support unit has a 3D image processing unit that creates a 3D image representing the labeling results based on the labeling results for a plurality of target element images and displays the 3D image. According to this configuration, it is possible to correct the image to be worked on and the result of labeling while observing the three-dimensional image. The three-dimensional image makes it possible to easily judge the adequacy of the corrections and labeling done at each depth. For example, incorrect labeling can result in unnatural distortion of the three-dimensional image, or unnatural defects or protrusions in the three-dimensional image. Labeling results and the like are modified based on such information.

実施形態において、作業支援部は、複数の注目要素画像の中における第1の注目要素画像に対するラベル付け結果に基づいて、複数の注目要素画像の中における第2の注目要素画像の中から1又は複数のラベル付け候補を選定する候補選定部を有する。この構成は、空間軸又は時間軸上の組織の連続性を前提として、ある位置でのラベル付け結果を、他の位置でのラベル付けに役立てるものである。この構成によれば、ラベル付けに際してのユーザーの負担が軽減される。 In the embodiment, the work support unit selects one or It has a candidate selection unit that selects a plurality of labeling candidates. This configuration assumes tissue continuity on the spatial or temporal axis, and the labeling result at one position is useful for labeling at another position. This configuration reduces the user's burden in labeling.

実施形態において、候補選定部は、第1の注目要素画像においてラベル付けされた部分と、第2の注目要素画像に含まれる各ラベル付け候補と、の間における類似度に基づいて、各ラベル付け候補の表示態様を変化させる。この構成によれば、各ラベル付け候補の表示態様から、繋がり可能性の大小を直感的に認識できるので、ユーザーによるラベル付けを支援することが可能となる。 In the embodiment, the candidate selection unit performs each labeling based on the degree of similarity between the labeled portion in the first target element image and each labeling candidate included in the second target element image. Change the display mode of candidates. According to this configuration, the degree of connection possibility can be intuitively recognized from the display mode of each labeling candidate, so it is possible to assist the user in labeling.

実施形態に係る生物組織画像処理装置は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して生物組織に含まれる特定の膜を推定する処理を適用し、これにより複数の位置に対応する複数の第1膜尤度マップを生成する機械学習型の第1膜推定器と、第1膜推定器とは異なるタイプの機械学習型の膜推定器であって、複数の元画像に対して特定の膜を推定する処理を適用し、これにより複数の第2膜尤度マップを生成する機械学習型の第2膜推定器と、複数の第1膜尤度マップに基づいて複数の位置に対応する複数の膜画像を生成する画像生成器と、複数の注目要素画像の中からユーザーにより選択された位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示する作業支援部であって、複数の第1膜尤度マップと複数の第2膜尤度マップの差分に基づいて作業対象画像に含まれる修正候補を識別表示する作業支援部と、を含むものである。この構成は、2種類の機械学習型の膜推定器を併用するものである。2つの膜推定器の推定結果が解離している部分について、ユーザーに対して修正を促せる。なお、膜以外の注目要素が推定対象とされてもよい。3種類以上の膜推定器が利用されてもよい。 A biological tissue image processing apparatus according to an embodiment applies a process of estimating a specific film included in a biological tissue to a plurality of original images obtained by observing the biological tissue and continuing on the spatial axis or the time axis. , thereby generating a plurality of first membrane likelihood maps corresponding to a plurality of positions, and a machine learning membrane estimator of a different type from the first membrane estimator. a machine-learning second membrane estimator that applies a process of estimating a specific membrane to a plurality of original images and thereby generates a plurality of second membrane likelihood maps; a plurality of first membrane likelihood maps; An image generator for generating a plurality of film images corresponding to a plurality of positions based on a degree map; A work support unit for displaying as a work target image, the work support unit identifying and displaying correction candidates included in the work target image based on differences between the plurality of first membrane likelihood maps and the plurality of second membrane likelihood maps. and This configuration uses two types of machine-learning film estimators together. The user can be urged to correct the part where the estimation results of the two membrane estimators are dissociated. Note that an element of interest other than the film may be an estimation target. More than two types of film estimators may be used.

上記の推定器を含むN(但しNは3以上の整数)個の注目要素推定器を設け、N個の注目要素推定器から出力されたN個の注目要素尤度マップに基づいて作業対象画像に含まれる修正候補を特定しそれを識別表示してもよい。その場合、N個の注目要素尤度マップに基づいて、画素ごとに注目要素尤度のばらつき情報を演算し、そのばらつき情報に基づいて修正候補となる画素を特定するようにしてもよい。ばらつき情報は例えば標準偏差である。 N target element estimators including the above estimators (where N is an integer of 3 or more) are provided, and based on the N target element likelihood maps output from the N target element estimators, a work target image may be identified and identified. In this case, based on the N target element likelihood maps, the target element likelihood variation information may be calculated for each pixel, and correction candidate pixels may be specified based on the variation information. Variation information is, for example, standard deviation.

実施形態に係る生物組織画像処理装置は、生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に対して生物組織に含まれる細胞膜を推定する処理を適用し、これにより複数の位置に対応する複数の膜尤度マップを生成する機械学習型の第1推定器と、第1推定器と一体化又は別体化された推定器であって、複数の元画像に対して生物組織に含まれるオルガネラを推定する処理を適用し、これにより複数のオルガネラ尤度マップを生成する機械学習型の第2推定器と、複数のオルガネラ尤度マップに基づいて、複数の膜尤度マップを補正する補正部と、補正後の複数の膜尤度マップに基づいて複数の位置に対応する複数の膜画像を生成する画像生成器と、複数の膜画像の中からユーザーにより選択された位置に対応する特定の膜画像を取り出してそれを作業対象画像として表示する作業支援部と、を含むものである。この構成は、細胞膜以外の注目要素としてのオルガネラ(細胞内小器官)を別途推定し、その推定結果を膜尤度マップの補正で利用するものである。細胞膜の推定に際しては、オルガネラ又はその膜が誤認対象となりやすい。上記構成は、オルガネラ又はその膜を別途推定し、その推定結果に基づいて、膜尤度マップを優良化するものである。単一の推定器が第1推定器及び第2推定器として機能してもよい。第1推定器と第2推定器がそれぞれ別々の推定器により構成されてもよい。なお、細胞膜とオルガネラとの組み合わせ以外の組み合わせに対して、上記同様の構成を適用することも考えられる。3つ以上の推定対象が並列的に推定されてもよい。 A biological tissue image processing apparatus according to an embodiment applies a process of estimating a cell membrane contained in a biological tissue to a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue, A machine learning type first estimator that generates a plurality of membrane likelihood maps corresponding to a plurality of positions by and an estimator integrated or separate from the first estimator, wherein A machine learning type second estimator that generates a plurality of organelle likelihood maps by applying a process of estimating organelles contained in a biological tissue, and a plurality of membranes based on the plurality of organelle likelihood maps. A correction unit that corrects the likelihood map, an image generator that generates a plurality of membrane images corresponding to a plurality of positions based on the plurality of corrected membrane likelihood maps, and a user selects from among the plurality of membrane images. a work support unit for extracting a specific film image corresponding to the determined position and displaying it as a work target image. In this configuration, organelles (organelles in cells) as elements of interest other than cell membranes are separately estimated, and the estimation results are used in correcting the membrane likelihood map. When estimating cell membranes, organelles or their membranes are likely to be misidentified. The above configuration separately estimates the organelle or its membrane, and improves the membrane likelihood map based on the estimation result. A single estimator may function as the first estimator and the second estimator. The first estimator and the second estimator may be composed of separate estimators. It is also conceivable to apply the same configuration as described above to combinations other than the combination of cell membranes and organelles. Three or more estimation targets may be estimated in parallel.

実施形態においては、推定器の学習過程には、一次学習過程及び二次学習過程が含まれ、二次学習過程では作業支援部による修正を経た複数の注目要素画像が推定器に与えられる。すなわち、推定器の学習過程及びその後の画像処理過程の両方において作業支援部が機能する。 In the embodiment, the estimator's learning process includes a primary learning process and a secondary learning process, and in the secondary learning process, the estimator is provided with a plurality of target element images that have been modified by the work support unit. That is, the work support unit functions both in the learning process of the estimator and in the subsequent image processing process.

(B)実施形態の詳細
図1には、実施形態に係る生物組織画像処理システムが示されている。図示された生物組織画像処理システム10は、生物組織について、三次元構造の解析やイメージングを行うためのシステムである。この生物組織画像処理システムを利用して、例えば、人体又は動物の脳内の神経細胞を三次元的に表現した画像が生成される。生物中の任意の組織、器官、その他が解析対象又はイメージング対象になり得る。
(B) Details of Embodiment FIG. 1 shows a biological tissue image processing system according to an embodiment. The illustrated biological tissue image processing system 10 is a system for analyzing and imaging the three-dimensional structure of biological tissue. Using this biological tissue image processing system, for example, an image that expresses nerve cells in the brain of a human body or an animal three-dimensionally is generated. Any tissue, organ, etc. in an organism can be an analysis target or an imaging target.

図1に示す構成例において、生物組織画像処理システム10は、試料前処理装置12、連続切片作成装置14、走査型電子顕微鏡(SEM)16、及び、生物組織画像処理装置18によって構成されている。 In the configuration example shown in FIG. 1, the biological tissue image processing system 10 includes a sample pretreatment device 12, a serial section preparation device 14, a scanning electron microscope (SEM) 16, and a biological tissue image processing device 18. .

試料前処理装置12は、生体から取り出された組織20に対して前処理を行う装置であり、又は、その前処理のための各種の器具に相当する。前処理として、固定処理、染色処理、導電処理、樹脂包埋処理、整形処理等が挙げられる。それらの全部又は一部が、必要に応じて、実施される。染色処理においては四酸化オスミウム、酢酸ウラン、クエン酸鉛等が用いられてもよい。染色処理が以下に説明する各試料切片に対して行われてもよい。前処理に含まれる一部又は全部の工程が手作業によって行われてもよい。 The sample pretreatment device 12 is a device that performs pretreatment on the tissue 20 extracted from the living body, or corresponds to various instruments for the pretreatment. Examples of pretreatment include fixing treatment, dyeing treatment, conductive treatment, resin embedding treatment, and shaping treatment. All or part of them are implemented as necessary. Osmium tetroxide, uranium acetate, lead citrate, etc. may be used in the dyeing treatment. A staining process, described below, may be performed on each sample section. Some or all of the steps included in the pretreatment may be performed manually.

連続切片作成装置14は、SEM16の外部に設けられ、あるいは、SEM16の内部に設けられる。連続切片作成装置14により、前処理後のキュービック状の試料から、深さ方向(Z方向)に並ぶ複数の試料切片24が切り出される。その際には、ウルトラミクロトーム等の装置が利用されてもよい。その作業が手作業で行われてもよい。複数の試料切片24により、試料切片群22が構成される。実際には、切り出された複数の試料切片は、基板28上に所定の配列で配置される。基板28は、例えば、ガラス基板、シリコーン基板である。図1においては、基板28上に、2つの試料切片列からなる試料切片アレイ22Aが構成されているが、それは例示に過ぎない。基板28及び試料切片アレイ22Aにより、試料ユニット26が構成される。 The serial sectioning device 14 is provided outside the SEM 16 or inside the SEM 16 . A plurality of sample segments 24 arranged in the depth direction (Z direction) are cut out from the cubic sample after pretreatment by the continuous slice creating device 14 . In that case, a device such as an ultramicrotome may be used. The work may be done manually. A plurality of sample segments 24 constitute a sample segment group 22 . In practice, a plurality of cut sample pieces are arranged in a predetermined array on the substrate 28 . The substrate 28 is, for example, a glass substrate or a silicone substrate. In FIG. 1, the sample slice array 22A consisting of two rows of sample slices is formed on the substrate 28, but this is merely an example. A sample unit 26 is composed of the substrate 28 and the sample slice array 22A.

ちなみに、個々の試料切片24における縦及び横のサイズは、例えば、nmオーダー又はμmオーダーである。それ以上のサイズ(例えばmmオーダーのサイズ)を有する試料切片24が作製されてもよい。個々の試料切片24の厚み(Z方向のサイズ)は、例えば、数nm~数百nmであり、実施形態においては、その厚みは例えば30~70nmの範囲内である。本願明細書において挙げる数値はいずれも例示である。 Incidentally, the vertical and horizontal sizes of each sample section 24 are, for example, nm order or μm order. A sample section 24 having a larger size (for example, a size on the order of mm) may be produced. The thickness (size in the Z direction) of each sample slice 24 is, for example, several nanometers to several hundreds of nanometers. All numerical values given in the specification of the present application are examples.

SEM16は、電子銃、偏向器(走査器)、対物レンズ、試料室、検出器34等を有している。試料室内には、試料ユニット26を保持するステージ、及び、そのステージを移動させる移動機構、が設けられている。SEM16内の制御部により、移動機構の動作つまりステージの移動が制御される。具体的には、試料切片アレイ22Aの中から選択された特定の試料切片24に対して電子ビーム30が照射される。照射位置を走査(例えばラスタースキャン)させながら、各照射位置から放出される反射電子32が検出器34で検出される。これによりSEM画像が形成される。これが試料切片24ごとに実行される。その結果として、複数の試料切片24の観察結果である複数のSEM画像38が得られる。複数のSEM画像38はSEM画像スタック36を構成する。 The SEM 16 has an electron gun, deflector (scanner), objective lens, sample chamber, detector 34 and the like. A stage for holding the sample unit 26 and a moving mechanism for moving the stage are provided in the sample chamber. A control unit in the SEM 16 controls the operation of the moving mechanism, that is, the movement of the stage. Specifically, the electron beam 30 is applied to a specific sample section 24 selected from the sample section array 22A. The backscattered electrons 32 emitted from each irradiation position are detected by the detector 34 while scanning the irradiation position (for example, raster scanning). This forms an SEM image. This is done for each sample section 24 . The result is a plurality of SEM images 38 that are observations of a plurality of sample sections 24 . A plurality of SEM images 38 constitute an SEM image stack 36 .

なお、Z方向に直交する方向をX方向と定義し、Z方向及びX方向に直交する方向をY方向と定義した場合、望ましくは、X方向観察範囲及びY方向観察範囲が互いに一致するように、各試料切片24における観察範囲(電子ビーム二次元走査範囲)が定められる。反射電子32ではなく、二次電子等が検出されてもよい。SEM16内の制御部は、電子ビーム30を形成するための加速電圧を可変する機能も備えている。生物組織、生物組織中の観察対象、観察目的等に応じて、電子ビーム形成時の加速電圧が切り替えられてもよい。一般に、後述する膜推定器の学習過程及びその後の生物組織の解析過程では同じ加速電圧が設定される。 If the direction orthogonal to the Z direction is defined as the X direction, and the direction orthogonal to the Z direction and the X direction is defined as the Y direction, it is preferable that the observation range in the X direction and the observation range in the Y direction match each other. , an observation range (electron beam two-dimensional scanning range) in each sample section 24 is determined. Secondary electrons or the like may be detected instead of the backscattered electrons 32 . A control unit in the SEM 16 also has a function of varying the acceleration voltage for forming the electron beam 30 . The acceleration voltage during electron beam formation may be switched according to the biological tissue, the object to be observed in the biological tissue, the purpose of observation, and the like. In general, the same acceleration voltage is set in the learning process of the film estimator and the subsequent analysis process of the biological tissue, which will be described later.

上記のSEM画像スタック36は、Z方向における複数の深さ(深さ軸上の複数の深さ)に対応する(換言すればデータ記憶空間内でZ方向に並ぶ)複数のSEM画像38により構成される。各SEM画像38は、生物組織画像処理装置18側から見て、元画像又は入力画像である。各SEM画像38は電子データであり、各SEM画像がSEM16から生物組織画像処理装置18へ、ネットワーク又は可搬型記憶媒体を介して、伝送される。 The SEM image stack 36 is composed of multiple SEM images 38 corresponding to multiple depths in the Z direction (multiple depths on the depth axis) (in other words, aligned in the Z direction in the data storage space). be done. Each SEM image 38 is an original image or an input image viewed from the biological tissue image processing device 18 side. Each SEM image 38 is electronic data, and each SEM image is transmitted from the SEM 16 to the biological tissue image processing device 18 via a network or a portable storage medium.

生物組織画像処理装置18は、図示の構成例において、パーソナルコンピュータによって構成されている。生物組織画像処理装置18がSEM16内に組み込まれてもよく、生物組織画像処理装置18がSEM16等を制御するシステムコンピュータ内に組み込まれてもよい。生物組織画像処理装置18によりSEM16が制御されてもよい。 The biological tissue image processing apparatus 18 is configured by a personal computer in the illustrated configuration example. Biological tissue imaging device 18 may be incorporated within SEM 16, or biological tissue imaging device 18 may be incorporated within a system computer that controls SEM 16 and the like. SEM 16 may be controlled by biological tissue imaging device 18 .

生物組織画像処理装置18は、本体40、表示器46及び入力器48を有している。本体40が有する複数の機能については、後に、図2以降の各図に基づいて詳しく説明する。図1においては、本体40が発揮する代表的な2つの機能(膜推定機能及び加工機能)がそれぞれブロックとして表現されている。具体的には、本体40は、機械学習型の膜推定器42及び加工ツールユニット(作業支援部)44を有している。表示器46は、LCD、有機EL表示デバイス等によって構成される。入力器48は、ユーザーによって操作されるキーボード、ポインティングデバイス等によって構成される。 The biological tissue image processing device 18 has a main body 40 , a display 46 and an input device 48 . A plurality of functions of the main body 40 will be described later in detail with reference to FIG. 2 and subsequent drawings. In FIG. 1, two representative functions (a film estimation function and a processing function) exhibited by the main body 40 are expressed as blocks. Specifically, the main body 40 has a machine learning type film estimator 42 and a processing tool unit (work support unit) 44 . The display 46 is configured by an LCD, an organic EL display device, or the like. The input device 48 is configured by a keyboard, pointing device, etc. operated by the user.

図2には、本体40についての第1構成例が示されている。本体40は、機械学習型の膜推定器42、二値化器(画像生成器)50、加工ツールユニット(作業支援部)44、ボリュームデータ処理部56、等を有する。加工ツールユニット44は、修正部52及びラベリング処理部54を有している。ボリュームデータ処理部56は、解析部56A及びレンダリング部56Bを有している。 FIG. 2 shows a first configuration example of the main body 40. As shown in FIG. The main body 40 has a machine learning type film estimator 42, a binarizer (image generator) 50, a processing tool unit (work support unit) 44, a volume data processing unit 56, and the like. The processing tool unit 44 has a correction section 52 and a labeling processing section 54 . The volume data processing section 56 has an analysis section 56A and a rendering section 56B.

図2に示される各構成の実体は、ユーザーの作業又は行為に相当する部分を除いて、基本的に、CPU、GPU等の汎用プロセッサによって実行されるソフトウエアつまりプログラムである。もっとも、それらの構成の一部又は全部が専用プロセッサ又は他のハードウエアによって構成されてもよい。生物組織画像処理装置が有する機能の全部又は一部がネットワーク上に存在する1又は複数の情報処理デバイスにより実行されてもよい。以下、本体40内の各構成について詳述する。 The entity of each configuration shown in FIG. 2 is basically software, that is, a program executed by a general-purpose processor such as CPU, GPU, etc., except for the portion corresponding to user's work or action. However, part or all of those configurations may be configured by dedicated processors or other hardware. All or part of the functions of the biological tissue image processing apparatus may be executed by one or more information processing devices present on a network. Each configuration in the main body 40 will be described in detail below.

膜推定器42は、膜推定手段として機能する。膜推定器42は、入力された元画像(SEM画像)58に対して膜推定処理を適用し、これによって膜尤度マップ60を出力するものである。図示の構成例において、膜推定器42は、CNN(Convolutional Neural Network)により構成されている。その具体的な構成例については後に図3を用いて説明する。CNNによって膜が正しく推定されるように、CNNの実際の稼働に先立って、CNN学習過程が事前に実行される。その学習過程には、一次学習過程(初期学習過程)と、二次学習過程と、が含まれる。 The membrane estimator 42 functions as a membrane estimator. The membrane estimator 42 applies membrane estimation processing to the input original image (SEM image) 58 and outputs a membrane likelihood map 60 by this. In the illustrated configuration example, the film estimator 42 is configured by a CNN (Convolutional Neural Network). A specific configuration example thereof will be described later with reference to FIG. A CNN learning process is pre-performed prior to the actual running of the CNN so that the membranes are correctly estimated by the CNN. The learning process includes a primary learning process (initial learning process) and a secondary learning process.

一次学習過程では、教師データを構成する複数の画像ペアが膜推定器42に与えられ、これにより膜推定器42内のCNNパラメータ群が優良化(最適化)される。すなわち、膜推定器42内に機械学習結果が蓄積される。ここで、個々の画像ペアは、元画像(SEM画像)58とそれに対応する正解画像68とにより構成される。正解画像68は、例えば、元画像58に対する手作業により作成される。教師なし機械学習器、簡易な識別器(例えばSVM(Support Vector Machine))等によって、元画像58から正解画像68が作成されてもよい。この場合、かかる識別器に対して元画像58を入力し、その出力に基づいてユーザーにおいて識別器がある程度働いていると判断できた場合に、その出力を正解画像68として利用してもよい。一定の一次学習過程を経た膜推定器42の出力に基づいて正解画像68が作成されてもよい。 In the primary learning process, a plurality of image pairs forming training data are provided to the membrane estimator 42, thereby improving (optimizing) the CNN parameters in the membrane estimator 42. FIG. That is, machine learning results are accumulated in the membrane estimator 42 . Here, each image pair is composed of an original image (SEM image) 58 and a correct image 68 corresponding thereto. The correct image 68 is created manually for the original image 58, for example. The correct image 68 may be created from the original image 58 by an unsupervised machine learning device, a simple classifier (for example, SVM (Support Vector Machine)), or the like. In this case, the original image 58 may be input to such a discriminator, and the output may be used as the correct image 68 when the user can determine that the discriminator is working to some extent based on the output. Correct image 68 may be generated based on the output of membrane estimator 42 after undergoing a certain primary learning process.

続く二次学習過程では、一次学習過程を経て膜推定器42がある程度働くことを前提として、膜推定器42に対して、一次学習過程と同様に、教師データとして複数の画像ペアが与えられる。実施形態においては、その教師データは、一次学習過程で利用された複数の画像ペアと二次学習過程で追加された複数の画像ペアとにより構成される。追加される各画像ペアは、元画像58とそれに対応する正解画像64Aとからなる。正解画像64Aは、膜推定器42から加工ツールユニット44までの構成により、生物画像処理装置自身によって作成される。具体的には、元画像58を膜推定器42に入力すると、膜推定器42から推定結果画像として膜尤度マップ60が出力される。膜尤度マップ60に基づく仮膜画像の生成、及び、加工ツールユニット44を利用した仮膜画像62に対するユーザー(専門家)修正を経て、正解画像64Aが作成される。個々の処理については後に詳述する。仮膜画像62を正解画像62Aとして利用することも考えられる。二次学習過程により、膜推定器42内のCNNパラメータ群が更に優良化される。つまり、膜推定器42内に機械学習結果が更に蓄積される。二次学習過程は、例えば、元画像58に対する推定処理の結果が、元画像58に対応する正解画像68,64Aに十分に類似したと判断された場合に終了する。その後、必要に応じて、上記同様の手法により、膜推定器42の再学習が実行される。 In the subsequent secondary learning process, on the premise that the film estimator 42 works to some extent through the primary learning process, the film estimator 42 is provided with a plurality of image pairs as teacher data in the same manner as in the primary learning process. In the embodiment, the teacher data consists of a plurality of image pairs used in the primary learning process and a plurality of image pairs added in the secondary learning process. Each added image pair consists of an original image 58 and a corresponding correct image 64A. The correct image 64A is created by the biological image processing apparatus itself by the configuration from the membrane estimator 42 to the processing tool unit 44. FIG. Specifically, when the original image 58 is input to the membrane estimator 42, the membrane estimator 42 outputs a membrane likelihood map 60 as an estimation result image. A correct image 64A is created through generation of a provisional membrane image based on the membrane likelihood map 60 and user (expert) modification of the provisional membrane image 62 using the processing tool unit 44 . Individual processing will be detailed later. It is also conceivable to use the temporary membrane image 62 as the correct image 62A. A secondary learning process further refines the set of CNN parameters in film estimator 42 . That is, more machine learning results are accumulated in the membrane estimator 42 . The secondary learning process ends, for example, when it is determined that the result of the estimation process on the original image 58 is sufficiently similar to the correct images 68 and 64A corresponding to the original image 58. FIG. After that, if necessary, the film estimator 42 is re-learned by the same method as described above.

二次学習過程では、膜推定結果を基礎として正解画像を作成できるので、元画像から正解画像の全部を手作業で作成する場合に比べ、ユーザーの負担が大幅に軽減される。二次学習過程後における必要な学習過程においても同様である。なお、一次学習過程及び二次学習過程において、膜推定器42に対し、複数の画像ペアが一括して与えられて、それがバッチ処理されてもよい。 In the secondary learning process, a correct image can be created based on the film estimation result, so the burden on the user is greatly reduced compared to manually creating all correct images from the original image. The same applies to the necessary learning process after the secondary learning process. In the primary learning process and the secondary learning process, a plurality of image pairs may be collectively given to the film estimator 42 and batch-processed.

データベース57には、複数の元画像58、複数の正解画像68,68A等が格納される。膜推定器42とデータベース57とが一体化されてもよい。機械学習型の膜推定器として、U-netが利用されてもよく、また、SVM、ランダムフォレスト等が利用されてもよい。 A database 57 stores a plurality of original images 58, a plurality of correct images 68 and 68A, and the like. Film estimator 42 and database 57 may be integrated. U-net may be used as the machine learning type film estimator, or SVM, random forest, etc. may be used.

二値化器50は、画像生成器として機能するものである。具体的には、二値化器50は、後に図4を用いて例示するように、膜尤度マップ60に対する二値化処理により、仮膜画像62を生成するモジュールである。膜尤度マップ60は、二次元配列された複数の膜尤度からなる。個々の膜尤度は、膜である確からしさ(確率)を示す数値である。膜尤度は例えば0から1の間をとる。膜尤度マップ60を膜尤度画像として捉えることもできる。実施形態において、二値化器50には閾値が設定されており、閾値以上の膜尤度を1に変換し、閾値未満の膜尤度を0に変換する。その結果として生成される画像が仮膜画像62である。実施形態においては、便宜上、修正前の膜画像を修正後の膜画像から区別するために、修正前の膜画像を仮膜画像62と呼んでいる。 The binarizer 50 functions as an image generator. Specifically, the binarizer 50 is a module that generates a temporary membrane image 62 by binarizing the membrane likelihood map 60, as illustrated later with reference to FIG. The membrane likelihood map 60 consists of a plurality of membrane likelihoods arranged two-dimensionally. Each membrane likelihood is a numerical value indicating the likelihood (probability) of being a membrane. The membrane likelihood takes a value between 0 and 1, for example. The membrane likelihood map 60 can also be regarded as a membrane likelihood image. In the embodiment, a threshold value is set in the binarizer 50, and membrane likelihoods equal to or greater than the threshold are converted to 1, and membrane likelihoods lower than the threshold are converted to 0. The resulting image is the temporary membrane image 62 . In the embodiment, the membrane image before correction is called a temporary membrane image 62 in order to distinguish the membrane image before correction from the membrane image after correction for convenience.

なお、膜推定器42及び二値化器50の両者により画像生成部61が構成される。画像生成部61の全体がCNN等により構成されてもよい。その場合でも、膜尤度マップ及び仮膜画像の段階的な生成を観念できる。仮膜画像62を正解画像62Aとして用いることも可能である。二値化処理前に、膜尤度マップ60に対して、ノイズ除去、エッジ強調等の処理が適用されてもよい。 Both the film estimator 42 and the binarizer 50 constitute an image generator 61 . The entire image generator 61 may be configured by CNN or the like. Even then, stepwise generation of membrane likelihood maps and provisional membrane images can be envisioned. It is also possible to use the temporary membrane image 62 as the correct image 62A. Processing such as noise removal and edge enhancement may be applied to the membrane likelihood map 60 before the binarization processing.

加工ツールユニット44は、作業支援部又は作業支援手段として機能するものである。加工ツールユニット44は、情報処理の観点から見て、表示処理機能及び画像処理機能を有している。作業の観点から見て、修正機能及びラベリング機能を有しており、図2においては、それらの機能が修正部52及びラベリング処理部54として表現されている。加工ツールユニット44が発揮する具体的な複数の機能については後に図5を用いて整理する。ここでは、その概要又はその主要な機能について説明する。 The processing tool unit 44 functions as a work support section or work support means. From the viewpoint of information processing, the processing tool unit 44 has a display processing function and an image processing function. From the viewpoint of work, it has a correction function and a labeling function, and these functions are expressed as a correction section 52 and a labeling processing section 54 in FIG. A plurality of specific functions exhibited by the processing tool unit 44 will be organized later with reference to FIG. Here, its outline or its main functions will be described.

修正部52は、後に図6において例示する作業ウインドウを介して、ユーザーに対して作業対象となった仮膜画像を作業対象画像として表示し、また、作業対象画像上におけるユーザーの修正指示を受け付けるものである。修正内容は作業対象画像となった仮膜画像に反映される。作業対象画像内に例えば膜の途切れ部分が含まれる場合、その途切れ部分に対して膜画素群が追加される。作業対象画像内に例えば膜以外の部分が含まれ、その部分が膜として誤認されている場合、その部分を構成する膜画素群が削除される。そのような追加及び削除に際し、ユーザーの作業又は操作を支援し各仮膜画像を管理するモジュールが修正部52である。 The correction unit 52 displays the temporary membrane image, which is the work target, to the user as the work target image via a work window illustrated later in FIG. It is. The content of the correction is reflected in the temporary film image that is the image to be worked on. If the image to be worked on includes, for example, a discontinuous portion of the film, a film pixel group is added to the discontinuous portion. For example, if a part other than the film is included in the image to be worked on and the part is misidentified as the film, the film pixel group that constitutes the part is deleted. The correction unit 52 is a module that supports the work or operation of the user and manages each temporary membrane image in such addition and deletion.

図示の構成例においては、修正部52(又は加工ツールユニット44)に対して、生成された仮膜画像62の他に、入力された元画像58、及び、生成された膜尤度マップ60も順次入力されている。これにより、作業対象画像としての仮膜画像と共に、又はそれに代えて、作業対象画像に対応する元画像58又は膜尤度マップ60を表示することが可能である。これに関しては、後に図7、8を用いて説明する。修正部52において実行される補間処理については、後に図9、10等を用いて説明する。 In the illustrated configuration example, in addition to the generated temporary membrane image 62, the input original image 58 and the generated membrane likelihood map 60 are also sent to the correction unit 52 (or the processing tool unit 44). are entered sequentially. Accordingly, it is possible to display the original image 58 or the membrane likelihood map 60 corresponding to the work target image together with or instead of the temporary membrane image as the work target image. This will be explained later with reference to FIGS. The interpolation processing executed in the correction unit 52 will be described later using FIGS. 9, 10 and the like.

ラベリング処理部54は、修正後の膜画像(又は修正未了の膜画像)に含まれる個々の領域(細胞内腔)に対して、ラベリング(ペイント及びラベル付け)を行うためのモジュールである。ラベリングには、ユーザーによるマニュアルでのラベリング、及び、自動的なラベリングがある。ラベリングについては、後に図12、13を用いて説明する。ラベリング結果を管理するための管理テーブルについては、後に図14に例示する。修正作業及びラベリング作業が完了した段階で、細胞内腔とそれ以外とが区別された三次元ラベリングデータ66が構成される。それがボリュームデータ処理部56へ送られる。 The labeling processing unit 54 is a module for labeling (painting and labeling) individual regions (cell lumens) included in the corrected membrane image (or uncorrected membrane image). Labeling includes manual labeling by the user and automatic labeling. Labeling will be described later with reference to FIGS. A management table for managing labeling results will be exemplified in FIG. 14 later. Three-dimensional labeling data 66 in which the intracellular space and the rest are distinguished is constructed when the correction work and the labeling work are completed. It is sent to the volume data processing unit 56 .

ボリュームデータ処理部56には、図示の構成例において、複数の元画像からなる元画像スタック(SEM画像スタック)36が入力されている。元画像スタック36はボリュームデータを構成するものである。また、ボリュームデータ処理部56には、上記のように、三次元ラベリングデータ66も入力されている。それもボリュームデータの一種である。 In the illustrated configuration example, the volume data processing unit 56 receives an original image stack (SEM image stack) 36 composed of a plurality of original images. The original image stack 36 constitutes the volume data. The volume data processing unit 56 also receives the three-dimensional labeling data 66 as described above. It is also a kind of volume data.

解析部56Aは、例えば、三次元ラベリングデータ66に基づいて、対象器官(例えば神経細胞)を解析する。例えば、形態、体積、長さ等が解析されてもよい。その際、三次元ラベリングデータを参照しながら元画像スタック36が解析される。レンダリング部56Bは、三次元ラベリングデータ66に基づいて、三次元画像(立体的表現画像)を形成するものである。例えば、三次元ラベリングデータ66に基づいて、元画像スタック36の中から画像化部分が抽出され、それに対してレンダリング処理が適用されてもよい。 56 A of analysis parts analyze a target organ (for example, nerve cell) based on the three-dimensional labeling data 66, for example. For example, morphology, volume, length, etc. may be analyzed. At that time, the original image stack 36 is analyzed with reference to the three-dimensional labeling data. The rendering section 56B forms a three-dimensional image (stereoscopic representation image) based on the three-dimensional labeling data 66. FIG. For example, based on the three-dimensional labeling data 66, an imaged portion may be extracted from the original image stack 36 and a rendering process applied thereto.

既に説明した二次学習過程においては、修正後の各膜画像64がそれぞれ正解画像64Aとして膜推定器42に入力される。各正解画像64Aの作製に際して、膜推定器42による推定結果を利用することができるので、且つ、加工ツールユニット44を利用することができるので、それらを利用しない場合に比べて、各正解画像64Aの作製負担が大幅に削減される。すなわち、上記構成によれば、膜推定器42の学習過程で要する労力及び時間を削減することが可能である。二次学習過程後の解析過程においては、膜推定器42及び加工ツールユニット44の併用により、解析対象又はレンダリング対象となる画像群の品質を高められ、また、その画像群を簡便かつ迅速に生成することが可能である。後に説明するように、加工ツールユニット44は、三次元像処理部(三次元像生成手段)及び候補選定部(候補選定手段)としても機能する。 In the already explained secondary learning process, each film image 64 after correction is input to the film estimator 42 as a correct image 64A. Since the estimation result by the film estimator 42 can be used and the processing tool unit 44 can be used when producing each correct image 64A, each correct image 64A can be compared with the case where they are not used. The burden of manufacturing is greatly reduced. That is, according to the above configuration, it is possible to reduce the labor and time required for the learning process of the film estimator 42 . In the analysis process after the secondary learning process, the film estimator 42 and the processing tool unit 44 are used together to improve the quality of the image group to be analyzed or rendered, and to easily and quickly generate the image group. It is possible to As will be described later, the processing tool unit 44 also functions as a three-dimensional image processing section (three-dimensional image generating means) and a candidate selecting section (candidate selecting means).

図3には、膜推定器42の構成例が模式的に示されている。膜推定器42は、多数の層を有しており、それには、入力層80、畳み込み層82、プーリング層84、出力層86等が含まれる。それらはCNNパラメータ群88に従って作用する。CNNパラメータ群88には、多数の重み係数、多数のバイアス値、その他が含まれる。CNNパラメータ群88は最初に初期値群94によって構成される。例えば、乱数等を利用して初期値群94が生成される。 FIG. 3 schematically shows a configuration example of the film estimator 42. As shown in FIG. The membrane estimator 42 has multiple layers, including an input layer 80, a convolutional layer 82, a pooling layer 84, an output layer 86, and so on. They act according to the CNN parameter set 88 . CNN parameters 88 include a number of weighting factors, a number of bias values, and so on. CNN parameter group 88 is initially configured by initial value group 94 . For example, the initial value group 94 is generated using random numbers or the like.

学習過程では、評価部90及び更新部92が機能する。例えば、評価部90は、教師データを構成する複数の画像ペア(元画像58とそれに対応する正解画像68,64A)に基づいて評価値を計算するものである。具体的には、元画像58に対する推定処理の結果60Aと元画像58に対応する正解画像68,64Aとを誤差関数に順次与えることにより評価値が演算される。更新部92は、その評価値が良い方向に変化するように、CNNパラメータ群88を更新する。それを繰り返すことによって、CNNパラメータ群88が全体的に最適化される。実際には、評価値が一定値に到達した時点で、学習過程の終了が判断される。図3に示した構成は単なる例示に過ぎず、膜推定器42として、多様な構造を有する推定器を利用することが可能である。 In the learning process, the evaluation section 90 and the update section 92 function. For example, the evaluation unit 90 calculates an evaluation value based on a plurality of image pairs (original image 58 and corresponding correct images 68 and 64A) that constitute teacher data. Specifically, the evaluation value is calculated by sequentially applying the result 60A of the estimation processing for the original image 58 and the correct images 68 and 64A corresponding to the original image 58 to the error function. The updating unit 92 updates the CNN parameter group 88 so that the evaluation value changes in a favorable direction. By repeating it, the CNN parameter set 88 is globally optimized. In practice, the end of the learning process is determined when the evaluation value reaches a certain value. The configuration shown in FIG. 3 is merely an example, and estimators having various structures can be used as film estimator 42 .

図4には、二値化器の作用が示されている。膜推定器から膜尤度マップ60が出力される。膜尤度マップ60は、複数の画素に相当する複数の膜尤度60aからなるものであり、個々の膜尤度60aは膜であることの確からしさを示す数値である。符号50Aで示すように、二値化器は膜尤度マップ60を二値化し、これにより二値化画像としての仮膜画像62を生成する。二値化に際しては、個々の膜尤度60aが閾値と比較される。例えば、閾値以上の膜尤度60aが値1を有する画素62aに変換され、閾値未満の膜尤度60aが値0を有する画素62bに変換される。画素62aが膜を構成する画素(膜画素)として取り扱われる。閾値はユーザーにより可変設定し得る。その設定が自動化されてもよい。例えば、仮膜画像62を観察しながら閾値が可変されてもよい。 FIG. 4 shows the operation of the binarizer. A membrane likelihood map 60 is output from the membrane estimator. The membrane likelihood map 60 consists of a plurality of membrane likelihoods 60a corresponding to a plurality of pixels, and each membrane likelihood 60a is a numerical value indicating the likelihood of being a membrane. As indicated by reference numeral 50A, the binarizer binarizes the membrane likelihood map 60, thereby generating a temporary membrane image 62 as a binarized image. For binarization, each membrane likelihood 60a is compared with a threshold. For example, film likelihoods 60a greater than or equal to the threshold are converted to pixels 62a having a value of one, and film likelihoods 60a less than the threshold are converted to pixels 62b having a value of zero. The pixel 62a is treated as a pixel forming a film (film pixel). The threshold can be variably set by the user. The setting may be automated. For example, the threshold may be varied while observing the temporary membrane image 62 .

図5には、加工ツールユニットが有する複数の機能が整理されている。上段(A)には修正部が有する複数の機能が示されており、下段(B)にはラベリング処理部が有する複数の機能が示されている。それらの機能の詳細又は具体例については、図6以降の各図を参照しながら説明する。ここでは、それらの機能について概説する。 FIG. 5 organizes a plurality of functions possessed by the processing tool unit. The upper part (A) shows a plurality of functions of the correction unit, and the lower part (B) shows a plurality of functions of the labeling processing unit. Details or specific examples of these functions will be described with reference to FIG. 6 and subsequent drawings. This section outlines their functions.

まず、修正部の機能について説明する。仮膜画像に対する修正には、大別して、マニュアル修正(A1)と自動修正(A2)とがある。マニュアル修正(A1)では、修正ツールとしての仮想的なペン及び仮想的な消しゴムが利用される。ペンは膜を描く(非膜画素を膜画素に転換する)ための修正ツールであり、消しゴムは膜を消去する(膜画素を非膜画像に転換する)ための修正ツールである。他の修正ツールが設けられてもよい。 First, the functions of the correction section will be described. Corrections to the temporary membrane image are roughly classified into manual correction (A1) and automatic correction (A2). Manual correction (A1) uses a virtual pen and a virtual eraser as correction tools. The pen is a correction tool for drawing membranes (converting non-membrane pixels into membrane pixels), and the eraser is a correction tool for erasing membranes (converting membrane pixels into non-membrane images). Other correction tools may be provided.

マニュアル修正(A1)に際しては、(A11)で示されるように、ユーザーによって選択された深さに対応する仮膜画像が作業対象画像としてカラーで表示される。その際、背景画像として、選択された深さに対応する元画像が白黒画像として表示される。(A12)で示されるように、選択された深さを基準として、深さ方向に並んだ同種の複数の画像(元画像、膜尤度マップ又は仮膜画像)を重ねて表示することも可能である。更に、(A13)で示されるように、マニュアル修正作業を支援するために、修正候補が表示されてもよい。 During the manual correction (A1), as indicated by (A11), the temporary membrane image corresponding to the depth selected by the user is displayed in color as the image to be worked on. At that time, the original image corresponding to the selected depth is displayed as a black and white image as a background image. As shown in (A12), it is also possible to superimpose and display multiple images of the same type (original image, membrane likelihood map, or temporary membrane image) arranged in the depth direction based on the selected depth. is. Further, as indicated by (A13), correction candidates may be displayed to assist manual correction work.

自動修正(A2)では、仮膜画像に含まれる膜途切れ部分が自動的に補間される。具体的には、ユーザー指定された2点の間が自動的に連結される。そのために幾つかの機能が用意されており、必要に応じて、それらの中からいずれかの機能が選択される。例えば、(A21)で示されるように、作業対象画像(仮膜画像)に基づいて、作業対象画像上の2点間が補間されてもよい。(A22)で示されるように、作業対象画像に対応する元画像に基づいて、作業対象画像上の2点間が補間されてもよい。(A23)で示されるように、作業対象画像に対応する尤度マップに基づいて、作業対象画像上の2点間が補間されてもよい。(A24)で示されるように、深さ方向に連なる複数の画像(元画像、膜尤度マップ又は仮膜画像)に基づいて、三次元補間が実行されてもよい。 The automatic correction (A2) automatically interpolates the film discontinuous portion included in the temporary film image. Specifically, two points specified by the user are automatically connected. Several functions are prepared for this purpose, and one of them is selected as required. For example, as indicated by (A21), interpolation may be made between two points on the image for work based on the image for work (temporary membrane image). As indicated by (A22), interpolation may be performed between two points on the image for work based on the original image corresponding to the image for work. As indicated by (A23), interpolation may be performed between two points on the image for work based on the likelihood map corresponding to the image for work. As indicated by (A24), three-dimensional interpolation may be performed based on a plurality of images (original image, membrane likelihood map, or temporary membrane image) arranged in the depth direction.

次に、ラベリング処理部の機能について説明する。ラベリング方法として、マニュアルラベリング(B1)と、自動ラベリング(B2)とがある。 Next, the function of the labeling processor will be described. As labeling methods, there are manual labeling (B1) and automatic labeling (B2).

マニュアルラベリング(B1)では、ラベリングツールが利用され、ユーザーによって特定の領域(閉領域)がラベリング対象として指定される。すると、その領域がペイント処理され、また、その領域に対して固有のラベルが付与される。ラベルは、繋がり関係を管理するための識別子又は属性値である。その際、必要に応じて、(B11)で示されるように、作業対象画像上に、他の深さに対応する画像(例えば、ラベリング済みの隣接する仮膜画像)がオーバーレイ表示されてもよい。あるいは、(B12)で示されるように、深さ方向における領域間の繋がり関係が自動的に判定され、作業対象画像上に1又は複数のラベリング候補が表示されてもよい。その際に繋がり可能性の大小が自動的に判定され、その判定結果に基づいて各ラベリング候補の表示態様が制御されてもよい。 In manual labeling (B1), a labeling tool is used, and a user designates a specific region (closed region) as a labeling target. The area is then painted and a unique label is given to the area. A label is an identifier or an attribute value for managing connection relationships. At that time, as shown in (B11), an image corresponding to another depth (for example, an adjacent provisional membrane image that has been labeled) may be overlaid on the work target image, if necessary. . Alternatively, as indicated by (B12), the connection relationship between regions in the depth direction may be automatically determined, and one or more labeling candidates may be displayed on the work target image. At that time, the degree of connection possibility may be automatically determined, and the display mode of each labeling candidate may be controlled based on the determination result.

自動ラベリング(B2)においては、レイヤ間での領域の繋がり関係が自動的に判定され、これによってペイント及びラベル付けが自動的に遂行される。その場合、例えば、(B21)で示すように、ラベル付けされた特定の領域について、その代表座標を通過する垂線(Z方向に平行な仮想線)を定義し、その垂線が通過する1又は複数の領域に対して、特定の領域に付されたラベルと同じラベルを付すようにしてもよい(串刺し方式)。その場合、特定の領域が存在する深さを基準深さとして、深さ方向の両側に一定の範囲を設定し、その範囲内において自動的なラベリングが実行されてもよい。また、(B22)で示されるように、深さ方向における領域間の類似度等を基準として、レイヤ間において繋がり関係を自動的に判定し、その判定結果に基づいて自動的にラベリングを行うようにしてもよい。自動的なラベリングが実行された場合、通常、そのラベリング結果がユーザーにおいて目視確認される。 In automatic labeling (B2), the connection relation of regions between layers is automatically determined, and painting and labeling are automatically performed by this. In that case, for example, as shown in (B21), for a specific labeled region, define a perpendicular (virtual line parallel to the Z direction) passing through the representative coordinates, and one or more , the same label as the label attached to the specific area may be attached (skewering method). In that case, a certain range may be set on both sides in the depth direction with the depth at which the specific region exists as the reference depth, and automatic labeling may be performed within that range. Further, as indicated by (B22), based on the degree of similarity between regions in the depth direction, etc., the connection relationship between layers is automatically determined, and labeling is automatically performed based on the determination result. can be When automatic labeling is performed, the labeling result is usually visually confirmed by the user.

以上挙げた機能は例示であり、ユーザーによる修正作業及びラベリング作業が効率的となり、あるいは、その負担が軽減されるように、更には、三次元ラベリングデータの品質が高まるように、加工ツールユニットを構成するのが望ましい。 The above-mentioned functions are examples, and the processing tool unit is used so that the correction work and labeling work by the user are efficient, the burden is reduced, and the quality of the three-dimensional labeling data is improved. preferably configured.

図6には、加工ツールユニットにより表示される作業ウインドウが例示されている。図示の例において、作業ウインドウ100は、表示画像102を含んでいる。表示画像102は、ユーザーによって選択された深さに対応する仮膜画像(作業対象画像)及び元画像からなる複合画像である。グレイスケース画像としての元画像が背景画像を構成しており、それに対して、カラー画像(例えば青色画像)としての仮膜画像(作業対象画像)が重畳表示されている。なお、図示された表示画像102は脳組織を示しており、そこには、複数の細胞の断面が現れている。同時に、細胞内の小器官(ミトコンドリア等)の断面も現れている。 FIG. 6 exemplifies a working window displayed by the processing tool unit. In the illustrated example, task window 100 includes display image 102 . The displayed image 102 is a composite image consisting of the temporary membrane image (worked image) corresponding to the depth selected by the user and the original image. An original image as a grayscale image constitutes a background image, and a temporary membrane image (work target image) as a color image (for example, a blue image) is displayed superimposed thereon. It should be noted that the illustrated display image 102 shows brain tissue, in which cross sections of a plurality of cells appear. At the same time, cross-sections of intracellular organelles (mitochondrion, etc.) also appear.

タブ104が選択された場合、上記で説明した表示画像102が表示される。タブ105が選択された場合、グレイスケール画像としての元画像だけが表示される。タブ106が選択された場合、グレイスケール画像としての膜尤度マップ(膜尤度画像)だけが表示される。尤度マップの観察により、閾値が適切に設定されていること等を確認できる。また、元画像の単独表示によれば、膜の細部を詳細観察することが容易となる。作業対象画像としての仮膜画像だけを表示するタブを追加してもよい。膜尤度マップを背景画像とし、それに対して仮膜画像が重畳表示されてもよい。 When tab 104 is selected, display image 102 described above is displayed. When tab 105 is selected, only the original image as a grayscale image is displayed. When tab 106 is selected, only the membrane likelihood map (membrane likelihood image) as a grayscale image is displayed. By observing the likelihood map, it can be confirmed that the threshold is appropriately set. In addition, by displaying the original image alone, it becomes easy to observe the details of the film in detail. A tab for displaying only the temporary membrane image as the image to be worked on may be added. The membrane likelihood map may be used as a background image, and the temporary membrane image may be displayed superimposed thereon.

深さ選択ツール108は、Z方向(つまり空間軸としての深さ軸上)において、特定の深さ(表示位置としての表示深さ)を選択するための表示要素(操作要素)である。それは、Z軸を表すZ軸シンボル108bと、Z軸シンボル108bに沿ってスライド運動するスライダとしてのマーカー108aと、からなる。マーカー108aを移動させて、所望の深さを選択することが可能である。このような深さ選択ツール108によれば、選択する深さや深さ変化量を直感的に認識し易いという利点を得られる。なお、Z軸シンボル108bの左端点が深さゼロに相当し、Z軸シンボル108bの右端点が最大深さに相当している。他の形態を有する深さ選択ツールを採用してもよい。深さ入力欄114は、深さを数値として直接的に指定するための欄である。深さ入力欄114に、マーカー108aの位置によって現在選択されている深さが数値として表示されてもよい。 The depth selection tool 108 is a display element (manipulation element) for selecting a specific depth (display depth as a display position) in the Z direction (that is, on the depth axis as the spatial axis). It consists of a Z-axis symbol 108b representing the Z-axis and a marker 108a as a slider that slides along the Z-axis symbol 108b. A desired depth can be selected by moving the marker 108a. Such a depth selection tool 108 has the advantage that the depth to be selected and the amount of change in depth can be easily recognized intuitively. Note that the left end point of the Z-axis symbol 108b corresponds to zero depth, and the right end point of the Z-axis symbol 108b corresponds to the maximum depth. Depth selection tools having other forms may be employed. The depth input field 114 is a field for directly specifying the depth as a numerical value. The currently selected depth may be displayed as a numerical value in the depth input field 114 according to the position of the marker 108a.

透過度調整ツール110は、表示画像102が表示されている状態において、合成表示されているカラーの仮膜画像(作業対象画像)の透過度(表示重み)を調整するためのツールである。例えば、マーカー110aを左側へ移動させると、カラーの仮膜画像の表示重みが小さくなり、その透明度が上がって、元画像が支配的に表示されるようになる。逆に、マーカー110aを右側へ移動させると、カラーの仮膜画像の表示重みが大きくなり、その透明度が下がって、カラーの仮膜画像がよりはっきりと表現されるようになる。 The transparency adjustment tool 110 is a tool for adjusting the transparency (display weight) of the color temporary film image (work target image) synthesized and displayed while the display image 102 is being displayed. For example, when the marker 110a is moved to the left, the display weight of the color temporary film image is reduced, its transparency is increased, and the original image is predominantly displayed. Conversely, when the marker 110a is moved to the right, the display weight of the color temporary film image is increased, the transparency thereof is decreased, and the color temporary film image is expressed more clearly.

重合表示ツール112は、現在表示されている画像(表示画像、元画像又は膜尤度マップ)に対して、深さ方向に浅い側に隣接する画像(表示画像、元画像又は膜尤度マップ)又は深さ方向に深い側に隣接する画像(表示画像、元画像又は膜尤度マップ)を重ねて表示する場合において操作されるものである。マーカー112aを左側へ移動させると、浅い側に隣接する画像に対する表示重みが大きくなり、逆に、マーカー112aを右側へ移動させると、深い側に隣接する画像に対する表示重みが大きくなる。3つ以上の画像を重ね合わせて表示してもよい。もっとも、あまり多くの画像を重ね合わせると、画像内容が複雑になり過ぎてしまうので、少数の画像を重ね合わせるのが望ましい。このような重合表示によれば、奥行き情報を得られ易くなる。 The overlapping display tool 112 displays an image (display image, original image or membrane likelihood map) adjacent to the shallow side in the depth direction with respect to the currently displayed image (display image, original image or membrane likelihood map). Alternatively, it is operated when an image (display image, original image, or membrane likelihood map) adjacent to the deeper side in the depth direction is displayed in an overlapping manner. Moving the marker 112a to the left increases the display weight of the image adjacent to the shallow side, and conversely, moving the marker 112a to the right increases the display weight of the image adjacent to the deep side. Three or more images may be superimposed and displayed. However, if too many images are superimposed, the image contents become too complicated, so it is desirable to superimpose a small number of images. Such overlapping display makes it easier to obtain depth information.

ボタン列115は、仮想的な複数のボタン116,118,120,121,122,126によって構成される。ボタン116は、画像ズーム(拡大又は縮小)を行う場合に操作される表示要素である。ボタン118は、ペンツールを利用する場合に操作される表示要素である。ボタン118をオンにすると、カーソルの形態がペン形に代わり、それを用いて膜画素の追加を行える。ペンのサイズを変更することも可能である。ボタン120は、消しゴムを利用する場合に操作される表示要素である。ボタン120をオンにすると、カーソルの形態が消しゴム形に代わり、それを用いて膜画素の削除を行える。消しゴムのサイズを変更することも可能である。 The button row 115 is composed of a plurality of virtual buttons 116, 118, 120, 121, 122, and 126. FIG. A button 116 is a display element operated when zooming (enlarging or reducing) an image. A button 118 is a display element operated when using the pen tool. When button 118 is turned on, the cursor changes to a pen shape, which can be used to add film pixels. It is also possible to change the size of the pen. A button 120 is a display element operated when using an eraser. When button 120 is turned on, the cursor changes to an eraser shape, which can be used to delete film pixels. It is also possible to change the size of the eraser.

ボタン121は、ペイントを行う場合に操作される表示要素である。ボタン121をオンした上で、いずれかの領域を指定すれば、その領域が塗り潰される。また、ボタン121の操作によって、ペイント(又はラベリング)のために用意されている複数の機能の中から任意の機能を選択することも可能である。オブジェクト番号(ラベル)付けボタン122の操作により、カラーパレット124が表示される。例えば、ペイント処理済み領域に対して、カラーパレットの中から選択されたカラーが与えられる。これにより、その領域が、選択されたカラーによって着色される。個々の色がそれぞれオブジェクト番号に対応付けられている。レイヤ間にわたって複数の領域に対して同じカラーつまり同じオブジェクト番号を付与すれば、それらの領域によって特定細胞内の三次元内腔領域が画定される。 A button 121 is a display element operated when painting. When the button 121 is turned on and any area is specified, that area is painted out. By operating the button 121, it is also possible to select an arbitrary function from a plurality of functions prepared for painting (or labeling). By operating the object numbering (labeling) button 122, a color palette 124 is displayed. For example, painted areas are given a color selected from a color palette. This causes the area to be tinted with the selected color. Each individual color is associated with an object number. If regions are given the same color or object number across layers, they define a three-dimensional lumen region within a particular cell.

ボタン126は、白黒反転用のボタンである。それを操作すると、表示された画像において、黒く表示されていた部分が白く表示され、逆に白く表示されていた部分が黒く表示される。 A button 126 is a button for black-and-white inversion. When it is operated, in the displayed image, the part displayed in black is displayed in white, and conversely, the part displayed in white is displayed in black.

上記の他、三次元像を表示させるためのボタンを設けるのが望ましい。三次元像の表示に関しては後に図15及び図16を用いて説明する。図6に示した作業ウインドウ100の内容は例示に過ぎず、ユーザー作業においてその作業性が良好になるように、その内容が適宜定められるのが望ましい。 In addition to the above, it is desirable to provide a button for displaying a three-dimensional image. Display of a three-dimensional image will be described later with reference to FIGS. 15 and 16. FIG. The content of the work window 100 shown in FIG. 6 is merely an example, and it is desirable that the content be appropriately determined so as to improve the workability of the user's work.

図7及び図8に基づいて、加工ツールユニットにおける表示処理について説明する。図7に示す処理は図5において(A11)で示した表示処理に相当するものである。図8に示す処理は図5において(A12)及び(B11)で示した表示処理に相当するものである。 Display processing in the processing tool unit will be described based on FIGS. 7 and 8. FIG. The processing shown in FIG. 7 corresponds to the display processing indicated by (A11) in FIG. The processing shown in FIG. 8 corresponds to the display processing shown by (A12) and (B11) in FIG.

図7において、元画像スタック130は、Z方向(深さ方向)に並ぶ複数の元画像により構成される。膜尤度マップスタック132は、Z方向に並ぶ複数の膜尤度マップにより構成される。仮膜画像スタック134は、Z方向に並ぶ複数の仮膜画像スタックにより構成される。個々の仮膜画像は、その修正後において膜画像となるが、それは便宜上の区別であり、ここでは、修正前及び修正後を区別することなく、仮膜画像と称することにする。それらのスタック130,132,134は、加工ツールユニットによって管理され、あるいは、生物組織処理装置が有する制御部によって管理される。 In FIG. 7, the original image stack 130 is composed of a plurality of original images arranged in the Z direction (depth direction). The membrane-likelihood map stack 132 is composed of a plurality of membrane-likelihood maps arranged in the Z direction. The temporary membrane image stack 134 is composed of a plurality of temporary membrane image stacks aligned in the Z direction. Each temporary membrane image becomes a membrane image after being corrected, but this is a distinction for the sake of convenience, and here the temporary membrane image is referred to without distinguishing between before and after correction. These stacks 130, 132, 134 are managed by a processing tool unit or by a controller of the biological tissue processing apparatus.

元画像の表示が指定されている場合、元画像スタック130から、ユーザーによって選択された深さZiに対応する元画像130iが取り出され、それが表示器46に表示される。膜尤度マップの表示が指定されている場合、膜尤度マップスタック132から、ユーザーによって選択された深さZiに対応する膜尤度マップ132iが取り出され、それが表示器46に表示される。仮膜画像の表示が指定されている場合、仮膜画像スタック134から、ユーザーによって選択された深さZiに対応する仮膜画像134iが取り出され、それが表示器46に表示される。実際には、深さZiに対応する元画像130i上に、深さZiに対応する仮膜画像134iが合成され、その合成画像が表示器46に表示される。合成に先立って、仮膜画像134iが例えば青色のカラー画像に変換される。また合成時においては、元画像130iに対して表示重みw0が乗算され、仮膜画像134iに対して表示重みw1が乗算される。各表示重みw0、w1をユーザーにより変更し得る。 If display of the original image is specified, the original image 130 i corresponding to the depth Z i selected by the user is retrieved from the original image stack 130 and displayed on the display 46 . If display of the membrane likelihood map is specified, the membrane likelihood map 132 i corresponding to the depth Z i selected by the user is retrieved from the membrane likelihood map stack 132 and displayed on the display 46 . . If display of a temporary membrane image is specified, the temporary membrane image 134 i corresponding to the depth Z i selected by the user is retrieved from the temporary membrane image stack 134 and displayed on the display 46 . Actually, the temporary membrane image 134 i corresponding to the depth Zi is synthesized on the original image 130 i corresponding to the depth Zi, and the synthesized image is displayed on the display 46 . Prior to synthesis, the temporary membrane image 134i is converted into, for example, a blue color image. Further, at the time of synthesis, the original image 130i is multiplied by the display weight w0, and the temporary membrane image 134i is multiplied by the display weight w1. Each display weight w0, w1 can be changed by the user.

仮膜画像134iは作業対象画像であり、それに対してユーザーが修正を行うと、符号135で示されるように、その修正内容が直ちに仮膜画像134iに反映される。深さZiを変更しながら、表示された各作業対象画像に対して、修正処理及びラベリング処理が施される。その過程において、必要に応じて、元画像130i又は膜尤度マップ132iを単独で表示することも可能である。実施形態においては、リングバッファ内に過去m回分の修正内容が修正履歴として管理されており、必要に応じて、Undo操作を行える。 The temporary membrane image 134i is an image to be worked on, and when the user modifies it, the contents of the correction are immediately reflected in the temporary membrane image 134i, as indicated by reference numeral 135. FIG. Correction processing and labeling processing are performed on each displayed work target image while changing the depth Zi. In the process, it is also possible to display the original image 130i or the membrane likelihood map 132i alone, if necessary. In the embodiment, the past m correction contents are managed as a correction history in the ring buffer, and an Undo operation can be performed as necessary.

図8には、重合表示が選択された場合の表示処理が示されている。図7に示した構成と同様の構成には同一符号を付しその説明を省略する。図示した表示処理では、3種類の表示画像に対して重合表示処理を選択的に適用することが可能である。一部の画像だけに対して重合表示処理が適用されてもよい。 FIG. 8 shows display processing when superimposed display is selected. Components similar to those shown in FIG. 7 are denoted by the same reference numerals, and descriptions thereof are omitted. In the illustrated display processing, it is possible to selectively apply superimposition display processing to three types of display images. The overlapping display process may be applied to only some images.

元画像の表示が指定されている場合であって、Z方向に浅い側の隣接画像の重合表示が指示された場合、元画像スタック130から、深さZiに対応する元画像130i及び深さZi-1に対応する元画像130i-1が取り出される。それらが重合されて表示される。元画像130iに対して、深さZi+1に対応する元画像130i+1を重合する場合にも、上記同様の処理が実行される。なお、追加的に表示される元画像130i-1,130i+1の透過度は、表示重みw3を可変することによって調整される。 When the display of the original image is designated, and the overlapped display of the adjacent image shallower in the Z direction is instructed, the original image 130i corresponding to the depth Zi and the depth Zi The original image 130i-1 corresponding to -1 is retrieved. They are polymerized and displayed. When superimposing the original image 130i+1 corresponding to the depth Zi+1 on the original image 130i, the same process as described above is performed. The transparency of the additionally displayed original images 130i-1 and 130i+1 is adjusted by varying the display weight w3.

膜尤度マップの表示が指定されている場合であって、Z方向に浅い側(又は深い側)の隣接画像の重合表示が指示された場合、膜尤度マップスタック132から、深さZiに対応する膜尤度マップ132i、及び、深さZi-1(又は深さZi+1)に対応する膜尤度マップ132i-1(又は膜尤度マップ132i+1)が取り出される。それらが重合されて、表示される。 When the display of the membrane-likelihood map is specified, and when superimposed display of adjacent images on the shallow side (or deep side) in the Z direction is instructed, the membrane-likelihood map stack 132 is displayed at the depth Zi. The corresponding membrane-likelihood map 132i and membrane-likelihood map 132i-1 (or membrane-likelihood map 132i+1) corresponding to depth Zi-1 (or depth Zi+1) are retrieved. They are polymerized and displayed.

これと同様に、仮膜画像の表示が指定されている場合であって、Z方向に浅い側(又は深い側)の隣接画像の重合表示が指示された場合、仮膜画像スタック134から、深さZiに対応する仮膜画像134i、及び、深さZi-1(又は深さZi+1)に対応する仮膜画像134i-1(又は仮膜画像134i+1)が取り出される。それらが重合されて、表示される。その場合、実際には、隣接する2つの合成画像が重合表示されることになる。合成処理後に重合処理されてもよい。 Similarly, when display of a temporary membrane image is specified and superimposition display of an adjacent image on the shallow side (or deep side) in the Z direction is instructed, from the temporary membrane image stack 134, a deep A temporary membrane image 134i corresponding to depth Zi and a temporary membrane image 134i-1 (or temporary membrane image 134i+1) corresponding to depth Zi-1 (or depth Zi+1) are retrieved. They are polymerized and displayed. In that case, two adjacent synthesized images are actually superimposed and displayed. A polymerization treatment may be performed after the synthesis treatment.

図9には、補間処理の第1例が示されている。これは図5において(A21)で示した補間処理に相当するものである。図9において、仮膜画像スタック134から深さZiに対応する仮膜画像が取り出され、それが作業対象画像140として表示される。作業対象画像140の修正過程において、ユーザーにより、膜途切れ部分146の両端が2つの点142,144により指定される。2つの点142,144の間が作業対象画像140の内容に基づいて自動的に補間される。符号148は、自動的に追加された補間線(連結線)を示している。その場合、スプライン補間その他の技術を利用し得る。なお、作業対象画像140中において、細胞膜以外の細胞構成要素が膜として検出されている場合、符号150で示されるように、それが消しゴムによって消去される。 FIG. 9 shows a first example of interpolation processing. This corresponds to the interpolation processing indicated by (A21) in FIG. In FIG. 9, the temporary membrane image corresponding to the depth Z i is retrieved from the temporary membrane image stack 134 and displayed as the working image 140 . In the process of correcting the image 140 to be worked on, the user designates two points 142 and 144 at both ends of the film discontinuity portion 146 . Between the two points 142 and 144 is automatically interpolated based on the content of the working image 140 . Reference numeral 148 indicates an automatically added interpolation line (connection line). In that case, spline interpolation or other techniques may be used. In addition, when a cellular component other than the cell membrane is detected as a membrane in the work target image 140 , it is erased with an eraser, as indicated by reference numeral 150 .

図10には、補間処理の第2例が示されている。これは図5において(A22)で示した補間処理に相当するものである。図10において、仮膜画像スタック134から、深さZiに対応する仮膜画像が取り出され、それが作業対象画像140として表示される。作業対象画像140上において、ユーザーにより、膜途切れ部分の両端が2つの点142,144により指定される。一方、元画像スタック130から、深さZiに対応する元画像152も取り出される。その元画像152に対して必要に応じてエッジ強調処理が適用される。その上で、元画像152上において、2つの点142,144に対応する2つの点が特定され(符号154を参照)、それらの点の間が補間される(符号156を参照)。例えば、2つの点の間を結ぶ経路が探索される。その場合には公知の各種技術を利用可能である。図10において、作業対象画像140上には、探索された経路と同じ形態を有する補間線158が追加されている。経路の探索に際しては、例えば、最短経路問題を解く各種の方法を利用し得る。例えば、Dijkstra法が利用されてもよい。上記同様の手法によって三次元の経路が探索されてもよい。 FIG. 10 shows a second example of interpolation processing. This corresponds to the interpolation processing indicated by (A22) in FIG. In FIG. 10, the temporary membrane image corresponding to the depth Zi is retrieved from the temporary membrane image stack 134 and displayed as the working image 140 . On the image 140 to be worked on, the user designates two points 142 and 144 at both ends of the film discontinuity. Meanwhile, from the original image stack 130, an original image 152 corresponding to depth Zi is also retrieved. Edge enhancement processing is applied to the original image 152 as necessary. Then, two points corresponding to the two points 142 and 144 are identified on the original image 152 (see reference numeral 154), and interpolated between those points (see reference numeral 156). For example, a route connecting two points is searched. In that case, various known techniques can be used. In FIG. 10, an interpolation line 158 having the same shape as the searched path is added on the image 140 to be worked on. Various methods of solving the shortest path problem, for example, can be used when searching for paths. For example, the Dijkstra method may be used. A three-dimensional route may be searched by a technique similar to that described above.

図11には、修正前の仮膜画像180と修正後の仮膜画像182とが示されている。修正前の仮膜画像180には、膜途切れ部分184,188が含まれる。修正後の仮膜画像182においては、符号186及び符号190で示されているように、膜途切れ部分が補修されている。また、修正前の仮膜画像180には、非膜部分192,196が含まれている。修正後の仮膜画像182においては、符号194及び符号198で示されているように、それらの非膜部分が消失している。修正後の仮膜画像182によれば、ラベリングを的確に行うことが可能となり、ひいては、三次元ラベリングデータの品質を高めることが可能となる。 FIG. 11 shows a temporary membrane image 180 before correction and a temporary membrane image 182 after correction. A temporary membrane image 180 before correction includes membrane discontinuities 184 and 188 . In the temporary film image 182 after correction, as indicated by reference numerals 186 and 190, the broken film portions are repaired. In addition, the temporary membrane image 180 before correction includes non-membrane portions 192 and 196 . In the corrected temporary membrane image 182 , those non-membrane portions have disappeared, as indicated by reference numerals 194 and 198 . According to the corrected temporary film image 182, it is possible to perform labeling accurately, which in turn makes it possible to improve the quality of the three-dimensional labeling data.

図12には、ラベリング処理に含まれる三次元繋ぎ処理が例示されている。その内容は図5において(B21)で示した処理又は(B22)で示した処理に相当するものである。図12においては、Z方向に並ぶ複数の仮膜画像D1~D4が示されている。深さZiに対応する仮膜画像D1が作業対象画像である。それが以下に説明する処理での基準画像とされる。 FIG. 12 exemplifies three-dimensional connection processing included in the labeling processing. The content corresponds to the process indicated by (B21) or the process indicated by (B22) in FIG. FIG. 12 shows a plurality of temporary film images D1 to D4 arranged in the Z direction. The temporary film image D1 corresponding to the depth Zi is the work target image. It is used as a reference image in the processing described below.

上記の(B21)で示した処理においては、基準画像である仮膜画像D1に含まれる領域R1について代表点が特定される。例えば、代表点として中心点、重心点等が特定される。次いで、その代表点を通過する垂線Cが定義される。基準画像から、例えば、深い側にN枚の仮膜画像が参照され、それらの画像において垂線Cが通過している各領域が特定される。そして、垂線Cが通過している領域R1,R2,R3,R4,・・・に対して、同じラベルが付与される。また、以上の処理が基準画像から浅い側のN枚の仮膜画像に対して適用されてもよい。自動的なラベリングの結果は、通常、ユーザーによって目視確認される。 In the process shown in (B21) above, a representative point is specified for the region R1 included in the temporary membrane image D1, which is the reference image. For example, a central point, a barycentric point, or the like is specified as a representative point. A perpendicular line C is then defined that passes through the representative point. From the reference image, for example, N temporary membrane images are referenced on the deep side, and each region through which the perpendicular line C passes is specified in these images. The same label is assigned to the regions R1, R2, R3, R4, . . . through which the perpendicular C passes. Also, the above processing may be applied to the N temporary membrane images on the shallow side from the reference image. The result of automatic labeling is usually visually confirmed by the user.

上記の(B22)で示した処理においては、仮膜画像D1に含まれる領域R1(の外縁)が仮膜画像D2上に投影され、投影領域R1aが定義される。仮膜画像D2上において、投影領域R1aに対して最も重なり合う領域R2が特定される。続いて、領域R2が仮膜画像D3上に投影され、投影領域R2aが定義される。仮膜画像D3上において、投影領域R2aに対して最も重なり合う領域R3が特定される。同様に、仮膜画像D4上において、投影領域R3aが定義され、それに基づいて領域R4が特定される。領域R1、及び、それを出発点として特定された領域R2,R3,R4の全部に対して、同じラベルが付与される。 In the process shown in (B22) above, (the outer edge of) the area R1 included in the temporary membrane image D1 is projected onto the temporary membrane image D2 to define the projection area R1a. A region R2 that most overlaps with the projection region R1a is specified on the temporary membrane image D2. Subsequently, the region R2 is projected onto the temporary membrane image D3 to define a projection region R2a. A region R3 that most overlaps with the projection region R2a is specified on the temporary membrane image D3. Similarly, a projection region R3a is defined on the temporary membrane image D4, and a region R4 is specified based thereon. The same label is assigned to the region R1 and all of the regions R2, R3, and R4 identified from it as a starting point.

上記の処理では、投影元の領域がレイヤ変更時に逐次更新されていたが、それを固定するようにしてもよい。例えば、領域R1を仮膜画像D2,D3,D4に投影するようにしてもよい。また、上記の処理では、基準画像からZ方向の一方側に繋がり先が探索されていたが、基準画像からZ方向の両側に繋がり先が探索されてもよい。その探索範囲がユーザー選択されてもよい。いずれにしても、自動的なラベリングの結果が、通常、ユーザーによって目視確認される。その場合には、図6に示した作業ウインドウが利用される。 In the above process, the projection source area is updated when the layer is changed, but it may be fixed. For example, the region R1 may be projected onto the temporary membrane images D2, D3, and D4. Also, in the above processing, the connection destination is searched for on one side in the Z direction from the reference image, but the connection destination may be searched for on both sides in the Z direction from the reference image. The search scope may be user-selected. In any case, the result of automatic labeling is usually visually confirmed by the user. In that case, the working window shown in FIG. 6 is used.

以上説明した三次元繋ぎ処理は例示であり、上記以外の三次元繋ぎ処理が採用されてもよい。領域間における繋がり関係の特定に際しては、領域ごとの1又は複数の特徴量が利用され得る。領域の特徴量として、面積、形態、周囲長、重心点、輝度ヒストグラム、テクスチャ、等が利用されてもよい。あるいは、領域間の特徴量として、重合面積、代表点間距離、等が利用されてもよい。 The three-dimensional connection processing described above is an example, and three-dimensional connection processing other than the above may be adopted. One or a plurality of feature amounts for each region may be used to identify the connection relationship between regions. Area, shape, perimeter, center of gravity, luminance histogram, texture, etc. may be used as the feature amount of the region. Alternatively, a superimposed area, a distance between representative points, or the like may be used as the feature amount between regions.

図13には、候補表示の一例が示されている。その処理は、図5において(A13)で示した処理に相当するものである。深さZiに対応する仮膜画像(作業対象画像)200上に、投影領域202が定義されている。投影領域202は、例えば、深さZi-1に対応する仮膜画像上でラベル付けされた元領域の投影により定義される領域である。仮膜画像200において、投影領域202と重なり合う複数の領域204a,204b,204cが特定される。また、投影領域202(又は元領域)と、各領域204a,204b,204cとの間で、それぞれ類似度(例えば重合面積)が演算される。各領域204a,204b,204cについて演算された各類似度に基づいて、各領域204a,204b,204cがそれぞれ異なるカラーで識別表現される。すなわち、類似度の違いが色相の違いとして識別表現される。これにより、ユーザーは、個々の領域204a,204b,204cの類似度を参考にしながら、ラベリングを行うことが可能となる。例えば、図示の例では、最も類似度の大きい領域204aに対して、元領域に付与したラベルと同じラベルが付与される。 FIG. 13 shows an example of candidate display. This process corresponds to the process indicated by (A13) in FIG. A projection area 202 is defined on the temporary membrane image (work target image) 200 corresponding to the depth Zi. Projection region 202 is, for example, the region defined by the projection of the labeled original region on the tarsal image corresponding to depth Zi−1. In the temporary membrane image 200, a plurality of regions 204a, 204b, 204c overlapping the projection region 202 are identified. Further, similarities (for example, overlapping areas) are calculated between the projected area 202 (or the original area) and each of the areas 204a, 204b, and 204c. Based on the degrees of similarity calculated for the regions 204a, 204b and 204c, the regions 204a, 204b and 204c are identified and expressed in different colors. That is, a difference in similarity is identified and expressed as a difference in hue. This allows the user to perform labeling while referring to the degree of similarity of the individual regions 204a, 204b, and 204c. For example, in the illustrated example, the same label as the label given to the original region is given to the region 204a with the highest degree of similarity.

図14には、管理テーブルが例示されている。図示された管理テーブル206は、ラベリング処理の結果を管理するためのテーブルである。管理テーブル206は、例えば、上記ラベリング処理部の中に構築される。管理テーブル206は、複数のレコード206aからなり、個々のレコード206aは1つの画素に対応している。レコード206aにおいては、画素座標、クラス、及び、ラベルが管理されている。クラスは、画素の属性として、膜、膜内部、及び、その他を識別するデータである。ラベルは、三次元データ空間内において繋がり関係を特定する数値データである。繋がり関係のある(ある細胞膜の内部の)画素群には同じラベルが付与される。 FIG. 14 exemplifies a management table. The illustrated management table 206 is a table for managing the results of labeling processing. The management table 206 is constructed, for example, in the labeling processing section. The management table 206 consists of a plurality of records 206a, each record 206a corresponding to one pixel. The record 206a manages pixel coordinates, classes, and labels. A class is data that identifies membrane, inside membrane, and others as attributes of a pixel. A label is numerical data specifying a connection relationship in a three-dimensional data space. The same label is assigned to a group of pixels (within a certain cell membrane) that are connected.

次に、図15及び図16を用いて、作業ウインドウの他の例について説明する。図15において、図6に示した構成と同様の構成には同一符号を付し、その説明を省略する。 Next, another example of the work window will be described with reference to FIGS. 15 and 16. FIG. In FIG. 15, the same reference numerals are given to the same configurations as those shown in FIG. 6, and the description thereof will be omitted.

図15において、作業ウインドウ100A内のボタン列115には、三次元像表示のためのボタン210が含まれる。ボタン210を操作すると、表示画像102上に又はそれとは別の場所に、サブ表示画像212が表示される。図示の例では、サブ表示画像212は、三次元空間を表すワイヤーフレーム(座標系を示す図形)213、及び、その内部に表現された三次元像215を含む。三次元像215は、図示の例では、3つの部分214a,214b,214cの集合体である。各部分214a,214b,214cはそれぞれ細胞内腔の三次元形態を示している。 In FIG. 15, a button row 115 in the work window 100A includes a button 210 for displaying a three-dimensional image. When the button 210 is operated, a sub-display image 212 is displayed on the display image 102 or at another location. In the illustrated example, the sub-display image 212 includes a wire frame (a figure indicating a coordinate system) 213 representing a three-dimensional space, and a three-dimensional image 215 expressed therein. The three-dimensional image 215 is an assembly of three parts 214a, 214b, 214c in the illustrated example. Each portion 214a, 214b, 214c respectively shows the three-dimensional morphology of the cell lumen.

具体的には、ラベリング処理によって生成された三次元ラベリングデータに基づいてレンダリング処理を実行することにより、立体感を有する三次元像215が生成されている。視点、光源等のパラメータはユーザーにより変更され得る。サブ表示画像212が別ウインドウの形式でポップアップ表示されてもよい。三次元像215の参照により、修正結果の妥当性やラベリング処理結果の妥当性を容易に判断することが可能となる。 Specifically, a three-dimensional image 215 having a stereoscopic effect is generated by executing rendering processing based on the three-dimensional labeling data generated by the labeling processing. Parameters such as viewpoint, light source, etc. can be changed by the user. The sub display image 212 may be popped up in the form of another window. By referring to the three-dimensional image 215, it is possible to easily judge the validity of the correction result and the validity of the labeling processing result.

サブ表示画像212には、現在選択されている深さを示す枠図形216が含まれる。作業ウインドウ100A内に含まれる深さ選択ツール108において、マーカー108aをスライド移動させると、表示されている作業対象画像の内容が変化し、同時に、枠図形216が深さ方向に運動する。枠図形216の位置を参照することによって、三次元データ空間内における作業対象レイヤを直感的に認識することが可能となる。 The sub-display image 212 includes a frame figure 216 indicating the currently selected depth. When the marker 108a is slid in the depth selection tool 108 included in the work window 100A, the content of the displayed work target image changes, and at the same time the frame figure 216 moves in the depth direction. By referring to the position of the frame graphic 216, it is possible to intuitively recognize the work target layer in the three-dimensional data space.

図16に示される三次元像226,227が表示されてもよい。三次元像226,227は、ある細胞内腔を複数のディスク228の積層体として表現したものである。このような三次元像226,227によれば、各試料切片の厚さを三次元像に反映させることが可能となる。複数のディスクに代えて複数の平板状円板を表示するようにしてもよい。 Three-dimensional images 226, 227 shown in FIG. 16 may be displayed. Three-dimensional images 226 and 227 represent a cell lumen as a stack of multiple discs 228 . With such three-dimensional images 226 and 227, it is possible to reflect the thickness of each sample section in the three-dimensional image. A plurality of flat discs may be displayed instead of the plurality of discs.

図17には、生物組織画像処理装置の本体の第2構成例が示されている。図2に示した構成と同様の構成には同一符号を付し、その説明を省略する。 FIG. 17 shows a second configuration example of the main body of the biological tissue image processing apparatus. Components similar to those shown in FIG. 2 are denoted by the same reference numerals, and descriptions thereof are omitted.

本体40Aにおいて、膜推定器250は、細胞膜と他の膜(図示の構成例ではミトコンドリア膜)とを同時に推定する機能を有している。膜推定器250に対して元画像(SEM画像)58を入力すると、細胞膜の推定結果として膜尤度マップA254が出力され、同時に、ミトコンドリア膜の推定結果として膜尤度マップB258が出力される。 In the main body 40A, the membrane estimator 250 has a function of simultaneously estimating cell membranes and other membranes (mitochondrial membranes in the configuration example shown). When the original image (SEM image) 58 is input to the membrane estimator 250, a membrane likelihood map A254 is output as the cell membrane estimation result, and at the same time, a membrane likelihood map B258 is output as the mitochondrial membrane estimation result.

膜尤度マップ補正部262は、膜尤度マップBに基づいて、膜尤度マップAを補正するモジュールである。具体的には、膜尤度マップB258を構成する座標(x,y)の膜尤度bが判定閾値α以上であれば、膜尤度マップA254における座標(x,y)の膜尤度aの値が0に置換される。一方、膜尤度マップB258における座標(x,y)の膜尤度bが判定閾値αよりも小さければ、膜尤度マップA254における座標(x,y)の膜尤度aの値が維持される。膜尤度マップ補正部262から、補正後の膜尤度マップ264が出力される。二値化器50は膜尤度マップ264を二値化処理し、仮膜画像62を生成する。 The membrane likelihood map correction unit 262 is a module that corrects the membrane likelihood map A based on the membrane likelihood map B. FIG. Specifically, if the membrane likelihood b at the coordinates (x, y) forming the membrane likelihood map B258 is equal to or greater than the determination threshold α, the membrane likelihood a at the coordinates (x, y) in the membrane likelihood map A254 is replaced with 0. On the other hand, if the membrane likelihood b at the coordinates (x, y) in the membrane likelihood map B258 is smaller than the determination threshold α, the value of the membrane likelihood a at the coordinates (x, y) in the membrane likelihood map A254 is maintained. be. The corrected membrane likelihood map 264 is output from the membrane likelihood map correction unit 262 . A binarizer 50 binarizes the membrane likelihood map 264 to generate a temporary membrane image 62 .

二値化器50及び修正部52に対して並列に設けられた二値化器268及び修正部270は、膜尤度マップB258に基づいて正解画像272を作成するためのものである。二値化器268は、二値化器50と同様の機能を有し、膜尤度マップBから仮膜画像を生成する。修正部270は、修正部52と同様の機能を有する。修正部52により、仮膜画像がマニュアルで修正され、あるいは、自動的に修正され、これにより正解画像272が生成される。加工ツールユニット266は、修正部52、ラベリング処理部54、及び、修正部270によって構成されている。 A binarizer 268 and a modifier 270 provided in parallel with the binarizer 50 and the modifier 52 are for creating a correct image 272 based on the membrane likelihood map B258. A binarizer 268 has the same function as the binarizer 50 and generates a tentative membrane image from the membrane likelihood map B. FIG. Corrector 270 has the same function as corrector 52 . The correction unit 52 manually or automatically corrects the temporary membrane image, thereby generating the correct image 272 . The processing tool unit 266 is composed of a correction section 52 , a labeling processing section 54 and a correction section 270 .

膜推定器250における細胞膜の学習のために、元画像58とそれに対応する正解画像64A,68とが教師データとして利用される。正解画像64Aは修正部52による修正が行われた後の膜画像64であり、正解画像68は元画像から別途作成された画像である。膜推定器250におけるミトコンドリア膜についての学習のために、元画像58とそれに対応する正解画像272,274とが教師データとして利用される。正解画像272は修正部270による修正が行われた後の膜画像であり、正解画像274は元画像から別途作成された画像である。なお、教師データとして、正解画像64Aに代えて、仮膜画像62を用いることもできる。 For cell membrane learning in the membrane estimator 250, the original image 58 and the corresponding correct images 64A and 68 are used as teacher data. A correct image 64A is the film image 64 after correction by the correction unit 52, and a correct image 68 is an image separately created from the original image. For learning about the mitochondrial membrane in the membrane estimator 250, the original image 58 and the corresponding correct images 272 and 274 are used as teacher data. A correct image 272 is a film image corrected by the correction unit 270, and a correct image 274 is an image separately created from the original image. Note that the temporary membrane image 62 can be used as the training data instead of the correct image 64A.

第2構成例によれば、細胞膜の推定結果が他の推定結果により補正されるので、細胞膜の推定精度を高めることが可能となる。また、ミトコンドリア膜を示す膜画像の修正に際して、図6に示した作業ウインドウを利用することができるから、その修正作業において作業効率を高められる。 According to the second configuration example, the estimation result of the cell membrane is corrected by another estimation result, so it is possible to improve the estimation accuracy of the cell membrane. Moreover, since the work window shown in FIG. 6 can be used when correcting the membrane image showing the mitochondrial membrane, the work efficiency can be improved in the correction work.

上記第2構成例では、膜尤度マップB258における膜尤度が閾値α以上である場合に補正が実行されていたが、膜尤度マップB258における膜尤度の大小に応じて補正度合いが可変されるようにしてもよい。単一の膜推定器250に代えて、細胞膜を推定する膜推定器とミトコンドリア膜を推定する膜推定器とを併設するようにしてもよい。その場合、望ましくは、2つの膜推定器がそれぞれ機械学習型の推定器で構成される。細胞膜、ミトコンドリア、及び、背景を個別的に且つ同時に推定する多クラス推定型の推定器を設けてもよい。 In the second configuration example, the correction is performed when the membrane likelihood in the membrane likelihood map B258 is equal to or greater than the threshold value α, but the degree of correction varies depending on the magnitude of the membrane likelihood in the membrane likelihood map B258. may be made. Instead of the single membrane estimator 250, a membrane estimator for estimating the cell membrane and a membrane estimator for estimating the mitochondrial membrane may be provided side by side. In that case, each of the two membrane estimators preferably consists of a machine learning type estimator. A multi-class estimator may be provided that separately and simultaneously estimates plasma membrane, mitochondria, and background.

図18には、生物組織画像処理装置の本体の第3構成例が示されている。本体40Bは、元画像58を入力して膜推定を行う2つの機械学習型膜推定器280,282を有する。2つの機械学習型膜推定器280,282は互いに異なる構成を有し、すなわち、それらのタイプ又は方式は互いに相違する。例えば、膜推定器280は、図2に示した膜推定器42に相当し、それは例えばCNNにより構成される。膜推定器282は例えばランダムフォレストにより構成される。膜推定器280,282はいずれも細胞膜の推定を行うためのものであるが、それらの性質又は特性に相違があることから、2つの膜推定器280,282の推定結果は必ずしも同一にならない。例えば、元画像中のある部分について、膜推定器280,282の内の一方が膜と判断し、それらの内の他方も膜と判断することもあれば、膜推定器280,282の内の一方が膜と判断し、それらの内の他方が非膜と判断することもある。 FIG. 18 shows a third configuration example of the main body of the biological tissue image processing apparatus. The main body 40B has two machine-learning film estimators 280 and 282 that input the original image 58 and perform film estimation. The two machine-learning film estimators 280, 282 have different configurations, ie their types or schemes are different. For example, membrane estimator 280 corresponds to membrane estimator 42 shown in FIG. The membrane estimator 282 is constructed by, for example, a random forest. Both of the membrane estimators 280 and 282 are for estimating the cell membrane, but since their properties or characteristics are different, the two membrane estimators 280 and 282 do not always give the same estimation results. For example, one of the film estimators 280, 282 may determine that a portion of the original image is a film, and the other of them may also be determined to be a film. One may be determined to be membrane and the other of them may be determined to be non-membrane.

処理部296は、膜推定器280から出力された膜尤度マップA284と膜推定器282から出力された膜尤度マップB286とを比較し、両者の差が大きい画素(又は画素群)を修正候補として判定するものである。図示の構成例では、処理部296から修正部306へ修正候補を特定する情報302が送られている。修正部306内に処理部296が設けられもよい。 The processing unit 296 compares the membrane likelihood map A 284 output from the membrane estimator 280 and the membrane likelihood map B 286 output from the membrane estimator 282, and corrects pixels (or groups of pixels) having a large difference between the two. It is determined as a candidate. In the illustrated configuration example, information 302 specifying correction candidates is sent from the processing unit 296 to the correction unit 306 . A processing unit 296 may be provided within the correction unit 306 .

二値化器292は、図2に示した二値化器50に相当し、それは膜尤度マップA284から仮膜画像298を生成するものである。二値化器294は、二値化器292と同様の作用を発揮するものであり、それは膜尤度マップB286から仮膜画像300を生成するものである。 The binarizer 292 corresponds to the binarizer 50 shown in FIG. 2 and it produces the tentative membrane image 298 from the membrane likelihood map A 284 . The binarizer 294 performs the same function as the binarizer 292, in that it produces the tentative membrane image 300 from the membrane likelihood map B286.

加工ツールユニット304は、図2に示した加工ツールユニット44と同様の機能を有し、それは、修正部306及びラベリング処理部310を有する。修正部306は、二値化器292から出力された仮膜画像298及び二値化器294から出力された仮膜画像300に対して修正を施すためのものである。修正後の膜画像308がラベリング処理部310に送られている。その膜画像308は、正解画像312として膜推定器280へ送られている。修正後の膜画像309は、正解画像316として膜推定器282へ送られている。加工ツールユニット304は、選択された深さに対応する仮膜画像の表示に際して、あるいは、入力された仮膜画像298の表示に際して、修正候補を識別表示する機能を有する。修正候補の特定及びその識別表示については、後に図19及び図20を用いて説明する。なお、修正後の膜画像309がラベリング処理部310へ送られてもよい。 The processing tool unit 304 has similar functions to the processing tool unit 44 shown in FIG. The correction unit 306 is for correcting the temporary membrane image 298 output from the binarizer 292 and the temporary membrane image 300 output from the binarizer 294 . The modified film image 308 is sent to the labeling processor 310 . The membrane image 308 is sent to the membrane estimator 280 as the correct image 312 . The modified film image 309 is sent to the film estimator 282 as a correct image 316 . The processing tool unit 304 has a function of identifying and displaying correction candidates when displaying the temporary membrane image corresponding to the selected depth or when displaying the input temporary membrane image 298 . The identification of correction candidates and their identification display will be described later with reference to FIGS. 19 and 20. FIG. Note that the modified film image 309 may be sent to the labeling processing unit 310 .

膜推定器280の学習過程では、膜推定器280に対して、元画像58とそれに対応する正解画像312,314とが教師データとして入力される。正解画像312は、修正後の膜画像308である。正解画像314は、元画像から別途作成されたものである。膜推定器282の学習過程では、膜推定器282に対して、元画像58とそれに対応する正解画像316,318とが教師データとして入力される。正解画像316は、修正後の膜画像309である。正解画像318は、元画像から別途作成されたものである。 In the learning process of the membrane estimator 280, the original image 58 and the corresponding correct images 312 and 314 are input to the membrane estimator 280 as teacher data. Correct image 312 is film image 308 after correction. The correct image 314 is created separately from the original image. In the learning process of the membrane estimator 282, the original image 58 and the corresponding correct images 316 and 318 are input to the membrane estimator 282 as teacher data. Correct image 316 is film image 309 after correction. A correct image 318 is created separately from the original image.

図19及び図20に基づいて、上記第3構成例の動作(特に処理部及び修正部の動作)を説明する。 Based on FIG.19 and FIG.20, the operation|movement (especially operation|movement of a process part and a correction part) of the said 3rd structural example is demonstrated.

図19において、S30では、画素単位で、膜尤度マップAと膜尤度マップBとが比較される。比較単位を他の単位としてもよい。2つの膜尤度マップA,Bの比較により差分マップが生成される。S32では、差分マップを構成する複数の差分値がソートされる。すなわち、それらについて順位付けがなされる。S34では、ソート後の差分値列において、上位M個の差分値が特定される。すなわち、最大の差分値を含むM個の差分値が特定される。それらに対応する複数の画素がそれぞれ修正候補となる。S36では、作業対象画像上において、複数の修正候補が識別表示される。例えば、高輝度表示され、あるいは、特定の色相で表示される。 In FIG. 19, in S30, the membrane likelihood map A and the membrane likelihood map B are compared on a pixel-by-pixel basis. The unit of comparison may be another unit. A difference map is generated by comparing the two membrane likelihood maps A and B. FIG. In S32, a plurality of difference values forming the difference map are sorted. That is, they are ranked. In S34, the top M difference values are identified in the sorted difference value sequence. That is, M difference values are identified, including the largest difference value. A plurality of pixels corresponding to them are candidates for correction. In S36, a plurality of correction candidates are identified and displayed on the work target image. For example, it is displayed with high brightness or with a specific hue.

その表示例が図20に模式的に示されている。作業対象画像320上において、局所部分322,324は、複数の修正候補画像が密集している部分である。通常、このように複数の修正候補画素が局所的に密集する。場合によっては、エッジに沿って、複数の修正候補画素が並ぶ。いずれにしても、このような候補表示によれば、ユーザーにおいて、修正を行った方がよい部分、あるいは、2つの膜推定結果に解離が生じた部分を特定し、その部分に対して、必要な補正を施すことが可能となる。これにより修正作業の正確性を高められる。 A display example thereof is schematically shown in FIG. Local portions 322 and 324 on the work target image 320 are portions where a plurality of correction candidate images are concentrated. Normally, a plurality of correction candidate pixels are locally concentrated in this manner. In some cases, multiple correction candidate pixels line up along the edge. In any case, according to such candidate display, the user can specify a portion that should be corrected or a portion where dissociation has occurred in the two membrane estimation results, and perform the necessary correction can be applied. This will improve the accuracy of your repair work.

更に第4構成例として、並列的に演算されたN個の膜尤度マップに基づいて画素単位でばらつき情報を演算し、そのばらつき情報から修正候補を特定して、それを識別表示する態様が考えられる(但しNは3以上の整数である)。具体的には、タイプの異なるN個の膜推定器と、それらから出力されるN個の膜尤度マップに基づいて画素単位で膜尤度の標準偏差を演算する演算器と、画素単位での膜尤度の標準偏差に基づいて画素単位で修正候補か否かを判定する判定器と、修正候補となる画素を識別表示する表示処理器と、を設けるものである。ばらつき情報として標準偏差以外の情報(例えば分散又はそれに相当する情報)を演算するようにしてもよい。この構成は、N個の推定結果が揃わない場合には膜でない可能性が高いのでそれを修正候補として表示するものである。 Furthermore, as a fourth configuration example, there is a mode in which variation information is calculated for each pixel based on N membrane likelihood maps calculated in parallel, correction candidates are specified from the variation information, and they are identified and displayed. (where N is an integer of 3 or more). Specifically, N membrane estimators of different types, a calculator for computing the standard deviation of the membrane likelihood on a pixel-by-pixel basis based on the N membrane-likelihood maps output from them, and a display processor for identifying and displaying pixels that are candidates for correction. Information other than the standard deviation (for example, variance or information corresponding thereto) may be calculated as the variation information. With this configuration, if the N estimation results are not aligned, it is highly likely that it is not a film, so it is displayed as a correction candidate.

上記実施形態によれば、作業ウインドウに含まれる深さ選択ツールの操作によって、所望の深さに対応する仮膜画像を作業ウインドウ内に表示し、それに対して必要な修正やラベル付けを行うことが可能である。深さを段階的に変更しながら仮膜画像の修正を繰り返すことが容易であり、組織の連続性を考慮しながら、効率的に修正作業を進めることが可能である。また、仮膜画像の表示に際しては、それに対応する(同じ深さの)元画像が背景画像として表示されるので、元画像と仮膜画像とを対比しながら、つまり推定結果の妥当性を確認しながら、修正作業を行える。 According to the above embodiment, by operating the depth selection tool included in the work window, the temporary membrane image corresponding to the desired depth is displayed in the work window, and necessary corrections and labeling can be performed thereon. is possible. It is easy to repeat the correction of the temporary membrane image while changing the depth step by step, and it is possible to efficiently proceed with the correction work while considering the continuity of the tissue. In addition, when the temporary membrane image is displayed, the corresponding original image (of the same depth) is displayed as a background image. While you are at it, you can make corrections.

修正作業に際して、ラベリングされた部分の三次元像を観察できるようにすれば、各深さの仮膜画像の修正やラベル付けの適否を判断することも可能である。また、深さの異なる複数の画像の重合表示によれば、例えば2つの領域の不自然な重なり(修正エラー又はラベリングエラー)等を容易に特定することが可能となる。 If the three-dimensional image of the labeled portion can be observed during the correction work, it is possible to judge the suitability of the correction and labeling of the temporary membrane image at each depth. In addition, superimposed display of a plurality of images with different depths makes it possible to easily identify, for example, an unnatural overlap (correction error or labeling error) between two regions.

複数の元画像が透過型電子顕微鏡や光学顕微鏡によって取得されてもよい。細胞膜ではなく、細胞内腔、細胞内小器官(オルガネラ)、その他が推定器における推定対象とされてもよい。上記実施形態では、連続切片SEM法が採用されていたが、FIB-SEM法、SBF-SEM法、その他の手法が採用されてもよい。空間軸上で連なる画像列ではなく、時間軸上で連なる画像列が処理対象とされてもよい。 A plurality of original images may be acquired with a transmission electron microscope or an optical microscope. Instead of cell membranes, intracellular cavities, intracellular organelles, and the like may be subject to estimation by the estimator. Although the continuous section SEM method was adopted in the above embodiment, FIB-SEM method, SBF-SEM method, and other methods may be adopted. An image sequence that is continuous on the time axis may be processed instead of the image sequence that is continuous on the spatial axis.

上記の実施形態において、二次学習過程を経た膜推定器を有する生物組織画像処理装置(又はそれに相当するソフトウエア)がユーザーに対して提供又は納入されてもよい。二次学習過程を経たパラメータセットがインターネット上のクラウド(サーバー)からユーザー側の情報処理装置へ提供されてもよい。 In the above embodiments, a biological tissue image processing device (or software equivalent thereto) having a film estimator that has undergone a secondary learning process may be provided or delivered to the user. A parameter set that has undergone the secondary learning process may be provided to the user's information processing device from a cloud (server) on the Internet.

10 生物組織画像処理システム、16 走査型電子顕微鏡(SEM)、18 生物組織画像処理装置、42 膜推定器、44 加工ツールユニット(作業支援部)、50 二値化器、52 修正部、54 ラベリング部、56 ボリュームデータ処理部。 10 biological tissue image processing system, 16 scanning electron microscope (SEM), 18 biological tissue image processing device, 42 membrane estimator, 44 processing tool unit (work support unit), 50 binarizer, 52 correction unit, 54 labeling section, 56 volume data processing section;

Claims (17)

生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に基づいて複数の注目要素尤度マップを生成することにより前記複数の元画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含み、前記複数の注目要素尤度マップに基づいて前記複数の元画像から複数の注目要素画像を生成する画像生成部と、
前記複数の注目要素画像の中からユーザー選択された空間軸上又は時間軸上の位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の注目要素画像へ反映させる作業支援部と、
を含み、
前記画像生成部は、前記推定器として、異なるタイプの機械学習型の複数の推定器を含み、
前記複数の推定器にそれぞれ前記複数の元画像が入力され、
前記作業支援部は、前記複数の推定器がそれぞれ生成した複数の注目要素尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する、
ことを特徴とする生物組織画像処理装置。
By generating a plurality of target element likelihood maps based on a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue, the target element likelihood map is included in the biological tissue with respect to the plurality of original images. an image generation unit that includes a machine learning estimator that applies processing for estimating a target element, and generates a plurality of target element images from the plurality of original images based on the plurality of target element likelihood maps ;
Extracting a specific attention element image corresponding to a position on the space axis or the time axis selected by the user from the plurality of attention element images, displaying it as a work target image, and modifying the work target image by the user a work support unit for reflecting the above-mentioned specific target element image;
including
The image generator includes a plurality of different types of machine learning estimators as the estimators,
The plurality of original images are input to the plurality of estimators, respectively;
The work support unit identifies and displays correction candidates included in the work target image based on differences between the plurality of target element likelihood maps respectively generated by the plurality of estimators.
A biological tissue image processing apparatus characterized by:
請求項1記載の生物組織画像処理装置において、
前記注目要素は特定の膜であり、
前記複数の推定器には、第1膜推定器と前記第1膜推定器とは異なるタイプの機械学習型の第2膜推定器とが含まれ、
前記第1膜推定器は、前記複数の元画像に対して前記膜を推定する処理を適用し、これにより複数の第1膜尤度マップを生成し、
前記第2膜推定器は、前記複数の元画像に対して前記膜を推定する処理を適用し、これにより複数の第2膜尤度マップを生成し、
前記作業支援部は、前記複数の第1膜尤度マップと前記複数の第2膜尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing device according to claim 1,
the element of interest is a specific membrane;
the plurality of estimators include a first film estimator and a second film estimator of machine learning type different from the first film estimator;
The first membrane estimator applies a process of estimating the membrane to the plurality of original images, thereby generating a plurality of first membrane likelihood maps;
The second membrane estimator applies a process of estimating the membrane to the plurality of original images, thereby generating a plurality of second membrane likelihood maps;
The work support unit identifies and displays correction candidates included in the work target image based on differences between the plurality of first membrane likelihood maps and the plurality of second membrane likelihood maps.
A biological tissue image processing apparatus characterized by:
生物組織の観察により得られた空間軸上又は時間軸上で連なる複数の元画像に基づいて複数の注目要素尤度マップを生成することにより前記複数の元画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含み、前記複数の注目要素尤度マップに基づいて前記複数の元画像から複数の注目要素画像を生成する画像生成部と、
前記複数の注目要素画像の中からユーザー選択された空間軸上又は時間軸上の位置に対応する特定の注目要素画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の注目要素画像へ反映させる作業支援部と、
を含み、
前記画像生成部は、前記推定器として、第1推定器と第2推定器とを含み、
前記第1推定器は、前記複数の元画像に対して前記生物組織に含まれる細胞膜を推定する処理を適用し、これにより複数の膜尤度マップを生成し、
前記第2推定器は、前記第1推定器と一体化又は別体化された推定器であって、前記複数の元画像に対して前記生物組織に含まれるオルガネラを推定する処理を適用し、これにより複数のオルガネラ尤度マップを生成し、
前記複数のオルガネラ尤度マップに基づいて、前記複数の膜尤度マップを補正する補正部が設けられ、
前記画像生成部は、前記補正部による補正後の複数の膜尤度マップに基づいて、前記複数の注目要素画像として複数の膜画像を生成する、
ことを特徴とする生物組織画像処理装置。
By generating a plurality of target element likelihood maps based on a plurality of original images that are consecutive on the spatial axis or the time axis obtained by observing the biological tissue, the target element likelihood map is included in the biological tissue with respect to the plurality of original images. an image generation unit that includes a machine learning estimator that applies processing for estimating a target element, and generates a plurality of target element images from the plurality of original images based on the plurality of target element likelihood maps;
Extracting a specific attention element image corresponding to a position on the space axis or the time axis selected by the user from the plurality of attention element images, displaying it as a work target image, and modifying the work target image by the user a work support unit for reflecting the above-mentioned specific target element image;
including
The image generator includes a first estimator and a second estimator as the estimators,
The first estimator applies processing for estimating cell membranes contained in the biological tissue to the plurality of original images, thereby generating a plurality of membrane likelihood maps;
The second estimator is an estimator integrated with or separated from the first estimator, and applies a process of estimating organelles contained in the biological tissue to the plurality of original images, This generates multiple organelle likelihood maps,
a correction unit that corrects the plurality of membrane likelihood maps based on the plurality of organelle likelihood maps;
The image generation unit generates a plurality of membrane images as the plurality of target element images based on the plurality of membrane likelihood maps corrected by the correction unit.
A biological tissue image processing apparatus characterized by:
請求項1乃至3のいずれかに記載の生物組織画像処理装置において、
前記作業支援部は、前記作業対象画像を含む作業ウインドウを表示し、
前記作業ウインドウには、前記位置を選択する際に操作される位置選択用表示要素が含まれる、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 3 ,
The work support unit displays a work window including the work target image,
The work window includes a position selection display element that is operated when selecting the position.
A biological tissue image processing apparatus characterized by:
請求項記載の生物組織画像処理装置において、
前記作業ウインドウには、更に、前記作業対象画像の内容を追加する際に操作される追加用表示要素と、前記作業対象画像の内容を削除する際に操作される削除用表示要素と、が含まれる、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing device according to claim 4 ,
The work window further includes an addition display element operated when adding the content of the work target image and a deletion display element operated when deleting the content of the work target image. to be
A biological tissue image processing apparatus characterized by:
請求項記載の生物組織画像処理装置において、
前記作業ウインドウには、更に、前記作業対象画像に対して所定単位でラベリングを行う際に操作されるラベリング用表示要素が含まれる、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to claim 5 ,
The work window further includes labeling display elements that are operated when labeling the work target image in predetermined units.
A biological tissue image processing apparatus characterized by:
請求項1乃至のいずれかに記載の生物組織画像処理装置において、
前記作業支援部は、前記作業対象画像の表示に際し、その背景画像として、前記選択された位置に対応する特定の元画像を同時に表示する機能を有する、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 6 ,
The work support unit has a function of simultaneously displaying a specific original image corresponding to the selected position as a background image when displaying the work target image.
A biological tissue image processing apparatus characterized by:
請求項乃至のいずれかに記載の生物組織画像処理装置において、
前記作業支援部は、前記作業対象画像を表示する機能に加えて、前記選択された位置に対応する特定の元画像を表示する機能、及び、前記選択された位置に対応する特定の注目要素尤度マップを表示する機能を有する、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 7 ,
The work support unit, in addition to the function of displaying the work target image, has a function of displaying a specific original image corresponding to the selected position, and a function of displaying a specific target element likelihood corresponding to the selected position. with the function of displaying a degree map,
A biological tissue image processing apparatus characterized by:
請求項乃至のいずれかに記載の生物組織画像処理装置において、
前記作業支援部は、前記選択された位置に対応する、特定の元画像、特定の注目要素尤度マップ、及び、前記特定の注目要素画像の内のいずれかの画像の表示に際し、当該画像に対して、当該画像と同じ種類の画像であって前記選択された位置とは異なる位置に対応する他の画像を重ねて表示する機能を有する、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 8 ,
When displaying any one of the specific original image, the specific target element likelihood map, and the specific target element image corresponding to the selected position, the work support unit may display the image with On the other hand, it has a function of superimposing and displaying another image that is of the same type as the image and that corresponds to a position different from the selected position,
A biological tissue image processing apparatus characterized by:
請求項1乃至のいずれかに記載の生物組織画像処理装置において、
前記作業支援部は、前記複数の注目要素画像に対するラベル付け結果に基づいて、そのラベル付け結果を表す三次元像を作成しその三次元像を表示する三次元像処理部を有し、
前記三次元像を観察しながら前記作業対象画像の修正及びそれに対するラベル付けを行える、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 9 ,
The work support unit has a three-dimensional image processing unit that creates a three-dimensional image representing the labeling result based on the labeling result for the plurality of target element images and displays the three-dimensional image,
modifying and labeling the image to be worked on while observing the three-dimensional image;
A biological tissue image processing apparatus characterized by:
請求項1乃至10のいずれかに記載の生物組織画像処理装置において、
前記作業支援部は、前記複数の注目要素画像の中における第1の注目要素画像に対するラベル付け結果に基づいて、前記複数の注目要素画像の中における第2の注目要素画像の中から1又は複数のラベル付け候補を選定する候補選定部を有する、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 10 ,
The work support unit selects one or more second target element images among the plurality of target element images based on the labeling result for the first target element image among the plurality of target element images. has a candidate selection unit that selects labeling candidates for
A biological tissue image processing apparatus characterized by:
請求項11記載の生物組織画像処理装置において、
前記候補選定部は、前記第1の注目要素画像においてラベル付けされた部分と、前記第2の注目要素画像に含まれる各ラベル付け候補と、の間における類似度に基づいて、前記各ラベル付け候補の表示態様を変化させる、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing device according to claim 11 ,
The candidate selection unit performs each labeling based on the degree of similarity between the labeled portion in the first target element image and each labeling candidate included in the second target element image. change the display mode of candidates,
A biological tissue image processing apparatus characterized by:
請求項1乃至12のいずれかに記載の生物組織画像処理装置において、
前記推定器の学習過程には一次学習過程及び二次学習過程が含まれ、
前記二次学習過程では前記作業支援部による修正を経た複数の注目要素画像が前記推定器に与えられる、
ことを特徴とする生物組織画像処理装置。
In the biological tissue image processing apparatus according to any one of claims 1 to 12 ,
the learning process of the estimator includes a primary learning process and a secondary learning process;
In the secondary learning process, a plurality of target element images that have been modified by the work support unit are provided to the estimator.
A biological tissue image processing apparatus characterized by:
異なるタイプの機械学習型の複数の膜推定器に対して、生物組織の顕微鏡観察により得られた複数の深さに対応する複数の元画像を入力し、これにより前記複数の深さに対応する複数の膜尤度マップを得る工程と、
前記複数の膜尤度マップに基づいて、前記複数の深さに対応する複数の膜画像を得る工程と、
前記複数の膜画像の中からユーザーにより選択された深さに対応する特定の膜画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の膜画像へ反映させる工程と、
前記複数の膜推定器がそれぞれ生成した複数の膜尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する工程と、
を含む、ことを特徴とする生物組織画像処理方法。
A plurality of original images corresponding to a plurality of depths obtained by microscopic observation of a biological tissue are input to a plurality of different types of machine learning type film estimators, thereby corresponding to the plurality of depths. obtaining a plurality of membrane likelihood maps;
obtaining a plurality of membrane images corresponding to the plurality of depths based on the plurality of membrane likelihood maps;
A specific membrane image corresponding to the depth selected by the user is extracted from the plurality of membrane images and displayed as an image to be worked, and the user's modification of the image to be worked is reflected in the specific membrane image. and
identifying and displaying correction candidates included in the image to be worked on based on differences between the plurality of membrane likelihood maps respectively generated by the plurality of membrane estimators;
A biological tissue image processing method comprising:
請求項1記載の生物組織画像処理方法において、
前記ユーザーの修正を経た複数の膜画像を利用して前記膜推定器に学習を行わせる工程を含む、
ことを特徴とする生物組織画像処理方法。
In the biological tissue image processing method according to claim 14 ,
training the membrane estimator using a plurality of membrane images that have been modified by the user;
A biological tissue image processing method characterized by:
情報処理装置において生物組織画像を処理するためのプログラムであって、
異なるタイプの機械学習型の複数の膜推定器に対して、生物組織の顕微鏡観察により得られた複数の深さに対応する複数の元画像を入力し、これにより前記複数の深さに対応する複数の膜尤度マップを生成する機能と、
前記複数の膜尤度マップに基づいて、前記複数の深さに対応する複数の膜画像を生成する機能と、
前記複数の膜画像の中からユーザーにより選択された深さに対応する特定の膜画像を取り出してそれを作業対象画像として表示し、当該作業対象画像に対するユーザーの修正を前記特定の膜画像へ反映させる機能と、
前記複数の膜推定器がそれぞれ生成した複数の膜尤度マップの差分に基づいて前記作業対象画像に含まれる修正候補を識別表示する機能と、
を含む、ことを特徴とするプログラム。
A program for processing a biological tissue image in an information processing device,
A plurality of original images corresponding to a plurality of depths obtained by microscopic observation of a biological tissue are input to a plurality of different types of machine learning type film estimators, thereby corresponding to the plurality of depths. the ability to generate multiple membrane likelihood maps;
a function of generating a plurality of membrane images corresponding to the plurality of depths based on the plurality of membrane likelihood maps;
A specific membrane image corresponding to the depth selected by the user is extracted from the plurality of membrane images and displayed as an image to be worked, and the user's modification of the image to be worked is reflected in the specific membrane image. and
a function of identifying and displaying a correction candidate included in the work target image based on the difference between the plurality of membrane likelihood maps respectively generated by the plurality of membrane estimators;
A program characterized by comprising:
請求項16記載のプログラムにおいて、
前記ユーザーの修正を経た複数の膜画像を利用して前記膜推定器に学習を行わせる機能を含む、
ことを特徴とするプログラム。
17. The program according to claim 16 ,
including a function to train the membrane estimator using a plurality of membrane images that have been modified by the user;
A program characterized by
JP2018099386A 2018-05-24 2018-05-24 BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD Active JP7181000B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018099386A JP7181000B2 (en) 2018-05-24 2018-05-24 BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD
PCT/JP2019/019739 WO2019225504A1 (en) 2018-05-24 2019-05-17 Biological tissue image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099386A JP7181000B2 (en) 2018-05-24 2018-05-24 BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD

Publications (2)

Publication Number Publication Date
JP2019204312A JP2019204312A (en) 2019-11-28
JP7181000B2 true JP7181000B2 (en) 2022-11-30

Family

ID=68616674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099386A Active JP7181000B2 (en) 2018-05-24 2018-05-24 BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD

Country Status (2)

Country Link
JP (1) JP7181000B2 (en)
WO (1) WO2019225504A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100183217A1 (en) 2007-04-24 2010-07-22 Seung H Sebastian Method and apparatus for image processing
JP2012037861A (en) 2010-07-12 2012-02-23 Sony Corp Microscope control device, image display device, image control server, method for generating focus position information, image display method, image control method, and microscopic image control system
JP2013152426A (en) 2011-12-27 2013-08-08 Canon Inc Image processing device, image processing system, image processing method and program
WO2016190129A1 (en) 2015-05-22 2016-12-01 コニカミノルタ株式会社 Image processing device, image processing method, and program for image processing
JP2017027138A (en) 2015-07-16 2017-02-02 コニカミノルタ株式会社 Image processing device, image processing method, and program for image processing
JP2018011870A (en) 2016-07-22 2018-01-25 キヤノン株式会社 Image processing device, image processing system, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100183217A1 (en) 2007-04-24 2010-07-22 Seung H Sebastian Method and apparatus for image processing
JP2012037861A (en) 2010-07-12 2012-02-23 Sony Corp Microscope control device, image display device, image control server, method for generating focus position information, image display method, image control method, and microscopic image control system
JP2013152426A (en) 2011-12-27 2013-08-08 Canon Inc Image processing device, image processing system, image processing method and program
WO2016190129A1 (en) 2015-05-22 2016-12-01 コニカミノルタ株式会社 Image processing device, image processing method, and program for image processing
JP2017027138A (en) 2015-07-16 2017-02-02 コニカミノルタ株式会社 Image processing device, image processing method, and program for image processing
JP2018011870A (en) 2016-07-22 2018-01-25 キヤノン株式会社 Image processing device, image processing system, image processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
内橋堅志 他,敵対的生成モデルを用いた電子顕微鏡画像からの神経細胞膜セグメンテーション,第31回人工知能学会全国大会論文集,2017年,4K1-4in2,pp.1-4

Also Published As

Publication number Publication date
JP2019204312A (en) 2019-11-28
WO2019225504A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP7181001B2 (en) BIOLOGICAL TISSUE IMAGE PROCESSING SYSTEM AND MACHINE LEARNING METHOD
US9177378B2 (en) Updating landmarks to improve coregistration as regions of interest are corrected
CN110379020B (en) Laser point cloud coloring method and device based on generation countermeasure network
CN109584156A (en) Micro- sequence image splicing method and device
CN111932673B (en) Object space data augmentation method and system based on three-dimensional reconstruction
CN108961144A (en) Image processing system
JP6985856B2 (en) Information processing equipment, control methods and programs for information processing equipment
US20200111219A1 (en) Object tracking using image segmentation
US10657712B2 (en) System and techniques for automated mesh retopology
JP2019192215A (en) 3d quantitative analysis of retinal layers with deep learning
US11594051B2 (en) Microscope system and projection unit
JP2019207535A (en) Information processing apparatus, information processing method, and program
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
WO2019180833A1 (en) Cell observation device
JP2013111359A (en) Image processing device, method, and program
JP7181000B2 (en) BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD
US11508045B1 (en) Microscopy system and method for generating stylized contrast images
JP7181002B2 (en) BIOLOGICAL TISSUE IMAGE PROCESSING SYSTEM AND MACHINE LEARNING METHOD
JP7181003B2 (en) BIOLOGICAL TISSUE IMAGE PROCESSING APPARATUS AND METHOD
CN110717910A (en) CT image target detection method and CT scanner
CN115170793A (en) Small sample image segmentation self-calibration method for industrial product quality inspection
JP2011198006A (en) Object detecting apparatus, object detecting method, and object detecting program
CN113744195B (en) Automatic hRPE cell microtubule detection method based on deep learning
JP6843319B2 (en) Information processing equipment, programs and information processing methods
JP6283083B1 (en) Method and program for associating regions existing in two images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221117

R150 Certificate of patent or registration of utility model

Ref document number: 7181000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150