JP5246201B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5246201B2
JP5246201B2 JP2010091240A JP2010091240A JP5246201B2 JP 5246201 B2 JP5246201 B2 JP 5246201B2 JP 2010091240 A JP2010091240 A JP 2010091240A JP 2010091240 A JP2010091240 A JP 2010091240A JP 5246201 B2 JP5246201 B2 JP 5246201B2
Authority
JP
Japan
Prior art keywords
image
cell
module
area
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010091240A
Other languages
Japanese (ja)
Other versions
JP2011221841A (en
Inventor
典司 加藤
幸夫 熊澤
英人 織田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2010091240A priority Critical patent/JP5246201B2/en
Publication of JP2011221841A publication Critical patent/JP2011221841A/en
Application granted granted Critical
Publication of JP5246201B2 publication Critical patent/JP5246201B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

画像から対象とする物を抽出する技術がある。
これに関連する技術として、例えば、特許文献1には、標的細胞の検査処理を自動的かつ精度良く行うとともに、検査時間を大幅に短くすることを課題とし、光学顕微鏡は、XYステージ機構を有する電動ステージと対物レンズ制御部と、CCDカメラとを有しており、制御用PCは、XY方向の移動を行うステージ(XY)移動部と、Z方向の自動焦点合わせを行う自動焦点計算部と、CCDカメラからの画像を入力する画像入力部と、画像認識部と、画像処理結果を保存する結果保存用データベース部と、を有しており、CCDカメラにより撮影された画像は、画像入力部に入力され、モニタに表示されるとともに、画像認識部と自動焦点計算部とに送られ、画像認識部で認識された画像は、結果保存用データベースに記憶され、画像入力部に入力された画像は自動焦点計算部にも送られ、自動焦点合わせに用いられることが開示されている。
There is a technique for extracting a target object from an image.
As a technology related to this, for example, in Patent Document 1, it is an object to perform inspection processing of target cells automatically and accurately and to significantly shorten the inspection time, and the optical microscope has an XY stage mechanism. The control PC has an electric stage, an objective lens control unit, and a CCD camera. The control PC includes a stage (XY) moving unit that moves in the XY directions, and an automatic focus calculation unit that performs automatic focusing in the Z direction. An image input unit that inputs an image from the CCD camera, an image recognition unit, and a result storage database unit that stores an image processing result, and an image captured by the CCD camera is an image input unit The image is displayed on the monitor, sent to the image recognition unit and the automatic focus calculation unit, and the image recognized by the image recognition unit is stored in the result storage database, and the image is input. Parts input to the image is also sent to autofocus calculation unit, it is used in the automatic focusing is disclosed.

また、例えば、特許文献2には、細胞の分類論理を構築しやすい階層型ネットワークの特徴を生かし、適応的な学習サンプルにより施設対応の細胞自動分類論理を構築することを目的とし、階層型ニューラルネットワークを用い、基準となる学習サンプルを記憶する学習基準サンプルメモリと、施設毎の学習サンプルを記憶する学習対象サンプルメモリとから、施設対応の学習サンプルを作成し、学習サンプル数の調整をサンプリング回路で行うことが開示されている。   In addition, for example, Patent Document 2 aims to construct a cell-based automatic classification logic corresponding to a facility using adaptive learning samples by making use of the characteristics of a hierarchical network that facilitates the construction of cell classification logic. Using the network, the learning reference sample memory that stores the reference learning sample, and the learning target sample memory that stores the learning sample for each facility, creates a learning sample corresponding to the facility, and adjusts the number of learning samples. Is disclosed.

また、例えば、特許文献3には、タイムラプス観察による細胞等の変化の観察を円滑化することができ、また、遺伝子導入や染色を施さない生きたままの心筋細胞についてその面積を容易に算出し数値化することも可能な、細胞のモニター方法およびモニター装置を提供することを課題とし、培養容器中の細胞をモニターするために、細胞を含む培養容器中の細胞または細胞集団を撮像手段が一定時間ごとに撮像し、コンピュータが、特定箇所(細胞中の同一の箇所)につき相前後して撮像された画像を比較したうえ、それら画像間の揺れ(ズレ)を検出し、検出した揺れを補正したうえで各画像を表示し、培養容器は動かさないこととし、上記の撮像手段を移動手段によって3次元に移動させることが開示されている。   Further, for example, Patent Document 3 can facilitate observation of changes in cells and the like by time-lapse observation, and easily calculate the area of a living cardiomyocyte without gene transfer or staining. An object of the present invention is to provide a cell monitoring method and a monitoring device that can be digitized, and in order to monitor the cells in the culture vessel, the imaging means is constant for the cells or the cell population in the culture vessel containing the cells. Images are taken at each time, and the computer compares the images taken one after the other at a specific location (the same location in the cell), detects fluctuations between these images, and corrects the detected fluctuations. In addition, it is disclosed that each image is displayed, the culture vessel is not moved, and the above-described imaging means is moved three-dimensionally by the moving means.

また、例えば、特許文献4には、細胞運動特性を迅速かつ効率的に評価し、試薬の投与等の条件による細胞の状況を確認できるようにすることを課題とし、培養環境下にある細胞について、第1の時点と、それより一定時間だけ後の第2の時点とにおける位相差画像に画像処理を行って第1、第2の細胞抽出画像を形成し、両画像の差分をとった差分画像を形成し、差分画像において前後の時点での細胞の重心の移動方向を検出し、それよりその方向を基準方向として求め、基準方向に対して細胞の重心位置から角度φの方向における差分画像中での画素値の変化量を360°にわたって所定の角度毎に求めることにより1つの細胞部分の変化量を求め、この変化量を同じ条件でN個の細胞について求め、角度φの方向における細胞の画素値の変化量をN個の細胞について平均した値を各角度φ毎に求め、360°の範囲にわたる角度φに応じた細胞の画素値の変化量を細胞の運動特性を示すものとして表示することが開示されている。   In addition, for example, Patent Document 4 has an object to quickly and efficiently evaluate cell motility characteristics and confirm the state of cells according to conditions such as administration of a reagent. A difference obtained by performing image processing on the phase difference image at the first time point and the second time point after a certain time to form the first and second cell extraction images and taking the difference between the two images An image is formed, and the moving direction of the center of gravity of the cell at the previous and subsequent time points is detected in the difference image, and then the direction is obtained as a reference direction. The change amount of one cell part is obtained by obtaining the change amount of the pixel value in every predetermined angle over 360 °, the change amount is obtained for N cells under the same conditions, and the cells in the direction of the angle φ are obtained. Of pixel values It is disclosed that a value obtained by averaging the amount of conversion for N cells is obtained for each angle φ, and the change amount of the pixel value of the cell corresponding to the angle φ over a range of 360 ° is displayed as indicating the movement characteristics of the cell. Has been.

また、例えば、特許文献5には、細胞の全体像を高分解能、高精度に観察し、得られた画像から細胞の活性度を判定することを課題とし、試薬と蛍光標識された細胞とをプレートの複数のウェルに注入するディスペンサと、前記ウェルに励起光を照射して細胞から発生する蛍光を受け細胞の蛍光画像を得るセンサ部と、この蛍光画像を基に細胞の活性度を判定する判定部を備えた細胞の動態などを観測する創薬スクリーニング装置であって、前記センサ部は、ニポウ方式の共焦点スキャナと、対物レンズと、この対物レンズの焦点位置を光軸方向に移動させる焦点位置可変手段と、前記共焦点スキャナの出力画像を撮像するカメラを含み、前記焦点位置可変手段により対物レンズの焦点位置を光軸方向に移動させつつ、共焦点スキャナから対物レンズを介して前記細胞に励起光を照射し、細胞のスライス画像を得る機能を有することが開示されている。   In addition, for example, Patent Document 5 has a problem of observing an entire image of a cell with high resolution and high accuracy and determining the activity of the cell from the obtained image. A dispenser that injects into a plurality of wells of a plate, a sensor unit that irradiates excitation light to the wells to receive fluorescence generated from the cells and obtains a fluorescence image of the cells, and determines the activity of the cells based on the fluorescence images A drug discovery screening apparatus for observing cell dynamics and the like provided with a determination unit, wherein the sensor unit moves a nipo-type confocal scanner, an objective lens, and a focal position of the objective lens in an optical axis direction. A focal position changing unit and a camera for capturing an output image of the confocal scanner; the focal position of the objective lens is moved in the optical axis direction by the focal position changing unit, Lens is irradiated with excitation light to said cells via, to have a function to obtain a slice image of a cell is disclosed.

特開2004−248619号公報JP 2004-248619 A 特開平5−99920号公報JP-A-5-99920 特開2008−076088号公報JP 2008-076088 A 特開2007−222073号公報JP 2007-2222073 A 特開2005−095012号公報JP 2005-095012 A

本発明は、第1の物体を取り除く前後の画像を用いて第1の物体を抽出する場合にあって、第1の物体を取り除いたときに移動した可能性のある物体を第1の物体として抽出してしまうことを抑制するようにした画像処理装置及び画像処理プログラムを提供することを目的としている。   In the present invention, when a first object is extracted using images before and after removing the first object, an object that may have moved when the first object is removed is defined as the first object. It is an object of the present invention to provide an image processing apparatus and an image processing program that suppress the extraction.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、複数の物体を撮影した第1の画像と該複数の物体に少なくともひとつは含まれる物体である第1の物体を取り除いた状態を撮影した第2の画像を受け付ける受付手段と、前記第1の画像に撮影されている物体と前記第2の画像に撮影されている物体とを合わせるように、前記第1の画像と前記第2の画像とを照合した結果に基づいて、前記第1の物体が存在する可能性のある領域を抽出する第1の領域抽出手段と、前記第1の領域抽出手段によって抽出された第1の領域に基づいて、前記第1の物体を取り除いたときに移動した可能性のある物体である第2の物体が移動した可能性のある領域を抽出する第2の領域抽出手段と、前記第2の領域抽出手段によって抽出された領域内を対象として、前記第2の物体の移動量及び移動方向を算出する算出手段と、前記算出手段によって算出された第2の物体の移動量及び移動方向に基づいて、前記第2の画像を該第2の物体の移動前の状態の画像に変形する画像変形手段と、前記画像変形手段によって変形された画像と前記第1の画像との差分に基づいて、前記第1の物体を抽出する抽出手段を具備することを特徴とする画像処理装置である。
The gist of the present invention for achieving the object lies in the inventions of the following items.
The first aspect of the present invention is a receiving means for receiving a first image obtained by photographing a plurality of objects and a second image obtained by photographing a state in which the first object which is an object included in at least one of the plurality of objects is removed. And based on the result of collating the first image and the second image so that the object photographed in the first image and the object photographed in the second image are matched. The first object is extracted based on the first area extracted by the first area extracting means and the first area extracting means for extracting an area where the first object may exist. A second region extracting means for extracting a region where the second object, which is an object that may have moved when removed, and a region extracted by the second region extracting means; As a target, the amount of movement of the second object and Based on the calculation means for calculating the movement direction, and the movement amount and movement direction of the second object calculated by the calculation means, the second image is transformed into an image in a state before the movement of the second object. An image processing apparatus comprising: an image deforming unit configured to extract the first object based on a difference between the image deformed by the image deforming unit and the first image. is there.

請求項2の発明は、前記抽出手段によって抽出された第1の物体の画像を記憶する第1の記憶手段と、前記第2の画像から前記第1の物体を検出する検出手段と、前記検出手段によって検出された第1の物体の画像を記憶する第2の記憶手段と、前記第1の記憶手段に記憶された第1の物体の画像を正例とし、前記第2の記憶手段に記憶された第1の物体の画像を負例として学習する学習手段をさらに具備し、前記検出手段は、前記学習手段によって学習された結果に基づいて前記第1の物体を検出することを特徴とする請求項1に記載の画像処理装置である。   The invention according to claim 2 is a first storage unit that stores an image of the first object extracted by the extraction unit, a detection unit that detects the first object from the second image, and the detection The second storage means for storing the image of the first object detected by the means, and the image of the first object stored in the first storage means as a positive example and stored in the second storage means Learning means for learning the negative image of the first object as a negative example, wherein the detection means detects the first object based on a result learned by the learning means. An image processing apparatus according to claim 1.

請求項3の発明は、前記物体は細胞であり、前記画像は顕微鏡による画像であり、前記検出手段は、前記第1の画像から前記第1の物体である対象とする第1の細胞を検出し、前記検出手段によって前記第1の細胞が検出された場合は、該第1の細胞が中央になるように顕微鏡のステージを移動させるように制御する制御手段と、第1の細胞が取り除かれる前の状態を第1の画像として撮影し、該制御手段によって顕微鏡のステージが移動させられた後であって、前記第1の細胞が取り除かれた後の状態を第2の画像として撮影する撮影手段を具備し、前記受付手段は、前記撮影手段によって撮影された第1の画像と第2の画像を受け付けることを特徴とする請求項2に記載の画像処理装置である。   According to a third aspect of the present invention, the object is a cell, the image is an image obtained by a microscope, and the detection unit detects a first cell as a target that is the first object from the first image. When the first cell is detected by the detection means, the control means for controlling the microscope stage to move so that the first cell is in the center, and the first cell are removed. Photographing the previous state as a first image and photographing the state after the microscope stage is moved by the control means as the second image after the first cell is removed The image processing apparatus according to claim 2, further comprising: a receiving unit configured to receive the first image and the second image captured by the capturing unit.

請求項4の発明は、コンピュータに、複数の物体を撮影した第1の画像と該複数の物体に少なくともひとつは含まれる物体である第1の物体を取り除いた状態を撮影した第2の画像を受け付ける受付機能と、前記第1の画像に撮影されている物体と前記第2の画像に撮影されている物体とを合わせるように、前記第1の画像と前記第2の画像とを照合した結果に基づいて、前記第1の物体が存在する可能性のある領域を抽出する第1の領域抽出機能と、前記第1の領域抽出機能によって抽出された第1の領域に基づいて、前記第1の物体を取り除いたときに移動した可能性のある物体である第2の物体が移動した可能性のある領域を抽出する第2の領域抽出機能と、前記第2の領域抽出機能によって抽出された領域内を対象として、前記第2の物体の移動量及び移動方向を算出する算出機能と、前記算出機能によって算出された第2の物体の移動量及び移動方向に基づいて、前記第2の画像を該第2の物体の移動前の状態の画像に変形する画像変形機能と、前記画像変形機能によって変形された画像と前記第1の画像との差分に基づいて、前記第1の物体を抽出する抽出機能を実現させることを特徴とする画像処理プログラムである。   According to a fourth aspect of the present invention, a first image obtained by photographing a plurality of objects and a second image obtained by photographing a state where the first object which is an object included in at least one of the plurality of objects is removed. The result of collating the first image and the second image so that the reception function to be accepted matches the object photographed in the first image and the object photographed in the second image Based on the first region extraction function for extracting a region where the first object may exist and the first region extracted by the first region extraction function. A second region extracting function for extracting a region where the second object, which may have moved when the object is removed, is extracted by the second region extracting function In the region, the second Based on the calculation function for calculating the movement amount and the movement direction of the object, and the movement amount and movement direction of the second object calculated by the calculation function, the second image is converted into a state before the movement of the second object. An image transformation function for transforming the image into a state image and an extraction function for extracting the first object based on a difference between the image transformed by the image transformation function and the first image are realized. This is an image processing program.

請求項1の画像処理装置によれば、第1の物体を取り除く前後の画像を用いて第1の物体を抽出する場合にあって、第1の物体を取り除いたときに移動した可能性のある物体を第1の物体として抽出してしまうことを抑制することができる。   According to the image processing apparatus of the first aspect, when the first object is extracted using the images before and after removing the first object, there is a possibility that the first object has moved when the first object is removed. It can suppress extracting an object as a 1st object.

請求項2の画像処理装置によれば、学習サンプルを予め用意することなく学習ができるようになる。   According to the image processing apparatus of the second aspect, learning can be performed without preparing a learning sample in advance.

請求項3の画像処理装置によれば、第1の細胞が中央になるように顕微鏡のステージを移動させるように制御できる。   According to the image processing apparatus of the third aspect, the stage of the microscope can be controlled to move so that the first cell is in the center.

請求項4の画像処理プログラムによれば、第1の物体を取り除く前後の画像を用いて第1の物体を抽出する場合にあって、第1の物体を取り除いたときに移動した可能性のある物体を第1の物体として抽出してしまうことを抑制することができる。   According to the image processing program of claim 4, in the case where the first object is extracted using the images before and after removing the first object, there is a possibility that the first object has moved when the first object is removed. It can suppress extracting an object as a 1st object.

本実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment. 本実施の形態による処理例を示すフローチャートである。It is a flowchart which shows the process example by this Embodiment. 画像受付モジュールと画像差分抽出モジュール内の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example in an image reception module and an image difference extraction module. 画像受付モジュール、画像差分抽出モジュールによる処理例を示すフローチャートである。It is a flowchart which shows the process example by an image reception module and an image difference extraction module. 細胞回収前画像と細胞回収後画像の例を示す説明図である。It is explanatory drawing which shows the example of the image before cell collection | recovery, and the image after cell collection | recovery. 大域的位置合わせ処理モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of a global positioning process module. 細胞存在候補領域抽出モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of a cell presence candidate area | region extraction module. 細胞移動候補領域抽出モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of a cell movement candidate area | region extraction module. 細胞移動候補領域抽出モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of a cell movement candidate area | region extraction module. 変位ベクトル算出モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of a displacement vector calculation module. 画像変形モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of an image deformation | transformation module. 対象抽出モジュールの処理例を示す説明図である。It is explanatory drawing which shows the process example of a target extraction module. 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the computer which implement | achieves this Embodiment.

以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、「保存する」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定めた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
Hereinafter, an example of a preferred embodiment for realizing the present invention will be described with reference to the drawings.
FIG. 1 shows a conceptual module configuration diagram of a configuration example of the present embodiment.
The module generally refers to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in the present embodiment indicates not only a module in a computer program but also a module in a hardware configuration. Therefore, the present embodiment also serves as an explanation of a computer program, a system, and a method for functioning as those modules. However, for the convenience of explanation, the words “store”, “store”, “save”, and equivalents thereof are used, but these words are stored in the storage device when the embodiment is a computer program. It is the control to be stored or stored in the storage device. Modules may correspond to functions one-to-one, but in mounting, one module may be configured by one program, or a plurality of modules may be configured by one program, and conversely, one module May be composed of a plurality of programs. The plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers in a distributed or parallel environment. Note that one module may include other modules. Hereinafter, “connection” is used not only for physical connection but also for logical connection (data exchange, instruction, reference relationship between data, etc.). “Predetermined” means that the process is determined before the target process, and not only before the process according to the present embodiment starts but also after the process according to the present embodiment starts. If it is before the target processing, it is used in accordance with the situation / state at that time or with the intention to be decided according to the situation / state up to that point.
In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by communication means such as a network (including one-to-one correspondence communication connection), etc., and one computer, hardware, device. The case where it implement | achieves by etc. is included. “Apparatus” and “system” are used as synonymous terms. Of course, the “system” does not include a social “mechanism” (social system) that is an artificial arrangement.
In addition, when performing a plurality of processes in each module or in each module, the target information is read from the storage device for each process, and the processing result is written to the storage device after performing the processing. is there. Therefore, description of reading from the storage device before processing and writing to the storage device after processing may be omitted. Here, the storage device may include a hard disk, a RAM (Random Access Memory), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.

以下、物体として細胞、抽出すべき細胞として有核赤血球、画像として顕微鏡を用いてその細胞を撮影した画像を主に例示して説明する。また、画像から細胞を抽出又は検出するとは、その画像内から細胞の画像を抽出する(切り出す)ことをいう。
細胞のハンドリング技術の発展とともに、特定の細胞を分取してDNA診断を行うことや、細胞に特定の分子を導入、観察して薬剤の挙動を分析することが行われるようになってきている。例えば、妊婦の血液中に微量に含まれる胎児由来の有核赤血球を取り出し、DNA診断することにより、母児へのリスクを伴わない無侵襲胎児DNA診断が可能となると期待されている。このような特定細胞を取り出すためには、通常、検査担当者が顕微鏡を用いて目視で細胞を探すことが行われている。例えば、胎児由来の有核赤血球の割合は10の8乗分の1程度であり、これを顕微鏡の視野を走査しながら目視で探すことが行われている。
In the following, a description will be given mainly by exemplifying an image obtained by photographing a cell as an object, a nucleated red blood cell as a cell to be extracted, and a cell as an image. In addition, extracting or detecting cells from an image means extracting (cutting out) an image of the cells from the image.
With the development of cell handling technology, DNA diagnosis is performed by sorting out specific cells, and behavior of drugs is analyzed by introducing and observing specific molecules in cells. . For example, it is expected that fetal nucleated red blood cells contained in trace amounts in the blood of pregnant women will be extracted and subjected to DNA diagnosis to enable noninvasive fetal DNA diagnosis without risk to the mother and infant. In order to take out such specific cells, a person in charge of inspection usually searches for cells visually using a microscope. For example, the proportion of nucleated red blood cells derived from a fetus is about 1/8 to the power of 10, and this is visually searched while scanning the field of view of a microscope.

本実施の形態である画像処理装置は、回収したい特定の細胞を検出し、検出された細胞が自動的に顕微鏡の視野の中心に来るようにステージを制御するものであり、図1の例に示すように、検体操作モジュール110、画像認識モジュール150を有している。
検体操作モジュール110は顕微鏡の制御を行い、検体のハンドリングや画像取得を行う。顕微鏡は、対物レンズを備え、撮像装置である画像取得モジュール116と接続されている。
検体操作モジュール110は、細胞回収モジュール112、検体ID読取モジュール114、画像取得モジュール116、電動ステージ118を有している。
The image processing apparatus according to the present embodiment detects specific cells to be collected, and controls the stage so that the detected cells automatically come to the center of the field of view of the microscope. As shown, the sample manipulation module 110 and the image recognition module 150 are provided.
The sample operation module 110 controls the microscope, handles the sample, and acquires an image. The microscope includes an objective lens and is connected to an image acquisition module 116 that is an imaging device.
The sample manipulation module 110 includes a cell collection module 112, a sample ID reading module 114, an image acquisition module 116, and an electric stage 118.

電動ステージ118は、ステージ制御モジュール170と接続されており、ステージ制御モジュール170による制御によって検体の位置を動かす。具体的には、例えば、X−Yステージと呼ばれているものであり、検体の位置決め動作を行う。なお、検体とは、細胞が含まれている液体(例えば、血液)をスライドグラスに塗布したものである。
画像取得モジュール116は、画像受付モジュール154と接続されており、顕微鏡によって拡大された特定細胞を含む検体画像を取得する。具体的には、例えば、顕微鏡に備えられたデジタルカメラが該当し、細胞回収モジュール112によって対象細胞が取り除かれる前の状態を細胞回収前画像として撮影し、対象細胞が取り除かれた後の状態を細胞回収後画像として撮影する。
The electric stage 118 is connected to the stage control module 170, and moves the position of the specimen under the control of the stage control module 170. Specifically, for example, what is called an XY stage performs a specimen positioning operation. Note that the specimen is obtained by applying a liquid containing cells (for example, blood) to a slide glass.
The image acquisition module 116 is connected to the image reception module 154 and acquires a specimen image including specific cells magnified by a microscope. Specifically, for example, a digital camera provided in a microscope is applicable, the state before the target cells are removed by the cell recovery module 112 is taken as an image before cell recovery, and the state after the target cells are removed is shown. Take an image after cell recovery.

検体ID読取モジュール114は、検体ID受付モジュール152と接続されている。検体には情報画像が付与されている。そして、その情報画像には、検体を一意に識別するID(IDentification)と検査の種類等(ここでの「検体ID、検査の種類等」には、「検体ID、検査の種類のみ」も含まれる)が記載されている。検体ID読取モジュール114は、この情報画像から検体IDと検査の種類等を読み取る。なお、情報画像とは、機械可読な態様で電子データを表すために体系的に作られた画像コードをいい、具体的には、1次元バーコード、2次元コード等がある。特に、最近は、2次元コードとして、QRコード(Quick Response code)が用いられている。
細胞回収モジュール112は、画像差分抽出モジュール156、特定細胞検出モジュール158、細胞回収前画像データベース160と接続されており、対象細胞を個別に回収する。具体的には、例えば、小径のノズルを通して対象細胞を吸引して回収する。回収する対象細胞は、1つであってもよいし、複数であってもよい。また、細胞回収モジュール112は回収が完了したことを画像認識モジュール150(具体的には、画像受付モジュール154、画像差分抽出モジュール156、特定細胞検出モジュール158等)に通知する機能を持つ。
The sample ID reading module 114 is connected to the sample ID receiving module 152. An information image is given to the specimen. The information image includes an ID (IDentification) for uniquely identifying the specimen, the type of examination, etc. (here, “specimen ID, examination type, etc.” includes “specimen ID, examination type only”). Is described). The sample ID reading module 114 reads the sample ID, the type of examination, and the like from this information image. The information image refers to an image code that is systematically created to represent electronic data in a machine-readable manner, and specifically includes a one-dimensional bar code, a two-dimensional code, and the like. In particular, a QR code (Quick Response code) has recently been used as a two-dimensional code.
The cell collection module 112 is connected to the image difference extraction module 156, the specific cell detection module 158, and the pre-cell collection image database 160, and collects target cells individually. Specifically, for example, the target cells are sucked and collected through a small-diameter nozzle. One or more target cells may be collected. In addition, the cell collection module 112 has a function of notifying the image recognition module 150 (specifically, the image reception module 154, the image difference extraction module 156, the specific cell detection module 158, etc.) that the collection has been completed.

画像認識モジュール150は、画像から対象とする細胞の位置を特定する機能を有しており、検体ID受付モジュール152、画像受付モジュール154、画像差分抽出モジュール156、特定細胞検出モジュール158、細胞回収前画像データベース160、正例データベース162、負例データベース164、識別器学習モジュール166、識別モデル保存モジュール168、ステージ制御モジュール170を有している。   The image recognition module 150 has a function of specifying the position of the target cell from the image. The sample ID reception module 152, the image reception module 154, the image difference extraction module 156, the specific cell detection module 158, and before cell collection. An image database 160, a positive example database 162, a negative example database 164, a discriminator learning module 166, an identification model storage module 168, and a stage control module 170 are included.

画像受付モジュール154は、画像取得モジュール116、画像差分抽出モジュール156、特定細胞検出モジュール158、細胞回収前画像データベース160と接続されており、画像取得モジュール116から画像を受け付ける。画像としては、複数の細胞を撮影した細胞回収前画像(第1の画像)とその複数の細胞に少なくともひとつは含まれる細胞である第1の細胞(例えば、前述の有核赤血球等)を細胞回収モジュール112によって取り除いた状態を撮影した細胞回収後画像を受け付ける。
検体ID受付モジュール152は、検体ID読取モジュール114、画像差分抽出モジュール156、特定細胞検出モジュール158、細胞回収前画像データベース160と接続されており、検体ID読取モジュール114から検体IDと検査の種類等を受け付ける。
The image reception module 154 is connected to the image acquisition module 116, the image difference extraction module 156, the specific cell detection module 158, and the pre-cell recovery image database 160, and receives an image from the image acquisition module 116. As an image, a cell-pre-collection image (first image) obtained by photographing a plurality of cells and a first cell (for example, the above-mentioned nucleated red blood cell, etc.) that is at least one of the cells are cells. The post-cell recovery image obtained by photographing the state removed by the recovery module 112 is received.
The sample ID reception module 152 is connected to the sample ID reading module 114, the image difference extraction module 156, the specific cell detection module 158, and the pre-cell recovery image database 160. Accept.

細胞回収前画像データベース160は、細胞回収モジュール112、検体ID受付モジュール152、画像受付モジュール154、画像差分抽出モジュール156と接続されており、細胞回収モジュール112によって細胞が回収される前の画像を検体ID、検査の種類、ステージの位置と共に保存する。つまり、画像受付モジュール154によって受け付けられた細胞が回収される前の画像(細胞回収前画像)、検体ID受付モジュール152によって受け付けられたその撮影した検体に付与された情報画像内の検体ID、検査の種類等、その撮影時の電動ステージ118の位置を対応させて細胞回収前画像データベース160に保存する。   The pre-cell recovery image database 160 is connected to the cell recovery module 112, the sample ID reception module 152, the image reception module 154, and the image difference extraction module 156, and the image before the cells are recovered by the cell recovery module 112 is sampled. Save with ID, inspection type, stage position. That is, the image before the cells received by the image receiving module 154 are collected (image before cell collection), the sample ID in the information image given to the photographed sample received by the sample ID receiving module 152, the examination The position of the electric stage 118 at the time of photographing, such as the type of the image, is stored in the pre-cell recovery image database 160 in correspondence with each other.

画像差分抽出モジュール156は、細胞回収モジュール112、検体ID受付モジュール152、画像受付モジュール154、細胞回収前画像データベース160、正例データベース162と接続されており、細胞回収前画像データベース160に保存された細胞回収前画像と細胞回収後の画像(第2の画像)を比較等して差分画像を抽出し、正例データベース162に保存する。なお、画像差分抽出モジュール156による処理の詳細については、後述する。なお、細胞回収前画像には対象細胞が存在し、細胞回収後の画像には存在しないため、差分画像(対象細胞の画像)は正例の学習画像として用いる。
正例データベース162は、画像差分抽出モジュール156、識別器学習モジュール166と接続されており、画像差分抽出モジュール156によって抽出された対象細胞の画像を記憶する。つまり、画像差分抽出モジュール156からの差分画像を正例の学習画像として保存する。また、保存している正例の学習画像を識別器学習モジュール166に渡す。
The image difference extraction module 156 is connected to the cell collection module 112, the specimen ID reception module 152, the image reception module 154, the pre-cell collection image database 160, and the positive example database 162, and is stored in the pre-cell collection image database 160. A difference image is extracted by comparing the pre-cell recovery image and the post-cell recovery image (second image), and stored in the positive example database 162. Details of the processing by the image difference extraction module 156 will be described later. Since the target cell exists in the pre-cell recovery image and does not exist in the post-cell recovery image, the difference image (target cell image) is used as a positive learning image.
The positive example database 162 is connected to the image difference extraction module 156 and the discriminator learning module 166, and stores the target cell image extracted by the image difference extraction module 156. That is, the difference image from the image difference extraction module 156 is stored as a positive example learning image. Further, the stored learning image of the positive example is passed to the classifier learning module 166.

識別器学習モジュール166は、正例データベース162、負例データベース164、識別モデル保存モジュール168と接続されており、正例データベース162に記憶された細胞の画像を正例とし、負例データベース164に記憶された細胞の画像を負例として学習する。具体的には、例えば、画像差分抽出モジュール156で取得された正例の学習画像と、後述の特定細胞検出モジュール158で取得された負例の学習画像から特定したい細胞毎にその細胞であるかそうでないかの2クラス識別モデルを学習する。識別モデルとしては、例えばHaar−like特徴を用い、Ada−Boost識別器を用いるが、特徴量や識別器はこの組み合わせに限定されない。
識別モデル保存モジュール168は、特定細胞検出モジュール158、識別器学習モジュール166と接続されており、識別器学習モジュール166で学習された識別モデルを検査の種類毎に保存する。
The discriminator learning module 166 is connected to the positive example database 162, the negative example database 164, and the identification model storage module 168, and stores the cell images stored in the positive example database 162 as positive examples and stored in the negative example database 164. Learn the negative cell image as a negative example. Specifically, for example, whether each cell is desired to be identified from the positive learning image acquired by the image difference extraction module 156 and the negative learning image acquired by the specific cell detection module 158 described later. Learn a two-class identification model that is not. As an identification model, for example, a Haar-like feature is used and an Ada-Boost discriminator is used. However, the feature amount and the discriminator are not limited to this combination.
The identification model storage module 168 is connected to the specific cell detection module 158 and the classifier learning module 166, and stores the identification model learned by the classifier learning module 166 for each type of examination.

特定細胞検出モジュール158は、細胞回収モジュール112、検体ID受付モジュール152、画像受付モジュール154、負例データベース164、識別モデル保存モジュール168、ステージ制御モジュール170と接続されており、細胞回収前画像から対象細胞を検出する。つまり、識別器学習モジュール166によって学習された結果である識別モデル保存モジュール168に保存されている識別モデルに基づいて対象細胞を検出する。具体的には、例えば、検体ID受付モジュール152からの検査の種類により特定したい対象細胞の種類を切り替え、細胞回収前画像に対して識別モデル保存モジュール168に保存された識別したい細胞に対応したモデルを基に対象細胞を検出する。
ステージ制御モジュール170は、電動ステージ118、特定細胞検出モジュール158と接続されており、特定細胞検出モジュール158によって対象細胞が検出された場合は、検出された対象細胞が画像の中央になるように電動ステージ118を移動させるように制御する。ここで、画像の中央とはいわゆる視野の中央であり、視野とは顕微鏡を操作して細胞を回収する操作者の視野であり、細胞回収前画像又は細胞回収後画像の中央であってもよいし、モニター等に表示している場合はそのモニターの中央であってもよい。
The specific cell detection module 158 is connected to the cell collection module 112, the specimen ID reception module 152, the image reception module 154, the negative example database 164, the identification model storage module 168, and the stage control module 170, and the target cell detection module 158 Detect cells. That is, the target cell is detected based on the identification model stored in the identification model storage module 168 that is the result learned by the classifier learning module 166. Specifically, for example, the type of the target cell to be specified is switched according to the type of examination from the specimen ID reception module 152, and the model corresponding to the cell to be identified stored in the identification model storage module 168 with respect to the pre-cell recovery image. The target cells are detected based on the above.
The stage control module 170 is connected to the electric stage 118 and the specific cell detection module 158. When the target cell is detected by the specific cell detection module 158, the stage control module 170 is electrically operated so that the detected target cell is at the center of the image. The stage 118 is controlled to move. Here, the center of the image is the so-called center of the visual field, and the visual field is the field of view of the operator who operates the microscope to collect the cells, and may be the center of the pre-cell recovery image or the post-cell recovery image. If it is displayed on a monitor or the like, it may be the center of the monitor.

また、特定細胞検出モジュール158は、細胞回収後画像から対象細胞の検出を行うようにしてもよい。細胞回収後画像には対象細胞が存在しないのであるから、もし細胞が検出された場合は、それは誤検出である。従って、このとき検出された画像を学習のための負例として負例データベース164に保存する。
負例データベース164は、特定細胞検出モジュール158、識別器学習モジュール166と接続されており、特定細胞検出モジュール158によって細胞回収後画像から検出された対象細胞の画像を記憶する。つまり、特定細胞検出モジュール158からの誤検出画像を負例の学習画像として保存する。また、保存している負例の学習画像を識別器学習モジュール166に渡す。
The specific cell detection module 158 may detect the target cell from the post-cell recovery image. Since the target cell does not exist in the image after cell recovery, if a cell is detected, it is a false detection. Therefore, the image detected at this time is stored in the negative example database 164 as a negative example for learning.
The negative example database 164 is connected to the specific cell detection module 158 and the discriminator learning module 166, and stores the image of the target cell detected from the post-cell recovery image by the specific cell detection module 158. That is, the false detection image from the specific cell detection module 158 is stored as a negative example learning image. Further, the stored learning image of the negative example is passed to the discriminator learning module 166.

図2は、本実施の形態による処理例を示すフローチャートである。特に、細胞検出のための識別モデルの学習の手順を示す。
ステップS202では、検体をステージ上にロードし、画像を取得する。つまり、操作者の指示により検体が電動ステージ118上にロードされ、画像取得モジュール116により、検体の顕微鏡画像が取得される。通常、顕微鏡の視野は狭いため検体全体をカバーできず、ステージ制御モジュール170がステージを移動させて複数枚の画像を取得する。
FIG. 2 is a flowchart showing an example of processing according to this embodiment. In particular, a procedure for learning an identification model for cell detection is shown.
In step S202, the specimen is loaded on the stage and an image is acquired. That is, the sample is loaded on the electric stage 118 according to the operator's instruction, and the microscope image of the sample is acquired by the image acquisition module 116. Usually, since the field of view of the microscope is narrow, the entire specimen cannot be covered, and the stage control module 170 moves the stage and acquires a plurality of images.

ステップS204では、細胞回収前画像を保存する。ステップS202で取得された画像を、画像受付モジュール154により受け付け、検体ID、検査の種類等、その撮影時の電動ステージ118の位置を対応させて細胞回収前画像データベース160に保存する。
ステップS206では、対象細胞の検出処理を行う。特定細胞検出モジュール158は取得された画像に対して対象細胞の検出処理を行う。検出処理は、画像中の例えば20画素×20画素の矩形領域の画像に対して検査の種類毎に予め学習された識別モデルを用いて行われ、矩形領域が対象細胞であるかどうかを判定する。この矩形領域を画像全体(例えば、2000画素×2000画素)に対して走査することで画像中の対象細胞を検出する。なお、この検出処理は、予めバッチ処理ですべての検体(処理対象の検体すべての意である)に対して行ってその結果を保存しておいてもよい。20画素×20画素の矩形領域は予め定めた矩形領域としての例示であるが、検出する細胞の大きさに応じて矩形領域の大きさを変更するようにしてもよい。
In step S204, the pre-cell recovery image is stored. The image acquired in step S202 is received by the image receiving module 154 and stored in the pre-cell recovery image database 160 in correspondence with the position of the electric stage 118 at the time of imaging, such as the specimen ID and the type of examination.
In step S206, target cell detection processing is performed. The specific cell detection module 158 performs target cell detection processing on the acquired image. The detection process is performed using, for example, an identification model learned in advance for each type of examination with respect to an image of a rectangular area of 20 pixels × 20 pixels in the image to determine whether the rectangular area is a target cell. . By scanning this rectangular area over the entire image (for example, 2000 pixels × 2000 pixels), target cells in the image are detected. Note that this detection process may be performed in advance on all samples (meaning all samples to be processed) by batch processing and the results may be stored. The rectangular area of 20 pixels × 20 pixels is an example of a predetermined rectangular area, but the size of the rectangular area may be changed according to the size of the cell to be detected.

ステップS208では、対象細胞が検出されたか否かを判断し、検出された場合はステップS212へ進み、それ以外の場合(検出精度が低く、対象細胞が検出されない場合)はステップS210へ進む。
ステップS210では、目視で対象細胞を検索する。つまり、操作者が電動ステージ118を操作して対象細胞を探し、その対象細胞を検出された対象細胞とする。
ステップS212では、ステージを移動する。つまり、ステージ制御モジュール170が電動ステージ118を制御して、検出された細胞が画像の中央になるようにステージを移動させる。
In step S208, it is determined whether or not the target cell is detected. If it is detected, the process proceeds to step S212. Otherwise (the detection accuracy is low and the target cell is not detected), the process proceeds to step S210.
In step S210, the target cell is searched visually. That is, the operator operates the electric stage 118 to search for the target cell, and the target cell is set as the detected target cell.
In step S212, the stage is moved. That is, the stage control module 170 controls the electric stage 118 and moves the stage so that the detected cell is at the center of the image.

ステップS214では、対象細胞を回収する。つまり、細胞回収モジュール112は、検出された対象細胞を回収し、回収された細胞は例えばDNA検査に用いられる。
ステップS216では、細胞回収後画像を取得する。つまり、細胞回収モジュール112は対象細胞を回収したことを画像認識モジュール150に通知し、その通知信号をトリガーにして画像受付モジュール154は細胞回収後画像を取得する。
In step S214, target cells are collected. That is, the cell collection module 112 collects the detected target cells, and the collected cells are used for, for example, a DNA test.
In step S216, an image after cell recovery is acquired. That is, the cell collection module 112 notifies the image recognition module 150 that the target cell has been collected, and the image reception module 154 acquires an image after cell collection using the notification signal as a trigger.

ステップS218では、差分画像を抽出する。つまり、ステップS216で取得された細胞回収後画像と、同じ検体ID、同じステージ位置の細胞回収前画像とを画像差分抽出モジュール156が後述の方法により比較し、差分画像を抽出する。
ステップS220では、正例を保存する。つまり、ステップS218で抽出された差分画像は検出したい細胞の画像であるので、検体ID、検査の種類等と共に、学習用の正例画像として正例データベース162に保存する。
In step S218, a difference image is extracted. That is, the image difference extraction module 156 compares the post-cell recovery image acquired in step S216 with the pre-cell recovery image at the same specimen ID and the same stage position by a method described later, and extracts a differential image.
In step S220, the positive example is stored. That is, since the difference image extracted in step S218 is an image of a cell to be detected, it is stored in the positive example database 162 as a positive example image for learning together with the specimen ID, the type of examination, and the like.

ステップS222では、対象細胞の検出処理を行う。つまり、特定細胞検出モジュール158は細胞回収後画像に対して再び対象細胞の検出処理(ステップS206と同等の処理)を行う。この時、細胞回収後画像にはすでに対象細胞が存在しないため、対象細胞が検出された場合それは誤検出されたことになる。
ステップS224では、対象細胞が検出されたか否かを判断し、検出された場合(いわゆる誤検出の場合)はステップS226へ進み、それ以外の場合はステップS228へ進む。
ステップS226では、負例を保存する。つまり、ステップS222で検出された画像は誤検出された画像であるので、その画像を検体ID、検査の種類等と共に、学習用の負例画像として負例データベース164に保存する。
In step S222, target cell detection processing is performed. That is, the specific cell detection module 158 performs target cell detection processing (processing equivalent to step S206) again on the image after cell recovery. At this time, since the target cell does not already exist in the image after cell recovery, if the target cell is detected, it is erroneously detected.
In step S224, it is determined whether or not the target cell has been detected. If it is detected (so-called erroneous detection), the process proceeds to step S226, and otherwise, the process proceeds to step S228.
In step S226, a negative example is stored. That is, since the image detected in step S222 is an erroneously detected image, the image is stored in the negative example database 164 as a negative example image for learning together with the sample ID, the type of examination, and the like.

ステップS228では、学習サンプルの増分が予め定めた規定値以上か否かを判断し、規定値以上の場合はステップS230へ進み、それ以外の場合は処理を終了する(ステップS299)。つまり、前回の学習処理からの学習サンプルの増分が規定値以上であれば、ステップS230へ進むことになる。
ステップS230では、識別モデルの学習をする。つまり、識別器学習モジュール166は正例データベース162及び負例データベース164を用いて識別モデルの学習を行う。
In step S228, it is determined whether or not the increment of the learning sample is greater than or equal to a predetermined value. If it is greater than or equal to the predetermined value, the process proceeds to step S230. Otherwise, the process ends (step S299). That is, if the increment of the learning sample from the previous learning process is greater than or equal to the specified value, the process proceeds to step S230.
In step S230, the identification model is learned. That is, the discriminator learning module 166 uses the positive example database 162 and the negative example database 164 to learn the identification model.

図3は、画像受付モジュール154と画像差分抽出モジュール156内の構成例についての概念的なモジュール構成図である。
画像差分抽出モジュール156は、大域的位置合わせ処理モジュール312、細胞存在候補領域抽出モジュール314、細胞移動候補領域抽出モジュール316、変位ベクトル算出モジュール318、画像変形モジュール320、対象抽出モジュール322を有している。
FIG. 3 is a conceptual module configuration diagram of a configuration example in the image reception module 154 and the image difference extraction module 156.
The image difference extraction module 156 includes a global alignment processing module 312, a cell presence candidate area extraction module 314, a cell movement candidate area extraction module 316, a displacement vector calculation module 318, an image deformation module 320, and a target extraction module 322. Yes.

画像受付モジュール154は、大域的位置合わせ処理モジュール312と接続されており、細胞回収前画像301、細胞回収後画像302を受け付け、両方の画像を大域的位置合わせ処理モジュール312に渡す。細胞回収前画像301は検体の画像(複数の細胞を撮影した第1の画像、細胞回収前画像)であり、細胞回収後画像302は対象細胞を回収した後の画像(細胞回収前画像301から対象細胞が取り除かれた状態を撮影した第2の画像、細胞回収後画像)である。
図5は、細胞回収前画像301と細胞回収後画像302の例を示す説明図である。
図5(a)に例示する細胞回収前画像301には、6つの細胞(細胞501〜506)が撮影されている。このうち、対象細胞は細胞502である。図5(b)に例示する細胞回収後画像302には、細胞502が回収された後の状態であり、5つの細胞(細胞511、細胞513、細胞514、細胞515、細胞516)が撮影されている。細胞511、細胞513、細胞514、細胞515、細胞516は、それぞれ細胞回収前画像301内の細胞501、細胞503、細胞504、細胞505、細胞506に対応する。
二つの画像を比べると、細胞回収後画像302には有核赤血球(細胞502)が回収されてなくなっている。そして、有核赤血球(細胞502)の回収作業として細胞を剥離しやすい様に回収したい細胞の周辺に剥離液が注入されるが、その影響で周辺の細胞の位置がずれていることが分かる。この場合は、有核赤血球(細胞502)と隣接していた赤血球(細胞501)が細胞回収後画像302では細胞511の位置に移動している。
また、各細胞の位置が一様にずれている。これは、複数の検体に対して細胞回収前画像をバッチ処理で撮影し、その後、細胞回収を行った場合などにステージの位置ずれによって生じる。このように、細胞回収前画像301と細胞回収後画像302には、大局的位置ずれや局所的な位置ずれがあるため、単純な差分処理では有核赤血球(細胞502)の領域を抽出できない。
The image reception module 154 is connected to the global alignment processing module 312, receives the pre-cell recovery image 301 and the post-cell recovery image 302, and passes both images to the global alignment processing module 312. The pre-cell recovery image 301 is an image of a specimen (a first image obtained by photographing a plurality of cells, an image before cell recovery), and the post-cell recovery image 302 is an image after the target cell is recovered (from the pre-cell recovery image 301). A second image obtained by photographing the state in which the target cells are removed, an image after cell recovery).
FIG. 5 is an explanatory diagram showing an example of an image 301 before cell recovery and an image 302 after cell recovery.
In the pre-cell recovery image 301 illustrated in FIG. 5A, six cells (cells 501 to 506) are photographed. Among these, the target cell is the cell 502. The post-cell recovery image 302 illustrated in FIG. 5B shows a state after the cell 502 is recovered, and five cells (cell 511, cell 513, cell 514, cell 515, cell 516) are photographed. ing. Cell 511, cell 513, cell 514, cell 515, and cell 516 correspond to cell 501, cell 503, cell 504, cell 505, and cell 506 in the pre-cell recovery image 301, respectively.
Comparing the two images, nucleated red blood cells (cells 502) are not recovered in the post-cell recovery image 302. Then, as a recovery operation of the nucleated red blood cells (cells 502), the stripping solution is injected around the cells to be recovered so that the cells can be easily detached. In this case, the red blood cells (cells 501) adjacent to the nucleated red blood cells (cells 502) have moved to the position of the cells 511 in the post-cell recovery image 302.
Moreover, the position of each cell has shifted | deviated uniformly. This occurs due to a stage misalignment, for example, when images before cell collection are taken by batch processing for a plurality of specimens and then cell collection is performed. As described above, since the pre-cell recovery image 301 and the post-cell recovery image 302 have a global positional shift or a local positional shift, the region of the nucleated red blood cell (cell 502) cannot be extracted by simple difference processing.

大域的位置合わせ処理モジュール312は、画像受付モジュール154、細胞存在候補領域抽出モジュール314と接続されており、画像受付モジュール154から細胞回収前画像301、細胞回収後画像302を受け取り、細胞回収前画像301に撮影されている細胞と細胞回収後画像302に撮影されている細胞とを合わせるように、細胞回収後画像302を移動させる。つまり、画像全体に生じている大局的位置ずれを補正する。具体的には、例えば、両画像の輝度の確率分布を計算し、その確率分布を用いて両画像の相互情報量をモニタすることにより行う。すなわち、一方の画像を予め定めた量だけ平行移動し、両画像間の相互情報量を計算する。そして相互情報量が最大となる平行移動量を探索する。細胞回収後画像302を相互情報量が最大となるように平行移動した結果が図6に例示した大域的位置合わせ後画像601である。大域的位置合わせ後画像601内の細胞611、細胞613〜616は、細胞回収後画像302内の細胞511、細胞513〜516に対応している。この位置合わせを大域的位置合わせと呼ぶ。なお、移動させる対象の画像として細胞回収後画像302を例示したが、細胞回収前画像301を移動させてもよい。もちろんのことながら、細胞回収前画像301を移動させる方向は、細胞回収後画像302の場合とは逆の方向になる。   The global alignment processing module 312 is connected to the image reception module 154 and the cell presence candidate region extraction module 314, receives the pre-cell recovery image 301 and the post-cell recovery image 302 from the image reception module 154, and receives the pre-cell recovery image. The post-cell recovery image 302 is moved so that the cells captured in 301 and the cells captured in the post-cell recovery image 302 are aligned. That is, the global positional deviation that occurs in the entire image is corrected. Specifically, for example, the probability distribution of luminance of both images is calculated, and the mutual information amount of both images is monitored using the probability distribution. That is, one image is translated by a predetermined amount, and the mutual information amount between the two images is calculated. Then, the parallel movement amount that maximizes the mutual information amount is searched. The result of translating the post-cell recovery image 302 so that the mutual information amount is maximized is the global post-alignment image 601 illustrated in FIG. The cells 611 and 613 to 616 in the image 601 after global alignment correspond to the cells 511 and 513 to 516 in the image 302 after cell recovery. This alignment is called global alignment. Although the post-cell recovery image 302 is illustrated as an image to be moved, the pre-cell recovery image 301 may be moved. Of course, the direction in which the pre-cell recovery image 301 is moved is opposite to that in the post-cell recovery image 302.

細胞存在候補領域抽出モジュール314は、大域的位置合わせ処理モジュール312、細胞移動候補領域抽出モジュール316と接続されており、大域的位置合わせ処理モジュール312によって移動させられた細胞回収後画像302(図6に例示した大域的位置合わせ後画像601)と細胞回収前画像301に基づいて、対象細胞が存在する可能性のある領域を抽出する。
具体的には、例えば、大域的位置合わせ処理モジュール312による大域的位置合わせ後の大域的位置合わせ後画像601と細胞回収前画像301の差分抽出を行い、差分の絶対値が大きい領域を候補領域Aとする。候補領域Aは回収した細胞が存在した可能性のある領域である。図7は、細胞存在候補領域抽出モジュール314の処理例を示す説明図である。差分画像701には、候補領域A 711、候補領域B 712がある。ここでの差分処理は、細胞回収前画像301にあって、大域的位置合わせ後画像601にはないものを抽出している。なお、大域的位置合わせ処理モジュール312によって移動させられた画像が細胞回収後画像302の場合を例示したが、細胞回収前画像301を移動させた場合は、大域的位置合わせ処理モジュール312によって移動させられた細胞回収前画像301と細胞回収後画像302に基づいて、対象細胞が存在する可能性のある領域を抽出する。この場合の差分処理は、大域的位置合わせを行った細胞回収前画像301にあって、細胞回収後画像302にはないものを抽出することとなる。以下、同様に、大域的位置合わせ処理モジュール312によって移動させられた画像が細胞回収後画像302の場合を例示するが、細胞回収前画像301を移動させた場合にあっては、大域的位置合わせが例示するものと逆方向であること(つまり、細胞回収後画像302における細胞の位置を基本とすること)以外は同等の処理である。
The cell presence candidate region extraction module 314 is connected to the global alignment processing module 312 and the cell movement candidate region extraction module 316, and the post-cell recovery image 302 moved by the global alignment processing module 312 (FIG. 6). A region in which the target cell may exist is extracted based on the post-global registration image 601) and the pre-cell recovery image 301 illustrated in FIG.
Specifically, for example, a difference between the post-global positioning image 601 after global positioning by the global positioning processing module 312 and the pre-cell recovery image 301 is extracted, and an area having a large absolute value is selected as a candidate area. A. Candidate area A is an area where the recovered cells may exist. FIG. 7 is an explanatory diagram illustrating a processing example of the cell presence candidate region extraction module 314. The difference image 701 includes a candidate area A 711 and a candidate area B 712. In this difference processing, an image that is present in the pre-cell recovery image 301 but not in the global post-alignment image 601 is extracted. In addition, although the case where the image moved by the global alignment processing module 312 is the post-cell recovery image 302 is illustrated, the pre-cell recovery image 301 is moved by the global alignment processing module 312. Based on the obtained pre-cell recovery image 301 and post-cell recovery image 302, an area where the target cell may exist is extracted. In this case, the difference process is to extract the pre-cell recovery image 301 that has been subjected to the global alignment, but not the post-cell recovery image 302. Hereinafter, similarly, the case where the image moved by the global alignment processing module 312 is the post-cell recovery image 302 will be exemplified. However, when the pre-cell recovery image 301 is moved, the global alignment is performed. Is the same processing except that it is in the opposite direction to that illustrated (that is, based on the position of the cell in the post-cell recovery image 302).

細胞移動候補領域抽出モジュール316は、細胞存在候補領域抽出モジュール314、変位ベクトル算出モジュール318と接続されており、細胞存在候補領域抽出モジュール314によって抽出された候補領域Aに基づいて、対象細胞を取り除いたときに移動した可能性のある細胞である第2の細胞が移動した可能性のある領域を抽出する。
具体的には、例えば、候補領域Aから予め定めた距離以内の領域を候補領域Bとする。候補領域Bは細胞が移動した可能性のある領域である。この予め定めた距離以内とは、前述の「予め定めた」の定義に従うが、この場合、剥離液が拡散する領域であり、例えば剥離液の量および粘度から流体力学の計算により求めるようにしてもよい。
より具体的に説明する。図8は、細胞移動候補領域抽出モジュール316の処理例を示す説明図である。候補領域A 711、候補領域B 712の中心(重心であってもよい)を算出し、算出した中心811、中心812から予め定めた距離である半径を有する円821、822を生成し、その円821、822によって囲まれている領域を候補領域B 830としてもよい。
また、他の例を説明する。図9は、細胞移動候補領域抽出モジュール316の処理例を示す説明図である。候補領域A 711、候補領域B 712の周囲から外側に予め定めた距離内の領域を候補領域B 930としてもよい。
The cell migration candidate region extraction module 316 is connected to the cell presence candidate region extraction module 314 and the displacement vector calculation module 318, and removes the target cell based on the candidate region A extracted by the cell presence candidate region extraction module 314. An area where the second cell, which is a cell that may have moved, may have moved is extracted.
Specifically, for example, an area within a predetermined distance from the candidate area A is set as the candidate area B. Candidate area B is an area where cells may have moved. This within the predetermined distance is in accordance with the above-mentioned definition of “predetermined”. In this case, however, it is an area where the stripping solution diffuses. For example, it can be obtained by calculating fluid dynamics from the amount and viscosity of the stripping solution. Also good.
This will be described more specifically. FIG. 8 is an explanatory diagram showing a processing example of the cell movement candidate region extraction module 316. The centers (may be the center of gravity) of candidate area A 711 and candidate area B 712 are calculated, and circles 821 and 822 having radii that are predetermined distances from calculated centers 811 and 812 are generated, and the circles are generated. An area surrounded by 821 and 822 may be set as a candidate area B 830.
Another example will be described. FIG. 9 is an explanatory diagram showing a processing example of the cell movement candidate region extraction module 316. A region within a predetermined distance from the periphery of the candidate region A 711 and the candidate region B 712 may be set as the candidate region B 930.

変位ベクトル算出モジュール318は、細胞移動候補領域抽出モジュール316、画像変形モジュール320と接続されており、細胞移動候補領域抽出モジュール316によって抽出された領域内を対象として、第2の細胞の移動量及び移動方向を算出する。つまり、候補領域Bに対して細胞が移動した量を推定する。これは以下のように行われる。
予め撮影した細胞がない画像を背景画像とする。そして、細胞回収後画像(大域的位置合わせ後画像601)の背景画像とは異なる輝度を持ち、かつ細胞回収前画像301と大域的位置合わせ後画像601において候補領域B(例えば、候補領域B 830、候補領域B 930等)内にあるすべての座標xに対して、例えば10画素×10画素の局所領域をS1(x)、細胞回収前画像301において座標xから予め定めた量Δxだけ変位させた座標における局所領域をS0(x+Δx)とし、S1(x)とS0(x+Δx)の相互情報量を計算する。そして相互情報量が予め定めた値以上で、かつ最大となる平行移動量を探索し、移動量及び移動方向を算出する。これを細胞回収後画像の座標xにおける局所変位ベクトルと呼ぶ。
図10は、変位ベクトル算出モジュール318の処理例を示す説明図である。回収作業の影響で位置がずれた細胞(移動前細胞1011が移動後細胞1012へずれている)の位置でのみ、局所変位ベクトル1031が0でない値をとっている。なお、回収された細胞部分は背景と同じ輝度のため、局所変位ベクトルを計算しない。
The displacement vector calculation module 318 is connected to the cell movement candidate region extraction module 316 and the image deformation module 320, and the second cell movement amount and the region extracted by the cell movement candidate region extraction module 316 are set as targets. The moving direction is calculated. That is, the amount of cell movement relative to the candidate area B is estimated. This is done as follows.
An image having no cells photographed in advance is set as a background image. Then, the image has a luminance different from that of the background image of the post-cell recovery image (post-global registration image 601), and the candidate region B (for example, candidate region B 830) in the pre-cell recovery image 301 and the post-global registration image 601. , For example, a local area of 10 pixels × 10 pixels is displaced by S1 (x) by a predetermined amount Δx from the coordinates x in the pre-cell recovery image 301. Let S0 (x + Δx) be the local region at the coordinates, and calculate the mutual information amount of S1 (x) and S0 (x + Δx). Then, the maximum amount of parallel movement in which the mutual information amount is equal to or greater than a predetermined value is searched, and the movement amount and the movement direction are calculated. This is called a local displacement vector at the coordinate x of the post-cell recovery image.
FIG. 10 is an explanatory diagram illustrating a processing example of the displacement vector calculation module 318. The local displacement vector 1031 takes a non-zero value only at the position of the cell that has been displaced due to the collection operation (the cell 1011 before movement is displaced to the cell 1012 after movement). Note that the collected cell portion has the same luminance as the background, so the local displacement vector is not calculated.

画像変形モジュール320は、変位ベクトル算出モジュール318、対象抽出モジュール322と接続されており、変位ベクトル算出モジュール318によって算出された第2の細胞の移動量及び移動方向に基づいて、大域的位置合わせ後画像601を第2の細胞の移動前の状態の画像に変形する。具体的には、例えば、大域的位置合わせ後画像601内の候補領域B内にある細胞を移動量及び移動方向を用いて移動させる。変位ベクトル算出モジュール318によって算出される移動方向が移動前から移動後の方向である場合は、その移動方向とは逆方向に移動させ、移動後から移動前の方向である場合は、その移動方向と同方向に移動させる。
例えば、局所変位ベクトルを用いて画像を変形したものが、図11に例示する局所的位置合わせ後画像1101である。この局所的位置合わせ後画像1101は、図6に例示した大域的位置合わせ後画像601を変形したものである。局所的位置合わせ後画像1101内では、図6に例示した大域的位置合わせ後画像601内の細胞611が、図5に例示した細胞回収前画像301内の細胞501と同じ位置である細胞1111へ移動しており、移動した細胞の補正がなされている。もちろん、図6に例示した大域的位置合わせ後画像601内の細胞613〜細胞616は、図11に例示する局所的位置合わせ後画像1101内の細胞1113〜細胞1116に対応し、候補領域B内にはないので変形は施されておらず、同じ位置のままである。
The image deformation module 320 is connected to the displacement vector calculation module 318 and the object extraction module 322, and after global alignment based on the movement amount and movement direction of the second cell calculated by the displacement vector calculation module 318. The image 601 is transformed into an image in a state before the movement of the second cell. Specifically, for example, the cells in the candidate region B in the post-global alignment image 601 are moved using the movement amount and the movement direction. When the movement direction calculated by the displacement vector calculation module 318 is the direction before and after the movement, the movement direction is opposite to the movement direction. When the movement direction is the direction after the movement and before the movement, the movement direction is calculated. Move in the same direction as.
For example, a post-local alignment image 1101 illustrated in FIG. 11 is obtained by deforming an image using a local displacement vector. This post-local alignment image 1101 is a modification of the global post-alignment image 601 illustrated in FIG. In the post-local registration image 1101, the cell 611 in the global registration image 601 illustrated in FIG. 6 moves to the cell 1111 in the same position as the cell 501 in the pre-cell recovery image 301 illustrated in FIG. It has moved, and the corrected cells have been corrected. Of course, the cells 613 to 616 in the global post-alignment image 601 illustrated in FIG. 6 correspond to the cells 1113 to 1116 in the post-local alignment image 1101 illustrated in FIG. There is no deformation, so it remains in the same position.

対象抽出モジュール322は、画像変形モジュール320と接続されており、画像変形モジュール320によって変形された画像と細胞回収前画像301の差分に基づいて、対象細胞を抽出する。具体的には、例えば、細胞回収前画像301と局所的位置合わせ後画像1101の差分をとり、差の絶対値が予め定めた値以上の領域を回収された対象細胞の存在した領域として抽出する。
図12は、対象抽出モジュール322の処理例を示す説明図である。マスク領域1211〜1213が対象細胞の存在した領域として抽出されている。ノイズや、移動した細胞の変形等により他の領域にも黒い領域(マスク領域1211、マスク領域1213)が存在しているが、これらの領域は予め定めた規定値以下の面積の領域を除外することで対応可能である。
以上により決定された領域(マスク領域1212)に対応する画像を細胞回収前画像301から抽出することで対象細胞の画像を取得する。そして、これを識別器学習モジュール166の学習のための正例とするために正例データベース162に保存する。
The target extraction module 322 is connected to the image deformation module 320 and extracts target cells based on the difference between the image deformed by the image deformation module 320 and the pre-cell recovery image 301. Specifically, for example, the difference between the pre-cell recovery image 301 and the post-local alignment image 1101 is taken, and an area where the absolute value of the difference is equal to or greater than a predetermined value is extracted as an area where the collected target cells existed. .
FIG. 12 is an explanatory diagram illustrating a processing example of the target extraction module 322. Mask areas 1211 to 1213 are extracted as areas where target cells exist. Black areas (mask area 1211 and mask area 1213) also exist in other areas due to noise, deformation of moved cells, and the like, but these areas exclude areas having an area equal to or smaller than a predetermined value. This is possible.
An image of the target cell is acquired by extracting an image corresponding to the region (mask region 1212) determined as described above from the pre-cell recovery image 301. Then, in order to make this a positive example for learning by the classifier learning module 166, it is stored in the positive example database 162.

図4は、画像受付モジュール154、画像差分抽出モジュール156による処理例を示すフローチャートである。
ステップS402では、画像受付モジュール154は、細胞回収前画像301と細胞回収後画像302を受け付ける。
ステップS404では、大域的位置合わせ処理モジュール312は、細胞回収前画像301と細胞回収後画像302の大域的な位置合わせを行う。
ステップS406では、細胞存在候補領域抽出モジュール314は、回収した細胞が存在した可能性のある領域を抽出する。
ステップS408では、細胞移動候補領域抽出モジュール316は、ステップS406で抽出した領域の周辺にあって細胞が移動した可能性のある領域を抽出する。
ステップS410では、変位ベクトル算出モジュール318は、移動した細胞の変位ベクトルを算出する。
ステップS412では、画像変形モジュール320は、変位ベクトルを用いて細胞回収後画像302を変形する。
ステップS414では、対象抽出モジュール322は、細胞回収前画像301と変形された細胞回収後画像302の差分をとり、回収した細胞を抽出する。
FIG. 4 is a flowchart illustrating an example of processing performed by the image reception module 154 and the image difference extraction module 156.
In step S402, the image receiving module 154 receives the pre-cell recovery image 301 and the post-cell recovery image 302.
In step S404, the global alignment processing module 312 performs global alignment of the pre-cell recovery image 301 and the post-cell recovery image 302.
In step S406, the cell presence candidate area extraction module 314 extracts an area where the recovered cells may exist.
In step S408, the cell movement candidate area extraction module 316 extracts an area around the area extracted in step S406 and possibly having a cell moved.
In step S410, the displacement vector calculation module 318 calculates a displacement vector of the moved cell.
In step S412, the image deformation module 320 deforms the post-cell recovery image 302 using the displacement vector.
In step S414, the target extraction module 322 takes the difference between the pre-cell recovery image 301 and the transformed post-cell recovery image 302, and extracts the recovered cells.

図13を参照して、本実施の形態の画像認識モジュール150のハードウェア構成例について説明する。図13に示す構成は、例えばパーソナルコンピュータ(PC)などによって構成されるものであり、スキャナ等のデータ読み取り部1317と、プリンタなどのデータ出力部1318を備えたハードウェア構成例を示している。なお、このハードウェア構成は、検体操作モジュール110についても適用する。   A hardware configuration example of the image recognition module 150 of the present embodiment will be described with reference to FIG. The configuration shown in FIG. 13 is configured by a personal computer (PC), for example, and shows a hardware configuration example including a data reading unit 1317 such as a scanner and a data output unit 1318 such as a printer. This hardware configuration is also applied to the sample operation module 110.

CPU(Central Processing Unit)1301は、前述の実施の形態において説明した各種のモジュール、すなわち、画像差分抽出モジュール156、特定細胞検出モジュール158、識別器学習モジュール166等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。   A CPU (Central Processing Unit) 1301 describes the execution sequence of each module such as the image difference extraction module 156, the specific cell detection module 158, and the classifier learning module 166 described in the above embodiment. It is a control part which performs the process according to a computer program.

ROM(Read Only Memory)1302は、CPU1301が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)1303は、CPU1301の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス1304により相互に接続されている。   A ROM (Read Only Memory) 1302 stores programs used by the CPU 1301, calculation parameters, and the like. A RAM (Random Access Memory) 1303 stores programs used in the execution of the CPU 1301, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 1304 including a CPU bus.

ホストバス1304は、ブリッジ1305を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス1306に接続されている。   The host bus 1304 is connected to an external bus 1306 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 1305.

キーボード1308、マウス等のポインティングデバイス1309は、操作者により操作される入力デバイスである。ディスプレイ1310は、液晶表示装置又はCRT(Cathode Ray Tube)などがあり、各種情報をテキストやイメージ情報として表示する。   A keyboard 1308 and a pointing device 1309 such as a mouse are input devices operated by an operator. The display 1310 includes a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various types of information as text or image information.

HDD(Hard Disk Drive)1311は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU1301によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、細胞回収前画像、細胞回収後画像、正例としての細胞の画像、負例としての細胞の画像、識別モデルなどが格納される。さらに、その他の各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納される。   An HDD (Hard Disk Drive) 1311 has a built-in hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 1301 and information. The hard disk stores an image before cell collection, an image after cell collection, an image of a cell as a positive example, an image of a cell as a negative example, an identification model, and the like. Further, various computer programs such as various other data processing programs are stored.

ドライブ1312は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体1313に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース1307、外部バス1306、ブリッジ1305、及びホストバス1304を介して接続されているRAM1303に供給する。リムーバブル記録媒体1313も、ハードディスクと同様のデータ記録領域として利用可能である。   The drive 1312 reads data or a program recorded on a removable recording medium 1313 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and reads the data or program into an interface 1307 and an external bus 1306. , The bridge 1305, and the RAM 1303 connected via the host bus 1304. The removable recording medium 1313 can also be used as a data recording area similar to a hard disk.

接続ポート1314は、外部接続機器1315を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート1314は、インタフェース1307、及び外部バス1306、ブリッジ1305、ホストバス1304等を介してCPU1301等に接続されている。通信部1316は、ネットワークに接続され、外部とのデータ通信処理を実行する。検体操作モジュール110と画像認識モジュール150との通信は、接続ポート1314又は通信部1316を介して行われる。
データ読み取り部1317は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部1318は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。
The connection port 1314 is a port for connecting the external connection device 1315 and has a connection unit such as USB and IEEE1394. The connection port 1314 is connected to the CPU 1301 and the like via the interface 1307, the external bus 1306, the bridge 1305, the host bus 1304, and the like. A communication unit 1316 is connected to a network and executes data communication processing with the outside. Communication between the sample operation module 110 and the image recognition module 150 is performed via the connection port 1314 or the communication unit 1316.
The data reading unit 1317 is, for example, a scanner, and executes document reading processing. The data output unit 1318 is, for example, a printer, and executes document data output processing.

なお、図13に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図13に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図13に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、検体操作モジュール110と画像認識モジュール150は別個ではなく、1つのシステムとして構成されていてもよい。   Note that the hardware configuration illustrated in FIG. 13 illustrates one configuration example, and the present embodiment is not limited to the configuration illustrated in FIG. 13, and is a configuration that can execute the modules described in the present embodiment. I just need it. For example, some modules may be configured with dedicated hardware (for example, Application Specific Integrated Circuit (ASIC), etc.), and some modules are in an external system and connected via a communication line Alternatively, a plurality of systems shown in FIG. 13 may be connected to each other via communication lines so as to cooperate with each other. Further, the sample manipulation module 110 and the image recognition module 150 are not separate and may be configured as one system.

前述の実施の形態においては、画像から検出する対象として細胞を例として示したが、この他に、例えば、工場での製造工程で不良品を取り除いた場合におけるその不良品を対象としてもよいし、店舗で商品が販売された場合における売れた商品を対象としてもよい。つまり、対象とするもの(不良品、商品等)以外にその対象と同等(同一形状だけでなく、異なる形状、模様、色彩のものを含む)の物が複数撮影された画像Aと、その対象が取り除かれた後を撮影した画像Bとを比較して、対象を検出することに適用してもよい。なお、画像Bは、その対象を取り除くのにその周囲の物も移動した可能性がある状態を撮影した画像である。   In the above-described embodiment, the cell is shown as an example of the object to be detected from the image. However, in addition to this, for example, the defective product when the defective product is removed in the manufacturing process at the factory may be the target. The sold product when the product is sold in the store may be the target. That is, in addition to the target (defective product, product, etc.), the image A in which a plurality of objects equivalent to the target (including not only the same shape but also different shapes, patterns, and colors) are captured, and the target It may be applied to detecting an object by comparing the image B taken after the image is removed. Note that the image B is an image of a state in which there is a possibility that the surrounding objects may have moved to remove the target.

なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通などのために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray Disc(登録商標))、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、あるいは無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して
記録されていてもよい。また、圧縮や暗号化など、復元可能であればどのような態様で記録されていてもよい。
The program described above may be provided by being stored in a recording medium, or the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording the program”.
The “computer-readable recording medium on which a program is recorded” refers to a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, such as “DVD-R, DVD-RW, DVD-RAM,” and DVD + RW. Standard “DVD + R, DVD + RW, etc.”, compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray Disc (registered trademark), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM), flash Includes memory, random access memory (RAM), etc. .
The program or a part of the program may be recorded on the recording medium for storage or distribution. Also, by communication, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), a wired network used for the Internet, an intranet, an extranet, etc., or wireless communication It may be transmitted using a transmission medium such as a network or a combination of these, or may be carried on a carrier wave.
Furthermore, the program may be a part of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Further, it may be recorded in any manner as long as it can be restored, such as compression or encryption.

110…検体操作モジュール
112…細胞回収モジュール
114…検体ID読取モジュール
116…画像取得モジュール
118…電動ステージ
150…画像認識モジュール
152…検体ID受付モジュール
154…画像受付モジュール
156…画像差分抽出モジュール
158…特定細胞検出モジュール
160…細胞回収前画像データベース
162…正例データベース
164…負例データベース
166…識別器学習モジュール
168…識別モデル保存モジュール
170…ステージ制御モジュール
301…細胞回収前画像
302…細胞回収後画像
312…大域的位置合わせ処理モジュール
314…細胞存在候補領域抽出モジュール
316…細胞移動候補領域抽出モジュール
318…変位ベクトル算出モジュール
320…画像変形モジュール
322…対象抽出モジュール
DESCRIPTION OF SYMBOLS 110 ... Sample operation module 112 ... Cell collection module 114 ... Sample ID reading module 116 ... Image acquisition module 118 ... Electric stage 150 ... Image recognition module 152 ... Sample ID reception module 154 ... Image reception module 156 ... Image difference extraction module 158 ... Specific Cell detection module 160 ... Image database before cell recovery 162 ... Positive example database 164 ... Negative example database 166 ... Classifier learning module 168 ... Identification model storage module 170 ... Stage control module 301 ... Image before cell recovery 302 ... Image after cell recovery 312 ... global alignment processing module 314 ... cell existence candidate area extraction module 316 ... cell movement candidate area extraction module 318 ... displacement vector calculation module 320 ... image deformation module Joule 322 ... Object extraction module

Claims (4)

複数の物体を撮影した第1の画像と該複数の物体に少なくともひとつは含まれる物体である第1の物体を取り除いた状態を撮影した第2の画像を受け付ける受付手段と、
前記第1の画像に撮影されている物体と前記第2の画像に撮影されている物体とを合わせるように、前記第1の画像と前記第2の画像とを照合した結果に基づいて、前記第1の物体が存在する可能性のある領域を抽出する第1の領域抽出手段と、
前記第1の領域抽出手段によって抽出された第1の領域に基づいて、前記第1の物体を取り除いたときに移動した可能性のある物体である第2の物体が移動した可能性のある領域を抽出する第2の領域抽出手段と、
前記第2の領域抽出手段によって抽出された領域内を対象として、前記第2の物体の移動量及び移動方向を算出する算出手段と、
前記算出手段によって算出された第2の物体の移動量及び移動方向に基づいて、前記第2の画像を該第2の物体の移動前の状態の画像に変形する画像変形手段と、
前記画像変形手段によって変形された画像と前記第1の画像との差分に基づいて、前記第1の物体を抽出する抽出手段
を具備することを特徴とする画像処理装置。
Receiving means for receiving a first image obtained by photographing a plurality of objects and a second image obtained by photographing a state in which the first object, which is an object included in at least one of the plurality of objects, is removed;
Based on the result of collating the first image and the second image so that the object photographed in the first image and the object photographed in the second image are matched, the First region extraction means for extracting a region where the first object may exist;
An area in which a second object that may have moved when the first object is removed based on the first area extracted by the first area extracting means may have moved Second region extracting means for extracting
Calculation means for calculating a movement amount and a movement direction of the second object for the area extracted by the second area extraction means;
Image deformation means for deforming the second image into an image in a state before the movement of the second object based on the movement amount and movement direction of the second object calculated by the calculation means;
An image processing apparatus comprising: extraction means for extracting the first object based on a difference between the image deformed by the image deformation means and the first image.
前記抽出手段によって抽出された第1の物体の画像を記憶する第1の記憶手段と、
前記第2の画像から前記第1の物体を検出する検出手段と、
前記検出手段によって検出された第1の物体の画像を記憶する第2の記憶手段と、
前記第1の記憶手段に記憶された第1の物体の画像を正例とし、前記第2の記憶手段に記憶された第1の物体の画像を負例として学習する学習手段
をさらに具備し、
前記検出手段は、前記学習手段によって学習された結果に基づいて前記第1の物体を検出する
ことを特徴とする請求項1に記載の画像処理装置。
First storage means for storing an image of the first object extracted by the extraction means;
Detecting means for detecting the first object from the second image;
Second storage means for storing an image of the first object detected by the detection means;
Learning means for learning the first object image stored in the first storage means as a positive example, and learning the first object image stored in the second storage means as a negative example;
The image processing apparatus according to claim 1, wherein the detection unit detects the first object based on a result learned by the learning unit.
前記物体は細胞であり、前記画像は顕微鏡による画像であり、
前記検出手段は、前記第1の画像から前記第1の物体である対象とする第1の細胞を検出し、
前記検出手段によって前記第1の細胞が検出された場合は、該第1の細胞が中央になるように顕微鏡のステージを移動させるように制御する制御手段と、
第1の細胞が取り除かれる前の状態を第1の画像として撮影し、該制御手段によって顕微鏡のステージが移動させられた後であって、前記第1の細胞が取り除かれた後の状態を第2の画像として撮影する撮影手段
を具備し、
前記受付手段は、前記撮影手段によって撮影された第1の画像と第2の画像を受け付ける
ことを特徴とする請求項2に記載の画像処理装置。
The object is a cell, and the image is a microscope image;
The detection means detects a first cell as a target that is the first object from the first image,
Control means for controlling the microscope stage to move so that the first cell is in the center when the first cell is detected by the detection means;
A state before the first cell is removed is photographed as a first image, and the state after the first cell is removed after the microscope stage is moved by the control means. A photographing means for photographing as an image of 2,
The image processing apparatus according to claim 2, wherein the reception unit receives the first image and the second image captured by the imaging unit.
コンピュータに、
複数の物体を撮影した第1の画像と該複数の物体に少なくともひとつは含まれる物体である第1の物体を取り除いた状態を撮影した第2の画像を受け付ける受付機能と、
前記第1の画像に撮影されている物体と前記第2の画像に撮影されている物体とを合わせるように、前記第1の画像と前記第2の画像とを照合した結果に基づいて、前記第1の物体が存在する可能性のある領域を抽出する第1の領域抽出機能と、
前記第1の領域抽出機能によって抽出された第1の領域に基づいて、前記第1の物体を取り除いたときに移動した可能性のある物体である第2の物体が移動した可能性のある領域を抽出する第2の領域抽出機能と、
前記第2の領域抽出機能によって抽出された領域内を対象として、前記第2の物体の移動量及び移動方向を算出する算出機能と、
前記算出機能によって算出された第2の物体の移動量及び移動方向に基づいて、前記第2の画像を該第2の物体の移動前の状態の画像に変形する画像変形機能と、
前記画像変形機能によって変形された画像と前記第1の画像との差分に基づいて、前記第1の物体を抽出する抽出機能
を実現させることを特徴とする画像処理プログラム。
On the computer,
A reception function for receiving a first image obtained by photographing a plurality of objects and a second image obtained by photographing a state in which the first object that is at least one of the plurality of objects is removed;
Based on the result of collating the first image and the second image so that the object photographed in the first image and the object photographed in the second image are matched, the A first region extraction function for extracting a region in which the first object may exist;
An area where a second object, which may have moved when the first object is removed, may have moved based on the first area extracted by the first area extracting function A second region extraction function for extracting
A calculation function for calculating a movement amount and a movement direction of the second object for the area extracted by the second area extraction function;
An image transformation function for transforming the second image into an image in a state before the movement of the second object based on the movement amount and movement direction of the second object calculated by the calculation function;
An image processing program that realizes an extraction function for extracting the first object based on a difference between an image deformed by the image deformation function and the first image.
JP2010091240A 2010-04-12 2010-04-12 Image processing apparatus and image processing program Expired - Fee Related JP5246201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010091240A JP5246201B2 (en) 2010-04-12 2010-04-12 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010091240A JP5246201B2 (en) 2010-04-12 2010-04-12 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2011221841A JP2011221841A (en) 2011-11-04
JP5246201B2 true JP5246201B2 (en) 2013-07-24

Family

ID=45038740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010091240A Expired - Fee Related JP5246201B2 (en) 2010-04-12 2010-04-12 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5246201B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5376024B1 (en) * 2012-08-23 2013-12-25 富士ゼロックス株式会社 Image processing apparatus, program, and image processing system
JP5464244B2 (en) * 2012-08-24 2014-04-09 富士ゼロックス株式会社 Image processing apparatus, program, and image processing system
WO2017013045A1 (en) * 2015-07-17 2017-01-26 Koninklijke Philips N.V. Registration of histopathology images
JP2019049780A (en) * 2017-09-07 2019-03-28 富士通株式会社 Teacher data creation program, teacher data creation device and teacher data creation method
JP2019191933A (en) * 2018-04-25 2019-10-31 オリンパス株式会社 Learning device, imaging device, image processing device, and learning method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000049391A1 (en) * 1999-02-18 2000-08-24 Bio-View Ltd. System and method for identifying and analyzing rare cell types in a mixed population of cells
JP4346923B2 (en) * 2003-02-21 2009-10-21 晴夫 高林 Target cell automatic search system
JP5146199B2 (en) * 2008-08-25 2013-02-20 富士ゼロックス株式会社 Difference extraction apparatus and difference extraction program

Also Published As

Publication number Publication date
JP2011221841A (en) 2011-11-04

Similar Documents

Publication Publication Date Title
JP6453298B2 (en) System and method for observing and analyzing cytological specimens
JP4346923B2 (en) Target cell automatic search system
JP5413408B2 (en) Image processing apparatus, program, and image processing system
EP2053535B1 (en) Automated detection of cell colonies and coverslip detection using hough transforms
US8588503B2 (en) System and method for detecting and eliminating one or more defocused or low contrast-to-noise ratio images
JP5246201B2 (en) Image processing apparatus and image processing program
EP2191417B1 (en) Methods and systems for processing biological specimens utilizing multiple wavelengths
JP6791864B2 (en) Barcode tag detection in side view sample tube images for laboratory automation
US11226280B2 (en) Automated slide assessments and tracking in digital microscopy
Sigdel et al. Real-time protein crystallization image acquisition and classification system
JP5718781B2 (en) Image classification apparatus and image classification method
JPWO2010146802A1 (en) Cell mass state discrimination method, image processing program and image processing apparatus using this method, and cell mass production method
EP2199776B1 (en) Cell image analysis apparatus, cell image analysis method, and program
Dorn et al. Computational processing and analysis of dynamic fluorescence image data
TW202105245A (en) Method for analyzing image of biopsy specimen to determine cancerous probability thereof
JP2009122115A (en) Cell image analyzer
EP1986155A2 (en) Specimen analysis and acicular region analyzer
WO2020037572A1 (en) Method and device for detecting bright spot on image, and image registration method and device
US20220138939A1 (en) Systems and Methods for Digital Pathology
JP4500138B2 (en) Cell image analysis method
JP3722757B2 (en) Defect imaging device
Zachariou et al. Automated methods for tuberculosis detection/diagnosis: a literature review
CN115176289A (en) Cell line development image characterization using convolutional neural networks
JP5861678B2 (en) Image processing apparatus, program, and image processing system
Zhao et al. A survey of semen quality evaluation in microscopic videos using computer assisted sperm analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130118

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

R150 Certificate of patent or registration of utility model

Ref document number: 5246201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees