JP2020122891A - Manipulation system - Google Patents

Manipulation system Download PDF

Info

Publication number
JP2020122891A
JP2020122891A JP2019015000A JP2019015000A JP2020122891A JP 2020122891 A JP2020122891 A JP 2020122891A JP 2019015000 A JP2019015000 A JP 2019015000A JP 2019015000 A JP2019015000 A JP 2019015000A JP 2020122891 A JP2020122891 A JP 2020122891A
Authority
JP
Japan
Prior art keywords
image
tubular
manipulation system
pipette
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019015000A
Other languages
Japanese (ja)
Other versions
JP7183828B2 (en
Inventor
尚史 倉持
Hisafumi Kuramochi
尚史 倉持
ハウス リチャード
Haus Richard
ハウス リチャード
田中 伸明
Nobuaki Tanaka
伸明 田中
古川 秀樹
Hideki Furukawa
秀樹 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2019015000A priority Critical patent/JP7183828B2/en
Publication of JP2020122891A publication Critical patent/JP2020122891A/en
Application granted granted Critical
Publication of JP7183828B2 publication Critical patent/JP7183828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Microscoopes, Condenser (AREA)
  • Manipulator (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Abstract

To provide a manipulation system capable of successfully detecting a position of a tubular instrument.SOLUTION: A manipulation system 100 for collecting minute objects with a tubular instrument 10 comprises: the tubular instrument 10; a manipulator 20 mounted with the tubular instrument 10; a sample stage 30 on which a container 38 for housing the minute object is placed; a first microscope 41 arranged above the sample stage 30; a first imaging device 45 for imaging a first image via the first microscope 41; and a controller 50. The controller 50 has: an image processing unit for creating a first binary image that displays a dark part having a brightness of a threshold value or less on the basis of the first image; and a position detecting unit for detecting a position of the tubular instrument on the basis of the first binary image.SELECTED DRAWING: Figure 3

Description

本発明は、マニピュレーションシステムに関する。 The present invention relates to a manipulation system.

バイオ医薬品は細胞を原料として製造される。原料となる細胞は、単一細胞に由来していることが求められる。このため、培養液中から特定の細胞を選別し回収することが必要となる。特許文献1には、細胞を吸引するマニピュレータを有する細胞採取装置が記載されている。 Biopharmaceuticals are manufactured from cells. The cell used as a raw material is required to be derived from a single cell. Therefore, it is necessary to select and collect specific cells from the culture medium. Patent Document 1 describes a cell collection device having a manipulator for sucking cells.

特開2013−169185号公報JP, 2013-169185, A

マニピュレータを有する細胞採取装置では、画像処理により検出された管状器具の端部の位置と、実際の管状器具の端部の位置との間に誤差が生じる可能性がある。このため、検出された管状器具の位置情報に基づいて、確実に細胞を採取することが困難となる場合がある。 In the cell collecting device having the manipulator, an error may occur between the position of the end of the tubular instrument detected by image processing and the actual position of the end of the tubular instrument. Therefore, it may be difficult to reliably collect cells based on the detected positional information of the tubular device.

本発明は、上記に鑑みてなされたものであり、管状器具の位置を良好に検出することが可能なマニピュレーションシステムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a manipulation system capable of satisfactorily detecting the position of a tubular instrument.

一態様に係るマニピュレーションシステムは、管状器具を用いて微小対象物を採取するマニピュレーションシステムであって、前記管状器具と、前記管状器具が取り付けられるマニピュレータと、前記微小対象物を収容するための容器が載置される試料ステージと、前記試料ステージの上方に配置される第1顕微鏡と、前記第1顕微鏡を介して第1画像を撮像する第1撮像装置と、コントローラと、を備え、前記コントローラは、前記第1画像に基づいて、しきい値以下の輝度を有する暗部を表示する第1バイナリ画像を作成する画像処理部と、前記第1バイナリ画像に基づいて前記管状器具の位置を検出する位置検出部と、を有する。 A manipulation system according to one aspect is a manipulation system for collecting a microscopic object using a tubular instrument, wherein the tubular instrument, a manipulator to which the tubular instrument is attached, and a container for accommodating the microscopic object are The controller includes a sample stage to be placed, a first microscope arranged above the sample stage, a first imaging device that captures a first image via the first microscope, and a controller. An image processing unit that creates a first binary image that displays a dark part having a brightness equal to or less than a threshold value based on the first image; and a position that detects the position of the tubular device based on the first binary image. And a detection unit.

これによれば、マニピュレーションシステムは、第1バイナリ画像に基づいて、管状器具以外の微小対象物等の検出部分を除去する等の画像処理を容易に行うことができる。また、マニピュレーションシステムは、第1バイナリ画像に基づいて、エッジ検出やパターンマッチングを行うことにより、良好に管状器具の位置を検出することができる。 According to this, the manipulation system can easily perform image processing such as removal of a detection portion such as a microscopic object other than the tubular instrument based on the first binary image. In addition, the manipulation system can detect the position of the tubular device satisfactorily by performing edge detection and pattern matching based on the first binary image.

望ましい態様として、前記コントローラは、前記管状器具の基準バイナリ画像を記憶する記憶部を有し、前記位置検出部は、前記第1バイナリ画像において前記管状器具の前記暗部から形成される検出部分と、前記基準バイナリ画像とを比較して、前記管状器具を検出する。これによれば、マニピュレーションシステムは、第1画像に撮像された微小対象物や、管状器具の内部の液層の影響を抑制して、管状器具の位置を良好に検出することができる。 As a desirable mode, the controller includes a storage unit that stores a reference binary image of the tubular device, and the position detection unit includes a detection portion formed from the dark portion of the tubular device in the first binary image, The tubular device is detected by comparing with the reference binary image. According to this, the manipulation system can suppress the influence of the minute object imaged in the first image and the liquid layer inside the tubular instrument, and can detect the position of the tubular instrument in a favorable manner.

望ましい態様として、前記コントローラは、前記第1画像の輝度に基づいて、前記しきい値を設定するしきい値設定部を有する。これによれば、第1顕微鏡の視野中の輝度が、測定環境等により変化した場合でも、マニピュレーションシステムは、良好に管状器具の明部及び暗部を検出することができる。すなわち、マニピュレーションシステムは、環境の変化に対するロバスト性を向上させることができる。 As a desirable mode, the controller includes a threshold value setting unit that sets the threshold value based on the brightness of the first image. According to this, even when the brightness in the visual field of the first microscope changes due to the measurement environment or the like, the manipulation system can favorably detect the bright part and the dark part of the tubular instrument. That is, the manipulation system can improve robustness against changes in the environment.

望ましい態様として、前記画像処理部は、前記第1画像を輝度のみで表示したグレースケール画像に変換し、前記グレースケール画像に基づいて前記第1バイナリ画像を作成する。これによれば、カラー画像を用いる場合に比べて画像処理部が行う画像処理の負荷を抑制することができる。 As a desirable mode, the image processing unit converts the first image into a grayscale image displayed only with luminance, and creates the first binary image based on the grayscale image. According to this, the load of the image processing performed by the image processing unit can be suppressed as compared with the case of using a color image.

望ましい態様として、前記画像処理部は、前記第1バイナリ画像において、前記管状器具の前記暗部から形成される検出部分を拡大することで、前記管状器具の内部の空間に対応する領域を挟んで配置された2つの前記暗部を1つにつなげる。これによれば、マニピュレーションシステムは、管状器具の内部の液層と空気層との境界の位置の違いに起因する誤検出を抑制することができる。 As a desirable mode, the image processing unit enlarges a detection portion formed from the dark portion of the tubular device in the first binary image, and arranges the region corresponding to the space inside the tubular device so as to be sandwiched therebetween. The two said dark parts which were made are connected to one. According to this, the manipulation system can suppress erroneous detection due to the difference in the position of the boundary between the liquid layer and the air layer inside the tubular device.

望ましい態様として、前記画像処理部は、前記微小対象物を示す前記暗部を前記第1バイナリ画像から除去する。これによれば、マニピュレーションシステムは、微小対象物の存在に起因する管状器具の誤検出を抑制することができる。 As a desirable mode, the image processing unit removes the dark portion indicating the minute object from the first binary image. According to this, the manipulation system can suppress erroneous detection of the tubular instrument due to the presence of the minute object.

望ましい態様として、前記画像処理部は、前記第1バイナリ画像から、検出された前記管状器具を囲む部分領域で切り取った画像を作成し、前記位置検出部は、前記部分領域で切り取った画像から、前記管状器具の前記暗部から形成される検出部分と背景との輝度の差に基づいて、前記管状器具の前記暗部から形成される前記検出部分の延在方向に沿った部分の外形形状を検出する。これによれば、マニピュレーションシステムは、管状器具の延在方向に沿った外形形状を正確に検出することができる。 As a desirable aspect, the image processing unit creates an image cut out in the partial region surrounding the detected tubular instrument from the first binary image, and the position detection unit from the image cut out in the partial region, Based on the difference in brightness between the detection portion formed of the dark portion of the tubular device and the background, the outer shape of the portion of the tubular device formed along the extending direction of the detection portion formed of the dark portion is detected. .. According to this, the manipulation system can accurately detect the outer shape of the tubular instrument along the extending direction.

望ましい態様として、前記画像処理部は、前記第1画像から、前記管状器具の前記暗部から形成される検出部分の延在方向に沿った部分の外形形状と、前記管状器具の延在方向の端部と隣り合う部分の前記部分領域の外周とで囲まれた領域を切り取って、前記管状器具を抽出した管状器具画像を作成し、前記位置検出部は、前記管状器具画像に基づいて、前記管状器具の延在方向の端部の位置を検出する。これによれば、マニピュレーションシステムは、管状器具の延在方向の端部の位置を正確に検出することができる。 As a desirable aspect, the image processing unit includes, from the first image, an outer shape of a portion along the extension direction of a detection portion formed from the dark portion of the tubular instrument, and an end of the tubular instrument in the extension direction. A region surrounded by the outer periphery of the partial region of the portion adjacent to the section, to create a tubular instrument image extracted from the tubular instrument, the position detection unit, based on the tubular instrument image, the tubular The position of the end of the device in the extending direction is detected. According to this, the manipulation system can accurately detect the position of the end of the tubular instrument in the extending direction.

望ましい態様として、前記画像処理部は、前記管状器具画像に基づいて、しきい値以上の輝度を有する明部を表示する管状器具バイナリ画像を作成し、前記位置検出部は、前記管状器具バイナリ画像に基づいて、前記管状器具の内部の空気層及び液層を検出する。これによれば、マニピュレーションシステムは、管状器具内の任意の領域が、空気層であるか液層であるかを検出することができる。 As a desirable mode, the image processing unit creates a tubular instrument binary image that displays a bright portion having a brightness equal to or higher than a threshold value based on the tubular instrument image, and the position detection unit causes the tubular instrument binary image. Based on the above, the air layer and the liquid layer inside the tubular device are detected. According to this, the manipulation system can detect whether an arbitrary region in the tubular device is an air layer or a liquid layer.

望ましい態様として、前記画像処理部は、前記第1画像から、前記管状器具の内部に前記微小対象物が存在しない部分の画像を切り取って、基準管状器具画像を作成し、前記位置検出部は、検出された前記管状器具の画像と、前記基準管状器具画像との、輝度の差分を示す画像に基づいて、前記管状器具の内部の前記微小対象物を検出する。これによれば、マニピュレーションシステムは、管状器具内に微小対象物が採取されたことを確実に検出することができる。 As a desirable aspect, the image processing unit, from the first image, by cutting an image of a portion where the microscopic object does not exist inside the tubular instrument, to create a reference tubular instrument image, the position detection unit, The minute object inside the tubular instrument is detected based on an image showing a difference in brightness between the detected image of the tubular instrument and the reference tubular instrument image. According to this, the manipulation system can reliably detect that the minute object is collected in the tubular instrument.

望ましい態様として、さらに、前記マニピュレータは、前記管状器具を前記試料ステージに対して相対的に移動させる駆動装置を有し、前記コントローラは、前記位置検出部によって検出された前記微小対象物と前記管状器具との離隔距離を自動で検出する距離検出部、を有し、前記コントローラは、前記駆動装置を動作させて、前記管状器具の先端が、前記位置検出部によって検出された前記微小対象物の位置に近づくように移動させ、前記離隔距離があらかじめ設定された値よりも大きい場合に、前記位置検出部は、複数回、前記管状器具の位置を検出する。これによれば、マニピュレーションシステムは、管状器具の位置を繰り返し検出することで、管状器具の端部の位置を、微小対象物を採取するための適切な位置に補正することができる。 As a desirable mode, the manipulator further includes a drive device that relatively moves the tubular instrument with respect to the sample stage, and the controller includes the micro object detected by the position detection unit and the tubular object. A distance detection unit that automatically detects a separation distance from an instrument, wherein the controller operates the drive device so that the distal end of the tubular instrument detects the minute target object detected by the position detection unit. The position detecting unit detects the position of the tubular device a plurality of times when the distance is moved closer to the position and the separation distance is larger than a preset value. According to this, the manipulation system can correct the position of the end of the tubular instrument to an appropriate position for collecting the minute object by repeatedly detecting the position of the tubular instrument.

望ましい態様として、前記管状器具の内側には、表面処理が施されている。これによれば、マニピュレーションシステムは、微小対象物が管状器具の内側に付着することを抑制できる。 In a preferred embodiment, the inside of the tubular device is surface-treated. According to this, the manipulation system can suppress the adhesion of the minute object to the inside of the tubular device.

本発明によれば、管状器具の位置を良好に検出することが可能なマニピュレーションシステムを提供することができる。 According to the present invention, it is possible to provide a manipulation system capable of satisfactorily detecting the position of a tubular instrument.

図1は、第1実施形態に係るマニピュレーションシステムの構成例を示す斜視図である。FIG. 1 is a perspective view showing a configuration example of a manipulation system according to the first embodiment. 図2は、図1に示すマニピュレーションシステムの一部を拡大して示す斜視図である。FIG. 2 is an enlarged perspective view showing a part of the manipulation system shown in FIG. 図3は、第1実施形態に係るマニピュレーションシステムの構成例を示す模式図である。FIG. 3 is a schematic diagram showing a configuration example of the manipulation system according to the first embodiment. 図4は、第1実施形態に係るマニピュレーションシステムの構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of the manipulation system according to the first embodiment. 図5は、検出部の構成例を示すブロック図である。FIG. 5 is a block diagram showing a configuration example of the detection unit. 図6は、記憶部の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the storage unit. 図7は、表示部の画面の一例を示す図である。FIG. 7 is a diagram showing an example of the screen of the display unit. 図8は、第1実施形態に係る採取用ピペットの構成例を示す側面図である。FIG. 8 is a side view showing a configuration example of the sampling pipette according to the first embodiment. 図9は、採取用ピペットの先端部を拡大して示す図である。FIG. 9 is an enlarged view of the tip of the sampling pipette. 図10は、第1実施形態に係るマニピュレーションシステムの、採取用ピペットを検出する検出シーケンスの一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of a detection sequence for detecting the sampling pipette of the manipulation system according to the first embodiment. 図11は、第1画像を輝度のみで表示したグレースケール画像の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a grayscale image in which the first image is displayed only with luminance. 図12は、細胞及び採取用ピペットの輝度の分布を模式的に示すグラフである。FIG. 12 is a graph schematically showing the distribution of brightness of cells and a pipette for collection. 図13は、バイナリ画像の一例を示す模式図である。FIG. 13 is a schematic diagram showing an example of a binary image. 図14は、図13に示す領域A2の細胞の暗部を拡大して示す模式図である。FIG. 14 is a schematic diagram showing an enlarged dark portion of cells in the area A2 shown in FIG. 図15は、図14に示す細胞の暗部の形状を補完する処理を説明するための模式図である。FIG. 15 is a schematic diagram for explaining the process of complementing the shape of the dark part of the cell shown in FIG. 図16は、暗部の形状を補完する処理を行ったバイナリ画像を示す模式図である。FIG. 16 is a schematic diagram showing a binary image that has been subjected to a process of complementing the shape of a dark part. 図17は、細胞の暗部を除去したバイナリ画像を示す模式図である。FIG. 17 is a schematic diagram showing a binary image in which dark areas of cells are removed. 図18は、採取用ピペットの検出部分を拡大したバイナリ画像を示す模式図である。FIG. 18 is a schematic diagram showing a binary image in which the detection portion of the sampling pipette is enlarged. 図19は、基準バイナリ画像の一例を示す模式図である。FIG. 19 is a schematic diagram showing an example of the reference binary image. 図20は、採取用ピペットの検出結果を表示する第1画像の一例を示す模式図である。FIG. 20 is a schematic diagram showing an example of the first image displaying the detection result of the sampling pipette. 図21は、第2実施形態に係るマニピュレーションシステムの、採取用ピペットの形状を検出する検出シーケンスの一例を示すフローチャートである。FIG. 21 is a flow chart showing an example of a detection sequence for detecting the shape of the sampling pipette in the manipulation system according to the second embodiment. 図22は、図20に示す部分領域を切り取って、輝度のみで表示したグレースケール画像の一例を示す模式図である。FIG. 22 is a schematic diagram showing an example of a grayscale image in which the partial area shown in FIG. 20 is cut out and displayed only with luminance. 図23は、部分領域のバイナリ画像を示す模式図である。FIG. 23 is a schematic diagram showing a binary image of a partial area. 図24は、部分領域のバイナリ画像において、暗部の形状を補完する処理を行ったバイナリ画像を示す模式図である。FIG. 24 is a schematic diagram showing a binary image obtained by performing a process of complementing the shape of a dark portion in the binary image of the partial region. 図25は、部分領域のバイナリ画像において、細胞の暗部を除去したバイナリ画像を示す模式図である。FIG. 25 is a schematic diagram showing a binary image in which a dark part of a cell is removed from the binary image of the partial region. 図26は、部分領域のバイナリ画像において、採取用ピペットの検出部分を拡大したバイナリ画像を示す模式図である。FIG. 26 is a schematic diagram showing an enlarged binary image of the detection portion of the sampling pipette in the binary image of the partial region. 図27は、採取用ピペットの検出部分のエッジを検出する方法を説明するための説明図である。FIG. 27 is an explanatory diagram for explaining a method of detecting the edge of the detection portion of the sampling pipette. 図28は、第3実施形態に係るマニピュレーションシステムの、採取用ピペットの端部を検出する検出シーケンスの一例を示すフローチャートである。FIG. 28 is a flowchart showing an example of a detection sequence for detecting the end portion of the sampling pipette in the manipulation system according to the third embodiment. 図29は、検出部分の端部のY軸方向の位置を説明するための説明図である。FIG. 29 is an explanatory diagram for explaining the position of the end portion of the detection portion in the Y-axis direction. 図30は、第1画像から採取用ピペットを切り取ったピペット画像の一例を示す模式図である。FIG. 30 is a schematic diagram showing an example of a pipette image obtained by cutting the sampling pipette from the first image. 図31は、採取用ピペットの端部を検出する方法を説明するための説明図である。FIG. 31 is an explanatory diagram for explaining a method of detecting the end portion of the sampling pipette. 図32は、第4実施形態に係るマニピュレーションシステムの、採取用ピペットの内部を検出する検出シーケンスの一例を示すフローチャートである。FIG. 32 is a flowchart showing an example of a detection sequence for detecting the inside of the sampling pipette of the manipulation system according to the fourth embodiment. 図33は、ピペット画像を輝度のみで表示したグレースケール画像の一例を示す模式図である。FIG. 33 is a schematic diagram showing an example of a grayscale image in which a pipette image is displayed only with brightness. 図34は、採取用ピペットの明部を示すピペットバイナリ画像である。FIG. 34 is a pipette binary image showing the bright part of the collection pipette. 図35は、第5実施形態に係るマニピュレーションシステムの、採取用ピペットの内部の細胞を検出する検出シーケンスの一例を示すフローチャートである。FIG. 35 is a flowchart showing an example of a detection sequence for detecting cells inside a sampling pipette in the manipulation system according to the fifth embodiment. 図36は、採取用ピペットの内部に細胞が存在しない部分の画像を切り取って作成した、基準画像の一例を示す模式図である。FIG. 36 is a schematic diagram showing an example of a reference image created by cutting out an image of a portion where cells do not exist inside the sampling pipette. 図37は、検出されたピペット画像の一部を切り取った画像の一例を示す模式図である。FIG. 37 is a schematic diagram showing an example of an image obtained by cutting out a part of the detected pipette image. 図38は、検出されたピペット画像と基準画像の差分の画像の一例を示す模式図である。FIG. 38 is a schematic diagram showing an example of the difference image between the detected pipette image and the reference image. 図39は、差分の画像の明部を示すバイナリ画像の一例を示す模式図である。FIG. 39 is a schematic diagram showing an example of a binary image showing the bright portion of the difference image. 図40は、第6実施形態に係るマニピュレーションシステムの動作シーケンスの一例を示すフローチャートである。FIG. 40 is a flowchart showing an example of the operation sequence of the manipulation system according to the sixth embodiment. 図41は、第6実施形態に係る第1画像を模式的に示す模式図である。FIG. 41 is a schematic diagram schematically showing a first image according to the sixth embodiment.

以下、発明を実施するための形態(以下、実施形態という)につき図面を参照しつつ詳細に説明する。なお、下記の実施形態により本発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、下記実施形態で開示した構成要素は適宜組み合わせることが可能である。 Hereinafter, modes for carrying out the invention (hereinafter, referred to as embodiments) will be described in detail with reference to the drawings. The present invention is not limited to the embodiments described below. The constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are within the so-called equivalent range. Furthermore, the constituent elements disclosed in the following embodiments can be combined appropriately.

(第1実施形態)
図1は、第1実施形態に係るマニピュレーションシステムの構成例を示す斜視図である。図2は、図1に示すマニピュレーションシステムの一部を拡大して示す斜視図である。図3は、第1実施形態に係るマニピュレーションシステムの構成例を示す模式図である。図1から図3に示すマニピュレーションシステム100は、容器38に収容された複数個の微小対象物のうちから、所望の微小対象物を1個ずつ分取する装置である。微小対象物は、例えば細胞である。
(First embodiment)
FIG. 1 is a perspective view showing a configuration example of a manipulation system according to the first embodiment. FIG. 2 is an enlarged perspective view showing a part of the manipulation system shown in FIG. FIG. 3 is a schematic diagram showing a configuration example of the manipulation system according to the first embodiment. The manipulation system 100 shown in FIG. 1 to FIG. 3 is an apparatus that sorts out desired microscopic objects one by one from among a plurality of microscopic objects contained in a container 38. The minute object is, for example, a cell.

図1から図3に示すように、マニピュレーションシステム100は、基台1と、採取用ピペット10と、ピペット保持部15と、マニピュレータ20と、試料ステージ30と、第1撮像装置45を有する第1顕微鏡ユニット40と、コントローラ50と、第2撮像装置65を有する第2顕微鏡ユニット60と、第3撮像装置75と、ジョイスティック57と、入力部58と、表示部80と、を備える。なお、本実施形態では、試料ステージ30の載置面30aに平行な一方向をX軸方向とする。載置面30aに平行で、かつ、X軸方向と直交する方向をY軸方向とする。載置面30aの法線方向をZ軸方向とする。例えば、載置面30aが鉛直方向と直交する水平面となるように、基台1の配置が調整されている。 As shown in FIGS. 1 to 3, the manipulation system 100 includes a base 1, a sampling pipette 10, a pipette holding unit 15, a manipulator 20, a sample stage 30, and a first imaging device 45. The microscope unit 40, the controller 50, the second microscope unit 60 having the second imaging device 65, the third imaging device 75, the joystick 57, the input unit 58, and the display unit 80 are provided. In this embodiment, one direction parallel to the mounting surface 30a of the sample stage 30 is the X-axis direction. The direction parallel to the mounting surface 30a and orthogonal to the X-axis direction is defined as the Y-axis direction. The normal line direction of the mounting surface 30a is the Z-axis direction. For example, the arrangement of the base 1 is adjusted so that the mounting surface 30a is a horizontal plane orthogonal to the vertical direction.

採取用ピペット10は、細胞を採取するための管状器具である。例えば、採取用ピペット10は針状であり、その材質は例えばガラスである。採取用ピペット10の先端には、細胞を採取するための開口部が設けられている。採取用ピペット10の詳細は、後で図8及び図9を参照しながら説明する。 The collection pipette 10 is a tubular instrument for collecting cells. For example, the sampling pipette 10 is needle-shaped, and its material is, for example, glass. The tip of the collection pipette 10 is provided with an opening for collecting cells. Details of the sampling pipette 10 will be described later with reference to FIGS. 8 and 9.

ピペット保持部15は、採取用ピペット10を保持するための管状器具である。ピペット保持部15の材質は、例えばガラス又は金属である。ピペット保持部15の一端は、採取用ピペット10に連結している。また、ピペット保持部15の他端は、マニピュレータ20が有する電動マイクロポンプ29に接続されている。ピペット保持部15及び採取用ピペット10の内部圧力は、電動マイクロポンプ29から供給される圧力Pにより減圧又は増圧される。採取用ピペット10の内部圧力が常圧よりも低いとき、採取用ピペット10は先端の開口部から細胞を吸引して採取することができる。また、採取用ピペット10の内部圧力が常圧よりも高いとき、採取用ピペット10は、採取した細胞を採取用ピペット10の先端の開口部から外部へ吐出(放出)することができる。ピペット保持部15は、後述の連結部28を介してマニピュレータ20に連結されている。 The pipette holding portion 15 is a tubular instrument for holding the sampling pipette 10. The material of the pipette holding portion 15 is, for example, glass or metal. One end of the pipette holding portion 15 is connected to the sampling pipette 10. Further, the other end of the pipette holding section 15 is connected to an electric micro pump 29 included in the manipulator 20. The internal pressure of the pipette holding unit 15 and the sampling pipette 10 is reduced or increased by the pressure P supplied from the electric micropump 29. When the internal pressure of the collection pipette 10 is lower than the atmospheric pressure, the collection pipette 10 can suction and collect cells from the opening at the tip. Further, when the internal pressure of the collection pipette 10 is higher than the atmospheric pressure, the collection pipette 10 can discharge (release) the collected cells to the outside from the opening portion at the tip of the collection pipette 10. The pipette holding portion 15 is connected to the manipulator 20 via a connecting portion 28 described below.

マニピュレータ20は、ピペット保持部15及び採取用ピペット10をX軸方向、Y軸方向及びZ軸方向に移動させるための装置である。 The manipulator 20 is a device for moving the pipette holding unit 15 and the sampling pipette 10 in the X axis direction, the Y axis direction, and the Z axis direction.

図3に示すように、マニピュレータ20は、X軸テーブル21と、Y軸テーブル22と、Z軸テーブル23と、駆動装置26、27(例えば、モータ)と、連結部28、71(図1参照)と、電動マイクロポンプ29と、を備える。X軸テーブル21は、駆動装置26が駆動することによって、X軸方向に移動する。Y軸テーブル22は、駆動装置26が駆動することによって、Y軸方向に移動する。Z軸テーブル23は、駆動装置27が駆動することによって、Z軸方向に移動する。駆動装置26、27と、電動マイクロポンプ29は、コントローラ50に接続されている。 As shown in FIG. 3, the manipulator 20 includes an X-axis table 21, a Y-axis table 22, a Z-axis table 23, driving devices 26 and 27 (for example, a motor), and connecting portions 28 and 71 (see FIG. 1 ). ) And an electric micro pump 29. The X-axis table 21 moves in the X-axis direction when driven by the drive device 26. The Y-axis table 22 moves in the Y-axis direction when driven by the drive device 26. The Z-axis table 23 moves in the Z-axis direction when driven by the drive device 27. The drive devices 26 and 27 and the electric micropump 29 are connected to the controller 50.

マニピュレータ20において、Z軸テーブル23はY軸テーブル22上に取り付けられている。これにより、ピペット保持部15及び採取用ピペット10は、Y軸テーブル22の移動にしたがって、Y軸テーブル22と同じ距離だけY軸方向に移動することができる。さらに、Y軸テーブル22はX軸テーブル21上に取り付けられている。これにより、ピペット保持部15及び採取用ピペット10は、X軸テーブル21の移動にしたがって、X軸テーブル21と同じ距離だけX軸方向に移動することができる。また、ピペット保持部15及び採取用ピペット10は、Z軸テーブル23の移動にしたがって、Z軸テーブル23と同じ距離だけZ軸方向に移動することができる。 In the manipulator 20, the Z-axis table 23 is mounted on the Y-axis table 22. As a result, the pipette holding unit 15 and the sampling pipette 10 can move in the Y-axis direction by the same distance as the Y-axis table 22 as the Y-axis table 22 moves. Further, the Y-axis table 22 is mounted on the X-axis table 21. As a result, the pipette holding unit 15 and the sampling pipette 10 can move in the X-axis direction by the same distance as the X-axis table 21 as the X-axis table 21 moves. Further, the pipette holding unit 15 and the sampling pipette 10 can move in the Z-axis direction by the same distance as the Z-axis table 23 as the Z-axis table 23 moves.

図3に示すように、試料ステージ30は、容器38を支持する。例えば、試料ステージ30の載置面30aに容器38が載置される。容器38は、例えば、ディッシュ又はウェルプレートである。試料ステージ30は、X軸ステージ31と、Y軸ステージ32と、駆動装置36と、を備える。X軸ステージ31は、駆動装置36が駆動することによって、X軸方向に移動する。Y軸ステージ32は、駆動装置36が駆動することによって、Y軸方向に移動する。X軸ステージ31はY軸ステージ32上に取り付けられている。駆動装置36は、コントローラ50に接続されている。 As shown in FIG. 3, the sample stage 30 supports the container 38. For example, the container 38 is mounted on the mounting surface 30a of the sample stage 30. The container 38 is, for example, a dish or a well plate. The sample stage 30 includes an X-axis stage 31, a Y-axis stage 32, and a driving device 36. The X-axis stage 31 moves in the X-axis direction when driven by the drive device 36. The Y-axis stage 32 moves in the Y-axis direction when driven by the driving device 36. The X-axis stage 31 is mounted on the Y-axis stage 32. The drive device 36 is connected to the controller 50.

なお、図3では、試料ステージ30の平面視による形状(以下、平面形状)が円形の場合を示しているが、試料ステージ30の平面形状は円形に限定されず、例えば矩形でもよい。また、図3では、容器38の平面形状が円形の場合を示しているが、容器38の平面形状は円形に限定されない。図1に示すように、容器38の平面形状は、例えば矩形でもよい。また、図1及び図3では、試料ステージ30上に1個の容器38が載置されている場合を示しているが、試料ステージ30上に載置される容器38の数は1個に限定されず複数個でもよい。 Although FIG. 3 shows a case where the shape of the sample stage 30 in plan view (hereinafter, planar shape) is circular, the planar shape of the sample stage 30 is not limited to circular, and may be rectangular, for example. Further, although FIG. 3 shows the case where the planar shape of the container 38 is circular, the planar shape of the container 38 is not limited to circular. As shown in FIG. 1, the planar shape of the container 38 may be rectangular, for example. 1 and 3 show the case where one container 38 is placed on the sample stage 30, the number of containers 38 placed on the sample stage 30 is limited to one. However, it may be plural.

第1顕微鏡ユニット40は、試料ステージ30の上方に配置されている。第1顕微鏡ユニット40は、第1顕微鏡41と、第1撮像装置45と、試料ステージ30の載置面30aに向けて光を照射する光源(図示せず)とを有する。図2に示すように、第1顕微鏡41は、鏡筒411と、対物レンズ412と、駆動装置414(図3参照)とを有する。第1顕微鏡41は、対物レンズ412が容器38の上方に位置する実体顕微鏡である。第1顕微鏡ユニット40の鏡筒411は、駆動装置414が駆動することによって、Z軸方向に移動する。これにより、第1顕微鏡41は、焦点位置を調節することができる。対物レンズ412は、所望の倍率に合わせて複数種類が用意されていてもよい。第1撮像装置45は、第1顕微鏡41を介して、採取用ピペット10の先端をZ軸方向から撮像することができる。なお、第1顕微鏡ユニット40は、図示しない接眼レンズを備えてもよい。 The first microscope unit 40 is arranged above the sample stage 30. The first microscope unit 40 includes a first microscope 41, a first imaging device 45, and a light source (not shown) that emits light toward the mounting surface 30 a of the sample stage 30. As shown in FIG. 2, the first microscope 41 has a lens barrel 411, an objective lens 412, and a drive device 414 (see FIG. 3). The first microscope 41 is a stereoscopic microscope in which the objective lens 412 is located above the container 38. The lens barrel 411 of the first microscope unit 40 moves in the Z-axis direction when driven by the driving device 414. Thereby, the first microscope 41 can adjust the focus position. A plurality of types of objective lenses 412 may be prepared according to a desired magnification. The first imaging device 45 can image the tip of the sampling pipette 10 from the Z-axis direction via the first microscope 41. The first microscope unit 40 may include an eyepiece lens (not shown).

図1に示す連結部28は、ピペット保持部15をマニピュレータ20に連結している。また、第1顕微鏡ユニット40の鏡筒411は、連結部71によりマニピュレータ20に連結されている。これにより、鏡筒411がZ軸方向へ移動すると、これと一緒にマニピュレータ20、ピペット保持部15及び採取用ピペット10もZ軸方向へ移動する。連結部28、71は、例えば金属製である。連結部28、71は、例えばZ軸テーブル23に取り付けられている。 The connecting portion 28 shown in FIG. 1 connects the pipette holding portion 15 to the manipulator 20. The lens barrel 411 of the first microscope unit 40 is connected to the manipulator 20 by a connecting portion 71. As a result, when the lens barrel 411 moves in the Z-axis direction, the manipulator 20, the pipette holding unit 15, and the sampling pipette 10 also move in the Z-axis direction together with this. The connecting portions 28 and 71 are made of metal, for example. The connecting portions 28 and 71 are attached to the Z-axis table 23, for example.

第2顕微鏡ユニット60は、試料ステージ30の側方に配置されている。第2顕微鏡ユニット60は、第2顕微鏡61と、第2撮像装置65とを有する。図2に示すように、第2顕微鏡61は、鏡筒611と、対物レンズ612と、駆動装置613(図1参照)と、を有する。対物レンズ612は、駆動装置613が駆動することによって、Y軸方向に移動する。これにより、第2顕微鏡61は、焦点位置を調節することができる。第2撮像装置65は、第2顕微鏡61を介して、採取用ピペット10の先端をY軸方向から撮像することができる。第2顕微鏡ユニット60は、固定具3を介して基台1に固定されている。第1撮像装置45及び第2撮像装置65は、例えば、CMOSイメージセンサ又はCCDイメージセンサ等の固体撮像素子を有する。 The second microscope unit 60 is arranged laterally of the sample stage 30. The second microscope unit 60 has a second microscope 61 and a second imaging device 65. As shown in FIG. 2, the second microscope 61 has a lens barrel 611, an objective lens 612, and a drive device 613 (see FIG. 1). The objective lens 612 moves in the Y-axis direction when driven by the driving device 613. Thereby, the second microscope 61 can adjust the focus position. The second imaging device 65 can image the tip of the sampling pipette 10 from the Y-axis direction via the second microscope 61. The second microscope unit 60 is fixed to the base 1 via the fixture 3. The first imaging device 45 and the second imaging device 65 have solid-state imaging elements such as a CMOS image sensor or a CCD image sensor, for example.

第3撮像装置75は、固定具4を介して基台1に固定されている。固定具4は、X軸方向及びY軸方向に動くことができ、Z軸方向に延伸することができる。これにより、第3撮像装置75は、X軸方向、Y軸方向及びZ軸方向とそれぞれ交差する、試料ステージ30の斜め上方向から、試料ステージ30側を撮像することができる。 The third imaging device 75 is fixed to the base 1 via the fixture 4. The fixture 4 can move in the X-axis direction and the Y-axis direction, and can extend in the Z-axis direction. Accordingly, the third imaging device 75 can image the sample stage 30 side from the obliquely upper direction of the sample stage 30 that intersects the X-axis direction, the Y-axis direction, and the Z-axis direction, respectively.

図3に示す入力部58は、キーボードやタッチパネル等である。ジョイスティック57及び入力部58は、コントローラ50に接続されている。オペレータは、ジョイスティック57及び入力部58を介して、コントローラ50にコマンドを入力することができる。 The input unit 58 shown in FIG. 3 is a keyboard, a touch panel, or the like. The joystick 57 and the input unit 58 are connected to the controller 50. The operator can input a command to the controller 50 via the joystick 57 and the input unit 58.

次に、コントローラ50の機能について、図4を参照して説明する。図4は、第1実施形態に係るマニピュレーションシステムの構成例を示すブロック図である。コントローラ50は、演算手段としてのCPU(中央演算処理装置)及び記憶手段としてのハードディスク、RAM(Random Access Memory)、ROM(Read Only Memory)等のハードウェア資源を備える。 Next, the function of the controller 50 will be described with reference to FIG. FIG. 4 is a block diagram showing a configuration example of the manipulation system according to the first embodiment. The controller 50 includes hardware resources such as a CPU (central processing unit) as a calculation unit and a hard disk as a storage unit, a RAM (Random Access Memory), and a ROM (Read Only Memory).

図4に示すように、コントローラ50は、その機能として、画像入力部51a、画像出力部51b、画像処理部52、検出部53、画像編集部54、制御部55及び記憶部56を有する。画像入力部51a、画像出力部51b、画像処理部52、検出部53、画像編集部54及び制御部55は、上記の演算手段により実現される。記憶部56は、上記の記憶手段により実現される。コントローラ50は、記憶部56に格納されたプログラムに基づいて各種の演算を行い、演算結果にしたがって制御部55が各種の制御を行うように駆動信号を出力する。 As shown in FIG. 4, the controller 50 has an image input unit 51a, an image output unit 51b, an image processing unit 52, a detection unit 53, an image editing unit 54, a control unit 55, and a storage unit 56 as its functions. The image input unit 51a, the image output unit 51b, the image processing unit 52, the detection unit 53, the image editing unit 54, and the control unit 55 are realized by the above calculation means. The storage unit 56 is realized by the storage unit described above. The controller 50 performs various calculations based on the programs stored in the storage unit 56, and outputs drive signals so that the control unit 55 performs various controls according to the calculation results.

制御部55は、第1顕微鏡ユニット40の駆動装置414と、マニピュレータ20の駆動装置26、27及び電動マイクロポンプ29と、試料ステージ30の駆動装置36と、第2顕微鏡ユニット60の駆動装置613とを制御する。制御部55は、駆動装置414、26、27、36、613に駆動信号Vz1、Vxy2、Vz2、Vxy3、Vy4(図3参照)をそれぞれ供給する。また、制御部55は、電動マイクロポンプ29に駆動信号Vmp(図3参照)を供給する。なお、制御部55は、必要に応じて設けられたドライバやアンプ等を介して、駆動信号Vz1、Vxy2、Vz2、Vxy3、Vy4、Vmpをそれぞれ供給してもよい。 The control unit 55 includes a drive unit 414 of the first microscope unit 40, drive units 26 and 27 of the manipulator 20 and an electric micropump 29, a drive unit 36 of the sample stage 30, and a drive unit 613 of the second microscope unit 60. To control. The control unit 55 supplies drive signals Vz1, Vxy2, Vz2, Vxy3, Vy4 (see FIG. 3) to the drive devices 414, 26, 27, 36, 613, respectively. The control unit 55 also supplies a drive signal Vmp (see FIG. 3) to the electric micropump 29. The control unit 55 may supply the drive signals Vz1, Vxy2, Vz2, Vxy3, Vy4, and Vmp via drivers and amplifiers provided as necessary.

第1撮像装置45から出力される第1画像信号Vpix1(図3参照)と、第2撮像装置65から出力される第2画像信号Vpix2(図3参照)と、第3撮像装置75から出力される第3画像信号Vpix3(図3参照)は、画像入力部51aにそれぞれ入力される。画像処理部52は、画像入力部51aから第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3を受け取って、画像処理を行う。画像出力部51bは、画像処理部52で画像処理された画像情報を記憶部56及び表示部80へ出力する。 The first image signal Vpix1 (see FIG. 3) output from the first imaging device 45, the second image signal Vpix2 (see FIG. 3) output from the second imaging device 65, and the third imaging device 75 are output. The third image signal Vpix3 (see FIG. 3) is input to the image input unit 51a. The image processing unit 52 receives the first image signal Vpix1, the second image signal Vpix2, and the third image signal Vpix3 from the image input unit 51a, and performs image processing. The image output unit 51b outputs the image information image-processed by the image processing unit 52 to the storage unit 56 and the display unit 80.

例えば、第1画像信号Vpix1には、第1顕微鏡41を通して第1撮像装置45が撮像した第1画像811(図7参照)と、その撮像時刻とが含まれている。第1画像811は動画である。同様に、第2画像信号Vpix2には、第2顕微鏡61を通して第2撮像装置65が撮像した第2画像812(図7参照)と、その撮像時刻とが含まれている。第2画像812も動画である。第3画像信号Vpix3には、第3撮像装置75が撮像した第3画像813(図7参照)と、その撮像時刻とが含まれている。第3画像813も動画である。 For example, the first image signal Vpix1 includes the first image 811 (see FIG. 7) captured by the first image capturing device 45 through the first microscope 41 and the capturing time thereof. The first image 811 is a moving image. Similarly, the second image signal Vpix2 includes the second image 812 (see FIG. 7) captured by the second image capturing device 65 through the second microscope 61 and the capturing time thereof. The second image 812 is also a moving image. The third image signal Vpix3 includes the third image 813 (see FIG. 7) captured by the third image capturing device 75 and the capturing time thereof. The third image 813 is also a moving image.

また、第1画像811、第2画像812及び第3画像813は、それぞれカラー画像又はグレー画像である。グレー画像は、白色及び黒色と、白色と黒色の中間色である灰色を含む画像である。グレー画像は、灰色に複数の階調を有する。階調とは、色や明るさの濃淡の段階数のことである。 The first image 811, the second image 812, and the third image 813 are color images or gray images, respectively. The gray image is an image including white and black and gray which is an intermediate color between white and black. The gray image has a plurality of gray levels in gray. The gradation means the number of gradations of color and brightness.

画像処理部52は、細胞の検出を容易にするために、第1画像811又は第2画像812の少なくとも一方について、画像の拡大や2値化等の画像処理をする。画像の2値化とは、カラー画像又はグレー画像(以下、元画像)を、濃淡がなく、白色と黒色としかない2値画像(binary image)に変換することである。画像処理部52は、第1画像811又は第2画像812の少なくとも一方について、元画像を拡大した拡大画像や、元画像を2値化した2値画像を作成する。また、画像処理部52は、元画像を拡大し、2値化した拡大2値画像を作成してもよい。画像処理部52は、拡大画像、2値画像、拡大2値画像の少なくとも1種類以上を画像情報として、検出部53と画像編集部54とに出力する。 The image processing unit 52 performs image processing such as image enlargement or binarization on at least one of the first image 811 and the second image 812 in order to facilitate detection of cells. The binarization of an image is to convert a color image or a gray image (hereinafter referred to as an original image) into a binary image (binary image) that has no shading and has only white and black. The image processing unit 52 creates, for at least one of the first image 811 and the second image 812, an enlarged image obtained by enlarging the original image and a binary image obtained by binarizing the original image. The image processing unit 52 may enlarge the original image and binarize it to create an enlarged binary image. The image processing unit 52 outputs at least one kind of the enlarged image, the binary image, and the enlarged binary image to the detecting unit 53 and the image editing unit 54 as image information.

検出部53は、画像処理部52から画像情報を受け取り、受け取った画像情報に基づいて、細胞の位置や個数を自動で検出する。そして、検出部53は検出結果を画像編集部54及び制御部55に出力する。なお、本開示において「自動」とは、装置が作業者の判断を介さずに動作することを意味する。 The detection unit 53 receives the image information from the image processing unit 52, and automatically detects the position and number of cells based on the received image information. Then, the detection unit 53 outputs the detection result to the image editing unit 54 and the control unit 55. In the present disclosure, “automatic” means that the device operates without the operator's judgment.

図5は、検出部の構成例を示すブロック図である。図5に示すように、検出部53は、その機能として、位置検出部531と、距離検出部532と、個数検出部533と、輝度検出部534と、しきい値設定部535とを有する。位置検出部531は、画像処理部52によって画像処理された第1画像811又は第2画像812に基づいて、細胞ce(図7参照)の位置を自動で検出する。また、位置検出部531は、画像処理部52によって画像処理された第1画像811又は第2画像812に基づいて、採取用ピペット10の先端部103の位置を検出する。 FIG. 5 is a block diagram showing a configuration example of the detection unit. As shown in FIG. 5, the detection unit 53 has, as its functions, a position detection unit 531, a distance detection unit 532, a number detection unit 533, a brightness detection unit 534, and a threshold value setting unit 535. The position detection unit 531 automatically detects the position of the cell ce (see FIG. 7) based on the first image 811 or the second image 812 image-processed by the image processing unit 52. In addition, the position detection unit 531 detects the position of the tip portion 103 of the sampling pipette 10 based on the first image 811 or the second image 812 image-processed by the image processing unit 52.

距離検出部532は、位置検出部531によって検出された細胞ceと先端部103の開口部103a(後述の図9参照)との離隔距離を自動で検出する。個数検出部533は、画像処理部52によって画像処理された第1画像811又は第2画像812に基づいて、細胞ceの個数を自動で検出する。画像処理部52によって画像処理された画像として、例えば、拡大画像、2値画像及び拡大2値画像の少なくとも1種類以上が挙げられる。位置検出部531、距離検出部532及び個数検出部533の各検出結果は、画像編集部54及び制御部55にそれぞれ出力される。 The distance detection unit 532 automatically detects the separation distance between the cell ce detected by the position detection unit 531 and the opening 103a (see FIG. 9 described later) of the tip 103. The number detection unit 533 automatically detects the number of cells ce based on the first image 811 or the second image 812 image-processed by the image processing unit 52. Examples of the image processed by the image processing unit 52 include at least one kind of an enlarged image, a binary image, and an enlarged binary image. The detection results of the position detection unit 531, the distance detection unit 532, and the number detection unit 533 are output to the image editing unit 54 and the control unit 55, respectively.

輝度検出部534は、画像処理部52によって画像処理された第1画像811に基づいて、第1画像811全体の輝度L−BGを検出する。輝度L−BGは、第1画像811全体における輝度の平均値である。しきい値設定部535は、輝度検出部534によって検出された輝度L−BGに基づいて、しきい値L−THを設定する(図12参照)。しきい値L−THは、画像処理部52が2値画像(バイナリ画像811A(図13参照))を作成する際の輝度の基準値である。輝度L−BG及びしきい値L−THは、例えば、大津の二値化処理によって自動で設定される。 The brightness detection unit 534 detects the brightness L-BG of the entire first image 811 based on the first image 811 image-processed by the image processing unit 52. The brightness L-BG is an average value of brightness in the entire first image 811. The threshold setting unit 535 sets the threshold L-TH based on the brightness L-BG detected by the brightness detecting unit 534 (see FIG. 12). The threshold value L-TH is a reference value of luminance when the image processing unit 52 creates a binary image (binary image 811A (see FIG. 13)). The brightness L-BG and the threshold L-TH are automatically set by, for example, the Otsu binarization process.

画像編集部54は、第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3を、撮像時刻に基づいて互いに関連付けして、編集画像信号Vpix4を作成する。編集画像信号Vpix4には、編集画像が含まれている。編集画像は、互いに同じ時刻に撮像された第1画像811、第2画像812及び第3画像813を並べて表示する動画である。編集画像において、第1画像811、第2画像812及び第3画像813はそれぞれ、元画像でもよいし、元画像を画像処理した拡大画像、2値画像又は拡大2値画像であってもよい。画像出力部51bは、第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3及び編集画像信号Vpix4を記憶部56に出力する。 The image editing unit 54 creates the edited image signal Vpix4 by associating the first image signal Vpix1, the second image signal Vpix2, and the third image signal Vpix3 with each other based on the image capturing time. The edited image signal Vpix4 includes an edited image. The edited image is a moving image in which the first image 811, the second image 812, and the third image 813 captured at the same time are displayed side by side. In the edited image, each of the first image 811, the second image 812, and the third image 813 may be an original image, or may be an enlarged image, a binary image, or an enlarged binary image obtained by performing image processing on the original image. The image output unit 51b outputs the first image signal Vpix1, the second image signal Vpix2, the third image signal Vpix3, and the edited image signal Vpix4 to the storage unit 56.

また、画像編集部54は、検出部53から細胞ceの検出結果を受信する。検出部53が細胞ceの位置を検出した場合、画像編集部54は、その検出結果を編集画像に反映させてもよい。例えば、画像編集部54は、画像処理部52から受け取った拡大画像、2値画像又は拡大2値画像において、検出部53が検出した細胞ceの位置を矢印で自動で示したり、検出部53が検出した細胞の位置を枠線で自動で囲んだりしてもよい。 The image editing unit 54 also receives the detection result of the cell ce from the detection unit 53. When the detection unit 53 detects the position of the cell ce, the image editing unit 54 may reflect the detection result on the edited image. For example, the image editing unit 54 may automatically indicate the position of the cell ce detected by the detecting unit 53 with an arrow in the enlarged image, the binary image, or the enlarged binary image received from the image processing unit 52, or the detecting unit 53 may The detected cell position may be automatically surrounded by a frame line.

図6は、記憶部の構成例を示すブロック図である。図6に示すように、記憶部56は、その機能として、マニピュレーションシステム100を動作させるためのプログラムを記憶したプログラム記憶部56aと、画像信号を記憶する画像記憶部56bとを有する。画像記憶部56bは、第1画像信号Vpix1を記憶する第1画像記憶部561と、第2画像信号Vpix2を記憶する第2画像記憶部562と、第3画像信号Vpix3を記憶する第3画像記憶部563と、編集画像信号Vpix4を記憶する編集画像記憶部564と、基準バイナリ画像103r1(図19参照)を記憶する基準画像記憶部565と、を有する。第1画像記憶部561は、画像処理部52が作成した、拡大画像、2値画像、拡大2値画像の少なくとも1種類以上を一時的に記憶してもよい。 FIG. 6 is a block diagram showing a configuration example of the storage unit. As shown in FIG. 6, the storage unit 56 has, as its functions, a program storage unit 56a that stores a program for operating the manipulation system 100 and an image storage unit 56b that stores an image signal. The image storage unit 56b includes a first image storage unit 561 that stores the first image signal Vpix1, a second image storage unit 562 that stores the second image signal Vpix2, and a third image storage that stores the third image signal Vpix3. It includes a unit 563, an edited image storage unit 564 that stores the edited image signal Vpix4, and a reference image storage unit 565 that stores the reference binary image 103r1 (see FIG. 19). The first image storage unit 561 may temporarily store at least one kind of an enlarged image, a binary image, and an enlarged binary image created by the image processing unit 52.

画像出力部51bは、第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3及び編集画像信号Vpix4のうち、少なくとも1つ以上の画像信号を表示部80に出力する。 The image output unit 51b outputs at least one image signal of the first image signal Vpix1, the second image signal Vpix2, the third image signal Vpix3, and the edited image signal Vpix4 to the display unit 80.

表示部80は、例えば液晶パネル等である。表示部80は、コントローラ50に接続されている。表示部80は、種々の文字情報や画像等を画面に表示する。図7は、表示部の画面の一例を示す図である。図7は、表示部80の画面81に編集画像が表示されている場合を例示している。編集画像では、互いに同じタイミングで撮像された第1画像811、第2画像812、第3画像813が並んで配置されている。表示部80は、編集画像をリアルタイム又はほぼリアルタイムで表示してもよいし、編集画像記憶部564に記憶されている編集画像を読み出して再生表示してもよい。 The display unit 80 is, for example, a liquid crystal panel or the like. The display unit 80 is connected to the controller 50. The display unit 80 displays various character information, images, etc. on the screen. FIG. 7 is a diagram showing an example of the screen of the display unit. FIG. 7 illustrates a case where an edited image is displayed on the screen 81 of the display unit 80. In the edited image, the first image 811, the second image 812, and the third image 813 captured at the same timing are arranged side by side. The display unit 80 may display the edited image in real time or almost in real time, or may read the edited image stored in the edited image storage unit 564 and display it for reproduction.

オペレータがジョイスティック57又は入力部58を操作することによって、画面81に表示される画像を切り替えることが可能である。また、オペレータがジョイスティック57又は入力部58を操作することによって、画面81に表示される編集画像(動画)を一時停止させることが可能である。また、プログラム記憶部56a(図6参照)が記憶しているプログラムに基づいて、制御部55(図4参照)が所定の画像を画面81に自動で表示させたり、画面81に表示される画像を自動で切り替えたりしてもよい。 The operator can operate the joystick 57 or the input section 58 to switch the image displayed on the screen 81. Further, the operator can operate the joystick 57 or the input unit 58 to temporarily stop the edited image (moving image) displayed on the screen 81. Further, based on the program stored in the program storage unit 56a (see FIG. 6), the control unit 55 (see FIG. 4) automatically displays a predetermined image on the screen 81 or an image displayed on the screen 81. May be switched automatically.

また、画面81に表示される画像は、編集画像に限定されることはなく、第1画像811、第2画像812又は第3画像813のみでもよい。また、画面に表示される画像は、元画像に限定されることはなく、画像処理部52によって画像処理された画像(例えば、拡大画像、2値画像及び拡大2値画像の少なくとも1種以上)であってもよい。例えば、画面81に表示される画像は、図11に示すグレースケール画像811Gや、図13等に示すバイナリ画像811Aや、図23等に示す部分領域BBのバイナリ画像814A等であってもよい。 Further, the image displayed on the screen 81 is not limited to the edited image and may be only the first image 811, the second image 812 or the third image 813. Further, the image displayed on the screen is not limited to the original image, and the image processed by the image processing unit 52 (for example, at least one of an enlarged image, a binary image, and an enlarged binary image). May be For example, the image displayed on the screen 81 may be the grayscale image 811G shown in FIG. 11, the binary image 811A shown in FIG. 13 or the like, the binary image 814A of the partial area BB shown in FIG. 23, or the like.

図8は、実施形態1に係る採取用ピペットの構成例を示す側面図である。図8に示すように、採取用ピペット10は、2段に屈曲した形状のガラス針である。具体的には、採取用ピペット10は、平面視で、管状の中央部101と、中央部101の一端に接続する管状の後方部102と、中央部101の他端に接続する管状の先端部103と、を有する。後方部102は、ピペット保持部15によって保持される側の部位である。先端部103は、細胞等の微小対象物を採取する側の部位である。 FIG. 8 is a side view showing a configuration example of the sampling pipette according to the first embodiment. As shown in FIG. 8, the sampling pipette 10 is a glass needle that is bent in two stages. Specifically, the collecting pipette 10 is, in plan view, a tubular central portion 101, a tubular rear portion 102 connected to one end of the central portion 101, and a tubular tip portion connected to the other end of the central portion 101. And 103. The rear part 102 is a part on the side held by the pipette holding part 15. The tip portion 103 is a portion on the side where a minute object such as a cell is collected.

中央部101と後方部102との間には第1屈曲部104が存在する。中央部101と先端部103との間には第2屈曲部105が存在する。中央部101の長手方向と後方部102の長手方向は互いに交差している。中央部101の長手方向と先端部103の長手方向も互いに交差している。後方部102の長手方向と先端部103の長手方向は互いに平行又はほぼ平行である。例えば、中央部101の長手方向と後方部102の長手方向とが成す鈍角の角度(以下、第1屈曲部104の屈曲角度)をθ1とする。中央部101の長手方向と先端部103の長手方向とが成す鈍角の角度(以下、第2屈曲部105の屈曲角度)をθ2とする。第1屈曲部104の屈曲角度θ1と第2屈曲部105の屈曲角度θ2との差の絶対値|θ1−θ2|は、0°以上5°未満である。 A first bent portion 104 exists between the central portion 101 and the rear portion 102. A second bent portion 105 exists between the central portion 101 and the tip portion 103. The longitudinal direction of the central portion 101 and the longitudinal direction of the rear portion 102 intersect each other. The longitudinal direction of the central portion 101 and the longitudinal direction of the tip portion 103 also intersect each other. The longitudinal direction of the rear part 102 and the longitudinal direction of the tip part 103 are parallel or substantially parallel to each other. For example, an obtuse angle formed by the longitudinal direction of the central portion 101 and the longitudinal direction of the rear portion 102 (hereinafter, the bending angle of the first bending portion 104) is θ1. An obtuse angle formed by the longitudinal direction of the central portion 101 and the longitudinal direction of the tip portion 103 (hereinafter, the bending angle of the second bending portion 105) is θ2. The absolute value |θ1-θ2| of the difference between the bending angle θ1 of the first bending portion 104 and the bending angle θ2 of the second bending portion 105 is 0° or more and less than 5°.

また、中央部101の長手方向の長さをL1とし、後方部102の長手方向の長さをL2とし、先端部103の長手方向の長さをL3としたとき、L3<L1、かつ、L3<L2である。これによれば、採取用ピペット10の先端部である先端部103を容器38内に配置することが容易である。 When the length of the central portion 101 in the longitudinal direction is L1, the length of the rear portion 102 in the longitudinal direction is L2, and the length of the tip portion 103 in the longitudinal direction is L3, L3<L1 and L3 <L2. According to this, it is easy to dispose the tip portion 103, which is the tip portion of the sampling pipette 10, in the container 38.

中央部101を、中央部101の長手方向と直交する平面で切断した形状は円形である。同様に、後方部102を、後方部102の長手方向と直交する平面で切断した形状は円形である。先端部103を、先端部103の長手方向と直交する平面で切断した形状は円形である。後方部102の外径をφ21とし、先端部103の外径をφ31としたとき、φ21>φ31である。また、中央部101の外径φ11は、第1屈曲部104の側から第2屈曲部105の側に向かって小さくなっている。 The shape obtained by cutting the central portion 101 along a plane orthogonal to the longitudinal direction of the central portion 101 is circular. Similarly, the shape obtained by cutting the rear portion 102 along a plane orthogonal to the longitudinal direction of the rear portion 102 is circular. The shape obtained by cutting the tip portion 103 along a plane orthogonal to the longitudinal direction of the tip portion 103 is circular. When the outer diameter of the rear portion 102 is φ21 and the outer diameter of the tip portion 103 is φ31, φ21>φ31. In addition, the outer diameter φ11 of the central portion 101 decreases from the first bent portion 104 side toward the second bent portion 105 side.

例えば、中央部101は、第1屈曲部104と第2屈曲部105との間に、外径が大きく変化する狭窄部106を有する。中央部101において、狭窄部106と第1屈曲部104との間に位置する第1部位101aよりも、狭窄部106と第2屈曲部105との間に位置する第2部位101bの方が、外径φ11が小さい。また、第2部位101bの長手方向の長さL1’は、先端部103の長手方向の長さL3よりも長い。 For example, the central portion 101 has a narrowed portion 106 having a large change in outer diameter between the first bent portion 104 and the second bent portion 105. In the central portion 101, the second portion 101b located between the narrowed portion 106 and the second bent portion 105 is smaller than the first portion 101a located between the narrowed portion 106 and the first bent portion 104. The outer diameter φ11 is small. The length L1' in the longitudinal direction of the second portion 101b is longer than the length L3 in the longitudinal direction of the tip portion 103.

図9は、第1実施形態に係る採取用ピペットの先端部を拡大して示す図である。図9に示すように、先端部103の先端には開口部103aが設けられている。開口部103aと第2屈曲部105との間で、先端部103の内径φ32の大きさはほぼ一定である。採取用ピペット10の採取対象である細胞ceの直径をφceとしたとき、φ32はφceよりも数μm程度大きいことが好ましい。これにより、採取用ピペット10は、細胞ceを先端部103の内部に導入することができる。 FIG. 9 is an enlarged view showing the tip of the sampling pipette according to the first embodiment. As shown in FIG. 9, an opening 103a is provided at the tip of the tip 103. Between the opening 103a and the second bent portion 105, the size of the inner diameter φ32 of the tip portion 103 is substantially constant. When the diameter of the cell ce to be collected by the collection pipette 10 is φce, φ32 is preferably larger than φce by about several μm. As a result, the collection pipette 10 can introduce the cells ce into the tip portion 103.

採取用ピペット10の内側には、表面処理が施されている。例えば、採取用ピペット10の内周面は、ポリビニルピロリドン(以下、PVP(Polyvinylpyrrolidone))によりコーティングされる。採取用ピペット10の内周面をコーティングする際には、例えば、PVP溶液内に採取用ピペット10を浸け、複数回吸引と吐出とを繰り返す。その後、液体39(図7参照)の中で複数回吸引と吐出とを繰り返すことで、すすぎを行う。これにより、採取用ピペット10の内周面がPVP溶液によりコーティングされる。これにより、マニピュレーションシステム100は、細胞ceの採取の際に、細胞ceが採取用ピペット10の内側に付着することを抑制できる。 The inside of the sampling pipette 10 is surface-treated. For example, the inner peripheral surface of the sampling pipette 10 is coated with polyvinylpyrrolidone (hereinafter, PVP (Polyvinylpyrrolidone)). When coating the inner peripheral surface of the sampling pipette 10, for example, the sampling pipette 10 is immersed in the PVP solution, and suction and discharge are repeated a plurality of times. Then, rinsing is performed by repeating suction and discharge a plurality of times in the liquid 39 (see FIG. 7). As a result, the inner peripheral surface of the sampling pipette 10 is coated with the PVP solution. As a result, the manipulation system 100 can prevent the cells ce from adhering to the inside of the sampling pipette 10 when the cells ce are collected.

次に、マニピュレーションシステム100の採取用ピペット10の検出動作について説明する。図10は、第1実施形態に係るマニピュレーションシステムの、採取用ピペットを検出する検出シーケンスの一例を示すフローチャートである。 Next, the detection operation of the sampling pipette 10 of the manipulation system 100 will be described. FIG. 10 is a flowchart showing an example of a detection sequence for detecting the sampling pipette of the manipulation system according to the first embodiment.

図10に示す動作シーケンスでは、容器38は液体39と複数個の細胞ceとを収容している(図7参照)。図10に示すように、マニピュレーションシステム100は、第1顕微鏡41の焦点を採取用ピペット10の先端部103に自動で合わせる(ステップST11)。例えば、オペレータはジョイスティック57又は入力部58(図3参照)を操作して、コントローラ50(図3参照)に細胞ceの自動検出を実行するように指示する。 In the operation sequence shown in FIG. 10, the container 38 contains the liquid 39 and a plurality of cells ce (see FIG. 7). As shown in FIG. 10, the manipulation system 100 automatically focuses the first microscope 41 on the tip 103 of the sampling pipette 10 (step ST11). For example, the operator operates the joystick 57 or the input unit 58 (see FIG. 3) to instruct the controller 50 (see FIG. 3) to automatically detect the cells ce.

この指示を受けて、コントローラ50の制御部55(図3参照)は、駆動装置414に駆動信号Vz1(図3参照)を出力して、対物レンズ412をZ軸方向に動かす。これにより、第1顕微鏡ユニット40は、第1顕微鏡41の焦点を採取用ピペット10の先端部103に合わせる。 In response to this instruction, the controller 55 (see FIG. 3) of the controller 50 outputs the drive signal Vz1 (see FIG. 3) to the drive device 414 to move the objective lens 412 in the Z-axis direction. As a result, the first microscope unit 40 focuses the first microscope 41 on the tip portion 103 of the sampling pipette 10.

次に、第1撮像装置45は、第1顕微鏡41を介して第1画像811を撮像する。画像処理部52は、第1画像811の情報である第1画像信号Vpix1を受け取って、第1画像811から輝度のパラメータのみを抽出した画像(グレースケール画像811G)に変換する(ステップST12)。これにより、画像処理部52が行う画像処理の負荷を抑制することができ、2値化処理や拡大処理等を良好に行うことができる。 Next, the first imaging device 45 captures the first image 811 via the first microscope 41. The image processing unit 52 receives the first image signal Vpix1 that is the information of the first image 811, and converts the first image signal Vpix1 into an image (grayscale image 811G) in which only the brightness parameter is extracted from the first image 811 (step ST12). Thereby, the load of the image processing performed by the image processing unit 52 can be suppressed, and the binarization processing, the enlargement processing, and the like can be favorably performed.

図11は、第1画像を輝度のみで表示したグレースケール画像の一例を示す模式図である。図11に示すように、第1顕微鏡41の焦点が採取用ピペット10に合うとき、採取用ピペット10の先端部103は容器38の内部に位置する。グレースケール画像811Gには、多数の細胞ceと、採取用ピペット10の先端部103が撮像されている。先端部103は、液体が存在する液層109と、液体が存在しない空気層108とを有する。 FIG. 11 is a schematic diagram showing an example of a grayscale image in which the first image is displayed only with luminance. As shown in FIG. 11, when the focus of the first microscope 41 is on the sampling pipette 10, the tip 103 of the sampling pipette 10 is located inside the container 38. A large number of cells ce and the tip portion 103 of the sampling pipette 10 are imaged in the grayscale image 811G. The tip portion 103 has a liquid layer 109 in which liquid is present and an air layer 108 in which liquid is not present.

次に、輝度検出部534及びしきい値設定部535(図5参照)は、輝度のしきい値L−THを設定する(ステップST13)。 Next, the brightness detection unit 534 and the threshold setting unit 535 (see FIG. 5) set the brightness threshold L-TH (step ST13).

輝度検出部534は、グレースケール画像811G全体の輝度L−BG(図12参照)を検出する。輝度L−BGは、グレースケール画像811G全体の輝度の平均値である。しきい値設定部535は、輝度検出部534が検出した輝度L−BGの情報を受け取って、しきい値L−THを設定する。輝度L−BG及びしきい値L−THは、例えば、大津の二値化処理によって自動で設定される。 The brightness detection unit 534 detects the brightness L-BG (see FIG. 12) of the entire grayscale image 811G. The brightness L-BG is an average value of the brightness of the entire gray scale image 811G. The threshold setting unit 535 receives the information of the brightness L-BG detected by the brightness detection unit 534 and sets the threshold L-TH. The brightness L-BG and the threshold L-TH are automatically set by, for example, the Otsu binarization process.

図12は、細胞及び採取用ピペットの輝度の分布を模式的に示すグラフである。図12は、図11に示すXII−XII’に沿った輝度の分布を模式的に示している。図12に示すように、しきい値設定部535は、グレースケール画像811G全体の輝度L−BGをしきい値L−THとして設定している。ただし、これに限定されず、しきい値L−THは背景の輝度L−BGと異なる輝度であってもよい。このように、しきい値設定部535が自動的にしきい値L−THを設定することにより、第1顕微鏡41の視野中の輝度が、測定環境等により変化した場合でも、マニピュレーションシステム100は、良好に採取用ピペット10の暗部T−a及び明部T−bを検出することができる。すなわち、マニピュレーションシステム100は、環境の変化に対するロバスト性を向上させることができる。 FIG. 12 is a graph schematically showing the distribution of brightness of cells and a pipette for collection. FIG. 12 schematically shows the luminance distribution along XII-XII′ shown in FIG. As shown in FIG. 12, the threshold setting unit 535 sets the brightness L-BG of the entire gray scale image 811G as the threshold L-TH. However, the present invention is not limited to this, and the threshold value L-TH may be a brightness different from the background brightness L-BG. In this way, the threshold setting unit 535 automatically sets the threshold L-TH, so that even if the brightness in the field of view of the first microscope 41 changes due to the measurement environment or the like, the manipulation system 100 can: The dark portion T-a and the light portion T-b of the sampling pipette 10 can be satisfactorily detected. That is, the manipulation system 100 can improve robustness against changes in the environment.

第1顕微鏡41で観察される細胞ceには、光源から照射される光の状態に応じて影が生じる。このため、1つの細胞ceは、暗部ce−aと、明部ce−bとを有する。暗部ce−aは背景の輝度L−BGよりも小さい輝度を有する。明部ce−bは背景の輝度L−BGよりも大きい輝度を有する。また、採取用ピペット10の先端部103は、図11に示すように、空気層108に対応する明部T−bと、空気層108を挟むガラス管の部分に対応する暗部T−aと、を有する。明部T−bは暗部T−aよりも大きい輝度を有し、暗部T−aでは、しきい値L−TH(輝度L−BG)よりも小さい輝度を有する。 The cell ce observed by the first microscope 41 has a shadow depending on the state of the light emitted from the light source. Therefore, one cell ce has a dark portion ce-a and a light portion ce-b. The dark portion ce-a has a luminance smaller than the background luminance L-BG. The bright portion ce-b has a luminance higher than the background luminance L-BG. Further, as shown in FIG. 11, the tip portion 103 of the sampling pipette 10 has a bright portion T-b corresponding to the air layer 108 and a dark portion T-a corresponding to the glass tube portion sandwiching the air layer 108. Have. The bright portion T-b has a higher luminance than the dark portion T-a, and the dark portion T-a has a lower luminance than the threshold value L-TH (luminance L-BG).

次に、画像処理部52は、しきい値L−THの情報を受け取って、グレースケール画像811Gの画像処理を行う。具体的には、画像処理部52は、グレースケール画像811Gからしきい値L−TH以下の輝度の部分を抽出して、バイナリ画像811Aを作成する(ステップST14)。図13は、バイナリ画像の一例を示す模式図である。図13に示すように、バイナリ画像811Aにおいて、細胞ceのうち、しきい値L−TH以下の輝度を有する暗部ce−aが白表示となり、しきい値L−THよりも大きい輝度を有する明部ce−b及び背景が黒表示となる。また、採取用ピペット10の先端部103において、しきい値L−TH以下の輝度を有する暗部T−aが白表示となり、空気層108及び液層109の明部T−bが黒表示となる。つまり、バイナリ画像811Aは、反転画像として作成される。 Next, the image processing unit 52 receives the information of the threshold value L-TH and performs image processing of the grayscale image 811G. Specifically, the image processing unit 52 creates a binary image 811A by extracting a portion having a luminance equal to or lower than the threshold value L-TH from the gray scale image 811G (step ST14). FIG. 13 is a schematic diagram showing an example of a binary image. As shown in FIG. 13, in the binary image 811A, in the cell ce, the dark portion ce-a having the luminance equal to or lower than the threshold L-TH is displayed in white, and the light having the luminance higher than the threshold L-TH is displayed. The part ce-b and the background are displayed in black. Further, at the tip portion 103 of the sampling pipette 10, the dark portion T-a having the brightness equal to or lower than the threshold value L-TH is displayed in white, and the bright portion T-b of the air layer 108 and the liquid layer 109 is displayed in black. .. That is, the binary image 811A is created as a reverse image.

なお、以下の説明では、採取用ピペット10の2つの暗部T−aから形成される部分を検出部分103gと表す。一方の暗部T−aと他方の暗部T−aは、空気層108及び液層109に対応する明部T−bを挟んで配置される。 In the following description, the portion formed by the two dark portions Ta of the sampling pipette 10 will be referred to as the detection portion 103g. The one dark portion T-a and the other dark portion T-a are arranged so as to sandwich the bright portion T-b corresponding to the air layer 108 and the liquid layer 109.

次に、画像処理部52は、細胞ceの暗部ce−aの形状を補完する(ステップST15)。図14は、図13に示す領域A2の細胞の暗部を拡大して示す模式図である。図15は、図14に示す細胞の暗部の形状を補完する処理を説明するための模式図である。図16は、暗部の形状を補完する処理を行ったバイナリ画像を示す模式図である。具体的には、図14に示すように、画像処理部52は、複数の細胞ceの暗部ce−aのうち、外周に凹部ce−xを有する暗部ce−aを抽出する。凹部ce−xを有する暗部ce−aと、凹部ce−xを有さない暗部ce−aとの判定は、ヘイウッドの円形ファクターに基づいて行うことができる。 Next, the image processing unit 52 complements the shape of the dark portion ce-a of the cell ce (step ST15). FIG. 14 is a schematic diagram showing an enlarged dark portion of cells in the area A2 shown in FIG. FIG. 15 is a schematic diagram for explaining the process of complementing the shape of the dark part of the cell shown in FIG. FIG. 16 is a schematic diagram showing a binary image that has been subjected to a process of complementing the shape of a dark part. Specifically, as shown in FIG. 14, the image processing unit 52 extracts, from the dark portions ce-a of the plurality of cells ce, the dark portion ce-a having the concave portion ce-x on the outer periphery. The determination of the dark portion ce-a having the concave portion ce-x and the dark portion ce-a having no concave portion ce-x can be made based on the Haywood circular factor.

図15に示すように、画像処理部52は、暗部ce−aの凹部ce−xを埋めるように、暗部ce−aの形状を補完する。これにより、複数の暗部ce−aの外径形状が、凹部ce−xを有さない滑らかな形状となる。図15には、3つの暗部ce−aを示したが、図16に示すように、画像処理部52は、バイナリ画像811Aに含まれる全ての暗部ce−aに対して、凹部ce−xを埋めるように、暗部ce−aの形状を補完する。 As illustrated in FIG. 15, the image processing unit 52 complements the shape of the dark portion ce-a so as to fill the concave portion ce-x of the dark portion ce-a. As a result, the outer diameter shape of the plurality of dark portions ce-a becomes a smooth shape having no concave portions ce-x. Although FIG. 15 shows three dark portions ce-a, as shown in FIG. 16, the image processing unit 52 forms the concave portions ce-x with respect to all the dark portions ce-a included in the binary image 811A. The shape of the dark portion ce-a is complemented so as to be filled.

次に、画像処理部52は、細胞ceの暗部ce−aをバイナリ画像811Aから除去する(ステップST16)。図17は、細胞の暗部を除去したバイナリ画像を示す模式図である。図17に示すように、画像処理部52は、細胞ceを示す小さい丸い形状の暗部ce−a(図16参照)をバイナリ画像811Aから除去する。これにより、バイナリ画像811Aには、採取用ピペット10の検出部分103gのみが表示される。なお、図17において、2つの暗部T−aの間に示される暗部は、空気層108と液層109との界面109aに対応する。 Next, the image processing unit 52 removes the dark portion ce-a of the cell ce from the binary image 811A (step ST16). FIG. 17 is a schematic diagram showing a binary image in which dark areas of cells are removed. As illustrated in FIG. 17, the image processing unit 52 removes a small round dark portion ce-a (see FIG. 16) indicating the cell ce from the binary image 811A. As a result, only the detection portion 103g of the sampling pipette 10 is displayed on the binary image 811A. Note that, in FIG. 17, the dark portion shown between the two dark portions T-a corresponds to the interface 109 a between the air layer 108 and the liquid layer 109.

画像処理部52は、バイナリ画像811Aから小さい暗部ce−aを除去することにより、採取用ピペット10と重なって検出された暗部ce−aも除去される。これにより、マニピュレーションシステム100は、採取用ピペット10と重なる細胞ceや、採取用ピペット10と近接する細胞ceを、採取用ピペット10の一部として誤検出することを抑制できる。したがって、マニピュレーションシステム100は、細胞ceの存在に起因して、採取用ピペット10の位置や形状の誤差が生じることを抑制することができる。 The image processing unit 52 removes the small dark portion ce-a from the binary image 811A, so that the dark portion ce-a detected overlapping with the sampling pipette 10 is also removed. Thereby, the manipulation system 100 can suppress erroneous detection of the cells ce overlapping the sampling pipette 10 or the cells ce adjacent to the sampling pipette 10 as a part of the sampling pipette 10. Therefore, the manipulation system 100 can suppress the occurrence of an error in the position or shape of the sampling pipette 10 due to the presence of the cells ce.

また、画像処理部52は、あらかじめ、暗部ce−aの形状を補完する処理を行っているので、暗部ce−aの形状のばらつきが小さくなる。このため、画像処理部52は、バイナリ画像811Aから、確実に暗部ce−aを抽出して除去することができる。 Further, since the image processing unit 52 performs a process of complementing the shape of the dark portion ce-a in advance, the variation in the shape of the dark portion ce-a becomes small. Therefore, the image processing unit 52 can reliably extract and remove the dark portion ce-a from the binary image 811A.

次に、画像処理部52は、バイナリ画像811Aにおいて、採取用ピペット10の検出部分103gを拡大する(ステップST17)。図18は、採取用ピペットの検出部分を拡大したバイナリ画像を示す模式図である。図18に示すように、画像処理部52は、バイナリ画像811Aにおいて、採取用ピペット10の複数の暗部T−aをそれぞれ拡大する。これにより、採取用ピペット10の空気層108及び液層109に対応する明部T−bを挟んで配置された2つの暗部T−aが1つにつながる。 Next, the image processing unit 52 enlarges the detection portion 103g of the sampling pipette 10 in the binary image 811A (step ST17). FIG. 18 is a schematic diagram showing a binary image in which the detection portion of the sampling pipette is enlarged. As illustrated in FIG. 18, the image processing unit 52 magnifies the plurality of dark portions Ta of the sampling pipette 10 in the binary image 811A. As a result, the two dark portions T-a arranged with the bright portion T-b corresponding to the air layer 108 and the liquid layer 109 of the sampling pipette 10 interposed therebetween are connected.

図18に示すバイナリ画像811Aにおいて、図17に示す検出部分103gから、空気層108と液層109との界面109aが除去される。このため、マニピュレーションシステム100は、採取用ピペット10の内部の界面109aの位置がどこにあった場合でも、暗部T−aのみに基づいて採取用ピペット10を検出することができる。したがって、マニピュレーションシステム100は、界面109aの位置の違いに起因する、採取用ピペット10の誤検出を抑制することができる。 In the binary image 811A shown in FIG. 18, the interface 109a between the air layer 108 and the liquid layer 109 is removed from the detection portion 103g shown in FIG. Therefore, the manipulation system 100 can detect the sampling pipette 10 based on only the dark portion T-a wherever the position of the interface 109a inside the sampling pipette 10 is. Therefore, the manipulation system 100 can suppress erroneous detection of the sampling pipette 10 due to the difference in the position of the interface 109a.

拡大された暗部T−aは、拡大前の暗部T−aに対して、面積比で6倍程度に拡大される。また、拡大された暗部T−aの重心位置は、それぞれ、拡大前の暗部T−aの重心位置と一致している。なお、暗部T−aの拡大倍率は、採取用ピペット10の形状、大きさ(ガラス管の厚さ)、しきい値L−THあるいは観察環境に応じて適宜設定することができる。 The enlarged dark portion T-a is enlarged about 6 times in area ratio with respect to the dark portion T-a before the enlargement. In addition, the barycentric position of the enlarged dark portion T-a matches the barycentric position of the dark portion T-a before the enlargement. The magnification of the dark portion T-a can be appropriately set according to the shape and size of the sampling pipette 10 (glass tube thickness), the threshold value L-TH, or the observation environment.

次に、位置検出部531は、図18に示すバイナリ画像811Aの画像情報を受け取って、検出部分103gの画像と基準バイナリ画像を比較して採取用ピペット10の位置を検出する(ステップST18)。図19は、基準バイナリ画像の一例を示す模式図である。基準バイナリ画像103r1は、標準的な採取用ピペット10について、上述したステップST11からステップST17と同様の画像処理を施した場合のバイナリ画像である。基準バイナリ画像103r1は記憶部56の基準画像記憶部565にあらかじめ記憶される。また、記憶部56は、採取用ピペット10の種類ごとに、複数の基準バイナリ画像103r1を保持していてもよい。 Next, the position detection unit 531 receives the image information of the binary image 811A shown in FIG. 18, compares the image of the detection portion 103g with the reference binary image, and detects the position of the sampling pipette 10 (step ST18). FIG. 19 is a schematic diagram showing an example of the reference binary image. The reference binary image 103r1 is a binary image when the same image processing as that in steps ST11 to ST17 described above is performed on the standard sampling pipette 10. The reference binary image 103r1 is stored in the reference image storage unit 565 of the storage unit 56 in advance. Further, the storage unit 56 may hold a plurality of reference binary images 103r1 for each type of the sampling pipette 10.

位置検出部531は、例えばテンプレートマッチングや形状マッチングにより、バイナリ画像811Aの検出部分103gと基準バイナリ画像103r1とを比較する。そして、位置検出部531は、検出部分103gと、基準バイナリ画像103r1との類似度を演算する。位置検出部531は、類似度が所定の基準値以上の検出部分103gの位置を検出する。 The position detection unit 531 compares the detection portion 103g of the binary image 811A with the reference binary image 103r1 by, for example, template matching or shape matching. Then, the position detection unit 531 calculates the degree of similarity between the detection portion 103g and the reference binary image 103r1. The position detection unit 531 detects the position of the detection portion 103g whose degree of similarity is equal to or higher than a predetermined reference value.

図20は、採取用ピペットの検出結果を表示する第1画像の一例を示す模式図である。図20に示すように、画像編集部54は、第1画像811において、画像処理部52から受け取った第1画像811と、検出部53から受け取った検出結果に基づいて、採取用ピペット10を含む部分領域BBを境界ボックスで囲んで示している。 FIG. 20 is a schematic diagram showing an example of the first image displaying the detection result of the sampling pipette. As shown in FIG. 20, the image editing unit 54 includes the sampling pipette 10 in the first image 811 based on the first image 811 received from the image processing unit 52 and the detection result received from the detection unit 53. The partial area BB is shown surrounded by a bounding box.

なお、位置検出部531は、画像編集部54から境界ボックスの情報を受け取る。位置検出部531は、境界ボックスが所定の大きさよりも小さい場合、例えば境界ボックスの一辺が20ピクセルよりも小さい場合、採取用ピペット10が非検出状態であるという検出結果を画像処理部52及び制御部55に出力する。採取用ピペット10が非検出の場合、画像処理部52は、検出結果に基づいて画像処理を終了する。 The position detection unit 531 receives the information about the bounding box from the image editing unit 54. When the bounding box is smaller than a predetermined size, for example, when one side of the bounding box is smaller than 20 pixels, the position detecting unit 531 controls the image processing unit 52 and the control unit to detect the detection result indicating that the sampling pipette 10 is in the non-detecting state. It is output to the unit 55. When the sampling pipette 10 is not detected, the image processing unit 52 ends the image processing based on the detection result.

なお、図10及び図11から図20に示す検出動作は、適宜変更することができる。例えば、図10に示すステップST15及び図14から図16において、画像処理部52は、細胞ceの暗部ce−aの形状を補完する処理を省略して、所定の面積よりも小さい暗部ce−aをバイナリ画像811Aから除去してもよい。 The detection operation shown in FIGS. 10 and 11 to 20 can be changed as appropriate. For example, in step ST15 shown in FIG. 10 and FIGS. 14 to 16, the image processing unit 52 omits the process of complementing the shape of the dark portion ce-a of the cell ce, and the dark portion ce-a smaller than the predetermined area. May be removed from the binary image 811A.

以上説明したように、第1実施形態に係るマニピュレーションシステム100は、採取用ピペット10(管状器具)を用いて細胞ce(微小対象物)を採取するマニピュレーションシステム100であって、採取用ピペット10と、マニピュレータ20と、試料ステージ30と、第1顕微鏡41と、第1撮像装置45と、コントローラ50と、を備える。マニピュレータ20は、採取用ピペット10が取り付けられる。試料ステージ30は、細胞ceを収容するための容器38が載置される。第1顕微鏡41は、試料ステージ30の上方に配置される。第1撮像装置45は、第1顕微鏡41を介して第1画像811を撮像する。コントローラ50は、画像処理部52と、位置検出部531とを有する。画像処理部52は、第1画像811に基づいて、しきい値L−TH以下の輝度を有する暗部T−aを表示するバイナリ画像811A(第1バイナリ画像)を作成する。位置検出部531は、バイナリ画像811Aに基づいて採取用ピペット10の位置を検出する。 As described above, the manipulation system 100 according to the first embodiment is a manipulation system 100 that collects cells ce (microscopic objects) using the collection pipette 10 (tubular instrument). The manipulator 20, the sample stage 30, the first microscope 41, the first imaging device 45, and the controller 50 are provided. The sampling pipette 10 is attached to the manipulator 20. A container 38 for containing the cells ce is placed on the sample stage 30. The first microscope 41 is arranged above the sample stage 30. The first imaging device 45 captures the first image 811 via the first microscope 41. The controller 50 has an image processing unit 52 and a position detection unit 531. The image processing unit 52 creates, based on the first image 811, a binary image 811A (first binary image) that displays the dark portion T-a having a luminance equal to or lower than the threshold value L-TH. The position detection unit 531 detects the position of the sampling pipette 10 based on the binary image 811A.

これによれば、マニピュレーションシステム100は、バイナリ画像811Aに基づいて、採取用ピペット10以外の細胞ce等の検出部分を除去する等の画像処理を容易に行うことができる。また、マニピュレーションシステム100は、バイナリ画像811Aに基づいて、エッジ検出やパターンマッチングを行うことにより、良好に管状器具の位置を検出することができる。 According to this, the manipulation system 100 can easily perform image processing such as removing the detection portion of the cells ce and the like other than the sampling pipette 10 based on the binary image 811A. Further, the manipulation system 100 can satisfactorily detect the position of the tubular instrument by performing edge detection and pattern matching based on the binary image 811A.

また、コントローラ50は、採取用ピペット10の基準バイナリ画像103r1を記憶する記憶部56を有する。位置検出部531は、バイナリ画像811Aにおいて採取用ピペット10の暗部T−aから形成される検出部分103gと、基準バイナリ画像103r1とを比較して、採取用ピペット10を検出する。これによれば、マニピュレーションシステム100は、第1画像811に撮像された細胞ceや、採取用ピペット10の内部の液層109の影響を抑制して、採取用ピペット10の位置を良好に検出することができる。 The controller 50 also includes a storage unit 56 that stores the reference binary image 103r1 of the sampling pipette 10. The position detection unit 531 detects the sampling pipette 10 by comparing the detection portion 103g formed from the dark portion Ta of the sampling pipette 10 in the binary image 811A with the reference binary image 103r1. According to this, the manipulation system 100 suppresses the influence of the cells ce imaged in the first image 811 and the liquid layer 109 inside the sampling pipette 10 and detects the position of the sampling pipette 10 well. be able to.

また、コントローラ50は、しきい値設定部535を有する。しきい値設定部535は、第1画像811全体の輝度L−BGに基づいてしきい値L−THを設定する。これによれば、第1顕微鏡41の視野中の輝度が、測定環境等により変化した場合でも、マニピュレーションシステム100は、良好に暗部T−aを検出することができる。すなわち、マニピュレーションシステム100は、環境の変化に対するロバスト性を向上させることができる。 The controller 50 also has a threshold value setting unit 535. The threshold setting unit 535 sets the threshold L-TH based on the brightness L-BG of the entire first image 811. According to this, even when the brightness in the field of view of the first microscope 41 changes due to the measurement environment or the like, the manipulation system 100 can detect the dark portion Ta well. That is, the manipulation system 100 can improve robustness against changes in the environment.

また、画像処理部52は、第1画像811を輝度のみで表示したグレースケール画像811Gに変換し、グレースケール画像811Gに基づいてバイナリ画像811Aを作成する。これによれば、カラー画像を用いる場合に比べて、画像処理部52が行う画像処理の負荷を抑制することができる。 In addition, the image processing unit 52 converts the first image 811 into a grayscale image 811G that is displayed only with luminance, and creates a binary image 811A based on the grayscale image 811G. According to this, the load of the image processing performed by the image processing unit 52 can be suppressed as compared with the case of using a color image.

また、画像処理部52は、バイナリ画像811Aにおいて、検出部分103gを拡大することで、採取用ピペット10の内部の空間に対応する領域を挟んで配置された2つの暗部T−aを1つにつなげる。これによれば、マニピュレーションシステム100は、採取用ピペット10の内部の液層109と空気層108との界面109aの位置の違い起因する誤検出を抑制することができる。 In addition, the image processing unit 52 enlarges the detection portion 103g in the binary image 811A, thereby bringing together two dark portions T-a arranged across the region corresponding to the space inside the sampling pipette 10. Connect. According to this, the manipulation system 100 can suppress erroneous detection due to the difference in position of the interface 109a between the liquid layer 109 and the air layer 108 inside the sampling pipette 10.

また、画像処理部52は、細胞ceを示す暗部ce−aをバイナリ画像811Aから除去する。これによれば、マニピュレーションシステム100は、細胞ceの存在に起因する、採取用ピペット10の誤検出を抑制することができる。 The image processing unit 52 also removes the dark portion ce-a indicating the cell ce from the binary image 811A. According to this, the manipulation system 100 can suppress erroneous detection of the sampling pipette 10 due to the presence of the cells ce.

(第2実施形態)
図21は、第2実施形態に係るマニピュレーションシステムの、採取用ピペットの形状を検出する検出シーケンスの一例を示すフローチャートである。第2実施形態において、画像処理部52は、図20に示す第1画像811から、採取用ピペット10を含む部分領域BBを切り取ったピペット画像を作成する(ステップST21)。この場合、画像処理部52は、図20に示す境界ボックスよりも大きい領域を部分領域BBとしてもよい。例えば、画像処理部52は、図20に示す境界ボックスからY軸方向の一方に10ピクセル分拡大し、Y軸方向の他方に10ピクセル分拡大した領域を部分領域BBとしてもよい。
(Second embodiment)
FIG. 21 is a flow chart showing an example of a detection sequence for detecting the shape of the sampling pipette in the manipulation system according to the second embodiment. In the second embodiment, the image processing unit 52 creates a pipette image by cutting out the partial region BB including the sampling pipette 10 from the first image 811 shown in FIG. 20 (step ST21). In this case, the image processing unit 52 may set the area larger than the bounding box shown in FIG. 20 as the partial area BB. For example, the image processing unit 52 may expand the boundary box shown in FIG. 20 by 10 pixels in one direction in the Y-axis direction and expand it by 10 pixels in the other direction in the Y-axis direction as the partial area BB.

次に、画像処理部52は、切り取ったピペット画像について、第1実施形態のステップST12及びステップST14からステップST15と同様の画像処理を行う。このため、上述した画像処理と同様の処理については、詳細な説明を省略する。 Next, the image processing unit 52 performs the same image processing on the clipped pipette image as in steps ST12 and ST14 to ST15 of the first embodiment. Therefore, detailed description of the same processing as the above-described image processing will be omitted.

画像処理部52は、切り取ったピペット画像からから輝度のパラメータのみを抽出した画像(グレースケール画像814G)に変換する(ステップST22)。図22は、図20に示す部分領域を切り取って、輝度のみで表示したグレースケール画像の一例を示す模式図である。図22に示すように、グレースケール画像814Gには、採取用ピペット10の先端部103が含まれる。なお、図22では、細胞ceは含まれていないが、細胞ceが先端部103と重なって、又は近接して存在する場合には、グレースケール画像814Gには、採取用ピペット10の先端部103及び複数の細胞ceが含まれる場合がある。 The image processing unit 52 converts the extracted pipette image into an image (grayscale image 814G) in which only the brightness parameter is extracted (step ST22). FIG. 22 is a schematic diagram showing an example of a grayscale image in which the partial area shown in FIG. 20 is cut out and displayed only with luminance. As shown in FIG. 22, the grayscale image 814G includes the tip portion 103 of the sampling pipette 10. Note that in FIG. 22, the cells ce are not included, but when the cells ce are present overlapping or close to the tip 103, the grayscale image 814G shows the tip 103 of the sampling pipette 10. And a plurality of cells ce may be included.

次に、画像処理部52は、グレースケール画像814Gからしきい値L−TH以下の輝度の部分を抽出して、バイナリ画像814Aを作成する(ステップST23)。図23は、部分領域のバイナリ画像を示す模式図である。図23に示すように、部分領域のバイナリ画像814Aには、採取用ピペット10の検出部分103gが白表示となる。 Next, the image processing unit 52 creates a binary image 814A by extracting a portion having a luminance equal to or lower than the threshold value L-TH from the gray scale image 814G (step ST23). FIG. 23 is a schematic diagram showing a binary image of a partial area. As shown in FIG. 23, in the binary image 814A of the partial region, the detection portion 103g of the sampling pipette 10 is displayed in white.

次に、画像処理部52は、細胞ceの暗部ce−aの形状を補完し、細胞ceの暗部ce−aをバイナリ画像814Aから除去する(ステップST24)。図24は、部分領域のバイナリ画像において、暗部の形状を補完する処理を行ったバイナリ画像を示す模式図である。図25は、部分領域のバイナリ画像において、細胞の暗部を除去したバイナリ画像を示す模式図である。図24に示すように、画像処理部52は、バイナリ画像814Aの右辺側に位置する暗部ce−aの形状を補完する。図25に示すように、画像処理部52は、バイナリ画像814Aから暗部ce−aを除去する。これにより、画像処理部52は、採取用ピペット10の検出部分103gのみが含まれるバイナリ画像814Aを作成する。 Next, the image processing unit 52 complements the shape of the dark portion ce-a of the cell ce and removes the dark portion ce-a of the cell ce from the binary image 814A (step ST24). FIG. 24 is a schematic diagram showing a binary image obtained by performing a process of complementing the shape of a dark portion in the binary image of the partial region. FIG. 25 is a schematic diagram showing a binary image in which a dark part of a cell is removed from the binary image of the partial region. As shown in FIG. 24, the image processing unit 52 complements the shape of the dark portion ce-a located on the right side of the binary image 814A. As shown in FIG. 25, the image processing unit 52 removes the dark part ce-a from the binary image 814A. Accordingly, the image processing unit 52 creates the binary image 814A including only the detection portion 103g of the sampling pipette 10.

次に、画像処理部52は、バイナリ画像814Aにおいて、採取用ピペット10の検出部分103gを拡大する(ステップST25)。図26は、部分領域のバイナリ画像において、採取用ピペットの検出部分を拡大したバイナリ画像を示す模式図である。図26に示すように、検出部分103gは、2つの暗部T−aがY軸方向につなげられて、1つの暗部T−aで構成される。 Next, the image processing unit 52 enlarges the detection portion 103g of the sampling pipette 10 in the binary image 814A (step ST25). FIG. 26 is a schematic diagram showing an enlarged binary image of the detection portion of the sampling pipette in the binary image of the partial region. As shown in FIG. 26, the detection portion 103g is configured by one dark portion T-a by connecting two dark portions Ta in the Y-axis direction.

次に、位置検出部531は、バイナリ画像814Aに基づいて、検出部分103gのエッジを検出する(ステップST26)。図27は、採取用ピペットの検出部分のエッジを検出する方法を説明するための説明図である。図27に示すように、位置検出部531は、Y軸方向の他方から一方に向かうD1方向に沿って、検出部分103gのエッジ103eを検出し、また、D1方向と反対方向のD2方向に沿って、エッジ103eを検出する。位置検出部531は、Y軸方向での輝度の差に基づいてエッジ103eを検出する。 Next, the position detection unit 531 detects the edge of the detection portion 103g based on the binary image 814A (step ST26). FIG. 27 is an explanatory diagram for explaining a method of detecting the edge of the detection portion of the sampling pipette. As shown in FIG. 27, the position detection unit 531 detects the edge 103e of the detection portion 103g along the D1 direction from the other side of the Y-axis direction to the one side, and also along the D2 direction opposite to the D1 direction. Then, the edge 103e is detected. The position detector 531 detects the edge 103e based on the difference in brightness in the Y-axis direction.

位置検出部531は、D1方向及びD2方向の検出を、X軸方向に沿って複数箇所で行う。これにより、位置検出部531は、検出部分103gと背景との輝度の差に基づいて、検出部分103gの延在方向に沿った部分の外形形状を検出することができる。位置検出部531は、検出部分103gの延在方向に沿ったエッジ103eを、2本の直線状の線として近似して検出する。 The position detection unit 531 detects the D1 direction and the D2 direction at a plurality of locations along the X-axis direction. Accordingly, the position detection unit 531 can detect the outer shape of the portion along the extending direction of the detection portion 103g based on the difference in brightness between the detection portion 103g and the background. The position detection unit 531 detects the edge 103e along the extending direction of the detection portion 103g by approximating it as two linear lines.

位置検出部531は、検出された2本の直線状のエッジ103ge(図29参照)の情報に基づいて、Y軸方向における2本のエッジ103geの距離が所定の大きさ以上の場合、例えば15ピクセル以上の場合に、採取用ピペット10の外径形状が検出できたと判断する。一方、位置検出部531は、Y軸方向における2本のエッジ103geの距離が所定の大きさよりも小さい場合、例えば15ピクセルよりも小さい場合に、採取用ピペット10の外径形状が非検出であると判断する。 When the distance between the two edges 103ge in the Y-axis direction is greater than or equal to a predetermined value, for example, 15 based on the information of the detected two linear edges 103ge (see FIG. 29), the position detection unit 531 When the number of pixels is equal to or larger than the number of pixels, it is determined that the outer diameter shape of the sampling pipette 10 can be detected. On the other hand, the position detection unit 531 does not detect the outer diameter shape of the sampling pipette 10 when the distance between the two edges 103ge in the Y-axis direction is smaller than a predetermined size, for example, smaller than 15 pixels. To judge.

位置検出部531は、2本のエッジ103geの角度を検出し、2本のエッジ103geの角度の差が所定の角度以下の場合、例えば2°以下の場合に、採取用ピペット10の外径形状が検出できたと判断する。一方、位置検出部531は、2本のエッジ103geの角度の差が所定の角度よりも大きい場合、例えば2°よりも大きい場合に、採取用ピペット10の外径形状が非検出であると判断する。また、位置検出部531は、2本のエッジ103geを、8ピクセルずつ、上側のエッジ103geをY軸方向下へ、下側のエッジ103geをY軸方向上へ移動させる。これにより、位置検出部531は、拡大された暗部T−aのエッジ103geの位置から、実際の採取用ピペット10の大きさのエッジへ近づけることができる。 The position detection unit 531 detects the angle between the two edges 103ge, and when the difference in angle between the two edges 103ge is less than or equal to a predetermined angle, for example, 2° or less, the outer diameter shape of the sampling pipette 10 Is determined to have been detected. On the other hand, the position detection unit 531 determines that the outer diameter shape of the sampling pipette 10 is not detected when the difference in angle between the two edges 103ge is larger than a predetermined angle, for example, larger than 2°. To do. Further, the position detection unit 531 moves the two edges 103ge by 8 pixels, moving the upper edge 103ge downward in the Y-axis direction and the lower edge 103ge upward in the Y-axis direction. Thereby, the position detection unit 531 can approach the edge of the actual size of the sampling pipette 10 from the position of the edge 103ge of the enlarged dark portion T-a.

以上のような方法により、第2実施形態のマニピュレーションシステム100において、画像処理部52は、第1画像811から、検出された採取用ピペット10を囲む部分領域BBで切り取った画像を作成し、位置検出部531は、部分領域BBで切り取った画像から、検出部分103gと背景との輝度の差に基づいて、検出部分103gの延在方向に沿った部分の外形形状を検出する。これにより、マニピュレーションシステム100は、採取用ピペット10の近傍に位置する細胞ceや、採取用ピペット10の内部の界面109aによる検出誤差を抑制して、採取用ピペット10の延在方向に沿った外形形状を正確に検出することができる。 By the method as described above, in the manipulation system 100 of the second embodiment, the image processing unit 52 creates an image cut from the first image 811 in the partial region BB surrounding the detected sampling pipette 10, and the position The detection unit 531 detects the outer shape of the portion along the extending direction of the detection portion 103g based on the difference in brightness between the detection portion 103g and the background from the image cut out in the partial region BB. Thereby, the manipulation system 100 suppresses the detection error due to the cell ce located in the vicinity of the sampling pipette 10 and the interface 109a inside the sampling pipette 10, and the outer shape along the extending direction of the sampling pipette 10. The shape can be accurately detected.

(第3実施形態)
図28は、第3実施形態に係るマニピュレーションシステムの、採取用ピペットの端部を検出する検出シーケンスの一例を示すフローチャートである。位置検出部531は、第2実施形態で作成した部分領域BBのバイナリ画像814Aに基づいて、採取用ピペット10の端部103fのY軸方向の位置を検出する(ステップST31)。
(Third Embodiment)
FIG. 28 is a flowchart showing an example of a detection sequence for detecting the end portion of the sampling pipette in the manipulation system according to the third embodiment. The position detection unit 531 detects the position of the end portion 103f of the sampling pipette 10 in the Y-axis direction based on the binary image 814A of the partial region BB created in the second embodiment (step ST31).

図29は、検出部分の端部のY軸方向の位置を説明するための説明図である。図29に示すように、位置検出部531は、検出部分103gの端部側(図29の左側)におけるバイナリ画像814Aの外周と、エッジ103geの延長線とが交差する位置Y1、Y2を検出する。そして、位置検出部531は、Y軸方向における位置Y1と位置Y2との中点を、採取用ピペット10の端部103fのY軸方向の位置103yとして算出する。 FIG. 29 is an explanatory diagram for explaining the position of the end portion of the detection portion in the Y-axis direction. As shown in FIG. 29, the position detection unit 531 detects positions Y1 and Y2 where the outer periphery of the binary image 814A and the extension line of the edge 103ge on the end side (left side of FIG. 29) of the detection portion 103g intersect. .. Then, the position detection unit 531 calculates the midpoint between the positions Y1 and Y2 in the Y-axis direction as the Y-axis direction position 103y of the end portion 103f of the sampling pipette 10.

次に、画像処理部52は、エッジ103geの情報を受け取って、第1画像811から、検出部分103gのエッジ103geで切り取ったピペット画像814Bを作成する(ステップST32)。図30は、第1画像から採取用ピペットを切り取ったピペット画像の一例を示す模式図である。ピペット画像814Bは、上述した2値化処理やグレースケール処理等の画像処理は行わず、画像を切り取った処理のみを行った画像である。図30に示すように、画像処理部52は、ピペット画像814Bの上端及び下端を、エッジ103geに沿って切り取って作成する。また、画像処理部52は、ピペット画像814Bの左端を、部分領域BBの外周の左端に沿って切り取って作成している。画像処理部52は、ピペット画像814Bの右端を、2本のエッジ103geの右端の点を繋いだ線に沿って切り取って作成する。これにより、ピペット画像814Bには、採取用ピペット10(先端部103)の端部103fが含まれる。 Next, the image processing unit 52 receives the information on the edge 103ge and creates a pipette image 814B cut from the first image 811 at the edge 103ge of the detection portion 103g (step ST32). FIG. 30 is a schematic diagram showing an example of a pipette image obtained by cutting the sampling pipette from the first image. The pipette image 814B is an image obtained by performing only the process of cutting the image without performing the image processing such as the binarization processing and the gray scale processing described above. As illustrated in FIG. 30, the image processing unit 52 cuts and creates the upper end and the lower end of the pipette image 814B along the edge 103ge. Further, the image processing unit 52 cuts and creates the left end of the pipette image 814B along the left end of the outer circumference of the partial region BB. The image processing unit 52 cuts and creates the right end of the pipette image 814B along a line connecting the right end points of the two edges 103ge. Accordingly, the pipette image 814B includes the end portion 103f of the sampling pipette 10 (tip portion 103).

次に、位置検出部531は、ピペット画像814Bの情報を受け取って、ピペット画像814Bに基づいて、採取用ピペット10の端部103fの位置を検出する(ステップST33)。図31は、採取用ピペットの端部を検出する方法を説明するための説明図である。図31に示すように、位置検出部531は、ピペット画像814Bの右端から左端に向かうD3方向に沿って、採取用ピペット10の端部103fを検出する。これにより、位置検出部531は、採取用ピペット10と背景との輝度の差に基づいて、採取用ピペット10の延在方向における、端部103fの位置を検出することができる。 Next, the position detection unit 531 receives the information of the pipette image 814B and detects the position of the end 103f of the sampling pipette 10 based on the pipette image 814B (step ST33). FIG. 31 is an explanatory diagram for explaining a method of detecting the end portion of the sampling pipette. As shown in FIG. 31, the position detection unit 531 detects the end portion 103f of the sampling pipette 10 along the D3 direction from the right end to the left end of the pipette image 814B. Accordingly, the position detection unit 531 can detect the position of the end portion 103f in the extending direction of the sampling pipette 10 based on the difference in brightness between the sampling pipette 10 and the background.

以上説明したように、第3実施形態のマニピュレーションシステム100において、画像処理部52は、第1画像811から、検出部分103gの延在方向に沿った部分の外形形状と、採取用ピペット10の延在方向の端部103fと隣り合う部分の部分領域BBの外周と、2本のエッジ103geの右端の点を繋いだ線とで囲まれた領域を切り取って、採取用ピペット10を抽出したピペット画像814B(管状器具画像)を作成し、位置検出部531は、ピペット画像814Bに基づいて、採取用ピペット10の延在方向の端部103fの位置を検出する。これによれば、マニピュレーションシステム100は、採取用ピペット10の周囲に配置された細胞ce等が検出されることを抑制することができる。また、ピペット画像814Bは、画像の切り取りのみの画像処理を行っているので、採取用ピペット10の延在方向の端部103fの位置を正確に検出することができる。 As described above, in the manipulation system 100 according to the third embodiment, the image processing unit 52 causes the external shape of the portion along the extending direction of the detection portion 103g and the extension of the sampling pipette 10 from the first image 811. A pipette image in which the sampling pipette 10 is extracted by cutting out the region surrounded by the outer circumference of the partial region BB adjacent to the end portion 103f in the present direction and the line connecting the right end points of the two edges 103ge. 814B (tubular instrument image) is created, and the position detection unit 531 detects the position of the end 103f in the extending direction of the sampling pipette 10 based on the pipette image 814B. According to this, the manipulation system 100 can suppress the detection of the cells ce and the like arranged around the sampling pipette 10. Further, since the pipette image 814B is subjected to image processing only by clipping the image, it is possible to accurately detect the position of the end portion 103f in the extending direction of the sampling pipette 10.

(第4実施形態)
図32は、第4実施形態に係るマニピュレーションシステムの、採取用ピペットの内部を検出する検出シーケンスの一例を示すフローチャートである。図32に示すように、画像処理部52は、第3実施形態において作成したピペット画像814Bから、輝度のパラメータのみを抽出した画像(グレースケール画像814BG)を作成する(ステップST41)。図33は、ピペット画像を輝度のみで表示したグレースケール画像の一例を示す模式図である。
(Fourth Embodiment)
FIG. 32 is a flowchart showing an example of a detection sequence for detecting the inside of the sampling pipette of the manipulation system according to the fourth embodiment. As shown in FIG. 32, the image processing unit 52 creates an image (grayscale image 814BG) in which only the brightness parameter is extracted from the pipette image 814B created in the third embodiment (step ST41). FIG. 33 is a schematic diagram showing an example of a grayscale image in which a pipette image is displayed only with brightness.

図33に示すように、グレースケール画像814BGにおいて、採取用ピペット10の内部の空気層108と液層109とで輝度の差が表示される。空気層108の輝度は、液層109の輝度に比べて大きい。 As shown in FIG. 33, in the grayscale image 814BG, the difference in brightness between the air layer 108 and the liquid layer 109 inside the sampling pipette 10 is displayed. The brightness of the air layer 108 is higher than the brightness of the liquid layer 109.

次に、画像処理部52は、グレースケール画像814BGからしきい値以上の輝度の部分を抽出し、バイナリ画像(ピペットバイナリ画像814BB)を作成する(ステップST42)。図34は、採取用ピペットの明部を示すピペットバイナリ画像である。画像処理部52は、判別分析法を用いて、グレースケール画像814BGの輝度の分布の情報からしきい値を自動で設定する。画像処理部52は、設定されたしきい値に基づいて、グレースケール画像814BGから、図34に示すピペットバイナリ画像814BBに自動的に変換する。 Next, the image processing unit 52 extracts a portion having a brightness equal to or higher than a threshold value from the gray scale image 814BG to create a binary image (pipette binary image 814BB) (step ST42). FIG. 34 is a pipette binary image showing the bright part of the collection pipette. The image processing unit 52 uses the discriminant analysis method to automatically set the threshold value from the information on the luminance distribution of the grayscale image 814BG. The image processing unit 52 automatically converts the grayscale image 814BG into the pipette binary image 814BB shown in FIG. 34 based on the set threshold value.

図34に示すように、ピペットバイナリ画像814BBでは、採取用ピペット10の明部103hが白表示となり、暗部103iが黒表示となる。明部103hは、採取用ピペット10の空気層108に対応する領域であり、暗部103iは、採取用ピペット10の液層109及びガラス管の部分に対応する領域である。 As shown in FIG. 34, in the pipette binary image 814BB, the bright portion 103h of the sampling pipette 10 is displayed in white and the dark portion 103i is displayed in black. The bright portion 103h is a region corresponding to the air layer 108 of the sampling pipette 10, and the dark portion 103i is a region corresponding to the liquid layer 109 and the glass tube portion of the sampling pipette 10.

次に、輝度検出部534は、ピペットバイナリ画像814BBの情報を受け取って、ピペットバイナリ画像814BBの任意の領域A3において輝度を検出し、明部103hのピクセル数を計算する(ステップST43)。位置検出部531は、ピペットバイナリ画像814BBの情報と、計算結果(明部103hのピクセル数)の情報とを受け取って、計算結果を所定のしきい値と比較する。これにより、位置検出部531は、任意の領域A3が空気層108か液層109かを判定する(ステップST44)。位置検出部531は、明部103hのピクセル数がしきい値以上の場合、任意の領域A3が空気層108であることを検出できる。また、位置検出部531は、明部103hのピクセル数がしきい値よりも小さい場合、任意の領域A3が液層109であることを検出できる。 Next, the luminance detection unit 534 receives the information of the pipette binary image 814BB, detects the luminance in an arbitrary area A3 of the pipette binary image 814BB, and calculates the number of pixels of the bright portion 103h (step ST43). The position detection unit 531 receives the information of the pipette binary image 814BB and the information of the calculation result (the number of pixels of the bright portion 103h), and compares the calculation result with a predetermined threshold value. Accordingly, the position detection unit 531 determines whether the arbitrary area A3 is the air layer 108 or the liquid layer 109 (step ST44). The position detection unit 531 can detect that the arbitrary region A3 is the air layer 108 when the number of pixels of the bright portion 103h is equal to or larger than the threshold value. Further, the position detection unit 531 can detect that the arbitrary region A3 is the liquid layer 109 when the number of pixels of the bright portion 103h is smaller than the threshold value.

以上説明したように、第4実施形態のマニピュレーションシステム100において、画像処理部52は、ピペット画像814Bに基づいて、しきい値以上の輝度を有する明部103hを表示するピペットバイナリ画像814BBを作成し、位置検出部531は、ピペットバイナリ画像814BBに基づいて、採取用ピペット10の内部の空気層108及び液層109を検出する。これによれば、マニピュレーションシステム100は、採取用ピペット10内の任意の領域A3が、空気層108であるか液層109であるかを検出することができる。任意の領域A3が、空気層108であるか液層109であるかを検出することで、制御部55は、電動マイクロポンプ29を自動で制御することができる。 As described above, in the manipulation system 100 of the fourth embodiment, the image processing unit 52 creates the pipette binary image 814BB that displays the bright portion 103h having the brightness equal to or higher than the threshold value based on the pipette image 814B. The position detection unit 531 detects the air layer 108 and the liquid layer 109 inside the sampling pipette 10 based on the pipette binary image 814BB. According to this, the manipulation system 100 can detect whether the arbitrary region A3 in the sampling pipette 10 is the air layer 108 or the liquid layer 109. The control unit 55 can automatically control the electric micropump 29 by detecting whether the arbitrary region A3 is the air layer 108 or the liquid layer 109.

(第5実施形態)
図35は、第5実施形態に係るマニピュレーションシステムの、採取用ピペットの内部の細胞を検出する検出シーケンスの一例を示すフローチャートである。図35に示すように、マニピュレーションシステム100は、上述した第1実施形態から第3実施形態の検出シーケンスを実行し、採取用ピペット10の形状を検出する(ステップST51)。
(Fifth Embodiment)
FIG. 35 is a flowchart showing an example of a detection sequence for detecting cells inside a sampling pipette in the manipulation system according to the fifth embodiment. As shown in FIG. 35, the manipulation system 100 executes the detection sequence of the first to third embodiments described above to detect the shape of the sampling pipette 10 (step ST51).

次に、画像処理部52は、検出されたピペット画像814B(図30参照)から一部の領域を切り取り、細胞ceがない状態の基準画像を作成する(ステップST52)。図36は、採取用ピペットの内部に細胞が存在しない部分の画像を切り取って作成した、基準画像の一例を示す模式図である。図36に示すように、基準画像103r2の採取用ピペット10の空気層108には、細胞ceが存在しない。なお、基準画像103r2は、2値化処理やグレースケール処理等の画像処理が行われていない画像である。 Next, the image processing unit 52 cuts out a part of the region from the detected pipette image 814B (see FIG. 30) and creates a reference image in a state where there are no cells ce (step ST52). FIG. 36 is a schematic diagram showing an example of a reference image created by cutting out an image of a portion where cells do not exist inside the sampling pipette. As shown in FIG. 36, the cells ce do not exist in the air layer 108 of the sampling pipette 10 of the reference image 103r2. The reference image 103r2 is an image that has not undergone image processing such as binarization processing and gray scale processing.

次に、制御部55(図4参照)は、電動マイクロポンプ29を駆動させる(ステップST53)。これにより、採取用ピペット10の内部圧力が常圧より低くなり、採取用ピペット10の開口部103aから細胞ceを吸引して採取する。 Next, the control unit 55 (see FIG. 4) drives the electric micropump 29 (step ST53). As a result, the internal pressure of the collection pipette 10 becomes lower than normal pressure, and the cells ce are sucked and collected from the opening 103a of the collection pipette 10.

画像処理部52は、ステップST51及びステップST52と同様に、細胞ceを採取した状態の採取用ピペット10のピペット画像814Bを撮像し、ピペット画像814Bの一部を切り取った検出画像814Bsを作成する(ステップST54)。画像処理部52は、ピペット画像814Bから、図36に示す基準画像103r2と同じ領域を切り取る。 Similar to step ST51 and step ST52, the image processing unit 52 images the pipette image 814B of the collection pipette 10 in the state in which the cells ce are collected, and creates the detection image 814Bs by cutting a part of the pipette image 814B ( Step ST54). The image processing unit 52 cuts out the same region as the reference image 103r2 shown in FIG. 36 from the pipette image 814B.

図37は、検出されたピペット画像の一部を切り取った画像の一例を示す模式図である。図37に示すように、検出画像814Bsにおいて、採取用ピペット10の空気層108に、採取された細胞ceが存在している。 FIG. 37 is a schematic diagram showing an example of an image obtained by cutting out a part of the detected pipette image. As shown in FIG. 37, in the detected image 814Bs, the collected cells ce are present in the air layer 108 of the collection pipette 10.

次に、画像処理部52は、検出画像814Bsと基準画像103r2の差分の画像を作成する(ステップST55)。図38は、検出されたピペット画像と基準画像の差分の画像の一例を示す模式図である。図38に示すように、差分の画像814Cにおいて、採取用ピペット10の空気層108やガラス管の部分は、検出画像814Bsと基準画像103r2との差分が小さいため黒表示となり、細胞ceは、空気層108よりも大きい輝度で表示される。 Next, the image processing unit 52 creates an image of the difference between the detected image 814Bs and the reference image 103r2 (step ST55). FIG. 38 is a schematic diagram showing an example of the difference image between the detected pipette image and the reference image. As shown in FIG. 38, in the difference image 814C, the air layer 108 and the glass tube portion of the sampling pipette 10 are displayed in black because the difference between the detection image 814Bs and the reference image 103r2 is small, and the cell ce is in the air. It is displayed with a higher brightness than the layer 108.

次に、画像処理部52は、差分の画像814Cから所定のしきい値以上の輝度の部分を抽出して、バイナリ画像814Dを作成する(ステップST56)。図39は、差分の画像の明部を示すバイナリ画像の一例を示す模式図である。図39に示すように、バイナリ画像814Dにおいて、細胞ceの明部ce−bが白表示となり、明部ce−b以外の部分が黒表示となる。 Next, the image processing unit 52 creates a binary image 814D by extracting a portion having a brightness equal to or higher than a predetermined threshold value from the difference image 814C (step ST56). FIG. 39 is a schematic diagram showing an example of a binary image showing the bright portion of the difference image. As shown in FIG. 39, in the binary image 814D, the bright portion ce-b of the cell ce is displayed in white and the portion other than the bright portion ce-b is displayed in black.

位置検出部531は、バイナリ画像814Dの情報を受け取って、バイナリ画像814Dに明部ce−bが有る場合に、採取用ピペット10に細胞ceが採取されたことを検出することができる。また、個数検出部533(図5参照)は、バイナリ画像814Dに基づいて、採取用ピペット10の一部の領域に位置する細胞ceの個数を検出してもよい。これにより、これにより、マニピュレーションシステム100は、細胞ceを1個ずつ採取することができる。また、細胞ceが検出されない場合には、マニピュレーションシステム100は、ステップST53からステップST56の動作を繰り返し実行する。 The position detection unit 531 can receive the information of the binary image 814D and detect that the cell ce has been collected by the sampling pipette 10 when the binary image 814D includes the bright portion ce-b. Further, the number detection unit 533 (see FIG. 5) may detect the number of cells ce located in a partial region of the sampling pipette 10 based on the binary image 814D. Thereby, the manipulation system 100 can collect the cells ce one by one. Further, when the cell ce is not detected, the manipulation system 100 repeatedly executes the operations of step ST53 to step ST56.

以上説明したように、第5実施形態のマニピュレーションシステム100において、画像処理部52は、ピペット画像814Bから、採取用ピペット10の内部に細胞ceが存在しない部分の画像を切り取って、基準画像103r2(基準管状器具画像)を作成し、位置検出部531は、検出された採取用ピペット10の画像と、基準画像103r2との、輝度の差分を示す画像に基づいて、採取用ピペット10の内部の細胞ceを検出する。これによれば、マニピュレーションシステム100は、採取用ピペット10に細胞ceが採取されたことを確実に検出することができる。 As described above, in the manipulation system 100 of the fifth embodiment, the image processing unit 52 cuts out an image of a portion where the cell ce does not exist inside the sampling pipette 10 from the pipette image 814B, and the reference image 103r2( (Reference tubular instrument image), and the position detecting unit 531 determines the cells inside the sampling pipette 10 based on the image showing the difference in brightness between the detected image of the sampling pipette 10 and the reference image 103r2. detect ce. According to this, the manipulation system 100 can reliably detect that the cells ce have been collected by the collection pipette 10.

(第6実施形態)
図40は、第6実施形態に係るマニピュレーションシステムの動作シーケンスの一例を示すフローチャートである。図40に示すように、マニピュレーションシステム100は、上述した第1実施形態から第3実施形態の検出シーケンスを実行し、採取用ピペット10の端部103fの位置を検出する(ステップST61)。
(Sixth Embodiment)
FIG. 40 is a flowchart showing an example of the operation sequence of the manipulation system according to the sixth embodiment. As shown in FIG. 40, the manipulation system 100 executes the detection sequence of the first to third embodiments described above, and detects the position of the end 103f of the sampling pipette 10 (step ST61).

次に、マニピュレーションシステム100は、第1顕微鏡ユニット40を容器38の底面に向けて下降させ、第1顕微鏡41の焦点を複数の細胞ceに合わせる。第1撮像装置45は、第1顕微鏡41を介して第1画像811を撮像する。位置検出部531は、第1撮像装置45により撮像された第1画像811の情報に基づいて、細胞ceの位置を検出する(ステップST62)。なお、ステップST62において、画像処理部52は、細胞ceの検出を容易にするために、第1画像811に2値化等の画像処理を行ってもよい。 Next, the manipulation system 100 lowers the first microscope unit 40 toward the bottom surface of the container 38 and focuses the first microscope 41 on the plurality of cells ce. The first imaging device 45 captures the first image 811 via the first microscope 41. The position detection unit 531 detects the position of the cell ce based on the information of the first image 811 imaged by the first imaging device 45 (step ST62). Note that in step ST62, the image processing unit 52 may perform image processing such as binarization on the first image 811 in order to facilitate detection of the cells ce.

図41は、第6実施形態に係る第1画像を模式的に示す模式図である。図41に示すように、第1画像811には、複数の細胞ce及び採取用ピペット10の先端部103が撮像される。制御部55(図5参照)は、位置検出部531からの細胞ceの位置情報に基づいて、複数の細胞ceから、特定の領域に存在する細胞ce1を採取対象として選択する。特定の領域は、任意に設定することができ、例えば端部103fよりも左側の矩形状の領域である。 FIG. 41 is a schematic diagram schematically showing a first image according to the sixth embodiment. As shown in FIG. 41, a plurality of cells ce and the tip portion 103 of the sampling pipette 10 are imaged in the first image 811. The control unit 55 (see FIG. 5) selects the cell ce1 existing in a specific region from a plurality of cells ce as a collection target based on the position information of the cell ce from the position detection unit 531. The specific area can be set arbitrarily and is, for example, a rectangular area on the left side of the end portion 103f.

次に、制御部55は、採取用ピペット10を移動させる(ステップST63)。具体的には、制御部55は、駆動装置26、27(図3参照)を動作させることにより、X軸テーブル21、Y軸テーブル22及びZ軸テーブル23を移動させる。採取用ピペット10及びピペット保持部15は、X軸テーブル21、Y軸テーブル22及びZ軸テーブル23の移動に伴って移動する。これにより、制御部55は、先端部103の端部103fを細胞ce1に近づけることができる。なお、制御部55は、試料ステージ30をX軸方向及びY軸方向の少なくとも一方向(以下、水平方向)に移動させてもよい。試料ステージ30の水平方向の移動は、制御部55が駆動装置36に駆動信号Vxy3を出力することで実現される。 Next, the control unit 55 moves the sampling pipette 10 (step ST63). Specifically, the controller 55 moves the X-axis table 21, the Y-axis table 22, and the Z-axis table 23 by operating the drive devices 26 and 27 (see FIG. 3). The sampling pipette 10 and the pipette holding unit 15 move as the X-axis table 21, the Y-axis table 22, and the Z-axis table 23 move. Thereby, the control unit 55 can bring the end 103f of the tip 103 closer to the cell ce1. The control unit 55 may move the sample stage 30 in at least one of the X-axis direction and the Y-axis direction (hereinafter, horizontal direction). The movement of the sample stage 30 in the horizontal direction is realized by the control unit 55 outputting the drive signal Vxy3 to the drive device 36.

次に、マニピュレーションシステム100は、採取用ピペット10が細胞ce1に近づいた状態で、上述した第1実施形態から第3実施形態の検出シーケンスを実行し、採取用ピペット10の端部103fの位置を再度検出する(ステップST64)。 Next, the manipulation system 100 executes the detection sequence of the above-described first to third embodiments in a state where the sampling pipette 10 is close to the cells ce1, and determines the position of the end portion 103f of the sampling pipette 10. It is detected again (step ST64).

次に、距離検出部532(図5参照)は、位置検出部531によって検出された細胞ceの位置と採取用ピペット10の端部103fの位置との誤差を検出する(ステップST65)。ここで、細胞ceの位置と採取用ピペット10の端部103fの位置との誤差とは、細胞ceとの端部103fとの間の離隔距離や、X軸方向の位置ずれ及びY軸方向の位置ずれ等の情報を含む。 Next, the distance detection unit 532 (see FIG. 5) detects an error between the position of the cell ce detected by the position detection unit 531 and the position of the end 103f of the sampling pipette 10 (step ST65). Here, the error between the position of the cell ce and the position of the end 103f of the sampling pipette 10 is the distance between the end of the cell ce and the end 103f, the position shift in the X axis direction, and the Y axis direction. It includes information such as displacement.

距離検出部532は、あらかじめ設定されたしきい値と比較して、細胞ceの位置と採取用ピペット10の端部103fの位置との誤差が有るかどうかを判定する(ステップST66)。誤差に関するしきい値の情報は、あらかじめ記憶部56に記憶されている。 The distance detection unit 532 determines whether there is an error between the position of the cell ce and the position of the end 103f of the sampling pipette 10 by comparing with a preset threshold value (step ST66). The threshold information regarding the error is stored in the storage unit 56 in advance.

しきい値よりも大きい誤差が有る場合(ステップST66、Yes)、例えば、離隔距離がしきい値よりも大きい場合、ステップST63に戻って、制御部55は、距離検出部532からの情報を受け取って、採取用ピペット10を移動させる。これにより、マニピュレーションシステム100は、採取用ピペット10の位置の補正を行うことができ、確実に細胞ceの採取を行うことができる。 When there is an error larger than the threshold value (Yes in step ST66), for example, when the separation distance is larger than the threshold value, the process returns to step ST63, and the control unit 55 receives the information from the distance detection unit 532. The sampling pipette 10 is moved. Thereby, the manipulation system 100 can correct the position of the sampling pipette 10, and can reliably collect the cells ce.

誤差がしきい値以下の場合(ステップST66、No)、例えば、離隔距離がしきい値以下である場合、マニピュレーションシステム100は、細胞ceの採取を行う(ステップST67)。具体的には、制御部55は、採取用ピペット10に細胞ce1を吸引させる。細胞ceの吸引は、制御部55が電動マイクロポンプ29に駆動信号Vmp(図3参照)を出力して電動マイクロポンプ29を駆動させ、採取用ピペット10の内部圧力を採取用ピペット10の外部圧力よりも低くすることで実現される。 When the error is less than or equal to the threshold value (step ST66, No), for example, when the separation distance is less than or equal to the threshold value, the manipulation system 100 collects the cells ce (step ST67). Specifically, the control unit 55 causes the sampling pipette 10 to suck the cells ce1. For the suction of the cells ce, the control unit 55 outputs the drive signal Vmp (see FIG. 3) to the electric micropump 29 to drive the electric micropump 29, and the internal pressure of the sampling pipette 10 is changed to the external pressure of the sampling pipette 10. It is realized by making it lower than.

なお、マニピュレーションシステム100は、第6実施形態の検出シーケンスと、上述した第4実施形態及び第5実施形態の検出シーケンスとを組み合わせて実行してもよい。 The manipulation system 100 may execute the detection sequence of the sixth embodiment in combination with the detection sequences of the above-described fourth and fifth embodiments.

以上説明したように、さらに、マニピュレータ20は、採取用ピペット10を試料ステージ30に対して相対的に移動させる駆動装置26、27を有し、コントローラ50は、位置検出部531によって検出された細胞ceと採取用ピペット10との離隔距離を自動で検出する距離検出部532、を有し、コントローラ50は、駆動装置26、27を動作させて、採取用ピペット10の端部103fが、位置検出部531によって検出された細胞ceの位置に近づくように移動させ、離隔距離があらかじめ設定された値よりも大きい場合に、位置検出部531は、複数回、採取用ピペット10の位置を検出する。これによれば、マニピュレーションシステム100は、採取用ピペット10の位置を繰り返し検出することで、採取用ピペット10の端部103fの位置を、細胞ceを採取するための適切な位置に補正することができる。 As described above, the manipulator 20 further includes the driving devices 26 and 27 that move the sampling pipette 10 relative to the sample stage 30, and the controller 50 detects the cells detected by the position detection unit 531. ce has a distance detection unit 532 that automatically detects the separation distance between the sampling pipette 10 and the controller 50 operates the drive devices 26 and 27 so that the end 103f of the sampling pipette 10 detects the position. When the cell ce is moved closer to the position of the cell ce detected by the unit 531 and the separation distance is larger than a preset value, the position detection unit 531 detects the position of the sampling pipette 10 multiple times. According to this, the manipulation system 100 can correct the position of the end 103f of the collecting pipette 10 to an appropriate position for collecting the cells ce by repeatedly detecting the position of the collecting pipette 10. it can.

10 採取用ピペット
15 ピペット保持部
20 マニピュレータ
26、27、36、414、613 駆動装置
29 電動マイクロポンプ
30 試料ステージ
38 容器
40 第1顕微鏡ユニット
41 第1顕微鏡
45 第1撮像装置
50 コントローラ
52 画像処理部
53 検出部
531 位置検出部
535 しきい値設定部
80 表示部
100 マニピュレーションシステム
103 先端部
103g 検出部分
103r1 基準バイナリ画像
103r2 基準画像
811 第1画像
811A、814A バイナリ画像
811G、814G グレースケール画像
812 第2画像
813 第3画像
ce 細胞
T−a、ce−a 暗部
T−b、ce−b 明部
L−TH しきい値
L−BG 背景の輝度
10 Sampling Pipette 15 Pipette Holding Section 20 Manipulators 26, 27, 36, 414, 613 Driving Device 29 Electric Micropump 30 Sample Stage 38 Container 40 First Microscope Unit 41 First Microscope 45 First Imaging Device 50 Controller 52 Image Processing Section 53 detection unit 531 position detection unit 535 threshold value setting unit 80 display unit 100 manipulation system 103 tip portion 103g detection portion 103r1 reference binary image 103r2 reference image 811 first image 811A, 814A binary image 811G, 814G grayscale image 812 second Image 813 Third image ce Cell T-a, ce-a Dark part T-b, ce-b Bright part L-TH Threshold value L-BG Background brightness

Claims (12)

管状器具を用いて微小対象物を採取するマニピュレーションシステムであって、
前記管状器具と、
前記管状器具が取り付けられるマニピュレータと、
前記微小対象物を収容するための容器が載置される試料ステージと、
前記試料ステージの上方に配置される第1顕微鏡と、
前記第1顕微鏡を介して第1画像を撮像する第1撮像装置と、
コントローラと、を備え、
前記コントローラは、
前記第1画像に基づいて、しきい値以下の輝度を有する暗部を表示する第1バイナリ画像を作成する画像処理部と、
前記第1バイナリ画像に基づいて前記管状器具の位置を検出する位置検出部と、を有する
マニピュレーションシステム。
A manipulation system for collecting microscopic objects using a tubular instrument,
The tubular device,
A manipulator to which the tubular instrument is attached,
A sample stage on which a container for containing the minute object is placed,
A first microscope arranged above the sample stage;
A first imaging device that captures a first image through the first microscope;
And a controller,
The controller is
An image processing unit that creates a first binary image that displays a dark portion having a brightness equal to or less than a threshold value based on the first image;
A position detection unit that detects the position of the tubular instrument based on the first binary image.
前記コントローラは、前記管状器具の基準バイナリ画像を記憶する記憶部を有し、
前記位置検出部は、前記第1バイナリ画像において前記管状器具の前記暗部から形成される検出部分と、前記基準バイナリ画像とを比較して、前記管状器具を検出する
請求項1に記載のマニピュレーションシステム。
The controller has a storage unit for storing a reference binary image of the tubular device,
The manipulation system according to claim 1, wherein the position detection unit detects the tubular instrument by comparing a detection portion formed from the dark portion of the tubular instrument in the first binary image with the reference binary image. ..
前記コントローラは、前記第1画像の輝度に基づいて、前記しきい値を設定するしきい値設定部を有する
請求項1又は請求項2に記載のマニピュレーションシステム。
The manipulation system according to claim 1, wherein the controller has a threshold value setting unit that sets the threshold value based on the brightness of the first image.
前記画像処理部は、前記第1画像を輝度のみで表示したグレースケール画像に変換し、前記グレースケール画像に基づいて前記第1バイナリ画像を作成する
請求項1から請求項3のいずれか1項に記載のマニピュレーションシステム。
The image processing unit converts the first image into a grayscale image that is displayed only with luminance, and creates the first binary image based on the grayscale image. Manipulation system described in.
前記画像処理部は、前記第1バイナリ画像において、前記管状器具の前記暗部から形成される検出部分を拡大することで、前記管状器具の内部の空間に対応する領域を挟んで配置された2つの前記暗部を1つにつなげる
請求項1から請求項4のいずれか1項に記載のマニピュレーションシステム。
In the first binary image, the image processing unit enlarges a detection portion formed from the dark portion of the tubular device, so that two regions are arranged with an area corresponding to a space inside the tubular device interposed therebetween. The manipulation system according to claim 1, wherein the dark portions are connected to each other.
前記画像処理部は、前記微小対象物を示す前記暗部を前記第1バイナリ画像から除去する
請求項1から請求項5のいずれか1項に記載のマニピュレーションシステム。
The manipulation system according to any one of claims 1 to 5, wherein the image processing unit removes the dark portion indicating the minute object from the first binary image.
前記画像処理部は、前記第1画像から、検出された前記管状器具を囲む部分領域で切り取った画像を作成し、
前記位置検出部は、前記部分領域で切り取った画像から、前記管状器具の前記暗部から形成される検出部分と背景との輝度の差に基づいて、前記管状器具の前記暗部から形成される検出部分の延在方向に沿った部分の外形形状を検出する
請求項1から請求項6のいずれか1項に記載のマニピュレーションシステム。
The image processing unit creates an image cut from the first image in a partial region surrounding the detected tubular device,
The position detection unit, from the image cut out in the partial region, based on the difference in brightness between the detection portion formed from the dark portion of the tubular device and the background, the detection portion formed from the dark portion of the tubular device. The manipulation system according to any one of claims 1 to 6, which detects an outer shape of a portion along the extending direction of the.
前記画像処理部は、前記第1画像から、前記管状器具の前記暗部から形成される検出部分の延在方向に沿った部分の外形形状と、前記管状器具の延在方向の端部と隣り合う部分の前記部分領域の外周とで囲まれた領域を切り取って、前記管状器具を抽出した管状器具画像を作成し、
前記位置検出部は、前記管状器具画像に基づいて、前記管状器具の延在方向の端部の位置を検出する
請求項7に記載のマニピュレーションシステム。
The image processing unit is adjacent to the outer shape of a portion along the extension direction of the detection portion formed from the dark portion of the tubular device from the first image, and the end of the tubular device in the extension direction. A region surrounded by the outer periphery of the partial region of the part is cut out to create a tubular instrument image in which the tubular instrument is extracted,
The manipulation system according to claim 7, wherein the position detection unit detects the position of the end portion of the tubular instrument in the extending direction based on the tubular instrument image.
前記画像処理部は、前記管状器具画像に基づいて、しきい値以上の輝度を有する明部を表示する管状器具バイナリ画像を作成し、
前記位置検出部は、前記管状器具バイナリ画像に基づいて、前記管状器具の内部の空気層及び液層を検出する
請求項8に記載のマニピュレーションシステム。
The image processing unit, based on the tubular instrument image, creates a tubular instrument binary image that displays a bright portion having a brightness equal to or higher than a threshold value,
The manipulation system according to claim 8, wherein the position detection unit detects an air layer and a liquid layer inside the tubular instrument based on the tubular instrument binary image.
前記画像処理部は、前記管状器具画像から、前記管状器具の内部に前記微小対象物が存在しない部分の画像を切り取って、基準管状器具画像を作成し、
前記位置検出部は、検出された前記管状器具の画像と、前記基準管状器具画像との、輝度の差分を示す画像に基づいて、前記管状器具の内部の前記微小対象物を検出する
請求項8又は請求項9に記載のマニピュレーションシステム。
The image processing unit, from the tubular instrument image, cut out an image of a portion where the microscopic object does not exist inside the tubular instrument to create a reference tubular instrument image,
The position detection unit detects the minute target object inside the tubular device based on an image showing a difference in brightness between the detected image of the tubular device and the reference tubular device image. Alternatively, the manipulation system according to claim 9.
さらに、前記マニピュレータは、前記管状器具を前記試料ステージに対して相対的に移動させる駆動装置を有し、
前記コントローラは、
前記位置検出部によって検出された前記微小対象物と前記管状器具との離隔距離を自動で検出する距離検出部、を有し、
前記コントローラは、
前記駆動装置を動作させて、前記管状器具の先端が、前記位置検出部によって検出された前記微小対象物の位置に近づくように移動させ、
前記離隔距離があらかじめ設定された値よりも大きい場合に、前記位置検出部は、複数回、前記管状器具の位置を検出する
請求項1から請求項10のいずれか1項に記載のマニピュレーションシステム。
Further, the manipulator has a drive device for moving the tubular instrument relative to the sample stage,
The controller is
A distance detection unit that automatically detects a separation distance between the micro object and the tubular device detected by the position detection unit,
The controller is
By operating the drive device, the distal end of the tubular instrument is moved so as to approach the position of the minute object detected by the position detection unit,
The manipulation system according to any one of claims 1 to 10, wherein the position detection unit detects the position of the tubular instrument a plurality of times when the separation distance is larger than a preset value.
前記管状器具の内側には、表面処理が施されている
請求項1から請求項11のいずれか1項に記載のマニピュレーションシステム。
The manipulation system according to any one of claims 1 to 11, wherein a surface treatment is applied to the inside of the tubular instrument.
JP2019015000A 2019-01-31 2019-01-31 manipulation system Active JP7183828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019015000A JP7183828B2 (en) 2019-01-31 2019-01-31 manipulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015000A JP7183828B2 (en) 2019-01-31 2019-01-31 manipulation system

Publications (2)

Publication Number Publication Date
JP2020122891A true JP2020122891A (en) 2020-08-13
JP7183828B2 JP7183828B2 (en) 2022-12-06

Family

ID=71992612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015000A Active JP7183828B2 (en) 2019-01-31 2019-01-31 manipulation system

Country Status (1)

Country Link
JP (1) JP7183828B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017071020A (en) * 2015-10-07 2017-04-13 日本精工株式会社 Manipulation system, rotary actuator, and driving method of manipulation system
JP2017166855A (en) * 2016-03-14 2017-09-21 富士通株式会社 Detection device, method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017071020A (en) * 2015-10-07 2017-04-13 日本精工株式会社 Manipulation system, rotary actuator, and driving method of manipulation system
JP2017166855A (en) * 2016-03-14 2017-09-21 富士通株式会社 Detection device, method, and program

Also Published As

Publication number Publication date
JP7183828B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
US8588504B2 (en) Technique for determining the state of a cell aggregation image processing program and image processing device using the technique, and method for producing a cell aggregation
US8350905B2 (en) Microscope system, image generating method, and program for practicing the same
JP4504417B2 (en) Image processing apparatus, microscope system, and region specifying program
EP2444479A1 (en) State determination method for cell cluster, image processing program and imaging processing device using said method, and method for producing cell cluster
EP3203290B1 (en) Image processing method
JP2021515240A (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
JP5633753B2 (en) Focus control method and culture observation apparatus
US20120122143A1 (en) Technique for determining maturity of a cell aggregation, image processing program and image processing device using the technique, and method for producing a cell aggregation
US9145572B2 (en) Observation system, recording medium, and control method of observation system
JP6692660B2 (en) Imaging device
US20170330327A1 (en) Systems, Methods, and Apparatuses For Image Capture and Display
JP2023036742A (en) Manipulation system and driving method of manipulation system
JP2016014974A (en) Image processing method and image processor
JP7183828B2 (en) manipulation system
JP2011004638A (en) Mthod, program, and apparatus for processing images of observed fertilized egg
JP7188140B2 (en) manipulation system
JP7035487B2 (en) Manipulation system
JP4630106B2 (en) Corneal endothelial cell image processing device
EP4125065A1 (en) Image processing method and classification model construction method
US11555995B2 (en) Microscope system, control method, and recording medium
US11611722B2 (en) Microscope system, control method, and recording medium
JP2003084203A (en) Microscope device
JP2023108281A (en) Observation system, microscope, observation method, and program
JP2014062936A (en) Sample analysis device, sample analysis method, sample analysis program, and particle track analysis device
JP2007195755A (en) Corneal endothelial cell image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R150 Certificate of patent or registration of utility model

Ref document number: 7183828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150