JP3582390B2 - Automatic search device for fine objects - Google Patents

Automatic search device for fine objects Download PDF

Info

Publication number
JP3582390B2
JP3582390B2 JP00664899A JP664899A JP3582390B2 JP 3582390 B2 JP3582390 B2 JP 3582390B2 JP 00664899 A JP00664899 A JP 00664899A JP 664899 A JP664899 A JP 664899A JP 3582390 B2 JP3582390 B2 JP 3582390B2
Authority
JP
Japan
Prior art keywords
search
search condition
fine object
sample
fine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00664899A
Other languages
Japanese (ja)
Other versions
JP2000206009A (en
Inventor
貴之 畑瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP00664899A priority Critical patent/JP3582390B2/en
Publication of JP2000206009A publication Critical patent/JP2000206009A/en
Application granted granted Critical
Publication of JP3582390B2 publication Critical patent/JP3582390B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、生化学分野等において試料溶液中の微生物や動植物細胞などの微細物体を自動的に探索する微細物体の自動探索装置に関するものである。
【0002】
【従来の技術】
生化学分野等における各種操作のプロセスでは、試料中に存在する多数の微生物または動植物細胞等の微細物体の中から、特定の微細物体を探索・識別する操作が行われる。従来は熟練した専門家が、顕微鏡視野内にて微細物体を観察・識別するという手作業的な方法によって探索が行われていた。この探索時には、識別の基準となる探索条件が用いられるが、従来の探索操作においてはこの探索条件は必ずしも明確でなく、専門家の記憶に依存するかまたはサンプル写真を参照するなど、いわばあいまいな形の探索条件が用いられていた。
【0003】
【発明が解決しようとする課題】
しかしながら上記従来の方法では、探索条件が明確な形で設定されないことに起因して、同一対象について探索を繰り返して行う場合においても設定条件の再現性に欠け、探索結果の信頼性が低いとともに、探索作業の効率もきわめて悪いものであった。
【0004】
そこで本発明は、微細物体の探索条件を容易に再現性よく設定することができ、探索作業の信頼性と効率を向上させることができる微細物体の自動探索装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
請求項1記載の微細物体の自動探索装置は、試料中の微細物体を撮像して得られた画像データに基づいて、予め設定された探索条件に合致した探索目的の微細物体を特定する微細物体の自動探索装置であって、試料中の微細物体を撮像する撮像手段と、撮像で得られた画像データに基づいて微細物体を探索する探索処理部と、前記探索条件を設定する探索条件設定部と、探索条件を記憶する探索条件記憶部と、撮像された画像や探索条件に関するデータを表示する表示手段と、既に過去において用いられ前記探索条件記憶部に登録された探索条件に基づいて前記探索条件を前記表示手段の画面上で編集する探索条件編集手段とを備えた。
【0007】
【発明の実施の形態】
次に本発明の実施の形態を図面を参照して説明する。図1は本発明の一実施の形態の微細物体の自動探索装置の斜視図、図2は同微細物体の自動探索装置の側面図、図3は同微細物体の自動探索装置の構成を示すブロック図、図4は同微細物体の自動探索装置の処理機能を示す機能ブロック図、図5、図6、図7、図8は同微細物体の自動探索装置の表示画面を示す図、図9、図10は同微細物体の自動採取のフロー図である。
【0008】
まず図1、図2を参照して微細物体の自動探索装置が組み込まれた自動採取装置の構造について説明する。図1において微細物体の自動採取装置は、基台1上に設けられた本体部2および制御用のパソコン3から構成されている。本体部2はカバーケース2a内に以下に説明する各部を配置して構成されている。
【0009】
カバーケース2aの内部には基台5が配設されている。基台5の端部にはサイドフレーム5aが立設されており、サイドフレーム5aの上部には上部フレーム5bが固着されている。サイドフレーム5aの側面には、第1のXYテーブル6が配設されており、第1のXYテーブル6には透光性を有する試料テーブル7が装着されている。試料テーブル7は、微生物や動植物細胞などの微細物体を含んだ液状試料を入れた透光性を有する試料容器8を支持している。
【0010】
上部フレーム5bには透過照明9(第1の照明部)が配設されており、透過照明9は、ミラー14で反射された照明光を試料容器8上に照射する。試料容器8の下方の基台5の底部には対物レンズ19とカメラ18が配設されている。カメラ18は対物レンズ19を通して試料容器8内の微細物体を撮像する。また基台5の側部には蛍光照明10(第2の照明部)が配設されており、蛍光照明10はハーフミラー15を介して試料容器8の下方から照明光を照射する。カメラ18は、透過照明9または蛍光照明10によって照明された試料容器8を撮像する。
【0011】
基台5の側部には、赤外線レーザ光源11(第1のレーザ装置)および紫外線レーザ光源12(第2のレーザ装置)が配設されている。赤外線レーザ光源11から照射された赤外線レーザ光は走査光学系13を経てハーフミラー17によって上方に反射され、対物レンズ19で集光されて試料容器8に下方から入射する。走査光学系13を駆動することにより、赤外線レーザ光の照射位置は試料容器8中で水平方向に移動する。したがって、走査光学系13はレーザ光移動手段となっている。なお、走査光学系13を用いる代わりに、第1のXYテーブル6を駆動することにより、赤外線レーザ光を試料容器8に対して水平方向に相対的に移動させるようにしても良い。この場合には、第1のXYテーブル6がレーザ光移動手段となる。
【0012】
試料容器8の試料液体中の微細物体に赤外線レーザ光を照射することにより、微細物体は赤外線レーザ光の光圧によりトラップされ、捕捉される。走査光学系13によって(または第1のXYテーブルを駆動することにより)赤外線レーザ光を走査させることにより、試料容器8内の捕捉対象の微細物体に対物レンズ19によって集光された赤外線レーザ光を照射してこれをトラップし、非接触にて任意の位置に移動させることができる。赤外線レーザ光源11および対物レンズ19は、微細物体をレーザ光によってトラップするいわゆるレーザピンセットであり、微細物体を捕捉する捕捉手段となっている。
【0013】
紫外線レーザ光源12から照射された紫外線レーザ光はハーフミラー16によって反射され、対物レンズ19で集光されながら試料容器8に下方から入射する。この紫外線レーザ光は試料中の微細物体を局部的に破壊する加工用途に適しており、紫外線レーザ光を加工対象の微細物体に照射することにより微細物体の切断などの加工を行うことができる。紫外線レーザ光源12は加工手段となっている。
【0014】
試料容器8の上方には、試料供給ピペット21が導設されており、試料供給ピペット21はXYZテーブル22によって移動可能となっている。試料供給ピペット21は、分注機構25に接続されており、分注機構25には配管26,27,28を介して試料タンク29、洗浄用の希釈液タンク30、廃液タンク31が接続されている。分注機構25の吸入・吐出機構を用いることにより、試料タンク29および希釈液タンク30から吸入した試料、希釈液を、試料供給ピペット21の先端から選択的に試料容器8に吐出する。試験後に試料容器8に残存する余分の試料や洗浄に用いられた後の希釈液は、分注機構25により吸引されて廃液タンク31に回収される。
【0015】
試料容器8の近傍には、XYZテーブル24によって移動可能な採取用のマイクロピペット23が、先端の吸入口を試料容器8の液体中に浸入させる姿勢で配設されている。マイクロピペット23は分注機構25に接続されており、分注機構25の吸入・吐出機能を用いることにより、試料容器8中の試料に含まれマイクロピペット23の吸入口近傍に位置する微細物体を吸入・移送し、分注ノズル36の先端部から吐出して容器に採取することができる。したがって、マイクロピペット23、分注機構25および分注ノズル36は微細物体を採取する採取手段となっている。
【0016】
分注機構25の下方には、第2のXYテーブル32が配設されている。第2のXYテーブル32上にはマイクロプレート支持部であるプレートホルダ33が装着されており、プレートホルダ33の上面には、複数の微細物体の容器であるウェル35を備えたマイクロプレート34が載置されている。第2のXYテーブル32を駆動して、分注ノズル36の直下に位置するマイクロプレート34を水平移動させることにより、任意のウェル35に分注ノズル36から吐出される微細物体を収容することができる。
【0017】
次に図3を参照して、微細物体の操作装置の制御系の構成を説明する。カメラ18、第1の照明部9および第2の照明部10は、CPU43の指示に従って試料容器8内の微細物体を撮像する。
【0018】
分注コントローラ41は、分注機構25の動作を制御する。走査光学系コントローラ42は走査光学系13を制御することにより、トラップ用の赤外線レーザ光を試料容器8内で移動させる。CPU43は制御手段であり、記憶手段であるRAM44、ROM45、ファイル装置46に格納されたプログラムやデータに基づいて各種の処理や演算を実行する。RAM44はCPU43の処理演算時にデータを一時的に格納するためのメモリである。ROM45は、各種の処理や動作に必要なプログラムを記憶する。
【0019】
ファイル装置46は、プログラムや各種のデータ、例えばカメラ18で撮像された微細物体の画像や、これらの微細物体の分類結果などを格納する。記憶媒体ドライブ装置47は、必要なプログラムやデータの外部記憶媒体への書き込み・読み取りを行う。外部記憶媒体48はフロッピーディスクなどの記憶媒体であり、データ保管用として用いられる。表示モニタ49は表示装置であり、操作・入力時の画面表示や、撮像された微細物体の画像を表示する。
【0020】
入力部50はキーボードやマウスなどのポインティングデバイスであり、操作コマンドやデータの入力を行うほか、表示モニタ49に表示された微細物体の中から採取対象を作業者の操作により指示するとともに、この微細物体が収容されるマイクロプレートのウェルを同じく作業者の操作により画面上で指示する。すなわち、入力部50は指示手段となっている。なお指示手段としては、この他にタッチパネル、ジョイスティック等を用いることができる。
【0021】
次に図4を参照して微細物体の自動探索装置の処理機能について説明する。図4において、表示処理部52、探索処理部51、探索条件設定部53、探索条件編集処理部55、捕捉動作処理部56、採取動作処理部57は、CPU43によって実行される処理機能である。以下、上記処理機能の内容について説明する。
【0022】
探索処理部51は、カメラ18によって撮像された画像データを画像処理して得られた視野内の各微細物体の情報に基づき、目的とする微細物体を特定する探索処理を行う。探索条件設定部53は探索処理に用いられる探索条件を設定する。ここで探索条件とは、目的とする微細物体を特定する基準となる条件であり、基準画像として記憶された画像との一致度に基づくもの、寸法・形状・色彩に基づくもの、さらには視野内での微細物体の移動速度や軌跡などの運動パターンに基づいて設定される条件など、画像情報に基づいて設定可能な各種の探索条件が設定する。探索条件の設定は、入力部50から直接入力する方法や、下記に説明する探索条件記憶部54に記憶された探索条件を読み出す方法などによって行われる。
【0023】
探索条件記憶部54は、既に過去において用いられた探索条件や、探索条件編集処理部55によって新たに編集された探索条件、入力部50から入力された探索条件を記憶する。これらのデータは、RAM44、ROM45、ファイル装置46によって記憶される。探索条件編集処理部55は探索条件編集手段であり、目的とする微細物体を特定する探索条件を編集する。この編集は、探索条件を構成する要素項目、すなわち画像、色、形状、運動などの個別の条件を組み合わせることにより行われる。
【0024】
捕捉動作処理部56は、探索処理によって目的の微細物体として特定された微細物体に、第1のレーザ装置11の赤外線レーザ光を照射することにより光学的にトラップする捕捉動作を行う。この捕捉動作は、走査光学系13、第1のレーザ装置11、第2のレーザ装置12、第2のXYテーブル6を制御することによって行われる。
【0025】
採取動作処理部57は上記処理によって捕捉された微細物体を試料容器8からマイクロピペット23を用いて採取し、採取された微細物体をマイクロプレート34に分注する処理を行う。この採取動作は、第2のXYテーブル24および分注コントローラ42を制御することによって行われる。
【0026】
前記探索条件設定処理や探索条件編集処理は、表示処理部52によって表示モニタ49に表示される画面上で行われるようになっている。以下この画面上での処理操作について図5、図6、図7を参照して説明する。図5に示す表示画面60は、自動採取装置の起動時に表示モニタ49に表示されるメインメニューを示すものである。表示画面60内には、選択ボタン61,62,63,64が表示され、各選択ボタンを操作することにより、それぞれ自動運転、マニュアル操作、探索条件編集/設定およびファイル管理の選択を行うことができる。
【0027】
選択ボタン61により自動運転を選択すると、容器内の試料から目的とする微細物体を自動的に探索・捕捉・採取するモードが選択される。選択ボタン62によりマニュアル操作を選択すると、前記各操作を表示モニタ49に表示される微細物体の画像を観察しながらマニュアルにて行うモードが選択される。選択ボタン63により探索条件編集/設定を選択すると、表示画面が図6、図7に示す編集設定画面に切り換わり、探索条件の編集や設定を行うことができる。選択ボタン64によりファイル管理を選択すると、探索条件として記憶されている内容の確認や削除、再入力などのファイル管理作業を行うことができる。
【0028】
次に図6を参照して探索条件設定処理について説明する。図6において表示画面60は、探索条件設定/編集画面に切り換わっており、表示枠65には既に登録され探索条件記憶部54に記憶された探索条件が表示される。表示枠65の表示欄65a,65b,65c,65dには、それぞれ当該探索処理において探索条件として設定されているか否かを示す設定マーク、探索条件に付される条件番号、探索対象の微細物体名を表わす条件名称および探索条件を構成する要素として用いられている項目を示す適用項目がそれぞれ表示される。
【0029】
操作ボタン66を操作すると、記憶された探索条件を順次読み出して新たなページとして表示させ、また既に表示されたページを再び表示させる。そして当該探索処理において探索条件として用いるべき探索条件を見出したならば、表示欄65aに設定マークを入力する。これによりその探索条件は当該探索処理時の探索条件として設定され、表示欄64に設定件数としてカウントされる。
【0030】
また、既に登録され記憶されている探索条件の他に新たな探索条件を登録する場合には、操作ボタン68を操作して新規登録を選択する。これにより、表示画面上での新規登録が可能となる。操作ボタン69を操作すると、メインメニュー画面(図5)に戻る。そして操作ボタン67を選択することにより、図7に示す探索条件編集画面が表示される。
【0031】
この探索条件編集処理は、過去に登録された探索条件を構成する要素としての要素項目を組み合わせて、または更に新たな要素項目を付加して新たな探索条件として編集するものである。図7は、図6に示す条件番号NO.001の探索条件を編集した際の画面を例示している。編集に際しては、まず入力枠70,72にそれぞれ条件番号および条件名称を入力する。次に適用項目欄73〜77に示す色、形状、寸法、運動、画像の中から、探索条件を構成する要素として採用する項目を選択し、それぞれの欄に入力する。各適用項目欄には参照表示を選択する操作ボタンが設けられており(色入力欄73の操作ボタン73a参照)、参照表示を選択することにより、既に登録された要素条件の具体例が表示される。参照表示中に採用すべき該当する要素項目がある場合には、当該表示をクリックすることにより、新たな探索条件編集用の要素項目として入力される。
【0032】
コメント欄78には、当該探索条件に関する付記事項などを適宜入力する。図7に示す例では、適用項目のうち、色、寸法、画像のみが設定され、形状、運動については未設定であり、図6に示す条件番号001と符合している。組合せ条件欄79には、独立した探索条件として登録されている複数の探索条件を組み合わせて新たな探索条件を編集する場合に、該当する条件番号を入力する。例えば図6に示す条件番号004は、既に登録された条件番号012および008の論理積として構成されるものである。
【0033】
このようにして、新たな探索条件が編集され、この探索条件を登録する場合には操作ボタン80を操作して登録を選択する。これにより当該探索条件が登録されるとともに入力枠71には登録日が自動入力される。そして操作ボタン81を選択することにより、図6に示す表示画面に戻る。
【0034】
なお、図7に示す探索条件編集画面を用いて新たな探索条件を編集する際に、既登録条件を部分的に変更することにより、新たな探索条件とすることもできる。すなわち、新たに設定しようとする探索条件の類似探索条件に該当する探索条件編集画面を表示させ、変更項目や追加項目のみを入力し、その後新しい条件番号を入力することにより、独立した新たな探索条件が登録される。
【0035】
以上説明したように、探索処理に際して既に探索条件として使用され登録された条件に基づいて探索条件を設定することにより、反復して行われる探索操作時の探索条件の再現性を確保することができるとともに、複雑な探索条件の編集・設定作業を効率よく行うことができる。
【0036】
次に、この微細物体の自動探索装置によって行われる自動探索および探索された微細物体の採取操作について図8および図9、図10を参照して説明する。この自動採取処理は、図6に示すメインメニュー画面上で自動運転を選択することによりスタートする。これにより、表示モニタ49には図8に示す画面が表示される。
【0037】
図8において、表示画面60には、撮像された微細物体90の画像を表示する画像枠85、画像枠85内で自動探索される微細物体に関するデータの表示欄86および探索され採取された微細物体が収容されるマイクロプレート87およびウェル87aを示す画像が表示される。表示欄86には、物体名称欄96a、色、大きさ、運動の特徴データをそれぞれ示す適用項目欄86b,86c,86dおよび当該微細物体が採取後に収容されるウェル番号を示す収容先欄86eが設けられている。選択ボタン88を操作すると探索操作を一時停止することができ、選択ボタン89を選択することにより探索操作を中断することができる。
【0038】
以下、図9、図10のフローに沿って説明する。図2において、まず分注機構25によって希釈液タンク30から希釈液を吸入し、試料供給ピペット21から吐出させて試料テーブル7上の試料容器8を洗浄する(ST1)。次いで、分注機構25によって試料タンク29から微細物体を含んだ試料を吸入し、試料供給ピペット21から吐出させて試料容器8中に供給する(ST2)。
【0039】
この後、カメラ18により試料容器8中の液体を含んだ試料を撮像し(ST3)、得られた画像の中から探索条件に合致した微細物体のを画像処理により検出する探索処理を行う(ST4)。すなわち、試料の中から目的とする微細物体が図8に示すように色、大きさ、運動の特徴データおよび画像に基づいて特定される。ここで、探索対象とされた試料中に目的の微細物体を全く発見しないならば、最初のST1に戻り、新たな試料について同様の処理を繰り返す。
【0040】
また目的とする微細物体が発見された場合には(ST5)、赤外線レーザ光線を微細物体に対して照射することにより、識別された目的の微細物体をレーザピンセットによって光圧でトラップして捕捉し、マイクロピペット23の採取位置まで移送する(ST6)。 次に目的の微細物体を収容する所定のウェル、この例ではウェル番号2−1が分注ノズル36の直下に位置するよう、第2のXYテーブル32を駆動してマイクロプレート34を位置決めする(ST7)。次いでXYZテーブル24を駆動してマイクロピペット23の先端を採取位置へ移動し(ST8)、分注機構25を駆動して、捕捉された目的の微細物体をマイクロピペット23で吸引して採取し、所定のウェル35(ウェル番号2−1)内に吐出して収容する(ST9)。
【0041】
この後、必要な数の微細物体を採取したか否かが判断され(ST10)、未採取であればST3に戻って以降のステップを繰り返し、また既に必要数の微細物体が採取済みであれば、試料テーブル7を再び洗浄して(ST11)、採取処理を終了する。
【0042】
【発明の効果】
本発明によれば、試料中の微細物体を撮像して得られた画像データに基づいて微細物体を探索する探索処理部と、探索条件を設定する探索条件設定部とを備えたので、過去に用いられ登録された探索条件に基づいて微細物体の探索条件を再現性よく設定することができ、探索結果の信頼性と探索条件設定作業の効率を向上させることができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態の微細物体の自動探索装置の斜視図
【図2】本発明の一実施の形態の微細物体の自動探索装置の側面図
【図3】本発明の一実施の形態の微細物体の自動探索装置の構成を示すブロック図
【図4】本発明の一実施の形態の微細物体の自動探索装置の処理機能を示す機能ブロック図
【図5】本発明の一実施の形態の微細物体の自動探索装置の表示画面を示す図
【図6】本発明の一実施の形態の微細物体の自動探索装置の表示画面を示す図
【図7】本発明の一実施の形態の微細物体の自動探索装置の表示画面を示す図
【図8】本発明の一実施の形態の微細物体の自動探索装置の表示画面を示す図
【図9】本発明の一実施の形態の微細物体の自動採取のフロー図
【図10】本発明の一実施の形態の微細物体の自動採取のフロー図
【符号の説明】
8 試料容器
18 カメラ
49 表示モニタ
50 入力部
51 探索処理部
52 表示処理部
53 探索条件設定部
54 探索条件記憶部
55 探索条件編集処理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for automatically searching for microscopic objects such as microorganisms and animal and plant cells in a sample solution in the field of biochemistry and the like.
[0002]
[Prior art]
In the processes of various operations in the biochemical field and the like, an operation of searching for and identifying a specific minute object from a large number of minute objects such as microorganisms or animal and plant cells existing in a sample is performed. Heretofore, the search has been performed by a skilled expert by a manual method of observing and identifying a fine object within a visual field of a microscope. At the time of this search, a search condition serving as a reference for identification is used. However, in the conventional search operation, this search condition is not always clear and depends on the memory of an expert or refers to a sample photograph, so to speak. Shape search conditions were used.
[0003]
[Problems to be solved by the invention]
However, in the above-described conventional method, due to the fact that the search condition is not set in a clear form, even when the search is repeatedly performed for the same object, the repeatability of the set condition is lacking, and the reliability of the search result is low, The search was also very inefficient.
[0004]
Therefore, an object of the present invention is to provide an automatic search apparatus for a fine object that can easily set a search condition for a fine object with good reproducibility and improve the reliability and efficiency of a search operation.
[0005]
[Means for Solving the Problems]
2. The micro object automatic search apparatus according to claim 1, wherein the micro object specifies a search target micro object that matches a preset search condition based on image data obtained by imaging the micro object in the sample. Automatic search device, imaging means for imaging a fine object in the sample, a search processing unit for searching for a fine object based on image data obtained by imaging, a search condition setting unit for setting the search conditions A search condition storage unit for storing search conditions, a display unit for displaying data relating to a captured image and search conditions, and the search based on search conditions already used in the past and registered in the search condition storage unit. Search condition editing means for editing conditions on the screen of the display means .
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view of an apparatus for automatically searching for a minute object according to an embodiment of the present invention, FIG. 2 is a side view of the apparatus for automatically searching for a minute object, and FIG. FIGS. 4 and 5 are functional block diagrams showing processing functions of the apparatus for automatically searching for microscopic objects, and FIGS. 5, 6, 7, and 8 show display screens of the apparatus for automatically searching for microscopic objects. FIG. 10 is a flowchart of the automatic collection of the fine object.
[0008]
First, the structure of an automatic sampling device in which an automatic searching device for a fine object is incorporated will be described with reference to FIGS. In FIG. 1, the apparatus for automatically collecting a fine object includes a main body 2 provided on a base 1 and a personal computer 3 for control. The main body 2 is configured by arranging the following components in a cover case 2a.
[0009]
A base 5 is provided inside the cover case 2a. A side frame 5a is provided upright at an end of the base 5, and an upper frame 5b is fixed to an upper portion of the side frame 5a. A first XY table 6 is provided on the side surface of the side frame 5a, and a sample table 7 having a light-transmitting property is mounted on the first XY table 6. The sample table 7 supports a translucent sample container 8 containing a liquid sample containing microscopic objects such as microorganisms and animal and plant cells.
[0010]
A transmission illumination 9 (first illumination unit) is provided on the upper frame 5b, and the transmission illumination 9 irradiates the illumination light reflected by the mirror 14 onto the sample container 8. An objective lens 19 and a camera 18 are provided on the bottom of the base 5 below the sample container 8. The camera 18 captures an image of a fine object in the sample container 8 through the objective lens 19. A fluorescent lamp 10 (second lighting unit) is provided on a side of the base 5, and the fluorescent lamp 10 irradiates illumination light from below the sample container 8 via a half mirror 15. The camera 18 captures an image of the sample container 8 illuminated by the transmitted light 9 or the fluorescent light 10.
[0011]
An infrared laser light source 11 (first laser device) and an ultraviolet laser light source 12 (second laser device) are disposed on the side of the base 5. The infrared laser light emitted from the infrared laser light source 11 is reflected upward by the half mirror 17 via the scanning optical system 13, condensed by the objective lens 19, and enters the sample container 8 from below. By driving the scanning optical system 13, the irradiation position of the infrared laser light moves in the sample container 8 in the horizontal direction. Therefore, the scanning optical system 13 serves as a laser beam moving unit. Instead of using the scanning optical system 13, the first XY table 6 may be driven to move the infrared laser light relatively to the sample container 8 in the horizontal direction. In this case, the first XY table 6 serves as a laser beam moving unit.
[0012]
By irradiating a fine object in the sample liquid of the sample container 8 with the infrared laser light, the fine object is trapped and captured by the light pressure of the infrared laser light. By scanning the infrared laser beam by the scanning optical system 13 (or by driving the first XY table), the infrared laser beam condensed by the objective lens 19 on the minute object to be captured in the sample container 8 is irradiated. It can be irradiated and trapped, and can be moved to any position without contact. The infrared laser light source 11 and the objective lens 19 are so-called laser tweezers for trapping a fine object with laser light, and serve as a capturing unit for capturing the fine object.
[0013]
The ultraviolet laser light emitted from the ultraviolet laser light source 12 is reflected by the half mirror 16 and is incident on the sample container 8 from below while being collected by the objective lens 19. The ultraviolet laser light is suitable for a processing application in which a fine object in a sample is locally destroyed, and processing such as cutting of the fine object can be performed by irradiating the ultraviolet laser light to the fine object to be processed. The ultraviolet laser light source 12 is a processing means.
[0014]
Above the sample container 8, a sample supply pipette 21 is guided, and the sample supply pipette 21 is movable by an XYZ table 22. The sample supply pipette 21 is connected to a dispensing mechanism 25, and a sample tank 29, a diluent tank 30 for cleaning, and a waste liquid tank 31 are connected to the dispensing mechanism 25 via pipes 26, 27, 28. I have. By using the suction / discharge mechanism of the dispensing mechanism 25, the sample and the diluent sucked from the sample tank 29 and the diluent tank 30 are selectively discharged from the tip of the sample supply pipette 21 to the sample container 8. The excess sample remaining in the sample container 8 after the test and the diluent used for washing are sucked by the dispensing mechanism 25 and collected in the waste liquid tank 31.
[0015]
In the vicinity of the sample container 8, a micropipette 23 for collection movable by an XYZ table 24 is disposed in such a manner that the suction port at the tip thereof enters the liquid in the sample container 8. The micropipette 23 is connected to the dispensing mechanism 25, and by using the suction / discharge function of the dispensing mechanism 25, a microscopic object contained in the sample in the sample container 8 and located near the suction port of the micropipette 23 is removed. It can be sucked / transferred, discharged from the tip of the dispensing nozzle 36, and collected in a container. Therefore, the micropipette 23, the dispensing mechanism 25, and the dispensing nozzle 36 are a sampling unit for sampling a fine object.
[0016]
Below the dispensing mechanism 25, a second XY table 32 is provided. On the second XY table 32, a plate holder 33 serving as a microplate support is mounted. On the upper surface of the plate holder 33, a microplate 34 having a well 35 serving as a container for a plurality of fine objects is mounted. Is placed. By driving the second XY table 32 and horizontally moving the microplate 34 located immediately below the dispensing nozzle 36, a fine object discharged from the dispensing nozzle 36 can be accommodated in an arbitrary well 35. it can.
[0017]
Next, with reference to FIG. 3, the configuration of a control system of the device for operating a fine object will be described. The camera 18, the first illuminator 9, and the second illuminator 10 image a fine object in the sample container 8 according to an instruction from the CPU 43.
[0018]
The dispensing controller 41 controls the operation of the dispensing mechanism 25. The scanning optical system controller 42 moves the trapping infrared laser light within the sample container 8 by controlling the scanning optical system 13. The CPU 43 is a control unit, and executes various processes and calculations based on programs and data stored in the RAM 44, the ROM 45, and the file device 46, which are storage units. The RAM 44 is a memory for temporarily storing data when the CPU 43 performs a processing operation. The ROM 45 stores programs necessary for various processes and operations.
[0019]
The file device 46 stores programs and various kinds of data, for example, images of fine objects captured by the camera 18 and classification results of these fine objects. The storage medium drive 47 writes and reads necessary programs and data to and from an external storage medium. The external storage medium 48 is a storage medium such as a floppy disk, and is used for data storage. The display monitor 49 is a display device, and displays a screen at the time of operation and input, and displays an image of a captured fine object.
[0020]
The input unit 50 is a pointing device such as a keyboard and a mouse. The input unit 50 is used to input operation commands and data. The input unit 50 also indicates an object to be collected from a fine object displayed on the display monitor 49 by an operator's operation. The well of the microplate in which the object is stored is indicated on the screen by the operation of the operator. That is, the input unit 50 is an instruction unit. In addition, a touch panel, a joystick, or the like can be used as the instruction means.
[0021]
Next, referring to FIG. 4, a processing function of the automatic search apparatus for a fine object will be described. 4, a display processing unit 52, a search processing unit 51, a search condition setting unit 53, a search condition editing processing unit 55, a capture operation processing unit 56, and a collection operation processing unit 57 are processing functions executed by the CPU 43. Hereinafter, the contents of the processing functions will be described.
[0022]
The search processing unit 51 performs a search process for specifying a target fine object based on information on each fine object in the field of view obtained by performing image processing on image data captured by the camera 18. The search condition setting unit 53 sets a search condition used for the search process. Here, the search condition is a condition serving as a reference for specifying a target fine object, based on a degree of coincidence with an image stored as a reference image, based on dimensions, shape, and color, and further within a visual field. Various search conditions that can be set based on image information are set, such as conditions set based on a movement pattern such as a moving speed and a trajectory of a fine object. The setting of the search condition is performed by a method of directly inputting from the input unit 50 or a method of reading out the search condition stored in the search condition storage unit 54 described below.
[0023]
The search condition storage unit 54 stores search conditions already used in the past, search conditions newly edited by the search condition editing processing unit 55, and search conditions input from the input unit 50. These data are stored in the RAM 44, the ROM 45, and the file device 46. The search condition editing processing unit 55 is a search condition editing unit, and edits a search condition for specifying a target fine object. This editing is performed by combining element items constituting the search condition, that is, individual conditions such as an image, a color, a shape, and a motion.
[0024]
The capturing operation processing unit 56 performs a capturing operation of optically trapping by irradiating an infrared laser beam of the first laser device 11 to the fine object specified as the target fine object by the search processing. This capturing operation is performed by controlling the scanning optical system 13, the first laser device 11, the second laser device 12, and the second XY table 6.
[0025]
The collection operation processing unit 57 performs a process of collecting the fine object captured by the above process from the sample container 8 using the micropipette 23 and dispensing the collected fine object to the microplate 34. This sampling operation is performed by controlling the second XY table 24 and the dispensing controller 42.
[0026]
The search condition setting processing and the search condition editing processing are performed on a screen displayed on the display monitor 49 by the display processing unit 52. Hereinafter, the processing operation on this screen will be described with reference to FIGS. 5, 6, and 7. FIG. The display screen 60 shown in FIG. 5 shows a main menu displayed on the display monitor 49 when the automatic sampling device is started. In the display screen 60, selection buttons 61, 62, 63, and 64 are displayed. By operating the selection buttons, automatic operation, manual operation, search condition editing / setting, and file management can be respectively selected. it can.
[0027]
When the automatic operation is selected by the selection button 61, a mode for automatically searching, capturing, and collecting a target fine object from the sample in the container is selected. When a manual operation is selected by the selection button 62, a mode in which each of the above operations is performed manually while observing an image of a fine object displayed on the display monitor 49 is selected. When the search condition editing / setting is selected by the selection button 63, the display screen is switched to the editing setting screen shown in FIGS. 6 and 7, and the editing and setting of the search condition can be performed. When file management is selected by the selection button 64, file management operations such as confirmation, deletion, and re-input of contents stored as search conditions can be performed.
[0028]
Next, a search condition setting process will be described with reference to FIG. In FIG. 6, the display screen 60 has been switched to a search condition setting / editing screen, and the search conditions already registered and stored in the search condition storage unit 54 are displayed in the display frame 65. In the display fields 65a, 65b, 65c, 65d of the display frame 65, a setting mark indicating whether or not a search condition has been set in the search processing, a condition number assigned to the search condition, and a name of a fine object to be searched And an application item indicating an item used as an element constituting the search condition are displayed.
[0029]
When the operation button 66 is operated, the stored search conditions are sequentially read out and displayed as a new page, and the already displayed page is displayed again. When a search condition to be used as a search condition is found in the search process, a setting mark is input to the display field 65a. As a result, the search condition is set as a search condition at the time of the search processing, and is counted as the set number in the display column 64.
[0030]
When registering a new search condition in addition to the already registered and stored search condition, the operation button 68 is operated to select a new registration. This enables new registration on the display screen. Operating the operation button 69 returns to the main menu screen (FIG. 5). Then, by selecting the operation button 67, a search condition editing screen shown in FIG. 7 is displayed.
[0031]
This search condition editing process is to edit as a new search condition by combining element items as elements constituting a search condition registered in the past or adding a new element item. FIG. 7 shows the condition number NO. 9 illustrates a screen when a search condition of 001 is edited. At the time of editing, first, condition numbers and condition names are input into input frames 70 and 72, respectively. Next, from among the colors, shapes, dimensions, motions, and images shown in the application item columns 73 to 77, the items to be adopted as the elements constituting the search condition are selected and input in the respective columns. An operation button for selecting a reference display is provided in each applicable item column (see the operation button 73a in the color input column 73), and by selecting the reference display, a specific example of an element condition already registered is displayed. You. If there is a corresponding element item to be adopted during the reference display, by clicking the display, it is input as a new search condition editing element item.
[0032]
In the comment column 78, additional items related to the search condition are appropriately input. In the example shown in FIG. 7, among the application items, only the color, the size, and the image are set, and the shape and the movement are not set, and match the condition number 001 shown in FIG. In the combination condition column 79, when a new search condition is edited by combining a plurality of search conditions registered as independent search conditions, a corresponding condition number is input. For example, the condition number 004 shown in FIG. 6 is configured as a logical product of the already registered condition numbers 012 and 008.
[0033]
In this way, a new search condition is edited, and when registering this search condition, the operation button 80 is operated to select registration. As a result, the search condition is registered, and the registration date is automatically input in the input frame 71. Then, by selecting the operation button 81, the display returns to the display screen shown in FIG.
[0034]
When a new search condition is edited using the search condition editing screen shown in FIG. 7, a new search condition can be obtained by partially changing the registered condition. That is, a search condition edit screen corresponding to a search condition similar to the search condition to be newly set is displayed, and only a change item or an additional item is input, and then a new condition number is input. The condition is registered.
[0035]
As described above, by setting a search condition based on a condition already used and registered as a search condition in the search process, reproducibility of the search condition at the time of a search operation performed repeatedly can be ensured. At the same time, it is possible to efficiently edit and set complicated search conditions.
[0036]
Next, an automatic search performed by the automatic search apparatus for fine objects and an operation of collecting the searched fine objects will be described with reference to FIGS. 8, 9, and 10. FIG. This automatic sampling process is started by selecting automatic operation on the main menu screen shown in FIG. As a result, the screen shown in FIG. 8 is displayed on the display monitor 49.
[0037]
In FIG. 8, a display screen 60 includes an image frame 85 for displaying an image of the captured fine object 90, a display column 86 for data relating to the fine object automatically searched in the image frame 85, and a fine object searched and collected. Is displayed showing the microplate 87 and the wells 87a in which are stored. The display column 86 includes an object name column 96a, application item columns 86b, 86c, and 86d respectively indicating color, size, and motion characteristic data, and a storage destination column 86e indicating a well number in which the microscopic object is stored after collection. Is provided. By operating the selection button 88, the search operation can be temporarily stopped, and by selecting the selection button 89, the search operation can be interrupted.
[0038]
Hereinafter, description will be given along the flowcharts of FIGS. In FIG. 2, first, the diluting liquid is sucked from the diluting liquid tank 30 by the dispensing mechanism 25 and discharged from the sample supply pipette 21 to wash the sample container 8 on the sample table 7 (ST1). Next, the sample including the fine object is sucked from the sample tank 29 by the dispensing mechanism 25, discharged from the sample supply pipette 21, and supplied into the sample container 8 (ST2).
[0039]
Thereafter, the camera 18 captures an image of the sample containing the liquid in the sample container 8 (ST3), and performs a search process of detecting a fine object that matches the search condition from the obtained image by image processing (ST4). ). That is, the target fine object is specified from the sample based on the color, size, and motion characteristic data and the image as shown in FIG. Here, if no target fine object is found in the sample to be searched, the process returns to the first step ST1 and the same processing is repeated for a new sample.
[0040]
When a target fine object is found (ST5), an infrared laser beam is applied to the fine object to trap and capture the identified target fine object by laser pressure using laser tweezers. Then, the micropipette 23 is transferred to the collection position (ST6). Next, the second XY table 32 is driven to position the microplate 34 so that a predetermined well containing the target fine object, in this example, the well number 2-1 is located immediately below the dispensing nozzle 36 ( ST7). Next, the XYZ table 24 is driven to move the tip of the micropipette 23 to the collection position (ST8), and the dispensing mechanism 25 is driven to suck and collect the captured target fine object with the micropipette 23. It is discharged and accommodated in a predetermined well 35 (well number 2-1) (ST9).
[0041]
Thereafter, it is determined whether or not a required number of fine objects have been collected (ST10). If not, return to ST3 and repeat the subsequent steps. Then, the sample table 7 is washed again (ST11), and the collection process is terminated.
[0042]
【The invention's effect】
According to the present invention, a search processing unit that searches for a fine object based on image data obtained by imaging a fine object in a sample, and a search condition setting unit that sets a search condition are provided. The search condition of the fine object can be set with good reproducibility based on the used and registered search condition, and the reliability of the search result and the efficiency of the search condition setting operation can be improved.
[Brief description of the drawings]
FIG. 1 is a perspective view of an apparatus for automatically searching for a fine object according to one embodiment of the present invention; FIG. 2 is a side view of the apparatus for automatically searching for a fine object according to one embodiment of the present invention; FIG. 4 is a block diagram illustrating a configuration of an automatic searching apparatus for a fine object according to an embodiment; FIG. 4 is a functional block diagram illustrating a processing function of the automatic searching apparatus for a fine object according to an embodiment of the present invention; FIG. 6 is a diagram showing a display screen of the apparatus for automatically searching for a fine object according to the embodiment. FIG. 6 is a diagram showing a display screen of the apparatus for automatically searching for a fine object according to one embodiment of the present invention. FIG. 8 is a diagram showing a display screen of the automatic search device for fine objects of the form. FIG. 8 is a diagram showing a display screen of the automatic search device for fine objects of one embodiment of the present invention. FIG. 10 is a flowchart of automatic collection of a fine object. Low view DESCRIPTION OF SYMBOLS
8 Sample container 18 Camera 49 Display monitor 50 Input unit 51 Search processing unit 52 Display processing unit 53 Search condition setting unit 54 Search condition storage unit 55 Search condition editing processing unit

Claims (1)

試料中の微細物体を撮像して得られた画像データに基づいて、予め設定された探索条件に合致した探索目的の微細物体を特定する微細物体の自動探索装置であって、試料中の微細物体を撮像する撮像手段と、撮像で得られた画像データに基づいて微細物体を探索する探索処理部と、前記探索条件を設定する探索条件設定部と、探索条件を記憶する探索条件記憶部と、撮像された画像や探索条件に関するデータを表示する表示手段と、既に過去において用いられ前記探索条件記憶部に登録された探索条件に基づいて前記探索条件を前記表示手段の画面上で編集する探索条件編集手段とを備えたことを特徴とする微細物体の自動探索装置。An apparatus for automatically searching for a fine object to be searched that matches a preset search condition based on image data obtained by imaging a fine object in a sample, comprising: Imaging means for imaging, a search processing unit for searching for a fine object based on image data obtained by imaging, a search condition setting unit for setting the search condition, a search condition storage unit for storing search conditions, Display means for displaying captured images and data relating to search conditions; and search conditions for editing the search conditions on the screen of the display means based on search conditions already used in the past and registered in the search condition storage unit. An automatic searching device for a fine object, comprising an editing means .
JP00664899A 1999-01-13 1999-01-13 Automatic search device for fine objects Expired - Fee Related JP3582390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00664899A JP3582390B2 (en) 1999-01-13 1999-01-13 Automatic search device for fine objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00664899A JP3582390B2 (en) 1999-01-13 1999-01-13 Automatic search device for fine objects

Publications (2)

Publication Number Publication Date
JP2000206009A JP2000206009A (en) 2000-07-28
JP3582390B2 true JP3582390B2 (en) 2004-10-27

Family

ID=11644209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00664899A Expired - Fee Related JP3582390B2 (en) 1999-01-13 1999-01-13 Automatic search device for fine objects

Country Status (1)

Country Link
JP (1) JP3582390B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10152404C5 (en) * 2001-10-24 2017-06-08 Carl Zeiss Microscopy Gmbh Laser microdissection
WO2011162290A1 (en) * 2010-06-22 2011-12-29 ユニバーサル・バイオ・リサーチ株式会社 Device for trapping biologically-relevant substances and system for collecting biologically-relevant substances
CN105814188B (en) * 2013-12-12 2018-05-15 雅马哈发动机株式会社 The mobile device of object
JP6387427B2 (en) * 2017-01-31 2018-09-05 ヤマハ発動機株式会社 Object moving device

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4629687A (en) * 1982-07-29 1986-12-16 Board Of Trustees Of Michigan State University Positive selection sorting of cells
JPS59187777A (en) * 1983-04-11 1984-10-24 Hitachi Electronics Eng Co Ltd Apparatus for automatic screening of colony
JPS62215383A (en) * 1986-03-17 1987-09-22 Datsuku Eng Kk Apparatus for inspecting microscopic life
JPH0746112B2 (en) * 1986-04-09 1995-05-17 株式会社日立製作所 Cell analysis method
JP2602228B2 (en) * 1987-05-22 1997-04-23 株式会社島津製作所 Cell identification device
DE3718066A1 (en) * 1987-05-29 1988-12-08 Zeiss Carl Fa METHOD FOR MICROINJECTION IN CELLS OR. FOR SUCTION FROM SINGLE CELLS OR WHOLE CELLS FROM CELL CULTURES
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
GB9100623D0 (en) * 1991-01-11 1991-02-27 Medical Res Council Transfer of biological samples
JPH0549467A (en) * 1991-08-23 1993-03-02 Tokimec Inc Apparatus for observing cultured cell
CA2084099C (en) * 1991-12-06 1996-06-18 James V. Bacus Method and apparatus for automated cell analysis
EP0592997A3 (en) * 1992-10-16 1994-11-17 Becton Dickinson Co Methods and apparatus for measuring tissue section thickness.
US5843644A (en) * 1994-03-01 1998-12-01 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Isolation of cellular material under microscopic visualization using an adhesive/extraction reagent tipped probe
JP3525513B2 (en) * 1994-09-30 2004-05-10 株式会社島津製作所 Analysis equipment
WO1997029354A1 (en) * 1996-02-05 1997-08-14 Bayer Aktiengesellschaft Process and device for sorting and for extraction of biological objects arranged on planar means, such as biological cells or cell organelles, histological sections, chromosome particles etc. using laser beams
JPH10229894A (en) * 1997-02-18 1998-09-02 Meidensha Corp Detection of microorganism
JP3725961B2 (en) * 1997-04-09 2005-12-14 株式会社日立製作所 Sample analysis system
EP0980523B1 (en) * 1997-05-01 2006-12-27 Sophion Bioscience A/S An automatic electrode positioning apparatus
JP3465613B2 (en) * 1999-01-13 2003-11-10 松下電器産業株式会社 Operating device for fine objects
JP2000206057A (en) * 1999-01-13 2000-07-28 Matsushita Electric Ind Co Ltd Verification device of fine object accommodated in container
JP2000202791A (en) * 1999-01-13 2000-07-25 Matsushita Electric Ind Co Ltd Gathering device for fine substance
JP2000206011A (en) * 1999-01-13 2000-07-28 Kyowa Hakko Kogyo Co Ltd Apparatus and method for automatically collecting minute object

Also Published As

Publication number Publication date
JP2000206009A (en) 2000-07-28

Similar Documents

Publication Publication Date Title
EP1882523B1 (en) selection of stem cells
JP5244801B2 (en) Method and apparatus for automated removal of cells and / or cell colonies
US6690470B1 (en) Automated laser capture microdissection
JP5510463B2 (en) Cell observation apparatus and cell culture method
JP4112493B2 (en) Laser microdissection system
US9977042B2 (en) Object moving device
CN101592653A (en) Fully automatic operation instrument for routine inspection of excrement
CN101910907B (en) Methods and systems for controllable scanning of cytological specimen
CN104897911B (en) Automatically-operating stool examination instrument
US20020090122A1 (en) Road map image guide for automated microdissection
JP3465613B2 (en) Operating device for fine objects
JP3582390B2 (en) Automatic search device for fine objects
JP2000206011A (en) Apparatus and method for automatically collecting minute object
JP3820227B2 (en) Cell isolation method
CN201203611Y (en) Full-automatic operational instrument for excrement conventional check
JP2000202791A (en) Gathering device for fine substance
JP2001211875A (en) Device for collecting fine bodies and method of collecting the same
JP2000206057A (en) Verification device of fine object accommodated in container
JP2021184769A (en) Cell suction support device and control method of cell suction support device
JP4451263B2 (en) Sample extraction device
JP2006138654A (en) Tangible component analyzer and tangible component analysis method
WO2021019622A1 (en) Cell picking device
JP3644318B2 (en) Apparatus and method for operating fine object
JP2001208982A (en) Fine object operating method
JP3630027B2 (en) Fine object capturing apparatus and method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees