JPWO2018088460A1 - Well address acquisition system, well address acquisition method, and program - Google Patents

Well address acquisition system, well address acquisition method, and program Download PDF

Info

Publication number
JPWO2018088460A1
JPWO2018088460A1 JP2018550245A JP2018550245A JPWO2018088460A1 JP WO2018088460 A1 JPWO2018088460 A1 JP WO2018088460A1 JP 2018550245 A JP2018550245 A JP 2018550245A JP 2018550245 A JP2018550245 A JP 2018550245A JP WO2018088460 A1 JPWO2018088460 A1 JP WO2018088460A1
Authority
JP
Japan
Prior art keywords
image
well
tip
address acquisition
microplate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018550245A
Other languages
Japanese (ja)
Other versions
JP6601785B2 (en
Inventor
正紹 似田貝
正紹 似田貝
陽美 寒川
陽美 寒川
功 大和田
功 大和田
片野 圭二
圭二 片野
忠孝 上山
忠孝 上山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IGUNOSS, INC.
Icomes Lab Co Ltd
Original Assignee
IGUNOSS, INC.
Icomes Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IGUNOSS, INC., Icomes Lab Co Ltd filed Critical IGUNOSS, INC.
Publication of JPWO2018088460A1 publication Critical patent/JPWO2018088460A1/en
Application granted granted Critical
Publication of JP6601785B2 publication Critical patent/JP6601785B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L3/00Containers or dishes for laboratory use, e.g. laboratory glassware; Droppers
    • B01L3/02Burettes; Pipettes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor

Landscapes

  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Clinical Laboratory Science (AREA)
  • Automatic Analysis And Handling Materials Therefor (AREA)
  • Sampling And Sample Adjustment (AREA)
  • Devices For Use In Laboratory Experiments (AREA)

Abstract

分注しようとするウェルのアドレスを作業者が容易に把握することができるウェルアドレス取得システム等を提供する。ウェルアドレス取得システムは、マイクロプレートのウェルの配列面の像を表すマスター画像を、上記配列面を撮像装置に撮像させることにより生成された基準画像に合わせて変形させ、マスター画像内の各ウェル領域を撮像素子の受光面に対応する画素領域内の画素の位置情報と関連付けるマッピング処理部と、分注ピペットによりマイクロプレートに分注している状態の上記配列面を撮像装置に撮像させることにより生成された対象画像から、該対象画像におけるチップの像の先端位置を検出する先端検出部と、対象画像における先端位置と、各ウェル領域と関連付けられた画素の位置情報とに基づいて、複数のウェルのうちチップの先端部が位置するウェルのアドレスを取得するアドレス取得部とを有する。Provided is a well address acquisition system that allows an operator to easily grasp the address of a well to be dispensed. The well address acquisition system transforms a master image representing an image of the array surface of the wells of the microplate according to a reference image generated by causing the imaging device to image the array surface, and each well region in the master image Is generated by causing the imaging device to image the array plane in a state where it is dispensed onto the microplate by a dispensing pipette A plurality of wells based on a tip detection unit that detects a tip position of a chip image in the target image, a tip position in the target image, and pixel position information associated with each well region And an address acquisition unit for acquiring the address of the well where the tip of the chip is located.

Description

本発明は、分注ピペットを用いてマイクロプレートに分注する分注作業を支援するためのウェルアドレス取得システム、ウェルアドレス取得方法、及びプログラムに関する。   The present invention relates to a well address acquisition system, a well address acquisition method, and a program for supporting a dispensing operation of dispensing into a microplate using a dispensing pipette.

従来、医療分野や生化学分野等においては、検査や実験の際に、液体を収容する複数のウェルが設けられたマイクロプレートが用いられている。一般的なマイクロプレートにおいては、多数のウェルがマトリックス状に配列されており、これらのウェルの配列面の端部(例えば、左辺や上辺近傍)に、ウェルの行や列を示す数字やアルファベットが表示されている。各ウェルの位置(以下、ウェルアドレス又は単にアドレスともいう。)は、これらの記号を用いて、例えば「A行1列」或いは「A1」などと表される。なお、マイクロプレートは、ウェルプレート、マイクロウェルプレートなどとも呼ばれる。   Conventionally, in the medical field, the biochemical field, and the like, a microplate provided with a plurality of wells for storing liquids is used for examinations and experiments. In a general microplate, a large number of wells are arranged in a matrix, and numbers and alphabets indicating the rows and columns of the wells are arranged at the end portions (for example, near the left side and the upper side) of the wells. It is displayed. The position of each well (hereinafter also referred to as a well address or simply an address) is represented by, for example, “A row 1 column” or “A1” using these symbols. Note that the microplate is also referred to as a well plate, a microwell plate, or the like.

分注ピペットを用いて手作業で分注を行う場合、作業者は、多数のウェルの中から、端部に表示された記号をもとに分注すべきウェルを探し出して分注を行う。このような作業には長時間にわたる高い集中力が要求されるため、作業者にとっては負担やストレスが大きい。また、本来分注すべきでないウェルに誤って分注してしまうという人為的なミスが発生するおそれもある。   When manually dispensing using a dispensing pipette, the operator searches for a well to be dispensed from among a number of wells based on the symbol displayed at the end, and dispenses it. Such work requires a high concentration over a long period of time, which is burdensome and stressful for the operator. In addition, there is a possibility that an artificial mistake of accidentally dispensing into wells that should not be dispensed may occur.

このような問題に対し、特許文献1には、各ウェルに対して底部から検査光を照射することにより、ウェルに液体が収容されているか否かをオペレータが視認できるようにする技術が開示されている。   For such a problem, Patent Document 1 discloses a technique that allows an operator to visually recognize whether or not liquid is contained in a well by irradiating each well with inspection light from the bottom. ing.

特開2010−96754号公報JP 2010-96754 A

作業者は、ウェルのアドレスを目視で確認するため、分注しようとして分注ピペットのチップの先端部を差し入れているウェルが、本来分注すべき正しいウェルであるか否かを判断することは容易ではない。この点に関し、上記特許文献1においては、既に液体が収容されたウェルと、まだ液体が収容されていないウェルとを判別することは行っているものの、作業者が分注しようとしているウェルを特定することは行っていない。   To visually confirm the address of the well, the operator must determine whether the well into which the tip of the pipette pipette tip has been inserted is the correct well to be dispensed. It's not easy. In this regard, in the above-mentioned Patent Document 1, although the well in which the liquid has already been stored and the well in which the liquid has not yet been stored are identified, the well to be dispensed by the operator is specified. I don't do it.

本発明は上記に鑑みてなされたものであって、分注しようとしているウェルのアドレスを作業者が容易に把握することができるウェルアドレス取得システム、ウェルアドレス取得方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides a well address acquisition system, a well address acquisition method, and a program that enable an operator to easily grasp the address of a well to be dispensed. Objective.

上記課題を解決するために、本発明の一態様に係るウェルアドレス取得システムは、受光面に入射した光を光電変換することにより電気信号を生成する撮像素子を有し、該電気信号に基づく画像データを生成して出力する撮像装置と、前記撮像装置から出力される画像データに基づいて画像を生成する情報処理装置と、を備え、前記情報処理装置は、マイクロプレートが有する複数のウェルの配列面を前記撮像装置に撮像させることにより生成された第1の画像データと、分注ピペットにより前記マイクロプレートに分注している状態の前記配列面を前記撮像装置に撮像させることにより生成された第2の画像データとを取得する画像取得部と、前記配列面の像を表すマスター画像であって、前記複数のウェルにそれぞれ対応する領域である複数のウェル領域を含むマスター画像を、前記第1の画像データに基づいて生成された画像である基準画像に合わせて変形させ、前記受光面に対応する画素領域にマッピングすることにより、各ウェル領域を前記画素領域内の画素の位置情報と関連付けるマッピング処理部と、前記第2の画像データに基づいて生成された画像である対象画像から、該対象画像における前記チップの像の先端位置を検出する先端検出部と、前記対象画像における前記先端位置と、前記各ウェル領域と関連付けられた画素の位置情報とに基づいて、前記先端位置が属するウェル領域を抽出することにより、前記複数のウェルのうち前記チップの先端部が位置するウェルのアドレスを取得するアドレス取得部と、を有するものである。   In order to solve the above problems, a well address acquisition system according to one embodiment of the present invention includes an imaging element that generates an electrical signal by photoelectrically converting light incident on a light receiving surface, and an image based on the electrical signal. An imaging device that generates and outputs data; and an information processing device that generates an image based on image data output from the imaging device, wherein the information processing device includes an array of a plurality of wells included in the microplate Generated by causing the imaging device to image the first image data generated by causing the imaging device to image a surface and the array surface in a state of being dispensed to the microplate by a dispensing pipette. An image acquisition unit for acquiring second image data, and a master image representing an image of the array plane, each corresponding to the plurality of wells By transforming a master image including a number of well regions according to a reference image, which is an image generated based on the first image data, and mapping it to a pixel region corresponding to the light receiving surface, each well region A tip position of the chip image in the target image is detected from a mapping processing unit that associates the position information of the pixel in the pixel region with the target image that is an image generated based on the second image data. Based on the tip detection unit, the tip position in the target image, and the position information of the pixel associated with each well region, the well region to which the tip position belongs is extracted. An address acquisition unit that acquires an address of a well in which the tip of the chip is located.

上記ウェルアドレス取得システムにおいて、前記情報処理装置は、前記基準画像内の前記配列面の像における複数の特徴点を取得する特徴点取得部をさらに有し、前記マッピング処理部は、前記複数の特徴点に対応する像が表された前記マスター画像内の複数の点を、前記複数の特徴点にそれぞれ関連付けて画像変換を行っても良い。   In the well address acquisition system, the information processing apparatus further includes a feature point acquisition unit that acquires a plurality of feature points in the image of the array plane in the reference image, and the mapping processing unit includes the plurality of features. Image conversion may be performed by associating a plurality of points in the master image in which images corresponding to the points are represented with the plurality of feature points.

上記ウェルアドレス取得システムにおいて、前記先端検出部は、前記基準画像と前記対象画像との差分画像を生成し、該差分画像から前記先端位置を検出しても良い。   In the well address acquisition system, the tip detection unit may generate a difference image between the reference image and the target image and detect the tip position from the difference image.

上記ウェルアドレス取得システムは、少なくとも前記配列面を照明する面光源をさらに備えても良い。   The well address acquisition system may further include a surface light source that illuminates at least the array surface.

上記ウェルアドレス取得システムは、前記マイクロプレートの前記配列面と平行なスリットが設けられ、該配列面を覆うような光路を進行する光を出射するスリット光源をさらに備え、前記先端検出部は、前記対象画像から、前記チップが前記光を横切ることにより発光する発光点の像を検出し、該像の位置を前記先端位置として検出しても良い。   The well address acquisition system further includes a slit light source that is provided with a slit parallel to the array surface of the microplate, and emits light that travels along an optical path covering the array surface, An image of a light emitting point that emits light when the chip crosses the light may be detected from a target image, and the position of the image may be detected as the tip position.

上記ウェルアドレス取得システムにおいて、前記アドレス取得部は、前記先端位置に対応する前記画素領域内の画素と関連付けられたウェル領域を抽出し、該抽出されたウェル領域に対応するウェルのアドレスを取得しても良い。   In the well address acquisition system, the address acquisition unit extracts a well region associated with a pixel in the pixel region corresponding to the tip position, and acquires a well address corresponding to the extracted well region. May be.

上記ウェルアドレス取得システムにおいて、前記アドレス取得部は、前記先端位置が同一のウェル領域内に所定時間以上留まっている場合に、該同一のウェル領域に対応するウェルのアドレスを取得しても良い。   In the well address acquisition system, the address acquisition unit may acquire an address of a well corresponding to the same well region when the tip position remains in the same well region for a predetermined time or more.

上記ウェルアドレス取得システムは、前記撮像装置に対する前記マイクロプレートの位置を決定する治具をさらに備えても良い。   The well address acquisition system may further include a jig that determines a position of the microplate with respect to the imaging device.

本発明の別の態様であるウェルアドレス取得方法は、受光面に入射した光を光電変換することにより電気信号を生成する撮像素子を有し、該電気信号に基づく画像データを生成して出力する撮像装置と、前記撮像装置から出力される画像データに基づいて画像を生成する情報処理装置と、を備えるウェルアドレス取得システムにおいて、前記情報処理装置が実行するウェルアドレス取得方法であって、マイクロプレートが有する複数のウェルの配列面を前記撮像装置に撮像させることにより生成された第1の画像データを取得するステップ(a)と、前記配列面の像を表すマスター画像であって、前記複数のウェルにそれぞれ対応する領域である複数のウェル領域を含むマスター画像を、前記第1の画像データに基づいて生成された画像である基準画像に合わせて変形させ、前記受光面に対応する画素領域にマッピングすることにより、各ウェル領域を前記画素領域内の画素の位置情報と関連付けるステップ(b)と、分注ピペットにより前記マイクロプレートに分注している状態の前記配列面を前記撮像装置に撮像させることにより生成された第2の画像データを取得するステップ(c)と、前記第2の画像データに基づいて生成された画像である対象画像から、該対象画像における前記チップの像の先端位置を検出するステップ(d)と、前記対象画像における前記先端位置と、前記各ウェル領域と関連付けられた画素の位置情報とに基づいて、前記先端位置が属するウェル領域を抽出することにより、前記複数のウェルのうち前記チップの先端部が位置するウェルのアドレスを取得するステップ(e)と、を含むものである。   A well address acquisition method according to another aspect of the present invention includes an imaging device that generates an electrical signal by photoelectrically converting light incident on a light receiving surface, and generates and outputs image data based on the electrical signal. A well address acquisition method comprising: an imaging apparatus; and an information processing apparatus that generates an image based on image data output from the imaging apparatus. A step (a) of acquiring first image data generated by causing the imaging device to image an array surface of a plurality of wells, and a master image representing an image of the array surface, A master image including a plurality of well regions, each corresponding to a well, is an image generated based on the first image data. (B) associating each well region with pixel position information in the pixel region by deforming it in accordance with a reference image and mapping it to a pixel region corresponding to the light receiving surface; and the microplate by means of a dispensing pipette A step (c) of acquiring second image data generated by causing the imaging device to image the array surface in a state of being dispensed into the image, and an image generated based on the second image data (D) detecting the tip position of the image of the chip in the target image from the target image, and the position information of the pixels associated with the well regions and the tip position in the target image. By extracting the well region to which the tip position belongs, the address of the well where the tip of the chip is located among the plurality of wells And step (e) to obtain, is intended to include.

本発明のさらに別の態様であるプログラムは、受光面に入射した光を光電変換することにより電気信号を生成する撮像素子を有し、該電気信号に基づく画像データを生成して出力する撮像装置と、前記撮像装置から出力される画像データに基づいて画像を生成する情報処理装置と、備えるウェルアドレス取得システムにおいて、前記情報処理装置に実行させるプログラムであって、マイクロプレートが有する複数のウェルの配列面を前記撮像装置に撮像させることにより生成された第1の画像データを取得するステップ(a)と、前記配列面の像を表すマスター画像であって、前記複数のウェルにそれぞれ対応する領域である複数のウェル領域を含むマスター画像を、前記第1の画像データに基づいて生成された画像である基準画像に合わせて変形させ、前記受光面に対応する画素領域にマッピングすることにより、各ウェル領域を前記画素領域内の画素の位置情報と関連付けるステップ(b)と、分注ピペットにより前記マイクロプレートに分注している状態の前記配列面を前記撮像装置に撮像させることにより生成された第2の画像データを取得するステップ(c)と、前記第2の画像データに基づいて生成された画像である対象画像から、該対象画像における前記チップの像の先端位置を検出するステップ(d)と、前記対象画像における前記先端位置と、前記各ウェル領域と関連付けられた画素の位置情報とに基づいて、前記先端位置が属するウェル領域を抽出することにより、前記複数のウェルのうち前記チップの先端部が位置するウェルのアドレスを取得するステップ(e)と、を実行させるものである。   A program according to still another aspect of the present invention includes an imaging device that generates an electrical signal by photoelectrically converting light incident on a light receiving surface, and generates and outputs image data based on the electrical signal And a well address acquisition system comprising: an information processing device that generates an image based on image data output from the imaging device; and a program to be executed by the information processing device, the plurality of wells of the microplate A step (a) of acquiring first image data generated by causing the imaging device to image an array plane; and a master image representing an image of the array plane, each corresponding to the plurality of wells A master image including a plurality of well regions is matched with a reference image that is an image generated based on the first image data. (B) associating each well region with the position information of the pixel in the pixel region by deforming and mapping the pixel region corresponding to the light receiving surface, and dispensing the microplate using a dispensing pipette A step (c) of acquiring second image data generated by causing the imaging device to image the array surface in a state of being present, and a target image that is an image generated based on the second image data Detecting the tip position of the tip image of the chip in the target image, and the tip position based on the tip position in the target image and the position information of the pixels associated with each well region. Extracting a well region to which the tip of the chip is located among the plurality of wells by extracting a well region to which the chip belongs And e), it is intended to run.

本発明によれば、対象画像におけるチップの先端の位置を検出し、この位置と、マスター画像内の各ウェル領域と関連付けられた画素領域内の画素の位置情報とに基づいて、チップの先端部が位置するウェルのアドレスを取得するので、作業者は、分注しようとしているウェルのアドレスを容易に把握することが可能となる。   According to the present invention, the position of the tip of the chip in the target image is detected, and based on this position and the position information of the pixel in the pixel region associated with each well region in the master image, the tip of the chip Since the address of the well where is located is acquired, the operator can easily grasp the address of the well to be dispensed.

本発明の第1の実施形態に係るウェルアドレス取得システムの概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of a well address acquisition system concerning a 1st embodiment of the present invention. 図1に示す装置間の位置関係を説明するための模式図である。It is a schematic diagram for demonstrating the positional relationship between the apparatuses shown in FIG. 図1に示す装置間の位置関係を説明するための模式図である。It is a schematic diagram for demonstrating the positional relationship between the apparatuses shown in FIG. 図1に示す情報処理装置の主要構成を示すブロック図である。It is a block diagram which shows the main structures of the information processing apparatus shown in FIG. マイクロプレートの配列面の一部拡大図である。It is a partial enlarged view of the arrangement surface of a microplate. マスター画像を例示する模式図である。It is a schematic diagram which illustrates a master image. 本発明の第1の実施形態に係るウェルアドレス取得システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the well address acquisition system which concerns on the 1st Embodiment of this invention. マイクロプレートの登録処理を示すフローチャートである。It is a flowchart which shows the registration process of a microplate. マイクロプレートの製品情報の入力画面を例示する模式図である。It is a schematic diagram which illustrates the input screen of the product information of a microplate. 基準画像を例示する模式図である。It is a schematic diagram which illustrates a reference image. 画像変換が施されたマスター画像を例示する模式図である。It is a schematic diagram which illustrates the master image to which image conversion was performed. マスター画像のマッピング処理を説明するための模式図である。It is a schematic diagram for demonstrating the mapping process of a master image. 対象画像を例示する模式図である。It is a schematic diagram which illustrates a target image. 差分画像を例示する模式図である。It is a schematic diagram which illustrates a difference image. 分注支援画面を例示する模式図である。It is a schematic diagram which illustrates a dispensing assistance screen. ウェルアドレスの取得処理を示すフローチャートである。It is a flowchart which shows the acquisition process of a well address. ウェルアドレスの取得処理を説明するための模式図である。It is a schematic diagram for demonstrating the acquisition process of a well address. ウェルアドレスの確定処理を説明するための模式図である。It is a schematic diagram for demonstrating the determination process of a well address. 分注支援画面(チップの位置が誤っている場合)を例示する模式図である。It is a schematic diagram which illustrates a dispensing assistance screen (when the position of a chip | tip is incorrect). 分注支援画面(チップの位置が正しい場合)を例示する模式図である。It is a schematic diagram which illustrates a dispensing assistance screen (when the position of a chip | tip is correct). 製品情報の登録処理の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the modification of the registration process of product information. 特徴点の取得処理の第1の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 1st modification of the acquisition process of a feature point. 特徴点の取得処理の第2の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 2nd modification of the acquisition process of a feature point. 特徴点の取得処理の第2の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 2nd modification of the acquisition process of a feature point. チップ先端の位置の取得処理の第1の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 1st modification of the acquisition process of the position of a chip | tip tip. チップ先端の位置の取得処理の第2の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 2nd modification of the acquisition process of the position of a chip | tip tip. チップ先端の位置の取得処理の第2の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 2nd modification of the acquisition process of the position of a chip | tip tip. チップ先端の位置の取得処理の第3の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 3rd modification of the acquisition process of the position of a chip | tip tip. チップ先端の位置の取得処理の第3の変形例を説明するための模式図である。It is a schematic diagram for demonstrating the 3rd modification of the acquisition process of the position of a chip | tip tip. 本発明の第2の実施形態に係るウェルアドレス取得システムの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the well address acquisition system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態において生成される対象画像を例示する模式図である。It is a schematic diagram which illustrates the target image produced | generated in the 2nd Embodiment of this invention.

以下、本発明の実施形態に係るウェルアドレス取得システム、ウェルアドレス取得方法、及びプログラムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   Hereinafter, a well address acquisition system, a well address acquisition method, and a program according to embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited by these embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

以下の説明において参照する図面は、本発明の内容を理解し得る程度に形状、大きさ、及び位置関係を概略的に示しているに過ぎない。即ち、本発明は各図で例示された形状、大きさ、及び位置関係のみに限定されるものではない。また、図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。   The drawings referred to in the following description only schematically show the shape, size, and positional relationship so that the content of the present invention can be understood. That is, the present invention is not limited only to the shape, size, and positional relationship illustrated in each drawing. Also, there are cases in which parts having different dimensional relationships and ratios are included between the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係るウェルアドレス取得システムの概略構成を示す図である。図2及び図3は、図1に示す装置間の位置関係を説明するための模式図である。
(First embodiment)
FIG. 1 is a diagram showing a schematic configuration of a well address acquisition system according to the first embodiment of the present invention. 2 and 3 are schematic diagrams for explaining the positional relationship between the apparatuses shown in FIG.

図1に示すウェルアドレス取得システム1は、複数のウェル2aが配列されたマイクロプレート2に分注ピペット3を用いて分注する分注作業において、分注ピペット3のチップ3aの先端部が位置するウェル2aのアドレス(以下、ウェルアドレス、又は単にアドレスともいう。)を取得するシステムである。同図に示すように、ウェルアドレス取得システム1は、マイクロプレート2を撮像して画像データを出力するカメラ4と、マイクロプレート2を照明する照明装置5と、カメラ4から出力された画像データを取り込んで画像を生成し、この画像に基づいてウェルアドレスを取得する情報処理装置6とを備える。   In the well address acquisition system 1 shown in FIG. 1, the tip of the tip 3a of the dispensing pipette 3 is positioned in the dispensing operation in which the dispensing pipette 3 is used to dispense the microplate 2 in which a plurality of wells 2a are arranged. This is a system for acquiring the address of the well 2a (hereinafter also referred to as well address or simply address). As shown in the figure, the well address acquisition system 1 captures the image data output from the camera 4 that images the microplate 2 and outputs image data, the illumination device 5 that illuminates the microplate 2, and the camera 4. An information processing apparatus 6 that captures and generates an image and obtains a well address based on the image;

マイクロプレート2は、ポリエチレン、ポリプロピレン、ポリスチレン等の樹脂やガラスなどによって形成されたプレート状の基材に、検体や試薬等を配置するくぼみ(ウェル2a)をマトリックス状に配列した器具であり、ウェルプレート、マイクロウェルプレートとも呼ばれる。本実施形態においては、一例として、ウェル2aが8行12列で配列された96ウェルのマイクロプレート2を使用する場合を説明するが、本発明は、マイクロプレートのサイズ(ウェルの数)や形状、メーカー等によらず、あらゆる種類のマイクロプレートを使用する場合に適用することができる。   The microplate 2 is an instrument in which depressions (wells 2a) for arranging specimens and reagents are arranged in a matrix on a plate-like substrate formed of a resin such as polyethylene, polypropylene, polystyrene, or glass. Also called plate or microwell plate. In the present embodiment, as an example, a case where a 96-well microplate 2 in which wells 2a are arranged in 8 rows and 12 columns is used will be described. It can be applied when using all kinds of microplates regardless of manufacturers.

分注ピペット3は、ピペット本体3bと、該ピペット本体3bの先端に取り付けられるチップ3aと有する。ピペット本体3bにはシリンジが設けられ、該シリンジ内において軸方向に沿ってピストンを往復移動させることにより、チップ3aの先端から液体を吸入すると共に、この先端から液体を注出する。   The dispensing pipette 3 has a pipette body 3b and a tip 3a attached to the tip of the pipette body 3b. The pipette main body 3b is provided with a syringe, and by reciprocating the piston along the axial direction in the syringe, the liquid is sucked from the tip of the tip 3a and the liquid is poured out from the tip.

分注ピペット3としては、手動でピストンを操作するタイプや、電動モータでピストンを駆動するタイプなど様々な製品が知られているが、本発明は、ピストンの駆動方式やピペットのサイズ、メーカー等によらず、シングルチャンネルタイプであればあらゆる種類の分注ピペットを使用する場合に適用することができる。例えば、WiFi(Wireless Fidelity)やブルートゥース(登録商標)等の通信ネットワークを介して情報処理装置6と通信する分注ピペットを用いることも可能である。このような分注ピペットを用いる場合、情報処理装置6から分注ピペットに電動モータの駆動量を制御する制御信号を送信することにより、分注量を自動調節することができる。或いは、電動モータの駆動を検知する検知信号を分注ピペットから情報処理装置6に送信することにより、分注が行われた旨を情報処理装置6において把握することができる。   As the pipetting pipette 3, various products are known such as a type in which the piston is manually operated and a type in which the piston is driven by an electric motor. However, the present invention is a piston driving method, pipette size, manufacturer, etc. Regardless, the single-channel type can be applied when using any kind of pipetting pipette. For example, a pipette pipette that communicates with the information processing apparatus 6 via a communication network such as WiFi (Wireless Fidelity) or Bluetooth (registered trademark) can be used. When such a pipetting pipette is used, the pipetting quantity can be automatically adjusted by transmitting a control signal for controlling the driving amount of the electric motor from the information processing device 6 to the pipetting pipette. Alternatively, by transmitting a detection signal for detecting the drive of the electric motor from the pipette pipette to the information processing apparatus 6, the information processing apparatus 6 can grasp that the dispensing has been performed.

カメラ4は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子4aを有し、所定の撮像フレームレート(例えば、15fps以上)で動画の撮像が可能な撮像装置である。撮像素子4aは、該カメラ4に入射し、光学系により結像させられた光(被写体像)を受光面において受光し、光電変換を行うことにより電気信号を生成する。カメラ4は、この電気信号に対し、増幅、A/D変換等の所定の信号処理を施すことにより画像データを生成して出力する。   The camera 4 is an imaging device that has an imaging element 4a such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and that can capture a moving image at a predetermined imaging frame rate (for example, 15 fps or more). The image sensor 4a receives light (subject image) incident on the camera 4 and imaged by the optical system on the light receiving surface, and generates an electrical signal by performing photoelectric conversion. The camera 4 generates and outputs image data by performing predetermined signal processing such as amplification and A / D conversion on the electrical signal.

カメラ4としては、撮像素子4aの受光面上に所定の配列(例えば、ベイヤ配列)でカラーフィルタが配置された、カラー画像を生成可能なカメラを用いることが好ましい。より好ましくは、分注作業の妨げにならないような小型カメラ、例えば、USB(Universal Serial Bus)ケーブルを介して情報処理装置6と接続可能なUSBカメラ等を用いると良い。   As the camera 4, it is preferable to use a camera capable of generating a color image in which color filters are arranged in a predetermined arrangement (for example, a Bayer arrangement) on the light receiving surface of the image sensor 4 a. More preferably, a small camera that does not interfere with the dispensing operation, for example, a USB camera that can be connected to the information processing apparatus 6 via a USB (Universal Serial Bus) cable may be used.

図2に示すように、カメラ4は、マイクロプレート2の配列面2b全体を視野Vに収めるように配置される。なお、図1及び図2においては、カメラ4を照明装置5の上に設置しているが、カメラ4の設置方法はこれに限定されない。例えば、分注作業の作業台又は後述するステージ7の上にスタンドを設置し、このスタンドにカメラ4を取り付けても良い。いずれにしても、配列面2b全体を撮像でき、且つ、分注作業の邪魔にならない位置にカメラ4を設置する。特に、分注作業中に、作業者の手などによってカメラの視界が遮られ、チップ3aの先端がカメラ4に写らないといったことがないよう、カメラ4の位置や角度を決定する必要がある。   As shown in FIG. 2, the camera 4 is arranged so that the entire arrangement surface 2 b of the microplate 2 is accommodated in the visual field V. In FIGS. 1 and 2, the camera 4 is installed on the illumination device 5, but the installation method of the camera 4 is not limited to this. For example, a stand may be installed on a work table for dispensing work or a stage 7 described later, and the camera 4 may be attached to the stand. In any case, the camera 4 is installed at a position where the entire array surface 2b can be imaged and does not interfere with the dispensing operation. In particular, it is necessary to determine the position and angle of the camera 4 so that the field of view of the camera is not blocked by the operator's hand and the tip of the chip 3a is not reflected on the camera 4 during the dispensing operation.

照明装置5は、マイクロプレート2の配列面2bを照明する光源装置である。照明装置5としては、配列面2b全体をほぼ均一な照度で照明することができるように、平面状の発光面5aを有する面光源を用いることが好ましい。より好ましくは、室内灯等の外乱光の影響を抑制するため、高輝度の光源を用いると良い。本実施形態においては、照明装置5として、高輝度LED面照明(フラット照明)(例えば、株式会社イマック製のチップLED面照明IDHM−62/122DWT)を用いている。   The illumination device 5 is a light source device that illuminates the arrangement surface 2 b of the microplate 2. As the illuminating device 5, it is preferable to use a surface light source having a planar light emitting surface 5 a so that the entire array surface 2 b can be illuminated with substantially uniform illuminance. More preferably, a high-luminance light source is used to suppress the influence of ambient light such as room light. In this embodiment, high-luminance LED surface illumination (flat illumination) (for example, chip LED surface illumination IDHM-62 / 122DWT manufactured by Immac Co., Ltd.) is used as the illumination device 5.

照明装置5のサイズやマイクロプレート2との位置関係は、マイクロプレート2のサイズに応じて適宜調整することが好ましい。図2に示すように、発光面5aから見てマイクロプレート2の手前側を十分に照明できるように、発光面5aからマイクロプレート2までの距離Lはある程度(例えば、5cm以上)離した方が良い。また、発光面5aから見てマイクロプレート2の先端側を十分に照明できるように、発光面5aの高さHを、配列面2bの高さhの数倍程度にすると良い。汎用のマイクロプレート2を用いる場合には、発光面5aの高さHを7cm以上にすると良い。さらに、図3に示すように、配列面2bの左右の端部まで十分に照明できるように、発光面5aの幅Wをマイクロプレート2の幅w以上にすると良い。   The size of the illumination device 5 and the positional relationship with the microplate 2 are preferably adjusted as appropriate according to the size of the microplate 2. As shown in FIG. 2, the distance L from the light emitting surface 5a to the microplate 2 should be a certain amount (for example, 5 cm or more) so that the front side of the microplate 2 can be sufficiently illuminated when viewed from the light emitting surface 5a. good. Further, the height H of the light emitting surface 5a is preferably several times the height h of the arrangement surface 2b so that the front end side of the microplate 2 can be sufficiently illuminated when viewed from the light emitting surface 5a. When the general-purpose microplate 2 is used, the height H of the light emitting surface 5a is preferably 7 cm or more. Furthermore, as shown in FIG. 3, the width W of the light emitting surface 5a is preferably set to be equal to or larger than the width w of the microplate 2 so that the left and right ends of the arrangement surface 2b can be sufficiently illuminated.

なお、照明装置5は、マイクロプレート2の周囲がカメラ4によって配列面2b全体を十分に撮像できる程度に明るければ省略することも可能である。   The illumination device 5 may be omitted if the periphery of the microplate 2 is bright enough to capture the entire array surface 2b by the camera 4.

マイクロプレート2は、好ましくは、表面が均一な黒で塗装されたステージ7上に載置すると良い。マイクロプレート2は透明又は半透明の材料によって形成されていることが多いため、カメラ4でマイクロプレート2を撮像する際、背景が黒色になることにより画像のコントラストが高くなり、後述する画像処理の精度を向上させることができる。   The microplate 2 is preferably placed on the stage 7 painted with a uniform black surface. Since the microplate 2 is often made of a transparent or translucent material, when the microplate 2 is imaged by the camera 4, the background becomes black, and the contrast of the image is increased. Accuracy can be improved.

ステージ7には、マイクロプレート2を位置決めするための治具8を設置しても良い。治具8は、例えばL字をなす棒状又は壁状の部材であり、ステージ7に固定されている。この治具8に、マイクロプレート2の直交する2つの側面を当接させることにより、ステージ7上におけるマイクロプレート2が決定される。この治具8に対するカメラ4及び照明装置5の位置を固定しておくことで、マイクロプレート2を治具8に合わせてステージ7上に載置するだけで、マイクロプレート2とカメラ4及び照明装置5との相対的な位置関係を適切な状態に維持することができる。なお、図1においては、照明装置5をステージ7上に載置しているが、照明装置5をステージ7の外側に設置しても良い。   A jig 8 for positioning the microplate 2 may be installed on the stage 7. The jig 8 is a bar-shaped or wall-shaped member having an L shape, for example, and is fixed to the stage 7. By bringing two orthogonal side surfaces of the microplate 2 into contact with the jig 8, the microplate 2 on the stage 7 is determined. By fixing the positions of the camera 4 and the illumination device 5 with respect to the jig 8, the microplate 2, the camera 4, and the illumination device can be simply mounted on the stage 7 according to the jig 8. 5 can be maintained in an appropriate state. In FIG. 1, the illumination device 5 is placed on the stage 7, but the illumination device 5 may be installed outside the stage 7.

図4は、情報処理装置6の主要構成を示すブロック図である。情報処理装置6は、例えば、パーソナルコンピュータ(PC)やノートPC等によって構成され、所定のプログラムを実行することにより、カメラ4と連携して、マイクロプレート2に対する分注作業を支援するための各種機能を実現する。   FIG. 4 is a block diagram showing the main configuration of the information processing apparatus 6. The information processing apparatus 6 is configured by, for example, a personal computer (PC), a notebook PC, or the like, and executes various programs to support dispensing work for the microplate 2 in cooperation with the camera 4 by executing a predetermined program. Realize the function.

図4に示すように、情報処理装置6は、画像取得部61と、表示部62と、入力部63と、通信部64と、記憶部65と、演算部66とを有する。画像取得部61は、カメラ4等の各種外部機器との間で画像データや種々の信号の入出力を行う外部インタフェースである。具体的には、USBインタフェース等を含む。   As illustrated in FIG. 4, the information processing apparatus 6 includes an image acquisition unit 61, a display unit 62, an input unit 63, a communication unit 64, a storage unit 65, and a calculation unit 66. The image acquisition unit 61 is an external interface that inputs and outputs image data and various signals to and from various external devices such as the camera 4. Specifically, a USB interface and the like are included.

表示部62は、例えば、液晶ディスプレイや有機ELディスプレイ等であり、演算部66の制御の下で所定の画面を表示する。   The display unit 62 is, for example, a liquid crystal display or an organic EL display, and displays a predetermined screen under the control of the calculation unit 66.

入力部63は、キーボード、マウス、タッチパネル等の入力デバイスによって構成され、ユーザによりなされた操作に応じた情報を演算部66に入力する。   The input unit 63 includes an input device such as a keyboard, a mouse, and a touch panel, and inputs information corresponding to an operation performed by the user to the calculation unit 66.

通信部64は、当該情報処理装置6を通信ネットワークの接続し、該通信ネットワークを介して他の機器との間で情報を送受信する通信インタフェースである。具体的には、光モデム、ソフトモデム、ケーブルモデム等を含む。通信ネットワークは、例えば、WiFi(Wireless Fidelity)、ブルートゥース(登録商標)、インターネット、LAN、電話回線等のいずれであっても良い。   The communication unit 64 is a communication interface that connects the information processing apparatus 6 to a communication network and transmits / receives information to / from other devices via the communication network. Specifically, an optical modem, a soft modem, a cable modem, etc. are included. The communication network may be, for example, any one of WiFi (Wireless Fidelity), Bluetooth (registered trademark), the Internet, a LAN, a telephone line, and the like.

記憶部65は、ディスクドライブ、ROM、RAM等の半導体メモリなどのコンピュータ読取可能な記憶媒体を用いて構成される。記憶部65は、オペレーティングシステムプログラムやドライバプログラムの他、情報処理装置6に所定の動作を実行させるためのプログラムや、該プログラムの実行中に使用される各種データ及び設定情報等を記憶する。詳細には、記憶部65は、プログラム記憶部651と、マスター情報記憶部652と、画像記憶部653と、分注設定情報記憶部654とを有する。このうち、プログラム記憶部651は、演算部66に実行させるウェルアドレス取得プログラムを記憶する。   The storage unit 65 is configured using a computer-readable storage medium such as a semiconductor memory such as a disk drive, ROM, or RAM. In addition to the operating system program and the driver program, the storage unit 65 stores a program for causing the information processing apparatus 6 to execute a predetermined operation, various data used during the execution of the program, setting information, and the like. Specifically, the storage unit 65 includes a program storage unit 651, a master information storage unit 652, an image storage unit 653, and a dispensing setting information storage unit 654. Among these, the program storage unit 651 stores a well address acquisition program to be executed by the calculation unit 66.

マスター情報記憶部652は、分注作業において用いられるマイクロプレート2の製品情報と、該マイクロプレート2の配列面2bを模式的に表す画像であるマスター画像とを記憶する。図5は、マイクロプレート2の配列面2bの一部拡大図である。図6は、マスター画像を例示する模式図である。   The master information storage unit 652 stores product information of the microplate 2 used in the dispensing operation and a master image that is an image schematically representing the arrangement surface 2b of the microplate 2. FIG. 5 is a partially enlarged view of the arrangement surface 2 b of the microplate 2. FIG. 6 is a schematic view illustrating a master image.

図5に示すように、製品情報は、配列面2b上の所定点(例えば、左辺と上辺とが交差する角)を原点(0,0)とした場合の原点から最も近いウェル2a(例えばA行1列のウェル)の中心座標(XA1,YA1)、ウェル2aのピッチ(ΔX,ΔY)、ウェル2aの径φ、ウェル2aの数(nX列,nY行)など、マイクロプレート2の各部のサイズに関する情報を含む。このような製品情報は、分注作業を行う都度、入力部63から入力しても良いし、予めマスター情報記憶部652に記憶させておき、分注作業を行う際に読み出すこととしても良い。本実施形態においては、前者の場合を説明する。As shown in FIG. 5, the product information includes the well 2a (for example, A) closest to the origin when a predetermined point on the arrangement surface 2b (for example, the angle at which the left side and the upper side intersect) is the origin (0, 0). Microplate including center coordinates (X A1 , Y A1 ), well 2a pitch (ΔX, ΔY), well 2a diameter φ, number of wells 2a (n X columns, n Y rows) 2 includes information on the size of each part. Such product information may be input from the input unit 63 every time a dispensing operation is performed, or may be stored in advance in the master information storage unit 652 and read when the dispensing operation is performed. In the present embodiment, the former case will be described.

図6に示すように、マスター画像M1は、配列面2bの輪郭を表す矩形の領域に、ウェル2aを表すウェル領域RA1、RA2、…を、上述した製品情報に基づいて配列したものである。このようなマスター画像M1は、分注作業を行う都度、製品情報に基づいて作成しても良いし、マイクロプレートのメーカーや製品番号ごとに予め作成したものをマスター情報記憶部652に記憶させておいても良い。As shown in FIG. 6, the master image M1 is obtained by arranging well regions R A1 , R A2 ,... Representing the well 2a in a rectangular region representing the outline of the arrangement surface 2b based on the product information described above. is there. Such a master image M1 may be created on the basis of product information each time a dispensing operation is performed, or a master image storage unit 652 stores a pre-created image for each manufacturer and product number of a microplate. You can leave it.

画像記憶部653は、カメラ4から出力された画像データに基づき、後述する画像処理部662において生成された画像を記憶する。   The image storage unit 653 stores an image generated by the image processing unit 662 described later based on the image data output from the camera 4.

分注設定情報記憶部654は、分注作業を行う際の設定情報(分注設定情報)を記憶する。分注設定情報は、分注するウェル2aのアドレスや順序、各ウェル2aに分注される液体の種類、各ウェル2aへの分注量等の情報を含む。   The dispensing setting information storage unit 654 stores setting information (dispensing setting information) for performing dispensing work. The dispensing setting information includes information such as the address and order of the wells 2a to be dispensed, the type of liquid dispensed to each well 2a, and the amount dispensed to each well 2a.

演算部66は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のハードウェアを用いて構成され、プログラム記憶部651に記憶されているプログラムを読み込んで実行することにより、情報処理装置6の各部へのデータ転送や指示を行い、情報処理装置6の動作を統括的に制御する。また、演算部66は、ウェルアドレス取得プログラムを実行することにより、カメラ4から取得した画像データに基づく画像を生成し、該画像から、分注ピペット3のチップ3aの先端部が位置するウェル2aのアドレスを取得する演算処理を実行する。詳細には、演算部66がウェルアドレス取得プログラムを実行することにより実現される機能部には、マスター画像取得部661、画像処理部662、アドレス取得部663、分注指示部664、及び表示制御部665が含まれる。   The calculation unit 66 is configured by using hardware such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and reads and executes a program stored in the program storage unit 651, whereby the information processing apparatus 6 The data transfer to each unit and instructions are performed, and the operation of the information processing apparatus 6 is comprehensively controlled. In addition, the calculation unit 66 generates an image based on the image data acquired from the camera 4 by executing the well address acquisition program, and the well 2a in which the tip of the tip 3a of the pipetting pipette 3 is located from the image. Execute the calculation process to get the address. Specifically, the functional units realized by the calculation unit 66 executing the well address acquisition program include a master image acquisition unit 661, an image processing unit 662, an address acquisition unit 663, a dispensing instruction unit 664, and display control. A portion 665 is included.

マスター画像取得部661は、入力部63から入力される情報に基づいて、分注作業に用いられるマイクロプレート2の製品情報を登録すると共に、該製品情報に基づいてマスター画像を取得する。   The master image acquisition unit 661 registers product information of the microplate 2 used for dispensing work based on information input from the input unit 63, and acquires a master image based on the product information.

画像処理部662は、カメラ4から出力され、画像取得部61により取得された画像データに対し、デモザイキング、ホワイトバランス処理、ガンマ補正等の所定の画像処理を施すことにより画像を生成する。また、画像処理部662は、特徴点取得部662a、マッピング処理部662b、及び先端検出部662cを有し、生成した画像を用いて所定の処理を行う。   The image processing unit 662 generates an image by performing predetermined image processing such as demosaicing, white balance processing, and gamma correction on the image data output from the camera 4 and acquired by the image acquisition unit 61. The image processing unit 662 includes a feature point acquisition unit 662a, a mapping processing unit 662b, and a tip detection unit 662c, and performs predetermined processing using the generated image.

特徴点取得部662aは、分注作業の開始前に生成された画像(即ち、分注ピペット3がカメラ4の視野に入っていないときに撮像された画像)内の配列面2bの像における複数の特徴点を取得する。   The feature point acquisition unit 662a includes a plurality of images in the array surface 2b in an image generated before the start of the dispensing operation (that is, an image captured when the dispensing pipette 3 is not within the field of view of the camera 4). Get feature points.

マッピング処理部662bは、上記複数の特徴点をもとに、該画像内の配列面2bの像に合わせてマスター画像M1を変形させ、変形したマスター画像を撮像素子4aの受光面に対応する画素領域にマッピングすることにより、マスター画像M1内のウェル領域を画素領域内の画素の位置情報と関連付ける。   Based on the plurality of feature points, the mapping processing unit 662b deforms the master image M1 according to the image of the array surface 2b in the image, and the deformed master image is a pixel corresponding to the light receiving surface of the image sensor 4a. By mapping to the region, the well region in the master image M1 is associated with the position information of the pixel in the pixel region.

先端検出部662cは、分注作業中に生成された画像(即ち、配列面2b及び分注ピペット3が写った画像)から、該画像におけるチップ3aの像の先端(以下、チップ先端とも略す。)の位置(先端位置)を検出する。   The tip detector 662c is also referred to as the tip of the image of the tip 3a in the image (hereinafter also abbreviated to the tip of the tip) from the image generated during the dispensing operation (ie, the image showing the arrangement surface 2b and the dispensing pipette 3). ) Position (tip position).

アドレス取得部663は、先端検出部662cにより検出されたチップ先端の位置と、各ウェル領域と関連付けられた画素領域内の画素の位置情報とに基づき、実際のマイクロプレート2においてチップ3aの先端部が位置するウェル2aのアドレスを取得する。   The address acquisition unit 663 uses the tip of the chip 3a in the actual microplate 2 based on the position of the tip of the chip detected by the tip detection unit 662c and the position information of the pixels in the pixel region associated with each well region. The address of the well 2a in which is located is acquired.

分注指示部664は、分注設定情報記憶部654に記憶されている分注設定情報に基づいて、マイクロプレート2への分注を作業者に指示する指示情報を生成する。   The dispensing instruction unit 664 generates instruction information for instructing the operator to dispense the microplate 2 based on the dispensing setting information stored in the dispensing setting information storage unit 654.

表示制御部665は、ウェルアドレス取得システム1の一連の動作において表示部62に表示させる画面を生成する。   The display control unit 665 generates a screen to be displayed on the display unit 62 in a series of operations of the well address acquisition system 1.

次に、ウェルアドレス取得システム1の動作について説明する。図7は、ウェルアドレス取得システム1の動作を示すフローチャートである。まず、分注作業の準備として、作業者は、分注するマイクロプレート2をステージ7上に載置する。この際、図1に示すように、マイクロプレート2の左側及び上側の側面を治具8に当接させることにより位置決めを行う。なお、ステージ7に治具8が設置されていない場合には、分注作業中にマイクロプレート2の位置がずれることのないように、マイクロプレート2の位置を固定するか、マイクロプレート2を載置した箇所にマーキングをしておくと良い。   Next, the operation of the well address acquisition system 1 will be described. FIG. 7 is a flowchart showing the operation of the well address acquisition system 1. First, as preparation for the dispensing operation, the operator places the microplate 2 to be dispensed on the stage 7. At this time, as shown in FIG. 1, positioning is performed by bringing the left and upper side surfaces of the microplate 2 into contact with the jig 8. When the jig 8 is not installed on the stage 7, the position of the microplate 2 is fixed or the microplate 2 is mounted so that the position of the microplate 2 is not shifted during the dispensing operation. It is good to mark the place where it was placed.

ステップS10において、演算部66は、マイクロプレート2の登録を行う。図8は、マイクロプレートの登録処理を示すフローチャートである。   In step S <b> 10, the calculation unit 66 registers the microplate 2. FIG. 8 is a flowchart showing a microplate registration process.

ステップS100において、表示制御部665は、マイクロプレート2の製品情報を入力させるための画面を表示部62に表示させる。図9は、マイクロプレートの製品情報の入力画面を例示する模式図である。図9に示す入力画面P1は、マイクロプレート2の原点(図5参照)から見たA行1列のウェル(ウェルA1)の中心座標(XA1,YA1)の入力欄p11と、ウェル2aのピッチ(列ピッチΔX,行ピッチΔY)の入力欄p12と、ウェル2aの数(列数及び行数)の入力欄p13と、ウェルの径φの入力欄p14と、OKボタンp15とを含む。作業者は、分注を行うマイクロプレート2の製品情報をこれらの入力欄p11〜p14に入力し、さらにOKボタンp15に対して所定の操作(例えばマウスによるクリック操作)を行う。入力部63は、OKボタンp15に対する操作を検知すると、入力欄p11〜p14に入力された情報をマスター画像取得部661に入力する。In step S100, the display control unit 665 causes the display unit 62 to display a screen for inputting the product information of the microplate 2. FIG. 9 is a schematic view illustrating an input screen for product information on a microplate. The input screen P1 shown in FIG. 9 includes an input field p11 for the center coordinates (X A1 , Y A1 ) of the well (well A1) in the A row and the first column viewed from the origin of the microplate 2 (see FIG. 5), and the well 2a. Input column p12 for the pitch (column pitch ΔX, row pitch ΔY), an input column p13 for the number of wells 2a (number of columns and rows), an input column p14 for the well diameter φ, and an OK button p15. . The operator inputs product information of the microplate 2 to be dispensed into these input fields p11 to p14, and further performs a predetermined operation (for example, a click operation with a mouse) on the OK button p15. When the input unit 63 detects an operation on the OK button p15, the input unit 63 inputs the information input in the input fields p11 to p14 to the master image acquisition unit 661.

ステップS101において、マスター画像取得部661は、入力部63から入力された情報を、マイクロプレート2の製品情報として登録する。   In step S <b> 101, the master image acquisition unit 661 registers the information input from the input unit 63 as product information of the microplate 2.

続くステップS102において、マスター画像取得部661は、ステップS101において登録した製品情報をもとに、マスター画像を取得する。詳細には、図6に示すマスター画像M1において、製品情報に基づいて原点を基準にウェル領域RA1、RA2、…を配列し直すと共に、各ウェル領域の径φ’を調節する。In subsequent step S102, the master image acquisition unit 661 acquires a master image based on the product information registered in step S101. Specifically, in the master image M1 shown in FIG. 6, the well regions R A1 , R A2 ,... Are rearranged based on the origin based on the product information, and the diameter φ ′ of each well region is adjusted.

続くステップS103において、情報処理装置6は、カメラ4にマイクロプレート2を撮像させ、カメラ4から出力される画像データ(第1の画像データ)に基づいて画像を生成する。このとき、まだ分注作業は開始されていないため、分注ピペット3は画像に写っておらず、マイクロプレート2の配列面2bが欠けることなく写った画像が得られる。表示制御部665は、この画像を表示部62に表示させる。なお、このときに取得する画像は静止画で良い。以下、マイクロプレート2の登録処理において取得された画像のことを基準画像という。   In subsequent step S <b> 103, the information processing apparatus 6 causes the camera 4 to image the microplate 2 and generates an image based on image data (first image data) output from the camera 4. At this time, since the dispensing operation has not yet started, the dispensing pipette 3 is not shown in the image, and an image showing the arrangement surface 2b of the microplate 2 without being missing is obtained. The display control unit 665 displays this image on the display unit 62. Note that the image acquired at this time may be a still image. Hereinafter, the image acquired in the registration process of the microplate 2 is referred to as a reference image.

図10は、基準画像を例示する模式図である。ここで、図1に示すように、本実施形態においては、マイクロプレート2を斜め方向からカメラ4で撮像するので、図10に示す基準画像M2においては、配列面2bの像m20の輪郭や複数のウェルの像m21の配列が台形に歪んだ状態になり、各ウェルの像m21も扁平に潰れた状態となる。この基準画像M2を含め、カメラ4で撮像することにより生成された画像は、撮像素子4aの受光面に対応する画素領域I1に対応する画像サイズを有している。   FIG. 10 is a schematic diagram illustrating a reference image. Here, as shown in FIG. 1, in this embodiment, since the microplate 2 is imaged by the camera 4 from an oblique direction, the reference image M2 shown in FIG. The array of well images m21 is distorted in a trapezoidal shape, and the image m21 of each well is flattened. An image generated by imaging with the camera 4 including the reference image M2 has an image size corresponding to the pixel region I1 corresponding to the light receiving surface of the imaging element 4a.

続くステップS104において、特徴点取得部662aは、表示部62に表示された基準画像M2に対して作業者に特徴点を指定させることにより、該指定された特徴点の位置を取得する。ここで、特徴点とは、マスター画像M1と基準画像M2との間で対応する像が写っている点のことであり、少なくとも4箇所が指定される。本実施形態においては、図10に示す複数のウェルの像m21のうち、4隅に配置されたウェルの像CA1、CA12、CH1、CH12の各中心点を特徴点とする。特徴点の指定は、例えば、基準画像M2に対するマウスを用いたポインタ操作により行われる。特徴点取得部662aは、指定された特徴点(4隅のウェルの像の中心点)の座標(xA1,yA1)、(xA12,yA12)、(xH1,yH1)、(xH12,yH12)を記録する。In subsequent step S104, the feature point acquisition unit 662a acquires the position of the specified feature point by causing the operator to specify the feature point with respect to the reference image M2 displayed on the display unit 62. Here, the feature points are points where corresponding images are captured between the master image M1 and the reference image M2, and at least four locations are designated. In the present embodiment, the center points of the well images C A1 , C A12 , C H1 , and C H12 arranged at the four corners of the plurality of well images m21 shown in FIG. The feature point is specified by, for example, a pointer operation using a mouse for the reference image M2. The feature point acquisition unit 662a performs the coordinates (x A1 , y A1 ), (x A12 , y A12 ), (x H1 , y H1 ), (x) of the specified feature points (the center points of the four corner well images). xH12 , yH12 ) are recorded.

なお、特徴点は、4隅に配置されたウェルの像の中心点に限定されない。例えば、配列面2bの輪郭の4つの角又は4つの辺や、配列面2bに予め付されたマーカーなどであっても良い。要は、カメラ4で配列面2bを撮像することにより生成された基準画像M2とマスター画像M1との間で、対応する像が写った位置同士を紐づけることができれば良い。   The feature points are not limited to the center points of the well images arranged at the four corners. For example, it may be four corners or four sides of the outline of the arrangement surface 2b, or a marker previously attached to the arrangement surface 2b. In short, it is only necessary that the positions where the corresponding images are captured can be linked between the reference image M2 generated by imaging the array surface 2b with the camera 4 and the master image M1.

続くステップS105において、マッピング処理部662bは、ステップS104において取得された複数の特徴点に対し、これらの特徴点に対応する像が写ったマスター画像M1上の複数の点をそれぞれ関連付け、マスター画像の画像変換を行う。具体的には、マスター画像M1におけるウェル領域RA1、RA12、RH1、RH12の各中心点を、基準画像M2におけるウェルの像CA1、CA12、CH1、CH12の各中心点にそれぞれ関連付け、マスター画像M1にアフィン変換を施す。In subsequent step S105, the mapping processing unit 662b associates the plurality of feature points acquired in step S104 with a plurality of points on the master image M1 in which images corresponding to these feature points are captured, respectively. Perform image conversion. Specifically, the center points of the well regions R A1 , R A12 , R H1 , and R H12 in the master image M1 are the center points of the well images C A1 , C A12 , C H1 , and C H12 in the reference image M2. And affine transformation is applied to the master image M1.

図11は、画像変換が施されたマスター画像を例示する模式図である。図11に示すマスター画像M1’は、図10に示す基準画像M2と同様に歪んだ形状となっている。   FIG. 11 is a schematic view illustrating a master image that has been subjected to image conversion. The master image M1 'shown in FIG. 11 has a distorted shape, similar to the reference image M2 shown in FIG.

続くステップS106において、マッピング処理部662bは、画像変換が施されたマスター画像M1’を、画素領域I1にマッピングする。図12は、マスター画像のマッピング処理を説明するための模式図である。図12に示すように、マスター画像M1’を画素領域I1にマッピングすることにより、マスター画像M1’内の各ウェル領域RA1、RA1、…が、画素領域I1内の画素の位置情報と関連付けられる。言い換えると、画素領域I1内の各画素が、ウェル領域RA1、RA1、…のいずれに属するのかが特定される。In subsequent step S106, the mapping processing unit 662b maps the master image M1 ′ subjected to the image conversion to the pixel region I1. FIG. 12 is a schematic diagram for explaining the master image mapping process. As shown in FIG. 12, by mapping the master image M1 ′ to the pixel region I1, each well region R A1 , R A1 ,... In the master image M1 ′ is associated with the position information of the pixels in the pixel region I1. It is done. In other words, it is specified to which of the well regions R A1 , R A1 ,... Each pixel in the pixel region I1 belongs.

その後、処理はメインルーチンに戻り(図7参照)、分注ピペット3からマイクロプレート2への分注作業が開始される。   Thereafter, the process returns to the main routine (see FIG. 7), and the dispensing operation from the dispensing pipette 3 to the microplate 2 is started.

ステップS10に続くステップS11において、情報処理装置6は、カメラ4にマイクロプレート2の撮像を開始させ、カメラ4から順次出力される画像データ(第2の画像データ)に基づいて画像を生成する。それにより、マイクロプレート2の配列面2b及び分注ピペット3が写った画像が順次得られる。以下、分注作業中に取得された画像のことを対象画像という。分注作業中におけるカメラ4の撮像フレームレートは特に限定されないが、後述するウェルアドレスの取得処理(ステップS14参照)におけるレスポンスと演算処理の負荷とを考慮すると、一例として、15fps〜60fps程度とすることが好ましい。図13は、対象画像を例示する模式図である。   In step S11 subsequent to step S10, the information processing apparatus 6 causes the camera 4 to start imaging the microplate 2, and generates an image based on image data (second image data) sequentially output from the camera 4. Thereby, images in which the arrangement surface 2b of the microplate 2 and the dispensing pipette 3 are shown are sequentially obtained. Hereinafter, an image acquired during the dispensing operation is referred to as a target image. The imaging frame rate of the camera 4 during the dispensing operation is not particularly limited. However, considering a response and a processing load in a well address acquisition process (see step S14) to be described later, as an example, the imaging frame rate is approximately 15 fps to 60 fps. It is preferable. FIG. 13 is a schematic diagram illustrating a target image.

ステップS12において、先端検出部662cは、ステップS11において順次生成される対象画像について、各対象画像におけるチップ3aの像の先端の位置(先端位置)を取得する。   In step S12, the tip detection unit 662c acquires the position (tip position) of the tip of the image of the chip 3a in each target image for the target images sequentially generated in step S11.

詳細には、まず、図13に示す対象画像M3から図10に示す基準画像M2を差し引くことにより、差分画像を生成する。図14は、差分画像を例示する模式図である。ここで、対象画像M3と基準画像M2との間では、分注ピペットの像m30の有無が異なるだけである。そのため、差分画像M4においては、分注ピペットの像m30のみが残ることになる。   Specifically, first, a difference image is generated by subtracting the reference image M2 shown in FIG. 10 from the target image M3 shown in FIG. FIG. 14 is a schematic diagram illustrating a difference image. Here, only the presence or absence of the pipette pipette image m30 differs between the target image M3 and the reference image M2. Therefore, only the pipetting pipette image m30 remains in the difference image M4.

この差分画像M4から分注ピペットの像m30を抽出し、この像m30の先端、即ち、チップ先端m31を検出する。チップ先端m31の検出方法としては公知の種々の方法を用いることができる。一例として、差分画像M4に対して二値化処理を施すことにより、分注ピペットの像m30の領域を抽出し、この領域の輪郭を追跡する。そして、輪郭における曲率が最も大きい部分(曲率半径が最も小さい部分)をチップ先端m31とする。別の例として、二値化処理により抽出された領域の重心及び主軸を検出し、主軸の両端部のうち、重心から遠い方の端部をチップ先端m31としても良い。先端検出部662cは、このようにして検出したチップ先端m31の画素領域I1における座標(x,y)を取得する。   An image m30 of the dispensing pipette is extracted from the difference image M4, and the tip of this image m30, that is, the tip tip m31 is detected. Various known methods can be used as a method of detecting the tip end m31. As an example, a binarization process is performed on the difference image M4 to extract a region of the pipette pipette image m30 and track the contour of this region. A portion having the largest curvature in the contour (a portion having the smallest curvature radius) is defined as a tip end m31. As another example, the center of gravity and the main axis of the region extracted by the binarization process may be detected, and the end farther from the center of gravity of both ends of the main axis may be used as the tip end m31. The tip detection unit 662c acquires the coordinates (x, y) in the pixel region I1 of the tip tip m31 detected in this way.

続くステップS13において、分注指示部664は、分注設定情報記憶部654から分注設定情報を取得し、分注するウェル2aを指示する。図15は、分注するウェル2aの指示が表示される分注支援画面を例示する模式図である。図15に示す分注支援画面P2は、検査の日時、サンプルの名称、試薬の名称、マイクロプレート2の製品番号、分注ピペット3の製品番号等の情報が表示される検査情報表示欄p21と、マイクロプレート2の配列面2bを模式的に表したウェル表示欄p22と、凡例表示欄p23と、メッセージ表示欄p24とを含む。ウェル表示欄p22には、配列面2bにおけるウェル2aと同様に配列された複数の丸印(以下、ウェルマークという。)p25が配列されている。各ウェルマークp25は、ウェル2aの状態に応じた色や網掛けが付されて表示される。ウェル2aの状態には、分注されていない状態、既に分注された状態、分注待ちの状態、チップの先端部が差し入れられている状態等がある。   In subsequent step S13, the dispensing instruction unit 664 acquires the dispensing setting information from the dispensing setting information storage unit 654, and instructs the well 2a to be dispensed. FIG. 15 is a schematic view illustrating a dispensing support screen on which instructions for the wells 2a to be dispensed are displayed. The dispensing support screen P2 shown in FIG. 15 includes an examination information display field p21 in which information such as the date and time of examination, the name of the sample, the name of the reagent, the product number of the microplate 2 and the product number of the dispensing pipette 3 are displayed. , A well display column p22 schematically representing the arrangement surface 2b of the microplate 2, a legend display column p23, and a message display column p24. In the well display column p22, a plurality of circle marks (hereinafter referred to as well marks) p25 arranged in the same manner as the well 2a on the arrangement surface 2b are arranged. Each well mark p25 is displayed with a color or shading according to the state of the well 2a. The state of the well 2a includes a state in which dispensing is not performed, a state in which dispensing has already been performed, a state in which dispensing is awaited, and a state in which the tip of the tip is inserted.

分注指示部664は、分注待ちのウェル2aに対応するウェルマークp25を所定の色又は網掛け(凡例表示欄p23参照)で表示させることにより、分注を指示する。作業者は、分注支援画面P2において指示されたウェル2aに分注ピペット3のチップ3aの先端部を移動させる。   The dispensing instruction unit 664 instructs dispensing by displaying the well mark p25 corresponding to the well 2a waiting to be dispensed in a predetermined color or shade (see the legend display column p23). The operator moves the tip of the tip 3a of the dispensing pipette 3 to the well 2a instructed on the dispensing support screen P2.

続くステップS14において、アドレス取得部663は、チップ3aの先端部が現在位置しているウェル2aのウェルアドレスを取得する。図16は、ウェルアドレスの取得処理を示すフローチャートである。図17は、ウェルアドレスの取得処理を説明するための模式図である。図18は、ウェルアドレスの確定処理を説明するための模式図である。   In subsequent step S14, the address acquisition unit 663 acquires the well address of the well 2a where the tip of the chip 3a is currently located. FIG. 16 is a flowchart showing well address acquisition processing. FIG. 17 is a schematic diagram for explaining a well address acquisition process. FIG. 18 is a schematic diagram for explaining a well address determination process.

まず、ステップS141において、アドレス取得部663は、ステップS12において取得されたチップ先端m31の位置(図14参照)に基づき、チップ先端m31が複数のウェル領域RA1、RA2、…のいずれかの内部に含まれるか否かを判定する。詳細には、チップ先端m31の座標(x,y)が、ウェル領域RA1、RA2、…の各々と関連付けられた画素領域I1内の画素のいずれかの座標と一致するか否かを判定する。First, in step S141, the address acquisition unit 663 determines that the tip end m31 is one of a plurality of well regions R A1 , R A2 ,... Based on the position of the tip end m31 acquired in step S12 (see FIG. 14). It is determined whether it is included in the inside. Specifically, it is determined whether or not the coordinates (x, y) of the tip end m31 match any of the coordinates of the pixels in the pixel area I1 associated with each of the well areas R A1 , R A2 ,. To do.

チップ先端m31がウェル領域内に含まれる場合(ステップS141:Yes)、アドレス取得部663は続いて、チップ先端m31が含まれるウェル領域を抽出する(ステップS142)。例えば、図17においては、ウェル領域RF4が抽出される。When the tip end m31 is included in the well region (step S141: Yes), the address acquisition unit 663 subsequently extracts the well region including the tip end m31 (step S142). For example, in FIG. 17, the well region R F4 is extracted.

他方、チップ先端m31がいずれのウェル領域にも含まれない場合(ステップS141:No)、アドレス取得部663は、順次生成される対象画像に対して繰り返し当該判定を行う(ステップS141)。   On the other hand, when the tip end m31 is not included in any of the well regions (step S141: No), the address acquisition unit 663 repeatedly performs the determination on the sequentially generated target images (step S141).

ステップS142に続くステップS143において、アドレス取得部663は、チップ先端m31が同一のウェル領域に留まった状態で所定時間が経過したか否かを判定する(ステップS143)。   In step S143 following step S142, the address acquisition unit 663 determines whether or not a predetermined time has elapsed with the tip end m31 remaining in the same well region (step S143).

ここで、図18に示すように、カメラ4によりマイクロプレート2の配列面2bを撮像する場合、実際にはチップ3aの先端部が配列面2bから浮いている状態であっても、2次元画像においてはチップ3aが配列面2bと重なって見えるため、チップ3aの先端部がいずれかのウェル2aの中に入っているものと誤検出されてしまうおそれがある。そのため、本実施形態においては、チップ3aの先端部に対応するチップ先端m31が同一のウェル領域に所定時間(例えば1秒間)以上留まっているか否かを判定している。作業者は、チップ3aの先端部を分注すべきウェル2a内に入れている場合、分注ピペット3をその状態でしばらく留めているはずであるし、チップ3aの先端部を浮かせているときには、分注すべきウェル2aを目指して分注ピペット3を移動させているはずだからである。ステップS143において判定する時間は、作業者の好みにより適宜設定すれば良い。   Here, as shown in FIG. 18, when the array surface 2b of the microplate 2 is imaged by the camera 4, a two-dimensional image is actually obtained even when the tip portion of the chip 3a is floating from the array surface 2b. In FIG. 2, since the chip 3a appears to overlap the array surface 2b, there is a possibility that the tip of the chip 3a is erroneously detected as being in any one of the wells 2a. Therefore, in the present embodiment, it is determined whether or not the tip end m31 corresponding to the tip of the tip 3a remains in the same well region for a predetermined time (for example, 1 second) or longer. When the operator puts the tip of the tip 3a in the well 2a to be dispensed, the operator should hold the dispensing pipette 3 in that state for a while, and when the tip of the tip 3a is floating This is because the dispensing pipette 3 should be moved toward the well 2a to be dispensed. What is necessary is just to set suitably the time determined in step S143 by a worker's liking.

所定時間が経過する前に、チップ先端m31がステップS142において抽出されたウェル領域から移動した場合(ステップS143:No)、処理はステップS141に戻る。他方、チップ先端m31が、当該ウェル領域に留まった状態で所定時間が経過した場合(ステップS143:Yes)、当該ウェル領域のアドレスを、チップ3aの先端部が位置するウェル2aのアドレスとして確定する(ステップS144)。その後、処理はメインルーチンに戻る(図7参照)。   If the tip end m31 has moved from the well region extracted in step S142 before the predetermined time has elapsed (step S143: No), the process returns to step S141. On the other hand, when the predetermined time has passed with the tip end m31 remaining in the well region (step S143: Yes), the address of the well region is determined as the address of the well 2a where the tip portion of the chip 3a is located. (Step S144). Thereafter, the process returns to the main routine (see FIG. 7).

ステップS14に続くステップS15において、分注指示部664は、ステップS14において取得されたアドレスが、ステップS13において分注を指示したウェル2aのアドレスと一致するか否かを判定する。   In step S15 subsequent to step S14, the dispensing instruction unit 664 determines whether or not the address acquired in step S14 matches the address of the well 2a instructed to dispense in step S13.

アドレスが一致しない場合(ステップS15:No)、分注指示部664は警告を行う。具体的には、図19に例示するように、分注支援画面P2のウェル表示欄p22において、ステップS14において取得されたアドレスに対応するウェルマークp25を所定の色や網掛け(凡例表示欄p23参照)で表示すると共に、メッセージ表示欄p24にチップ2aの位置が誤っている旨の警告を表示する(ステップS16)。或いは、警告音を発生したり、警告のメッセージを読み上げたりしても良い。   If the addresses do not match (step S15: No), the dispensing instruction unit 664 issues a warning. Specifically, as illustrated in FIG. 19, in the well display field p22 of the dispensing support screen P2, the well mark p25 corresponding to the address acquired in step S14 is displayed in a predetermined color or shade (legend display field p23). And a warning that the position of the chip 2a is incorrect is displayed in the message display field p24 (step S16). Alternatively, a warning sound may be generated or a warning message may be read out.

他方、アドレスが一致する場合(ステップS15:Yes)、分注指示部664は、分注を許可する(ステップS17)。具体的には、図20に例示するように、分注支援画面P2のウェル表示欄p22において、ステップS14において取得されたアドレスに対応するウェルマークp25を所定の色や網掛け(凡例表示欄p23参照)で表示すると共に、メッセージ表示欄p24にチップの位置が正しい旨及び分注を促すメッセージを表示する(ステップS17)。その後、分注指示部664は、当該ウェルマークp25の色や網掛けを、分注済みを示すものに変更する。   On the other hand, when the addresses match (step S15: Yes), the dispensing instruction unit 664 permits dispensing (step S17). Specifically, as illustrated in FIG. 20, in the well display column p22 of the dispensing support screen P2, the well mark p25 corresponding to the address acquired in step S14 is displayed in a predetermined color or shade (legend display column p23). In addition, a message indicating that the tip position is correct and a message prompting dispensing are displayed in the message display field p24 (step S17). Thereafter, the dispensing instruction unit 664 changes the color or shading of the well mark p25 to indicate that dispensing has been completed.

なお、情報処理装置6と通信可能な分注ピペットを用いる場合、分注指示部664は、分注ピペットから電動モータの駆動を検知する検知信号を受信した際に、上記ウェルマークp25の色や網掛けを、分注済みを示すものに変更しても良い。   When a dispensing pipette that can communicate with the information processing device 6 is used, the dispensing instruction unit 664 receives the detection signal for detecting the driving of the electric motor from the dispensing pipette, The shading may be changed to indicate that dispensing has been completed.

続くステップS18において、分注指示部664は、分注設定情報において設定された全てのウェル2aへの分注が終了したか否かを判定する。分注が終了していない場合(ステップS18:No)、処理はステップS13に戻る。他方、分注が終了した場合(ステップS18:Yes)、当該ウェルアドレス取得システム1の動作は終了する。   In subsequent step S18, the dispensing instruction unit 664 determines whether or not dispensing to all the wells 2a set in the dispensing setting information has been completed. If dispensing has not been completed (step S18: No), the process returns to step S13. On the other hand, when the dispensing is finished (step S18: Yes), the operation of the well address acquisition system 1 is finished.

以上説明したように、本実施形態によれば、複数のウェルが配列されたマイクロプレートにおいて、作業者が分注しようとしているウェルのアドレスを特定することができる。そのため、作業者は、特定されたウェルのアドレスを確認することにより、当該ウェルが、本来分注すべき正しいウェルであるか否かを容易に判断することができる。従って、分注作業における人為的なミスを低減することができると共に、分注作業を効率良く進めることができ、さらに、作業者の疲労を抑制することも可能となる。   As described above, according to the present embodiment, it is possible to specify the address of a well that an operator is to dispense in a microplate in which a plurality of wells are arranged. Therefore, the operator can easily determine whether or not the well is a correct well to be dispensed by confirming the address of the identified well. Accordingly, it is possible to reduce an artificial mistake in the dispensing work, to efficiently advance the dispensing work, and to suppress worker fatigue.

また、本実施形態によれば、カメラ4及び情報処理装置6と、好ましくは照明装置5とを用いて、ウェルアドレス取得システム1をコンパクトに構成することができる。従って、作業者は、従来と同様の感覚で、汎用のマイクロプレート2及び分注ピペット3を用いて分注作業を行うことができる。   In addition, according to the present embodiment, the well address acquisition system 1 can be configured in a compact manner using the camera 4 and the information processing device 6 and preferably the illumination device 5. Therefore, the operator can perform a dispensing operation using the general-purpose microplate 2 and the dispensing pipette 3 with the same feeling as before.

また、本実施形態によれば、カメラ4、照明装置5、及び情報処理装置6という汎用のハードウェアの組み合わせによりウェルアドレス取得システム1を構成するので、作業者は、簡単且つ安価に当該システムを利用することができる。   Moreover, according to this embodiment, since the well address acquisition system 1 is configured by a combination of general-purpose hardware such as the camera 4, the illumination device 5, and the information processing device 6, an operator can easily and inexpensively configure the system. Can be used.

(変形例)
次に、本発明の第1の実施形態の変形例について説明する。
図21は、マイクロプレートの製品情報の登録処理(図8のステップS101参照)の変形例を説明するための模式図である。上記第1の実施形態においては、製品情報を登録する際、製品情報の入力画面(図9参照)に対し、作業者に各数値を入力させることとしたが、これらの情報を予め記憶部65(図4参照)に格納しておいても良い。
(Modification)
Next, a modification of the first embodiment of the present invention will be described.
FIG. 21 is a schematic diagram for explaining a modification of the microplate product information registration process (see step S101 in FIG. 8). In the first embodiment, when registering product information, the operator inputs each numerical value on the product information input screen (see FIG. 9). (See FIG. 4).

詳細には、図21に示すように、マイクロプレートの製品ごとに、製品情報データベースDBを作成し、記憶部65に蓄積しておく。製品情報データベースDBは、製品の識別情報(製品ID)と、メーカー名、製品番号、ウェルの数、マイクロプレートの原点(図5参照)から見たA行1列のウェル(ウェルA1)の中心座標、ウェルのピッチ、ウェルの径等の情報を含む。   Specifically, as shown in FIG. 21, a product information database DB is created for each microplate product and stored in the storage unit 65. The product information database DB includes product identification information (product ID), manufacturer name, product number, number of wells, and center of well (well A1) in row A and column 1 as seen from the origin of the microplate (see FIG. 5). It includes information such as coordinates, well pitch, and well diameter.

この場合、作業者に入力部63から製品ID、又は、メーカー及び製品番号を入力させることにより、マスター画像取得部661が製品情報データベースから該当する製品の情報を抽出し、その製品に関する各種情報を図9に示す入力画面に自動入力する。   In this case, by causing the operator to input the product ID or manufacturer and product number from the input unit 63, the master image acquisition unit 661 extracts the information of the corresponding product from the product information database, and various information regarding the product is obtained. Automatic input is made on the input screen shown in FIG.

或いは、製品情報データベースDBに情報が蓄積された製品ごとにマスター画像を予め作成し、記憶部65に記憶させておいても良い。この場合、作業者に製品ID、又は、メーカー及び製品番号を入力させることにより、マスター画像取得部661が該当する製品に対応するマスター画像を記憶部65から読み出す。   Alternatively, a master image may be created in advance for each product for which information is stored in the product information database DB and stored in the storage unit 65. In this case, the master image acquisition unit 661 reads out the master image corresponding to the corresponding product from the storage unit 65 by allowing the worker to input the product ID or manufacturer and product number.

図22は、特徴点の取得処理(図8のステップS104参照)の第1の変形例を説明するための模式図である。上記第1の実施形態においては、特徴点を取得する際に、表示部62に表示された基準画像M2に対して作業者に4隅のウェルの中心点を手動で指定させることとしたが、特徴点取得部662aが自動で特徴点を抽出することとしても良い。   FIG. 22 is a schematic diagram for explaining a first modification of the feature point acquisition process (see step S104 in FIG. 8). In the first embodiment, when acquiring the feature point, the operator manually designates the center points of the four wells for the reference image M2 displayed on the display unit 62. The feature point acquisition unit 662a may automatically extract feature points.

詳細には、図22に示すように、特徴点取得部662aは、カメラ4にマイクロプレート2を撮像させることにより生成された基準画像M5に対し、配列面2bの輪郭の4つの角m51を検出する。角m51の検出方法としては、公知の種々の手法を用いることができる。一例として、ハフ変換により基準画像M5から直線を検出し、直線同士の交点のうち、基準画像M5の中心から近い4つの交点を選択する。この場合、マッピング処理部662bは、マスター画像M1(図6参照)の4つの角を基準画像M5から検出した4つの角m51にそれぞれ関連付けて画像変換を行う。   Specifically, as shown in FIG. 22, the feature point acquisition unit 662a detects four corners m51 of the outline of the array surface 2b with respect to the reference image M5 generated by causing the camera 4 to pick up an image of the microplate 2. To do. Various known methods can be used as a method of detecting the angle m51. As an example, a straight line is detected from the reference image M5 by the Hough transform, and four intersections close to the center of the reference image M5 are selected from the intersections of the straight lines. In this case, the mapping processing unit 662b performs image conversion by associating the four corners of the master image M1 (see FIG. 6) with the four corners m51 detected from the reference image M5.

図23及び図24は、特徴点の取得処理の第2の変形例を説明するための模式図である。特徴点を取得する際には、予めマイクロプレートに付されたマーカーを自動検出することとしても良い。   23 and 24 are schematic diagrams for explaining a second modification of the feature point acquisition process. When acquiring a feature point, it is good also as detecting automatically the marker previously attached to the microplate.

詳細には、図23に示すように、マイクロプレート2’の配列面上の所定の4箇所に、所定の色を有するマーカー2cを予め付しておく。これにより、図24に示すように、カメラ4にマイクロプレート2’を撮像させることにより生成された基準画像M6に、マーカー2cの像m61が写り込む。この基準画像M6からマーカー2cの像m61を検出する。像m61の検出方法としては、例えば、マーカー2cと同じ色特徴量を有する領域を検出するなど、公知の種々の手法を用いることができる。この場合、マスター画像にもマーカー2cに対応する位置にマーカーを表示しておき、マッピング処理部662bは、マスター画像内のマーカーを基準画像M6内の像m61にそれぞれ関連付けて画像変換を行う。   Specifically, as shown in FIG. 23, markers 2c having a predetermined color are attached in advance to predetermined four locations on the arrangement surface of the microplate 2 '. As a result, as shown in FIG. 24, the image m61 of the marker 2c is reflected in the reference image M6 generated by causing the camera 4 to pick up an image of the microplate 2 '. An image m61 of the marker 2c is detected from this reference image M6. As a detection method of the image m61, for example, various known methods such as detecting a region having the same color feature amount as the marker 2c can be used. In this case, a marker is displayed at a position corresponding to the marker 2c in the master image, and the mapping processing unit 662b performs image conversion by associating the marker in the master image with the image m61 in the reference image M6.

ここで、図23においては、配列面の4つの角の近傍にマーカー2cを付しているが、マーカー2cの位置はこれに限定されない。要は、基準画像M6とマスター画像との間で対応する像が写った位置同士を関連付けて画像変換を行うことができれば良い。   Here, in FIG. 23, the marker 2c is attached in the vicinity of the four corners of the arrangement surface, but the position of the marker 2c is not limited to this. In short, it is only necessary to perform image conversion by associating positions where corresponding images are captured between the reference image M6 and the master image.

本変形例においては、マイクロプレートに予めマーカーを付しておくため、マスター画像のマッピングの精度、ひいては、ウェルのアドレスの取得精度を向上させることができる。つまり、マーカーが付されたマイクロプレートをウェルアドレス取得システム1において用いる場合には、アドレスの取得精度を担保することができる。即ち、マイクロプレートに付されたマーカーを精度保証として利用することが可能となる。   In this modification, since the marker is attached to the microplate in advance, it is possible to improve the accuracy of mapping of the master image and thus the well address acquisition accuracy. That is, when a microplate with a marker is used in the well address acquisition system 1, the address acquisition accuracy can be ensured. That is, the marker attached to the microplate can be used as a precision guarantee.

図25は、チップ先端の位置の取得処理(図7のステップS12参照)の第1の変形例を説明するための模式図である。上記第1の実施形態においては、対象画像から基準画像を差し引いた差分画像(図14参照)を生成し、この差分画像に写った分注ピペットの像m30からチップ先端m31を検出した。しかし、チップが透明又は白色の半透明の部材によって形成されている場合、図25に示すように、差分画像M4’においてチップの部分が明瞭に写り難くなる場合がある。   FIG. 25 is a schematic diagram for explaining a first modification of the tip tip position acquisition process (see step S12 in FIG. 7). In the first embodiment, a difference image (see FIG. 14) obtained by subtracting the reference image from the target image is generated, and the tip end m31 is detected from the pipette pipette image m30 shown in the difference image. However, when the chip is formed of a transparent or white translucent member, as shown in FIG. 25, the chip portion in the difference image M4 'may not be clearly visible.

このような場合には、差分画像M4’から、ピペット本体の像m32を抽出し、ピペット本体の先端側にあるノズル(チップを嵌め込む部分)の像m33の輪郭を抽出する。そして、この輪郭の延長線m34が交差する点をチップ先端m35の位置として推定する。   In such a case, the image m32 of the pipette body is extracted from the difference image M4 ', and the contour of the image m33 of the nozzle (the part into which the tip is fitted) on the tip side of the pipette body is extracted. A point where the extended line m34 of the contour intersects is estimated as the position of the tip end m35.

図26及び図27は、チップ先端の位置の取得処理の第2の変形例を説明するための模式図である。上述したように、分注ピペットのチップが透明又は白色の半透明の部材によって形成され、チップの部分が画像に明瞭に写り難い場合、対象画像におけるチップ先端の位置を計算により求めても良い。   FIG. 26 and FIG. 27 are schematic diagrams for explaining a second modification of the processing for obtaining the position of the tip of the chip. As described above, when the tip of the pipetting pipette is formed of a transparent or white translucent member and the tip portion is not clearly visible in the image, the tip position of the tip in the target image may be obtained by calculation.

まず、図26に示すように、ピペット本体3bの基端部からチップ3aの先端部までの距離L1を予め測定しておく。そして、図27に示すように、対象画像から基準画像を差し引いた差分画像M7を生成し、この差分画像M7からピペット本体3bの像m70を抽出し、像m70の基端部m71を検出する。そして、距離L1に対応する差分画像M7上の距離L1’の分だけ基端部m71から延長した点を、チップ先端m72の位置とする。距離L1’は、画像の縮尺の他、分注ピペット3の傾きを考慮して決定すると良い。また、ピペット本体3b側に、距離L1の指標となるマーカーを付しておき、差分画像M7に写ったこのマーカーの長さを基準に距離L1’を決定しても良い。   First, as shown in FIG. 26, a distance L1 from the base end of the pipette body 3b to the tip of the tip 3a is measured in advance. Then, as shown in FIG. 27, a difference image M7 obtained by subtracting the reference image from the target image is generated, an image m70 of the pipette body 3b is extracted from the difference image M7, and a base end portion m71 of the image m70 is detected. The point extended from the base end m71 by the distance L1 'on the difference image M7 corresponding to the distance L1 is set as the position of the tip end m72. The distance L1 'may be determined in consideration of the inclination of the dispensing pipette 3 in addition to the scale of the image. Alternatively, a marker serving as an index of the distance L1 may be attached to the pipette body 3b side, and the distance L1 'may be determined based on the length of the marker shown in the difference image M7.

図28及び図29は、チップ先端の位置の取得処理の第3の変形例を説明するための模式図である。上述したように、分注ピペットのチップが透明又は白色の半透明の部材によって形成され、チップの部分が画像に明瞭に写らない場合、チップ側に、先端位置の目安となる手段を設けても良い。   FIG. 28 and FIG. 29 are schematic diagrams for explaining a third modification of the tip tip position acquisition process. As described above, when the tip of the pipetting pipette is formed of a transparent or white translucent member and the tip portion is not clearly visible in the image, a means for indicating the tip position may be provided on the tip side. good.

例えば、図28に示すように、ピペット本体3bに取り付けられるチップ3cの一部に段差3dを形成し、段差3dからチップ3cの先端部までの距離L2を予め測定しておく。そして、対象画像から基準画像を差し引いた差分画像から段差3dの像を検出し、距離L2に対応する差分画像上の距離の分だけ段差3dから延長した点を、チップ先端の位置とする。   For example, as shown in FIG. 28, a step 3d is formed in a part of a tip 3c attached to the pipette body 3b, and a distance L2 from the step 3d to the tip of the tip 3c is measured in advance. Then, an image of the step 3d is detected from the difference image obtained by subtracting the reference image from the target image, and the point extended from the step 3d by the distance on the difference image corresponding to the distance L2 is set as the tip end position.

或いは、図29に示すように、チップ3eの一部にカラーのマーカー3fを付しておいても良い。この場合、マーカー3fからチップ3eの先端部までの距離L3を予め測定しておく。そして、対象画像から基準画像を差し引いた差分画像からマーカー3fの像を検出し、距離L3に対応する差分画像上の距離の分だけマーカー3fの像から延長した点を、チップ先端の位置とする。なお、カラーのマーカー3fを付す場合には、対象画像から直接マーカー3fの像を検出しても良い。   Alternatively, as shown in FIG. 29, a color marker 3f may be attached to a part of the chip 3e. In this case, the distance L3 from the marker 3f to the tip of the chip 3e is measured in advance. Then, the image of the marker 3f is detected from the difference image obtained by subtracting the reference image from the target image, and the point extended from the image of the marker 3f by the distance on the difference image corresponding to the distance L3 is set as the tip end position. . In addition, when attaching the color marker 3f, you may detect the image of the marker 3f directly from a target image.

このように、チップそのものに先端位置の目安となる手段(段差やマーカー)を設ける場合、チップ先端の位置の検出精度を向上させることができる。つまり、段差やマーカーが設けられたチップを使用することで、ウェルアドレスの取得精度を担保することができる。即ち、チップに設けられた段差やマーカーを精度保証として利用することも可能となる。   As described above, when the tip itself is provided with means (steps or markers) that serve as a guide for the tip position, the detection accuracy of the tip tip position can be improved. In other words, the use accuracy of the well address can be ensured by using a chip provided with a step or a marker. That is, it is possible to use a step or marker provided on the chip as a guarantee of accuracy.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図30は、本実施形態に係るウェルアドレス取得システムの概略構成を示す模式図である。図31は、本実施形態において生成される対象画像を例示する模式図である。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 30 is a schematic diagram showing a schematic configuration of a well address acquisition system according to the present embodiment. FIG. 31 is a schematic view illustrating a target image generated in the present embodiment.

図30に示すウェルアドレス取得システム9は、図1に示すウェルアドレス取得システム1における照明装置5の代わりに照明装置10を備える。照明装置10以外のウェルアドレス取得システム9の各部の構成は、第1の実施形態と同様である。   A well address acquisition system 9 shown in FIG. 30 includes an illumination device 10 instead of the illumination device 5 in the well address acquisition system 1 shown in FIG. The configuration of each part of the well address acquisition system 9 other than the illumination device 10 is the same as that of the first embodiment.

照明装置10は、マイクロプレート2の配列面2bと平行なスリットを有し、該スリットを介して、配列面2bを覆うように、配列面2bと平行な光路を進行するスリット光10aを出射する。   The illuminating device 10 has a slit parallel to the array surface 2b of the microplate 2, and emits slit light 10a traveling in an optical path parallel to the array surface 2b so as to cover the array surface 2b. .

ウェルアドレス取得システム9の動作は、全体として第1の実施形態と同様であり、チップ先端の位置の取得処理(図7のステップS12)のみが第1の実施形態と異なる。ウェルアドレス取得システム9においては、分注ピペット3のチップ3aをウェル2aに差し入れると、チップ3aがスリット光10aを横切った点においてスリット光10aの一部が反射され、この点が発光する。この状態をカメラ4により撮像すると、図31に示す対象画像M8のように、チップ3aの像m80の先端部が発光する様子が捉えられる。そこで、対象画像M8から発光点m81を検出することにより、チップ3aの先端部の位置を取得することができる。発光点m81は、スリット光10aの発光色(例えば、赤色)に応じた色特徴量の領域を抽出することで検出することができる。   The operation of the well address acquisition system 9 is the same as that of the first embodiment as a whole, and only the tip tip position acquisition process (step S12 in FIG. 7) is different from that of the first embodiment. In the well address acquisition system 9, when the tip 3a of the dispensing pipette 3 is inserted into the well 2a, a part of the slit light 10a is reflected at the point where the tip 3a crosses the slit light 10a, and this point emits light. When this state is imaged by the camera 4, a state in which the tip of the image m80 of the chip 3a emits light can be captured like a target image M8 shown in FIG. Therefore, the position of the tip of the chip 3a can be acquired by detecting the light emission point m81 from the target image M8. The light emission point m81 can be detected by extracting a region having a color feature amount corresponding to the emission color (for example, red) of the slit light 10a.

本実施形態によれば、対象画像から直接チップの先端部の位置を検出することができるので、画像処理のための演算負荷を軽減することが可能となる。また、本実施形態によれば、透明又は白色の半透明のチップを用いた場合においても、チップの先端部を精度良く検出することができる。   According to the present embodiment, the position of the tip portion of the chip can be directly detected from the target image, so that it is possible to reduce the calculation load for image processing. In addition, according to the present embodiment, even when a transparent or white translucent chip is used, the tip of the chip can be detected with high accuracy.

本発明は、以上説明した第1及び第2の実施形態並びに変形例に限定されるものではなく、各実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成することができる。例えば、各実施形態及び変形例に示される全構成要素からいくつかの構成要素を除外しても良いし、異なる実施形態に示した構成要素を適宜組み合わせても良い。   The present invention is not limited to the first and second embodiments and modifications described above, and various inventions can be made by appropriately combining a plurality of components disclosed in the embodiments and modifications. Can be formed. For example, some constituent elements may be excluded from all the constituent elements shown in the respective embodiments and modifications, or constituent elements shown in different embodiments may be appropriately combined.

1、9 ウェルアドレス取得システム
2、2’ マイクロプレート
2a ウェル
2b 配列面
2c マーカー
3 分注ピペット
3a、3c チップ
3b ピペット本体
3d 段差
3e チップ
3f マーカー
4 カメラ
4a 撮像素子
5、10 照明装置
5a 発光面
6 情報処理装置
7 ステージ
8 治具
10a スリット光
61 画像取得部
62 表示部
63 入力部
64 通信部
65 記憶部
66 演算部
651 プログラム記憶部
652 マスター情報記憶部
653 画像記憶部
654 分注設定情報記憶部
661 マスター画像取得部
662 画像処理部
662a 特徴点取得部
662b マッピング処理部
662c 先端検出部
663 アドレス取得部
664 分注指示部
665 表示制御部
DESCRIPTION OF SYMBOLS 1, 9 Well address acquisition system 2, 2 'Microplate 2a Well 2b Arrangement surface 2c Marker 3 Dispensing pipette 3a, 3c Tip 3b Pipette main body 3d Step 3e Tip 3f Marker 4 Camera 4a Imaging element 5, 10 Illuminating device 5a Light emitting surface 6 Information processing device 7 Stage 8 Jig 10a Slit light 61 Image acquisition unit 62 Display unit 63 Input unit 64 Communication unit 65 Storage unit 66 Calculation unit 651 Program storage unit 652 Master information storage unit 653 Image storage unit 654 Dispensing setting information storage Unit 661 Master image acquisition unit 662 Image processing unit 662a Feature point acquisition unit 662b Mapping processing unit 662c Tip detection unit 663 Address acquisition unit 664 Dispensing instruction unit 665 Display control unit

Claims (10)

受光面に入射した光を光電変換することにより電気信号を生成する撮像素子を有し、該電気信号に基づく画像データを生成して出力する撮像装置と、
前記撮像装置から出力される画像データに基づいて画像を生成する情報処理装置と、
を備え、前記情報処理装置は、
マイクロプレートが有する複数のウェルの配列面を前記撮像装置に撮像させることにより生成された第1の画像データと、分注ピペットにより前記マイクロプレートに分注している状態の前記配列面を前記撮像装置に撮像させることにより生成された第2の画像データとを取得する画像取得部と、
前記配列面の像を表すマスター画像であって、前記複数のウェルにそれぞれ対応する領域である複数のウェル領域を含むマスター画像を、前記第1の画像データに基づいて生成された画像である基準画像に合わせて変形させ、前記受光面に対応する画素領域にマッピングすることにより、各ウェル領域を前記画素領域内の画素の位置情報と関連付けるマッピング処理部と、
前記第2の画像データに基づいて生成された画像である対象画像から、該対象画像における前記チップの像の先端位置を検出する先端検出部と、
前記対象画像における前記先端位置と、前記各ウェル領域と関連付けられた画素の位置情報とに基づいて、前記先端位置が属するウェル領域を抽出することにより、前記複数のウェルのうち前記チップの先端部が位置するウェルのアドレスを取得するアドレス取得部と、
を有するウェルアドレス取得システム。
An imaging device that has an imaging device that generates an electrical signal by photoelectrically converting light incident on the light receiving surface, and that generates and outputs image data based on the electrical signal;
An information processing device for generating an image based on image data output from the imaging device;
The information processing apparatus comprises:
The first image data generated by causing the imaging device to image the array surface of a plurality of wells included in the microplate, and the imaging of the array surface in a state of being dispensed to the microplate by a dispensing pipette An image acquisition unit that acquires second image data generated by causing the device to capture an image;
A master image representing an image of the array plane, and a master image including a plurality of well regions that are regions respectively corresponding to the plurality of wells, is a reference that is an image generated based on the first image data A mapping processing unit that associates each well region with the position information of the pixel in the pixel region by deforming according to the image and mapping the pixel region to the pixel region corresponding to the light receiving surface,
A tip detection unit that detects a tip position of the image of the chip in the target image from a target image that is an image generated based on the second image data;
Extracting the well region to which the tip position belongs based on the tip position in the target image and pixel position information associated with each well region, thereby leading the tip of the chip among the plurality of wells An address acquisition unit for acquiring an address of a well in which
Well address acquisition system having.
前記情報処理装置は、前記基準画像内の前記配列面の像における複数の特徴点を取得する特徴点取得部をさらに有し、
前記マッピング処理部は、前記複数の特徴点に対応する像が表された前記マスター画像内の複数の点を、前記複数の特徴点にそれぞれ関連付けて画像変換を行う、請求項1に記載のウェルアドレス取得システム。
The information processing apparatus further includes a feature point acquisition unit that acquires a plurality of feature points in the image of the array plane in the reference image,
The well according to claim 1, wherein the mapping processing unit performs image conversion by associating a plurality of points in the master image in which images corresponding to the plurality of feature points are represented with the plurality of feature points, respectively. Address acquisition system.
前記先端検出部は、前記基準画像と前記対象画像との差分画像を生成し、該差分画像から前記先端位置を検出する、請求項1又は2に記載のウェルアドレス取得システム。   The well address acquisition system according to claim 1 or 2, wherein the tip detection unit generates a difference image between the reference image and the target image, and detects the tip position from the difference image. 少なくとも前記配列面を照明する面光源をさらに備える、請求項1〜3のいずれか1項に記載のウェルアドレス取得システム。   The well address acquisition system according to claim 1, further comprising a surface light source that illuminates at least the array surface. 前記マイクロプレートの前記配列面と平行なスリットが設けられ、該配列面を覆うような光路を進行する光を出射するスリット光源をさらに備え、
前記先端検出部は、前記対象画像から、前記チップが前記光を横切ることにより発光する発光点の像を検出し、該像の位置を前記先端位置として検出する、請求項1又は2に記載のウェルアドレス取得システム。
A slit parallel to the array surface of the microplate is provided, further comprising a slit light source that emits light traveling along an optical path covering the array surface,
The said front-end | tip detection part detects the image of the light emission point light-emitted when the said chip crosses the said light from the said target image, and detects the position of this image as the said front-end | tip position. Well address acquisition system.
前記アドレス取得部は、前記先端位置に対応する前記画素領域内の画素と関連付けられたウェル領域を抽出し、該抽出されたウェル領域に対応するウェルのアドレスを取得する、請求項1〜5のいずれか1項に記載のウェルアドレス取得システム。   The address acquisition unit extracts a well region associated with a pixel in the pixel region corresponding to the tip position, and acquires an address of a well corresponding to the extracted well region. The well address acquisition system according to any one of the above items. 前記アドレス取得部は、前記先端位置が同一のウェル領域内に所定時間以上留まっている場合に、該同一のウェル領域に対応するウェルのアドレスを取得する、請求項6に記載のウェルアドレス取得システム。   The well address acquisition system according to claim 6, wherein the address acquisition unit acquires an address of a well corresponding to the same well region when the tip position remains in the same well region for a predetermined time or more. . 前記撮像装置に対する前記マイクロプレートの位置を決定する治具をさらに備える、請求項1〜7のいずれか1項に記載のウェルアドレス取得システム。   The well address acquisition system according to claim 1, further comprising a jig that determines a position of the microplate with respect to the imaging device. 受光面に入射した光を光電変換することにより電気信号を生成する撮像素子を有し、該電気信号に基づく画像データを生成して出力する撮像装置と、前記撮像装置から出力される画像データに基づいて画像を生成する情報処理装置と、を備えるウェルアドレス取得システムにおいて、前記情報処理装置が実行するウェルアドレス取得方法であって、
マイクロプレートが有する複数のウェルの配列面を前記撮像装置に撮像させることにより生成された第1の画像データを取得するステップ(a)と、
前記配列面の像を表すマスター画像であって、前記複数のウェルにそれぞれ対応する領域である複数のウェル領域を含むマスター画像を、前記第1の画像データに基づいて生成された画像である基準画像に合わせて変形させ、前記受光面に対応する画素領域にマッピングすることにより、各ウェル領域を前記画素領域内の画素の位置情報と関連付けるステップ(b)と、
分注ピペットにより前記マイクロプレートに分注している状態の前記配列面を前記撮像装置に撮像させることにより生成された第2の画像データを取得するステップ(c)と、
前記第2の画像データに基づいて生成された画像である対象画像から、該対象画像における前記チップの像の先端位置を検出するステップ(d)と、
前記対象画像における前記先端位置と、前記各ウェル領域と関連付けられた画素の位置情報とに基づいて、前記先端位置が属するウェル領域を抽出することにより、前記複数のウェルのうち前記チップの先端部が位置するウェルのアドレスを取得するステップ(e)と、
を含むウェルアドレス取得方法。
An imaging device that generates an electrical signal by photoelectrically converting light incident on the light receiving surface, generates and outputs image data based on the electrical signal, and image data output from the imaging device In a well address acquisition system comprising an information processing device that generates an image based on the well address acquisition method executed by the information processing device,
A step (a) of acquiring first image data generated by causing the imaging device to image an array surface of a plurality of wells included in the microplate;
A master image representing an image of the array plane, and a master image including a plurality of well regions that are regions respectively corresponding to the plurality of wells, is a reference that is an image generated based on the first image data (B) associating each well region with position information of a pixel in the pixel region by deforming it in accordance with an image and mapping it to a pixel region corresponding to the light receiving surface;
(C) obtaining second image data generated by causing the imaging device to image the array surface in a state where the microplate is being dispensed by a dispensing pipette;
Detecting a tip position of an image of the chip in the target image from a target image that is an image generated based on the second image data; and
Extracting the well region to which the tip position belongs based on the tip position in the target image and pixel position information associated with each well region, thereby leading the tip of the chip among the plurality of wells Obtaining the address of the well where is located, (e),
Well address acquisition method including:
受光面に入射した光を光電変換することにより電気信号を生成する撮像素子を有し、該電気信号に基づく画像データを生成して出力する撮像装置と、前記撮像装置から出力される画像データに基づいて画像を生成する情報処理装置と、を備えるウェルアドレス取得システムにおいて、前記情報処理装置に実行させるプログラムであって、
マイクロプレートが有する複数のウェルの配列面を前記撮像装置に撮像させることにより生成された第1の画像データを取得するステップ(a)と、
前記配列面の像を表すマスター画像であって、前記複数のウェルにそれぞれ対応する領域である複数のウェル領域を含むマスター画像を、前記第1の画像データに基づいて生成された画像である基準画像に合わせて変形させ、前記受光面に対応する画素領域にマッピングすることにより、各ウェル領域を前記画素領域内の画素の位置情報と関連付けるステップ(b)と、
分注ピペットにより前記マイクロプレートに分注している状態の前記配列面を前記撮像装置に撮像させることにより生成された第2の画像データを取得するステップ(c)と、
前記第2の画像データに基づいて生成された画像である対象画像から、該対象画像における前記チップの像の先端位置を検出するステップ(d)と、
前記対象画像における前記先端位置と、前記各ウェル領域と関連付けられた画素の位置情報とに基づいて、前記先端位置が属するウェル領域を抽出することにより、前記複数のウェルのうち前記チップの先端部が位置するウェルのアドレスを取得するステップ(e)と、
を実行させるプログラム。



An imaging device that generates an electrical signal by photoelectrically converting light incident on the light receiving surface, generates and outputs image data based on the electrical signal, and image data output from the imaging device In a well address acquisition system comprising: an information processing device that generates an image based on the program;
A step (a) of acquiring first image data generated by causing the imaging device to image an array surface of a plurality of wells included in the microplate;
A master image representing an image of the array plane, and a master image including a plurality of well regions that are regions respectively corresponding to the plurality of wells, is a reference that is an image generated based on the first image data (B) associating each well region with position information of a pixel in the pixel region by deforming it in accordance with an image and mapping it to a pixel region corresponding to the light receiving surface;
(C) obtaining second image data generated by causing the imaging device to image the array surface in a state where the microplate is being dispensed by a dispensing pipette;
Detecting a tip position of an image of the chip in the target image from a target image that is an image generated based on the second image data; and
Extracting the well region to which the tip position belongs based on the tip position in the target image and pixel position information associated with each well region, thereby leading the tip of the chip among the plurality of wells Obtaining the address of the well where is located, (e),
A program that executes



JP2018550245A 2016-11-11 2017-11-09 Well address acquisition system, well address acquisition method, and program Active JP6601785B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016220418 2016-11-11
JP2016220418 2016-11-11
PCT/JP2017/040367 WO2018088460A1 (en) 2016-11-11 2017-11-09 Well address acquiring system, well address acquiring method, and program

Publications (2)

Publication Number Publication Date
JPWO2018088460A1 true JPWO2018088460A1 (en) 2019-10-03
JP6601785B2 JP6601785B2 (en) 2019-11-06

Family

ID=62109160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018550245A Active JP6601785B2 (en) 2016-11-11 2017-11-09 Well address acquisition system, well address acquisition method, and program

Country Status (2)

Country Link
JP (1) JP6601785B2 (en)
WO (1) WO2018088460A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110806493A (en) * 2019-09-12 2020-02-18 南京医科大学 Micropore plate sample adding indicating system
JP6917496B1 (en) * 2020-03-12 2021-08-11 株式会社アイオイ・システム Dispensing support system
DE102020208740A1 (en) * 2020-07-13 2022-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Method for determining an absolute coordinate for a target well of a multiwell plate and addressing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61294330A (en) * 1985-06-18 1986-12-25 スコマス・ア−・ベ− Method and device for indicating and detecting several position of pipetting at time regarding pipetting sequence manually executed by test panel with well matrix
WO2004036228A1 (en) * 2002-09-27 2004-04-29 Shimadzu Corporation Liquid portioning method and device
US20060188406A1 (en) * 2005-02-18 2006-08-24 Frost James D Iii Semi-automated pipetting aid
US20080031774A1 (en) * 2006-03-13 2008-02-07 Sage Science, Inc. Apparatus for Guiding Sample and Reagent Manipulations and Receptacles for Holding Same
JP2013205183A (en) * 2012-03-28 2013-10-07 Dainippon Screen Mfg Co Ltd Sample holding plate and image acquisition method
US20140130614A1 (en) * 2011-05-13 2014-05-15 Actrace, Llc Methods and Systems for Automated Pipette Tracking
WO2017110005A1 (en) * 2015-12-25 2017-06-29 ヤマハ発動機株式会社 Target object pick-up method
JP2017170292A (en) * 2016-03-22 2017-09-28 株式会社アイカムス・ラボ Dispensing system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61294330A (en) * 1985-06-18 1986-12-25 スコマス・ア−・ベ− Method and device for indicating and detecting several position of pipetting at time regarding pipetting sequence manually executed by test panel with well matrix
WO2004036228A1 (en) * 2002-09-27 2004-04-29 Shimadzu Corporation Liquid portioning method and device
US20060188406A1 (en) * 2005-02-18 2006-08-24 Frost James D Iii Semi-automated pipetting aid
US20080031774A1 (en) * 2006-03-13 2008-02-07 Sage Science, Inc. Apparatus for Guiding Sample and Reagent Manipulations and Receptacles for Holding Same
US20140130614A1 (en) * 2011-05-13 2014-05-15 Actrace, Llc Methods and Systems for Automated Pipette Tracking
JP2013205183A (en) * 2012-03-28 2013-10-07 Dainippon Screen Mfg Co Ltd Sample holding plate and image acquisition method
WO2017110005A1 (en) * 2015-12-25 2017-06-29 ヤマハ発動機株式会社 Target object pick-up method
JP2017170292A (en) * 2016-03-22 2017-09-28 株式会社アイカムス・ラボ Dispensing system

Also Published As

Publication number Publication date
JP6601785B2 (en) 2019-11-06
WO2018088460A1 (en) 2018-05-17

Similar Documents

Publication Publication Date Title
US9905005B2 (en) Methods and systems for digitally counting features on arrays
US11960073B2 (en) System and method for template-based image analysis
JP6601785B2 (en) Well address acquisition system, well address acquisition method, and program
US20170032177A1 (en) Image Inspection Device, Image Inspection Method And Image Inspection Program
US20210231695A1 (en) Image acquisition system and image acquisition method
WO2012117844A1 (en) Specimen data processing device for analysis device, auto-sampler device, liquid chromatograph device, specimen data processing method, and analysis method
CN101213440A (en) Method for forming master data for inspecting protruding and recessed figure
WO2013122013A1 (en) System for adjusting automatic analysis device, method for adjusting automatic analysis device
EP3517886B1 (en) Method of detecting positional displacement of sample container, image capturing method employing same, and sample container positional displacement detecting device
JP6641352B2 (en) Automatic analyzer
EP1845366A8 (en) Analysis processing method and device
CN103592447A (en) Method and apparatus for determining or testing an arrangement of laboratory articles on a work area of a laboratory work station
EP3189331B1 (en) Apparatus and process for immunoassay tests
Escobedo et al. Smartphone-based diagnosis of parasitic infections with colorimetric assays in centrifuge tubes
JP2019015541A (en) Lens measuring device
JP6829438B2 (en) Spotted amount measurement system, spotted amount measurement method and program
CN110278384A (en) Image processing system, image processing apparatus, image processing program
JP7181272B2 (en) Method and Apparatus for Evaluating Suitability of Sample Tubes for Use in Laboratory Automation Systems
JP2024013078A (en) Program, display method, and display system
JP5655608B2 (en) Observation device and image correction program
EP3954990A1 (en) Test strip fixation device for optical measurements of an analyte
JP2001091453A (en) Micro-spectroscope
JP2002350118A (en) Image processing method, method for processing detection object, image processing apparatus and bonding apparatus
Escobedo Araque et al. Smartphone-Based Diagnosis of Parasitic Infections With Colorimetric Assays in Centrifuge Tubes
KR200285409Y1 (en) Bio-chip having markers for efficient image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190428

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190428

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190927

R150 Certificate of patent or registration of utility model

Ref document number: 6601785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250