JP2012202743A - Image analysis method and image analyzer - Google Patents

Image analysis method and image analyzer Download PDF

Info

Publication number
JP2012202743A
JP2012202743A JP2011065734A JP2011065734A JP2012202743A JP 2012202743 A JP2012202743 A JP 2012202743A JP 2011065734 A JP2011065734 A JP 2011065734A JP 2011065734 A JP2011065734 A JP 2011065734A JP 2012202743 A JP2012202743 A JP 2012202743A
Authority
JP
Japan
Prior art keywords
image
feature amount
algorithm
medicinal effect
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011065734A
Other languages
Japanese (ja)
Other versions
JP5720351B2 (en
Inventor
Kenichi Yoshida
研一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2011065734A priority Critical patent/JP5720351B2/en
Publication of JP2012202743A publication Critical patent/JP2012202743A/en
Application granted granted Critical
Publication of JP5720351B2 publication Critical patent/JP5720351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image analysis method or the like which enables proper determination of a drug action without requiring the special knowledge of image processing.SOLUTION: Based on a combination of the feature amount of image of a biological sample and the degree of drug action corresponding to the image, an algorithm for calculating the drug action with an operation using a plurality of the feature amounts is acquired and optimized. The algorithm is used to calculate the drug action shown by the image of which feature amount is acquired.

Description

本発明は、生物学的試料の画像の特徴量から薬効を判定するための解析を行う画像解析方法等に関する。   The present invention relates to an image analysis method for performing an analysis for determining a drug effect from a feature amount of an image of a biological sample.

創薬スクリーニングの一分野として、HCA(ハイコンテンツアナリシス)またはHCS(ハイコンテンツスクリーニング)と呼ばれる手法がある。この手法では、細胞の顕微鏡画像を用いて薬効の判定を行う。一度に多数の実験条件を試すために、多数のウェルをもつマイクロタイタープレートが用いられ、個々のウェルに対して順次撮像を行う操作が自動的に行われる装置も開発されている。   One field of drug discovery screening is a technique called HCA (High Content Analysis) or HCS (High Content Screening). In this method, drug efficacy is determined using microscopic images of cells. In order to test a large number of experimental conditions at once, a microtiter plate having a large number of wells is used, and an apparatus for automatically performing an operation of sequentially imaging individual wells has been developed.

図5は、画像解析を用いる創薬スクリーニングの概念を示している。この手法では、例えば、多くの種類の薬剤の各々について異なる薬剤濃度で細胞に適用し、その反応を解析する。図5の例では、反応(薬効)の有無が「細胞の面積」という単純な特徴量で定量化できる場合を示しており、左側がネガティブ(薬効なし)の場合の顕微鏡画像に、右側がポジティブ(薬効あり)の場合の顕微鏡画像に、それぞれ相当する。図5に示すように、ポジティブの場合にネガティブの場合よりも細胞の面積が大きくなる。図6は、この場合の反応曲線を示しており、グラフの横軸に薬剤の量(濃度)を、縦軸に細胞の面積をプロットすると反応曲線が得られる。図6の例では、薬剤の濃度とともに薬効が大きくなりやがて飽和する様子が示されている。この反応曲線から、創薬スクリーニング分野で標準的に用いられているZ´−factor(最大薬効と最小薬効の差が誤差も考慮してどの程度有意かを示す評価量)やEC50(薬効が最大の半分になる薬剤濃度)、SN(薬効の最大と最小の比)等の評価係数を出力する。   FIG. 5 shows the concept of drug discovery screening using image analysis. In this technique, for example, each of many types of drugs is applied to cells at different drug concentrations, and the reaction is analyzed. The example of FIG. 5 shows a case where the presence or absence of a reaction (drug effect) can be quantified by a simple feature amount “cell area”, and the left side is a microscopic image in the case of negative (no drug effect), and the right side is positive. Each corresponds to a microscopic image in the case of (with medicinal effect). As shown in FIG. 5, the cell area is larger in the positive case than in the negative case. FIG. 6 shows a reaction curve in this case. When the amount (concentration) of the drug is plotted on the horizontal axis of the graph and the cell area is plotted on the vertical axis, the reaction curve is obtained. In the example of FIG. 6, a state is shown in which the medicinal effect increases with the concentration of the drug and eventually becomes saturated. From this response curve, Z'-factor (an evaluation amount indicating how significant the difference between the maximum drug effect and the minimum drug effect takes into account an error) and EC50 (maximum drug effect) are used in the drug discovery screening field. (E.g., drug concentration that is half of the above) and SN (maximum and minimum ratio of drug effect) and the like are output.

横河技報 Vol.52 2008「培養細胞を用いた創薬テストにおける画像処理」Yokogawa Technical Report Vol. 52 2008 “Image processing in drug discovery tests using cultured cells”

図5の例のように、細胞の面積のような自明な特徴量で薬効が定量化できる場合は薬効を容易に判定できるが、一般には、薬効の有無は、画像の明るさに関するパラメタや画像の形状に関するパラメタの組み合わせなど、異なる特徴量の複雑な組み合わせになると考えられ、直感的に数式で表すことも困難である。画像の明るさとしては、細胞領域内の画素値の合計、平均、標準偏差、あるいはそれらと空間(2次元画像のXY方向、あるいは3次元画像のXYZ方向)の量を組み合わせた各種特徴量(統計量)が考えられる。形状に関するパラメタは、形状のモーメントやオイラー数等の幾何学的な特徴量や、Haralickのテクスチャの特徴量が考えられる。   As shown in the example of FIG. 5, when the medicinal effect can be quantified with an obvious feature amount such as the area of a cell, the medicinal effect can be easily determined. It is considered to be a complex combination of different feature quantities, such as a combination of parameters related to the shape of the image, and it is difficult to intuitively express it with a mathematical expression. As the brightness of the image, the total, average, and standard deviation of the pixel values in the cell region, or various feature amounts (the XY direction of the two-dimensional image or the XYZ direction of the three-dimensional image) combined with these amounts ( Statistic). The shape parameters can be geometric features such as shape moments and Euler numbers, and Haralick texture features.

このように、創薬スクリーニングの画像解析では、薬効を表すパラメタ(特徴量)を抽出することが必要である。特徴量は自明でなく、また1種類とは限らない。一般には、複数の特徴量を最適に組み合わせることで、1種類の特徴量のみに依存するよりも高い信号対雑音比で薬効を定量できると考えられる。しかしこれまで、どのような特徴量をどう組み合わせるかは、研究者の経験や勘という主観に委ねられてきたのが実情であり、パラメタの最適化を自動的に系統立てて行う手法は存在しない。また、HCSやHCAは、薬学分野の研究者にとって馴染みが少ない画像処理の専門知識が必要であり、敷居が高い技術という印象が持たれている。   As described above, in the image analysis of drug discovery screening, it is necessary to extract a parameter (feature amount) representing a drug effect. The feature amount is not obvious and is not limited to one type. In general, it is considered that a medicinal effect can be quantified with a higher signal-to-noise ratio than when depending on only one type of feature amount by optimally combining a plurality of feature amounts. However, until now, what kind of features are combined and how it has been left to the subjectivity of researcher's experience and intuition is the actual situation, and there is no method to automatically systematize parameter optimization . In addition, HCS and HCA require image processing expertise that is not familiar to researchers in the pharmaceutical field, and have the impression that the technology is highly threshold.

本発明の目的は、画像処理の専門知識を要することなく、適切に薬効を判定することができる画像解析方法等を提供することにある。   An object of the present invention is to provide an image analysis method and the like that can appropriately determine the medicinal effect without requiring specialized knowledge of image processing.

本発明の画像解析方法は、生物学的試料の画像の特徴量から、その画像が示す薬効を判定するための解析を行う画像解析方法において、生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付ステップと、前記受付ステップにより入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得、最適化するアルゴリズム取得ステップと、生物学的試料の画像の特徴量を取得する特徴量取得ステップと、前記アルゴリズム取得ステップにより算出された前記アルゴリズムを用いて、前記特徴量取得ステップにより特徴量が取得された画像が示す薬効を算出する薬効算出ステップと、をコンピュータが実行することを特徴とする。
この画像解析方法によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。
The image analysis method of the present invention is an image analysis method for performing an analysis for determining a medicinal effect indicated by an image from a feature amount of an image of a biological sample. An accepting step for accepting an input of a combination with a degree of medicinal effect corresponding to the above, and obtaining an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature quantities based on the combination inputted by the accepting step, An algorithm acquisition step for optimization, a feature amount acquisition step for acquiring a feature amount of an image of a biological sample, and a feature amount acquired by the feature amount acquisition step using the algorithm calculated by the algorithm acquisition step. And a medicinal effect calculating step for calculating the medicinal effect indicated by the displayed image.
According to this image analysis method, an algorithm for calculating the medicinal effect is obtained based on a combination of the feature amount of the image and the medicinal effect level corresponding to the image, so that the medicinal effect is calculated. The medicinal effect can be appropriately determined without requiring processing expertise.

前記アルゴリズムはニューラルネットワークや、サポートベクターマシン(SVM)により定義されてもよい。   The algorithm may be defined by a neural network or a support vector machine (SVM).

前記特徴量を抽出する特徴量抽出ステップをコンピュータが実行し、前記アルゴリズムは前記特徴量抽出ステップにおける画像解析のパラメタの指定を含んでもよい。   The feature amount extraction step for extracting the feature amount may be executed by a computer, and the algorithm may include specification of an image analysis parameter in the feature amount extraction step.

本発明の画像解析装置は、生物学的試料の画像の特徴量から、その画像が示す薬効を判定するための解析を行う画像解析装置において、生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付手段と、前記受付手段により入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得、最適化するアルゴリズム取得手段と、生物学的試料の画像の特徴量を取得する特徴量取得手段と、前記アルゴリズム取得手段により算出された前記アルゴリズムを用いて、前記特徴量取得手段により特徴量が取得された画像が示す薬効を算出する薬効算出手段と、を備えることを特徴とする。
この画像解析装置によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。
An image analysis apparatus according to the present invention is an image analysis apparatus that performs analysis for determining a medicinal effect indicated by an image from a feature amount of an image of a biological sample. Receiving means for receiving an input of a combination with a degree of medicinal effect corresponding to the, and obtaining an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature quantities based on the combination input by the receiving means, A feature quantity is acquired by the feature quantity acquisition means using an algorithm acquisition means for optimization, a feature quantity acquisition means for acquiring a feature quantity of an image of a biological sample, and the algorithm calculated by the algorithm acquisition means. And a medicinal effect calculating means for calculating the medicinal effect indicated by the displayed image.
According to this image analysis apparatus, an algorithm for calculating the medicinal effect is obtained by calculation using a plurality of feature amounts based on the combination of the image feature amount and the medicinal effect level corresponding to the image. The medicinal effect can be appropriately determined without requiring processing expertise.

本発明の画像解析方法によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。   According to the image analysis method of the present invention, an algorithm for calculating a medicinal effect is obtained based on a combination of a feature amount of an image and a medicinal effect level corresponding to the image by an operation using a plurality of feature amounts. The medicinal effect can be appropriately determined without requiring specialized knowledge of image processing.

本発明の画像解析装置によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。   According to the image analysis apparatus of the present invention, an algorithm for calculating the medicinal effect is obtained based on a combination of the feature amount of the image and the medicinal effect level corresponding to the image by calculation using a plurality of feature amounts. The medicinal effect can be appropriately determined without requiring specialized knowledge of image processing.

画像解析装置の構成例を示すブロック図。The block diagram which shows the structural example of an image analyzer. 本発明による画像解析方法で利用するニューラルネットワークの例を示す図。The figure which shows the example of the neural network utilized with the image analysis method by this invention. ニューラルネットワークを構築する際における組み合わせ最適化部の動作を示すフローチャート。The flowchart which shows operation | movement of the combination optimization part at the time of constructing a neural network. 反応曲線出力部の動作を示すフローチャート。The flowchart which shows operation | movement of the reaction curve output part. 画像解析を用いる創薬スクリーニングの概念を示す図。The figure which shows the concept of the drug discovery screening using image analysis. 薬効に応じて細胞の面積が大きくなる場合の反応曲線を示す図。The figure which shows the reaction curve in case the area of a cell becomes large according to a medicinal effect.

以下、本発明による画像解析方法の一実施形態について説明する。   Hereinafter, an embodiment of an image analysis method according to the present invention will be described.

図1は、本発明による画像解析方法を実行するための画像解析装置の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an image analysis apparatus for executing an image analysis method according to the present invention.

図1に示すように、画像解析装置は、顕微鏡やカメラにより得られた細胞の画像データを取得する画像データ取得部1と、画像解析を行う機能(ソフトウェア)が実装され、画像データ取得部1から取得した画像データから、個々の細胞について多数の特徴量を演算して演算結果を記録する特徴量抽出部2と、ニューラルネットワークを構築する組み合わせ最適化部3と、ニューラルネットワークを用いて反応曲線を算出する反応曲線出力部4と、を備える。   As shown in FIG. 1, the image analysis apparatus includes an image data acquisition unit 1 that acquires image data of cells obtained by a microscope or a camera, and a function (software) that performs image analysis. From the image data acquired from the above, a feature amount extraction unit 2 that calculates a large number of feature amounts for each cell and records the calculation results, a combination optimization unit 3 that constructs a neural network, and a reaction curve using the neural network A reaction curve output unit 4 for calculating

図2は、本発明による画像解析方法で利用するニューラルネットワークの例を示している。図2の例では、層の数は3層である。しかし、本発明による画像解析方法に適用されるニューラルネットワークにおける出力数nの値および層の数はこれに限定されない。   FIG. 2 shows an example of a neural network used in the image analysis method according to the present invention. In the example of FIG. 2, the number of layers is three. However, the value of the output number n and the number of layers in the neural network applied to the image analysis method according to the present invention are not limited to this.

次に、画像解析装置の動作について説明する。   Next, the operation of the image analysis apparatus will be described.

画像データ取得部1には、種々の薬剤について、複数(多数)の異なる濃度における画像データが取り込まれ、特徴量抽出部2は、それぞれの画像についての特徴量を演算、記録する。特徴量抽出部2において演算、記録される特徴量は、例えば、画像の明るさに関するパラメタや画像の形状に関するパラメタなどである。画像の明るさとしては、細胞領域内の画素値の合計、平均、標準偏差、あるいはそれらと空間(2次元画像のXY方向、あるいは3次元画像のXYZ方向)の量を組み合わせた各種特徴量(統計量)が考えられる。形状に関するパラメタは、形状のモーメントやオイラー数等の幾何学的な特徴量や、テクスチャに関する特徴量が考えられる。   The image data acquisition unit 1 captures image data at a plurality of (many) different densities for various drugs, and the feature amount extraction unit 2 calculates and records the feature amount of each image. The feature quantity calculated and recorded in the feature quantity extraction unit 2 is, for example, a parameter relating to the brightness of the image or a parameter relating to the shape of the image. As the brightness of the image, the total, average, and standard deviation of the pixel values in the cell region, or various feature amounts (the XY direction of the two-dimensional image or the XYZ direction of the three-dimensional image) combined with these amounts ( Statistic). As the parameters relating to the shape, geometric feature amounts such as the moment of shape and the Euler number, and feature amounts relating to the texture can be considered.

図3は、ニューラルネットワークを構築する際における組み合わせ最適化部3の動作を示すフローチャートである。   FIG. 3 is a flowchart showing the operation of the combinational optimization unit 3 when constructing a neural network.

図3のステップS1では、組み合わせ最適化部3は、特定の薬剤についてのネガティブコントロールおよびポジティブコントロールについての画像の特徴量を特徴量抽出部2から取得する。ここで、ネガティブコントロールは最低濃度または薬剤を投与しない場合であり、ポジティブコントロールは最大濃度の場合である。   In step S <b> 1 of FIG. 3, the combination optimizing unit 3 acquires the image feature amount for the negative control and the positive control for the specific drug from the feature amount extracting unit 2. Here, the negative control is the minimum concentration or when no drug is administered, and the positive control is the maximum concentration.

次に、ステップS2では、組み合わせ最適化部3においてニューラルネットワークを構成する。   Next, in step S2, the combinational optimization unit 3 configures a neural network.

ネガティブコントロールおよびポジティブコントロールのデータは各々、(1,0),(0,1)というベクトルで表し、出力が2ノードであるニューラルネットワークを構成する。各ノードの応答関数は、例えば、下記の(1)式で示すロジスティック関数等を用いることができるが、これと異なる関数でもよい。   Negative control and positive control data are represented by vectors (1, 0) and (0, 1), respectively, and constitute a neural network whose output is two nodes. As the response function of each node, for example, a logistic function represented by the following equation (1) can be used, but a different function may be used.

f(x)=a/[1+exp{−(x−T)}] ・・・(1)式
ただし、aは規格化定数、Tは閾値である。
f (x) = a / [1 + exp {− (x−T)}] (1) where a is a normalization constant and T is a threshold value.

入力ノードは特徴量抽出部2から得られる各細胞の画像の特徴量であり、入力ノード数はこの特徴量の個数である。入力する特徴量は一般に異なる次元を持っており、また、数値の範囲も単位によって異なる。このため、ニューラルネットワークに入力する前段階で規格化を施す必要がある。規格化の方法としては、例えば、その特徴量の最大値と最小値を用いて値を0−1の範囲に規格化し、あるいは平均と標準偏差を用いて規格化してもよい。   The input node is a feature amount of the image of each cell obtained from the feature amount extraction unit 2, and the number of input nodes is the number of feature amounts. The feature quantity to be input generally has different dimensions, and the numerical value range varies depending on the unit. For this reason, it is necessary to perform normalization before input to the neural network. As a normalization method, for example, the maximum value and the minimum value of the feature amount may be used to normalize the value to a range of 0-1, or the average and standard deviation may be used for normalization.

ステップS2では、複数(多数)の異なる濃度のうち、とくにネガティブコントロールとポジティブコントロールの2種類の特徴量の組に対して、それぞれ結果が(1,0),(0,1)となるよう、ニューラルネットワークの構成、学習を行う。学習の方法としては、当該分野で公知の誤差逆伝播法(Back propagation)を用い、学習係数の調整等を行う。入力する教師信号の数は、ネガティブコントロール、ポジティブコントロール各々のデータにおいて検出した細胞の数に該当するが、必要に応じて一部のデータのみを使用してもよい。   In step S2, among the plural (many) different concentrations, the result is (1, 0), (0, 1), particularly for two types of feature sets of negative control and positive control. Neural network configuration and learning. As a learning method, an error back-propagation method (Back propagation) known in the field is used, and adjustment of a learning coefficient is performed. The number of teacher signals to be input corresponds to the number of cells detected in the data of each of the negative control and the positive control, but only a part of the data may be used as necessary.

ニューラルネットワークは特徴量を組み合わせて薬効を算出するアルゴリズムに対応しており、ニューラルネットワークの学習により、どの特徴量をどのような重みで関連付けるとネガティブコントロールとポジティブコントロールを明確に識別可能になるかが判明する。この学習過程が、熟練者が画像処理の知識に基づいて特徴量を組み合わせて薬効の定量化を試みる作業に対応している。   Neural networks support algorithms that combine features to calculate medicinal effects. By learning neural networks, it is possible to clearly identify negative controls and positive controls by associating which features with what weights. Prove. This learning process corresponds to an operation in which an expert tries to quantify the efficacy by combining feature amounts based on knowledge of image processing.

ニューラルネットワークの中間層のノード数については何らかの経験則に従って決定してもよく、あるいは複数の異なる中間層のノード数のニューラルネットワークに対して繰り返し学習を試み、出力誤差が充分に小さくなるようなノード数を選択してもよい。   The number of nodes in the intermediate layer of the neural network may be determined according to some rule of thumb, or a node whose output error becomes sufficiently small by repeatedly learning the neural network having a number of nodes in different intermediate layers. A number may be selected.

図4は、反応曲線出力部4の動作を示すフローチャートである。   FIG. 4 is a flowchart showing the operation of the reaction curve output unit 4.

反応曲線出力部4は、学習済みのニューラルネットワークを用いて、ネガティブコントロールおよびポジティブコントロール以外の濃度を含むすべての濃度での薬効を判定する処理を実行する。   The response curve output unit 4 uses a learned neural network to execute processing for determining the medicinal effects at all concentrations including concentrations other than negative control and positive control.

図4のステップS11では、判定の対象となる特定薬剤の特定濃度についての特徴量を特徴量抽出部2から取得する。   In step S <b> 11 of FIG. 4, the feature amount for the specific concentration of the specific drug to be determined is acquired from the feature amount extraction unit 2.

次に、ステップS12では、特徴量抽出部2から取得された特徴量を学習済みのニューラルネットワークに入力し、出力ベクトルを取得する。   Next, in step S12, the feature quantity acquired from the feature quantity extraction unit 2 is input to a learned neural network, and an output vector is acquired.

次に、ステップS13では、ステップS12で得られた出力ベクトルをスカラー量に変換する。出力ベクトルは2次元のベクトル量であるため、反応曲線として表示しにくい。このため、ステップS13では、出力ベクトル(x、y)に対して(y−x+1)/2または{(y2−x2+1)/2}1/2など、(1,0)が0に、(0,1)が1になるような演算を行ってベクトル量をスカラー量に変換する。このスカラー量を用いて反応曲線を描き、創薬スクリーニング分野で標準的に用いられているZ´−factor(最大薬効と最小薬効の差が誤差も考慮してどの程度有意かを示す評価量)やEC50(薬効が最大の半分になる薬剤濃度)、SN(薬効の最大と最小の比)等の評価係数を出力することができる。しかし、スカラー量への変換を行わず、ベクトル量のまま評価を行ってもよい。 Next, in step S13, the output vector obtained in step S12 is converted into a scalar quantity. Since the output vector is a two-dimensional vector quantity, it is difficult to display it as a reaction curve. Therefore, in step S13, (1, 0) is set to 0, such as (y−x + 1) / 2 or {(y 2 −x 2 +1) / 2} 1/2 with respect to the output vector (x, y). , (0, 1) is calculated to be 1, and the vector quantity is converted to a scalar quantity. Using this scalar quantity, draw a response curve and use it as a standard Z'-factor in the drug discovery screening field (an evaluation quantity that shows how significant the difference between the maximum and minimum drug effects takes into account errors) And evaluation coefficients such as EC50 (drug concentration at which the drug efficacy becomes half of the maximum) and SN (ratio between maximum and minimum drug efficacy) can be output. However, the evaluation may be performed with the vector amount without conversion to the scalar amount.

なお、組み合わせ最適化部3によるニューラルネットワークの学習においては、反応曲線出力部4による算出結果をフィードバックして学習に反映させる処理を繰り返しており、この場合、反応曲線出力部4は学習中のニューラルネットワークを用いた演算を実行し、演算結果を組み合わせ最適化部3に向けて出力する。   In the learning of the neural network by the combination optimization unit 3, the process of feeding back the calculation result by the reaction curve output unit 4 and reflecting it in the learning is repeated. In this case, the reaction curve output unit 4 performs the neural network being learned. The calculation using the network is executed, and the calculation result is output to the combination optimization unit 3.

以上のように、本発明による画像解析方法を用いることにより、薬効が最小と考えられるネガティブコントロールと、薬効が最大と考えられるポジティブコントロールのデータを指定するだけで、自動的に薬効の判定を行うための特徴量の組み合わせが決定される。したがって、画像処理に関する専門知識を要することなく、適切な特徴量の組み合わせによる薬効の判定が可能となる。   As described above, by using the image analysis method according to the present invention, it is possible to automatically determine the efficacy only by designating the data of the negative control that is considered to have the minimum efficacy and the positive control that is considered to have the maximum efficacy. A combination of feature quantities is determined. Therefore, it is possible to determine the medicinal effect by an appropriate combination of feature amounts without requiring specialized knowledge regarding image processing.

これにより、例えば、薬学の研究者がネガティブとポジティブの画像が定性的に異なることは認識できるが、定量化の手法が分からないような場合、本発明による画像解析方法を用いることにより、自動的に最適な解析方法を得ることができる。   This allows, for example, pharmaceutical researchers to recognize that negative and positive images are qualitatively different, but if the quantification method is not known, the image analysis method according to the present invention can be used automatically. An optimal analysis method can be obtained.

また、本発明による画像解析方法を用いて得られたニューラルネットワークの重み係数を分析することで、薬効による画像の変化に対して、経験等に頼った場合よりも深い知見を得ることができる。   Further, by analyzing the weighting coefficient of the neural network obtained by using the image analysis method according to the present invention, it is possible to obtain deeper knowledge than when relying on experience or the like for the change in the image due to the medicinal effect.

上記実施形態では、特徴量抽出部2における画像解析の内容については言及していないが、画像解析での結果得られる特徴量は一般的に画像解析を行う際のパラメタに依存する。このパラメタの単純な例としては、2値化を行うための閾値が挙げられる。滑らかな断面形状を持った細胞であれば、閾値を低くすれば細胞の面積が大きく見え、閾値を高くすれば細胞の面積が小さく見えることは自明である。このため特徴量は画像解析のパラメタの組み合わせに依存する。   In the above embodiment, the content of the image analysis in the feature quantity extraction unit 2 is not mentioned, but the feature quantity obtained as a result of the image analysis generally depends on the parameters when performing the image analysis. A simple example of this parameter is a threshold value for binarization. It is obvious that if the cell has a smooth cross-sectional shape, the area of the cell appears larger if the threshold is lowered, and the area of the cell appears smaller if the threshold is increased. Therefore, the feature amount depends on the combination of image analysis parameters.

そこで、ニューラルネットワークの学習結果に基づいて結果をフィードバックし、薬効あるいは薬効を表すZ´−factorやSNが最大になるように、またはEC50が最小になるように、画像解析のパラメタの最適化を行ってもよい。この場合、特徴量抽出部2で用いられる画像解析のパラメタを変更しながら、組み合わせ最適化部3における演算を繰り返すことにより、最適なパラメタを求めることができる。画像解析パラメタの最適化は、例えば、Nelder-Meade の Down-hill simplex などの手法を用いて行ってもよい。   Therefore, the results are fed back based on the learning result of the neural network, and the parameters of the image analysis are optimized so that the Z′-factor and SN representing the medicinal effect or medicinal effect are maximized or the EC50 is minimized. You may go. In this case, the optimum parameter can be obtained by repeating the calculation in the combinational optimization unit 3 while changing the image analysis parameter used in the feature amount extraction unit 2. The optimization of image analysis parameters may be performed using a technique such as Nelder-Meade's Down-hill simplex, for example.

上記実施形態では、細胞の顕微鏡画像を対象とする場合について説明したが、本発明は、細胞以外の生物学的試料(細胞の塊であるコロニー、プランクトン、藻類など)、および顕微鏡以外の光学系の画像に対しても適用できる。   In the above-described embodiment, a case where a microscopic image of a cell is targeted has been described. However, the present invention relates to a biological sample other than a cell (such as a colony of cells, plankton, and algae), and an optical system other than a microscope. It can also be applied to other images.

本発明の適用範囲は上記実施形態に限定されることはない。本発明は、生物学的試料の画像の特徴量から薬効を判定するための解析を行う画像解析方法等に対し、広く適用することができる。   The scope of application of the present invention is not limited to the above embodiment. The present invention can be widely applied to an image analysis method for performing an analysis for determining a drug effect from a feature amount of an image of a biological sample.

3 組み合わせ最適化部(受付手段、アルゴリズム取得手段、特徴量取得手段)
4 反応曲線出力部
3. Combination optimization unit (accepting means, algorithm acquiring means, feature amount acquiring means)
4 Response curve output section

Claims (4)

生物学的試料の画像の特徴量から、その画像が示す薬効を判定するための解析を行う画像解析方法において、
生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付ステップと、
前記受付ステップにより入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得するアルゴリズム取得ステップと、
生物学的試料の画像の特徴量を取得する特徴量取得ステップと、
前記アルゴリズム取得ステップにより算出された前記アルゴリズムを用いて、前記特徴量取得ステップにより特徴量が取得された画像が示す薬効を算出する薬効算出ステップと、
をコンピュータが実行することを特徴とする画像解析方法。
In an image analysis method for performing an analysis to determine the drug efficacy indicated by the image from the feature amount of the image of the biological sample,
An accepting step for receiving an input of a combination of a feature amount of an image of a biological sample and a degree of medicinal effect corresponding to the image;
Based on the combination input in the reception step, an algorithm acquisition step of acquiring an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature amounts;
A feature acquisition step for acquiring a feature of an image of a biological sample;
Using the algorithm calculated in the algorithm acquisition step, a medicinal effect calculation step for calculating the medicinal effect indicated by the image in which the feature amount is acquired in the feature amount acquisition step,
A computer-executable image analysis method.
前記アルゴリズムはニューラルネットワークまたはサポートベクターマシンにより定義されることを特徴とする請求項1に記載の画像解析方法。   The image analysis method according to claim 1, wherein the algorithm is defined by a neural network or a support vector machine. 前記特徴量を抽出する特徴量抽出ステップをコンピュータが実行し、
前記アルゴリズムは前記特徴量抽出ステップにおける画像解析のパラメタの指定を含むことを特徴とする請求項1または2に記載の画像解析方法。
A computer executes a feature amount extraction step for extracting the feature amount,
The image analysis method according to claim 1, wherein the algorithm includes designation of an image analysis parameter in the feature amount extraction step.
生物学的試料の画像の特徴量から、その画像が示す薬効を判定するための解析を行う画像解析装置において、
生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付手段と、
前記受付手段により入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得するアルゴリズム取得手段と、
生物学的試料の画像の特徴量を取得する特徴量取得手段と、
前記アルゴリズム取得手段により算出された前記アルゴリズムを用いて、前記特徴量取得手段により特徴量が取得された画像が示す薬効を算出する薬効算出手段と、
を備えることを特徴とする画像解析装置。
In an image analysis apparatus that performs analysis for determining the medicinal effect indicated by the image from the feature amount of the image of the biological sample,
Receiving means for receiving an input of a combination of a feature amount of an image of a biological sample and a degree of medicinal effect corresponding to the image;
Based on the combination input by the receiving means, an algorithm acquisition means for acquiring an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature amounts;
A feature amount acquisition means for acquiring a feature amount of an image of a biological sample;
Using the algorithm calculated by the algorithm acquisition means, a medicinal effect calculation means for calculating the medicinal effect indicated by the image whose feature value is acquired by the feature value acquisition means,
An image analysis apparatus comprising:
JP2011065734A 2011-03-24 2011-03-24 Image analysis method and image analysis apparatus Active JP5720351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011065734A JP5720351B2 (en) 2011-03-24 2011-03-24 Image analysis method and image analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011065734A JP5720351B2 (en) 2011-03-24 2011-03-24 Image analysis method and image analysis apparatus

Publications (2)

Publication Number Publication Date
JP2012202743A true JP2012202743A (en) 2012-10-22
JP5720351B2 JP5720351B2 (en) 2015-05-20

Family

ID=47183923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011065734A Active JP5720351B2 (en) 2011-03-24 2011-03-24 Image analysis method and image analysis apparatus

Country Status (1)

Country Link
JP (1) JP5720351B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020070885A1 (en) * 2018-10-05 2020-04-09 株式会社ニコン Determination device, determination program, and determination method
JP2020081542A (en) * 2018-11-28 2020-06-04 横河電機株式会社 Device, method and program
JP2020135568A (en) * 2019-02-21 2020-08-31 横河電機株式会社 Device, method, and program
WO2022259648A1 (en) * 2021-06-09 2022-12-15 ソニーグループ株式会社 Information processing program, information processing device, information processing method, and microscope system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003506711A (en) * 1999-08-05 2003-02-18 セロミックス インコーポレイテッド Analysis of cells by optical system
JP2005102629A (en) * 2003-10-01 2005-04-21 Yokogawa Electric Corp Method and apparatus for screening new drug
JP2006340686A (en) * 2005-06-10 2006-12-21 Olympus Corp Cell analysis method, cell analysis program and cell analysis apparatus
JP2008101968A (en) * 2006-10-18 2008-05-01 Yokogawa Electric Corp Screening apparatus for drug development, and development method for drug development
WO2010045490A2 (en) * 2008-10-15 2010-04-22 Ridge Diagnostics, Inc. Human biomarker hypermapping for depressive disorders
WO2010100704A1 (en) * 2009-03-04 2010-09-10 日本電気株式会社 Diagnostic imaging support device, diagnostic imaging support method, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003506711A (en) * 1999-08-05 2003-02-18 セロミックス インコーポレイテッド Analysis of cells by optical system
JP2005102629A (en) * 2003-10-01 2005-04-21 Yokogawa Electric Corp Method and apparatus for screening new drug
JP2006340686A (en) * 2005-06-10 2006-12-21 Olympus Corp Cell analysis method, cell analysis program and cell analysis apparatus
JP2008101968A (en) * 2006-10-18 2008-05-01 Yokogawa Electric Corp Screening apparatus for drug development, and development method for drug development
WO2010045490A2 (en) * 2008-10-15 2010-04-22 Ridge Diagnostics, Inc. Human biomarker hypermapping for depressive disorders
WO2010100704A1 (en) * 2009-03-04 2010-09-10 日本電気株式会社 Diagnostic imaging support device, diagnostic imaging support method, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020070885A1 (en) * 2018-10-05 2020-04-09 株式会社ニコン Determination device, determination program, and determination method
JP2020081542A (en) * 2018-11-28 2020-06-04 横河電機株式会社 Device, method and program
US11024030B2 (en) 2018-11-28 2021-06-01 Yokogawa Electric Corporation Apparatus, method, and recording medium
JP2020135568A (en) * 2019-02-21 2020-08-31 横河電機株式会社 Device, method, and program
WO2022259648A1 (en) * 2021-06-09 2022-12-15 ソニーグループ株式会社 Information processing program, information processing device, information processing method, and microscope system

Also Published As

Publication number Publication date
JP5720351B2 (en) 2015-05-20

Similar Documents

Publication Publication Date Title
Gayoso et al. Joint probabilistic modeling of single-cell multi-omic data with totalVI
Usaj et al. High-content screening for quantitative cell biology
Morton et al. Learning representations of microbe–metabolite interactions
Meijering et al. Imagining the future of bioimage analysis
Charlebois et al. Modeling cell population dynamics
Jeckel et al. Advances and opportunities in image analysis of bacterial cells and communities
AU2019205311A1 (en) Predicting quality of sequencing results using deep neural networks
JP2022500744A (en) Computer implementation methods, computer program products and systems for analysis of cell images
Smith et al. Applications of artificial intelligence in clinical microbiology diagnostic testing
US11928814B2 (en) Method and system for determining concentration of an analyte in a sample of a bodily fluid, and method and system for generating a software-implemented module
JP5720351B2 (en) Image analysis method and image analysis apparatus
Deng et al. Synchronizing stochastic circadian oscillators in single cells of Neurospora crassa
Lopez et al. Bayesian inference for a generative model of transcriptome profiles from single-cell RNA sequencing
Gayoso et al. Joint probabilistic modeling of paired transcriptome and proteome measurements in single cells
WO2019043162A1 (en) Detection of biological cells and tracing of cell lineage
JPWO2019141748A5 (en)
Mukherjee et al. Joint regression-classification deep learning framework for analyzing fluorescence lifetime images using NADH and FAD
Lion et al. Evolution of class-structured populations in periodic environments
Lion et al. Life-history evolution of class-structured populations in fluctuating environments
Schaffter From genes to organisms: Bioinformatics system models and software
Turek et al. OmicsON–Integration of omics data with molecular networks and statistical procedures
CN117377772A (en) Rapid, automated image-based virus plaque and efficacy assays
CN112489012A (en) Neural network architecture method for CT image recognition
CN114981895A (en) Adaptive data subsampling and calculation
Blöbaum et al. Quantifying microbial robustness in dynamic environments using microfluidic single-cell cultivation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140813

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150309

R150 Certificate of patent or registration of utility model

Ref document number: 5720351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150