JP2012202743A - Image analysis method and image analyzer - Google Patents
Image analysis method and image analyzer Download PDFInfo
- Publication number
- JP2012202743A JP2012202743A JP2011065734A JP2011065734A JP2012202743A JP 2012202743 A JP2012202743 A JP 2012202743A JP 2011065734 A JP2011065734 A JP 2011065734A JP 2011065734 A JP2011065734 A JP 2011065734A JP 2012202743 A JP2012202743 A JP 2012202743A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- algorithm
- medicinal effect
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Apparatus Associated With Microorganisms And Enzymes (AREA)
- Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
Description
本発明は、生物学的試料の画像の特徴量から薬効を判定するための解析を行う画像解析方法等に関する。 The present invention relates to an image analysis method for performing an analysis for determining a drug effect from a feature amount of an image of a biological sample.
創薬スクリーニングの一分野として、HCA(ハイコンテンツアナリシス)またはHCS(ハイコンテンツスクリーニング)と呼ばれる手法がある。この手法では、細胞の顕微鏡画像を用いて薬効の判定を行う。一度に多数の実験条件を試すために、多数のウェルをもつマイクロタイタープレートが用いられ、個々のウェルに対して順次撮像を行う操作が自動的に行われる装置も開発されている。 One field of drug discovery screening is a technique called HCA (High Content Analysis) or HCS (High Content Screening). In this method, drug efficacy is determined using microscopic images of cells. In order to test a large number of experimental conditions at once, a microtiter plate having a large number of wells is used, and an apparatus for automatically performing an operation of sequentially imaging individual wells has been developed.
図5は、画像解析を用いる創薬スクリーニングの概念を示している。この手法では、例えば、多くの種類の薬剤の各々について異なる薬剤濃度で細胞に適用し、その反応を解析する。図5の例では、反応(薬効)の有無が「細胞の面積」という単純な特徴量で定量化できる場合を示しており、左側がネガティブ(薬効なし)の場合の顕微鏡画像に、右側がポジティブ(薬効あり)の場合の顕微鏡画像に、それぞれ相当する。図5に示すように、ポジティブの場合にネガティブの場合よりも細胞の面積が大きくなる。図6は、この場合の反応曲線を示しており、グラフの横軸に薬剤の量(濃度)を、縦軸に細胞の面積をプロットすると反応曲線が得られる。図6の例では、薬剤の濃度とともに薬効が大きくなりやがて飽和する様子が示されている。この反応曲線から、創薬スクリーニング分野で標準的に用いられているZ´−factor(最大薬効と最小薬効の差が誤差も考慮してどの程度有意かを示す評価量)やEC50(薬効が最大の半分になる薬剤濃度)、SN(薬効の最大と最小の比)等の評価係数を出力する。 FIG. 5 shows the concept of drug discovery screening using image analysis. In this technique, for example, each of many types of drugs is applied to cells at different drug concentrations, and the reaction is analyzed. The example of FIG. 5 shows a case where the presence or absence of a reaction (drug effect) can be quantified by a simple feature amount “cell area”, and the left side is a microscopic image in the case of negative (no drug effect), and the right side is positive. Each corresponds to a microscopic image in the case of (with medicinal effect). As shown in FIG. 5, the cell area is larger in the positive case than in the negative case. FIG. 6 shows a reaction curve in this case. When the amount (concentration) of the drug is plotted on the horizontal axis of the graph and the cell area is plotted on the vertical axis, the reaction curve is obtained. In the example of FIG. 6, a state is shown in which the medicinal effect increases with the concentration of the drug and eventually becomes saturated. From this response curve, Z'-factor (an evaluation amount indicating how significant the difference between the maximum drug effect and the minimum drug effect takes into account an error) and EC50 (maximum drug effect) are used in the drug discovery screening field. (E.g., drug concentration that is half of the above) and SN (maximum and minimum ratio of drug effect) and the like are output.
図5の例のように、細胞の面積のような自明な特徴量で薬効が定量化できる場合は薬効を容易に判定できるが、一般には、薬効の有無は、画像の明るさに関するパラメタや画像の形状に関するパラメタの組み合わせなど、異なる特徴量の複雑な組み合わせになると考えられ、直感的に数式で表すことも困難である。画像の明るさとしては、細胞領域内の画素値の合計、平均、標準偏差、あるいはそれらと空間(2次元画像のXY方向、あるいは3次元画像のXYZ方向)の量を組み合わせた各種特徴量(統計量)が考えられる。形状に関するパラメタは、形状のモーメントやオイラー数等の幾何学的な特徴量や、Haralickのテクスチャの特徴量が考えられる。 As shown in the example of FIG. 5, when the medicinal effect can be quantified with an obvious feature amount such as the area of a cell, the medicinal effect can be easily determined. It is considered to be a complex combination of different feature quantities, such as a combination of parameters related to the shape of the image, and it is difficult to intuitively express it with a mathematical expression. As the brightness of the image, the total, average, and standard deviation of the pixel values in the cell region, or various feature amounts (the XY direction of the two-dimensional image or the XYZ direction of the three-dimensional image) combined with these amounts ( Statistic). The shape parameters can be geometric features such as shape moments and Euler numbers, and Haralick texture features.
このように、創薬スクリーニングの画像解析では、薬効を表すパラメタ(特徴量)を抽出することが必要である。特徴量は自明でなく、また1種類とは限らない。一般には、複数の特徴量を最適に組み合わせることで、1種類の特徴量のみに依存するよりも高い信号対雑音比で薬効を定量できると考えられる。しかしこれまで、どのような特徴量をどう組み合わせるかは、研究者の経験や勘という主観に委ねられてきたのが実情であり、パラメタの最適化を自動的に系統立てて行う手法は存在しない。また、HCSやHCAは、薬学分野の研究者にとって馴染みが少ない画像処理の専門知識が必要であり、敷居が高い技術という印象が持たれている。 As described above, in the image analysis of drug discovery screening, it is necessary to extract a parameter (feature amount) representing a drug effect. The feature amount is not obvious and is not limited to one type. In general, it is considered that a medicinal effect can be quantified with a higher signal-to-noise ratio than when depending on only one type of feature amount by optimally combining a plurality of feature amounts. However, until now, what kind of features are combined and how it has been left to the subjectivity of researcher's experience and intuition is the actual situation, and there is no method to automatically systematize parameter optimization . In addition, HCS and HCA require image processing expertise that is not familiar to researchers in the pharmaceutical field, and have the impression that the technology is highly threshold.
本発明の目的は、画像処理の専門知識を要することなく、適切に薬効を判定することができる画像解析方法等を提供することにある。 An object of the present invention is to provide an image analysis method and the like that can appropriately determine the medicinal effect without requiring specialized knowledge of image processing.
本発明の画像解析方法は、生物学的試料の画像の特徴量から、その画像が示す薬効を判定するための解析を行う画像解析方法において、生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付ステップと、前記受付ステップにより入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得、最適化するアルゴリズム取得ステップと、生物学的試料の画像の特徴量を取得する特徴量取得ステップと、前記アルゴリズム取得ステップにより算出された前記アルゴリズムを用いて、前記特徴量取得ステップにより特徴量が取得された画像が示す薬効を算出する薬効算出ステップと、をコンピュータが実行することを特徴とする。
この画像解析方法によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。
The image analysis method of the present invention is an image analysis method for performing an analysis for determining a medicinal effect indicated by an image from a feature amount of an image of a biological sample. An accepting step for accepting an input of a combination with a degree of medicinal effect corresponding to the above, and obtaining an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature quantities based on the combination inputted by the accepting step, An algorithm acquisition step for optimization, a feature amount acquisition step for acquiring a feature amount of an image of a biological sample, and a feature amount acquired by the feature amount acquisition step using the algorithm calculated by the algorithm acquisition step. And a medicinal effect calculating step for calculating the medicinal effect indicated by the displayed image.
According to this image analysis method, an algorithm for calculating the medicinal effect is obtained based on a combination of the feature amount of the image and the medicinal effect level corresponding to the image, so that the medicinal effect is calculated. The medicinal effect can be appropriately determined without requiring processing expertise.
前記アルゴリズムはニューラルネットワークや、サポートベクターマシン(SVM)により定義されてもよい。 The algorithm may be defined by a neural network or a support vector machine (SVM).
前記特徴量を抽出する特徴量抽出ステップをコンピュータが実行し、前記アルゴリズムは前記特徴量抽出ステップにおける画像解析のパラメタの指定を含んでもよい。 The feature amount extraction step for extracting the feature amount may be executed by a computer, and the algorithm may include specification of an image analysis parameter in the feature amount extraction step.
本発明の画像解析装置は、生物学的試料の画像の特徴量から、その画像が示す薬効を判定するための解析を行う画像解析装置において、生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付手段と、前記受付手段により入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得、最適化するアルゴリズム取得手段と、生物学的試料の画像の特徴量を取得する特徴量取得手段と、前記アルゴリズム取得手段により算出された前記アルゴリズムを用いて、前記特徴量取得手段により特徴量が取得された画像が示す薬効を算出する薬効算出手段と、を備えることを特徴とする。
この画像解析装置によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。
An image analysis apparatus according to the present invention is an image analysis apparatus that performs analysis for determining a medicinal effect indicated by an image from a feature amount of an image of a biological sample. Receiving means for receiving an input of a combination with a degree of medicinal effect corresponding to the, and obtaining an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature quantities based on the combination input by the receiving means, A feature quantity is acquired by the feature quantity acquisition means using an algorithm acquisition means for optimization, a feature quantity acquisition means for acquiring a feature quantity of an image of a biological sample, and the algorithm calculated by the algorithm acquisition means. And a medicinal effect calculating means for calculating the medicinal effect indicated by the displayed image.
According to this image analysis apparatus, an algorithm for calculating the medicinal effect is obtained by calculation using a plurality of feature amounts based on the combination of the image feature amount and the medicinal effect level corresponding to the image. The medicinal effect can be appropriately determined without requiring processing expertise.
本発明の画像解析方法によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。 According to the image analysis method of the present invention, an algorithm for calculating a medicinal effect is obtained based on a combination of a feature amount of an image and a medicinal effect level corresponding to the image by an operation using a plurality of feature amounts. The medicinal effect can be appropriately determined without requiring specialized knowledge of image processing.
本発明の画像解析装置によれば、画像の特徴量と、画像に対応する薬効の程度との組み合わせに基づいて、複数の特徴量を用いた演算により薬効を算出するためのアルゴリズムを取得するので、画像処理の専門知識を要することなく、適切に薬効を判定することができる。 According to the image analysis apparatus of the present invention, an algorithm for calculating the medicinal effect is obtained based on a combination of the feature amount of the image and the medicinal effect level corresponding to the image by calculation using a plurality of feature amounts. The medicinal effect can be appropriately determined without requiring specialized knowledge of image processing.
以下、本発明による画像解析方法の一実施形態について説明する。 Hereinafter, an embodiment of an image analysis method according to the present invention will be described.
図1は、本発明による画像解析方法を実行するための画像解析装置の構成例を示すブロック図である。 FIG. 1 is a block diagram showing a configuration example of an image analysis apparatus for executing an image analysis method according to the present invention.
図1に示すように、画像解析装置は、顕微鏡やカメラにより得られた細胞の画像データを取得する画像データ取得部1と、画像解析を行う機能(ソフトウェア)が実装され、画像データ取得部1から取得した画像データから、個々の細胞について多数の特徴量を演算して演算結果を記録する特徴量抽出部2と、ニューラルネットワークを構築する組み合わせ最適化部3と、ニューラルネットワークを用いて反応曲線を算出する反応曲線出力部4と、を備える。
As shown in FIG. 1, the image analysis apparatus includes an image
図2は、本発明による画像解析方法で利用するニューラルネットワークの例を示している。図2の例では、層の数は3層である。しかし、本発明による画像解析方法に適用されるニューラルネットワークにおける出力数nの値および層の数はこれに限定されない。 FIG. 2 shows an example of a neural network used in the image analysis method according to the present invention. In the example of FIG. 2, the number of layers is three. However, the value of the output number n and the number of layers in the neural network applied to the image analysis method according to the present invention are not limited to this.
次に、画像解析装置の動作について説明する。 Next, the operation of the image analysis apparatus will be described.
画像データ取得部1には、種々の薬剤について、複数(多数)の異なる濃度における画像データが取り込まれ、特徴量抽出部2は、それぞれの画像についての特徴量を演算、記録する。特徴量抽出部2において演算、記録される特徴量は、例えば、画像の明るさに関するパラメタや画像の形状に関するパラメタなどである。画像の明るさとしては、細胞領域内の画素値の合計、平均、標準偏差、あるいはそれらと空間(2次元画像のXY方向、あるいは3次元画像のXYZ方向)の量を組み合わせた各種特徴量(統計量)が考えられる。形状に関するパラメタは、形状のモーメントやオイラー数等の幾何学的な特徴量や、テクスチャに関する特徴量が考えられる。
The image
図3は、ニューラルネットワークを構築する際における組み合わせ最適化部3の動作を示すフローチャートである。
FIG. 3 is a flowchart showing the operation of the
図3のステップS1では、組み合わせ最適化部3は、特定の薬剤についてのネガティブコントロールおよびポジティブコントロールについての画像の特徴量を特徴量抽出部2から取得する。ここで、ネガティブコントロールは最低濃度または薬剤を投与しない場合であり、ポジティブコントロールは最大濃度の場合である。
In step S <b> 1 of FIG. 3, the
次に、ステップS2では、組み合わせ最適化部3においてニューラルネットワークを構成する。
Next, in step S2, the
ネガティブコントロールおよびポジティブコントロールのデータは各々、(1,0),(0,1)というベクトルで表し、出力が2ノードであるニューラルネットワークを構成する。各ノードの応答関数は、例えば、下記の(1)式で示すロジスティック関数等を用いることができるが、これと異なる関数でもよい。 Negative control and positive control data are represented by vectors (1, 0) and (0, 1), respectively, and constitute a neural network whose output is two nodes. As the response function of each node, for example, a logistic function represented by the following equation (1) can be used, but a different function may be used.
f(x)=a/[1+exp{−(x−T)}] ・・・(1)式
ただし、aは規格化定数、Tは閾値である。
f (x) = a / [1 + exp {− (x−T)}] (1) where a is a normalization constant and T is a threshold value.
入力ノードは特徴量抽出部2から得られる各細胞の画像の特徴量であり、入力ノード数はこの特徴量の個数である。入力する特徴量は一般に異なる次元を持っており、また、数値の範囲も単位によって異なる。このため、ニューラルネットワークに入力する前段階で規格化を施す必要がある。規格化の方法としては、例えば、その特徴量の最大値と最小値を用いて値を0−1の範囲に規格化し、あるいは平均と標準偏差を用いて規格化してもよい。
The input node is a feature amount of the image of each cell obtained from the feature
ステップS2では、複数(多数)の異なる濃度のうち、とくにネガティブコントロールとポジティブコントロールの2種類の特徴量の組に対して、それぞれ結果が(1,0),(0,1)となるよう、ニューラルネットワークの構成、学習を行う。学習の方法としては、当該分野で公知の誤差逆伝播法(Back propagation)を用い、学習係数の調整等を行う。入力する教師信号の数は、ネガティブコントロール、ポジティブコントロール各々のデータにおいて検出した細胞の数に該当するが、必要に応じて一部のデータのみを使用してもよい。 In step S2, among the plural (many) different concentrations, the result is (1, 0), (0, 1), particularly for two types of feature sets of negative control and positive control. Neural network configuration and learning. As a learning method, an error back-propagation method (Back propagation) known in the field is used, and adjustment of a learning coefficient is performed. The number of teacher signals to be input corresponds to the number of cells detected in the data of each of the negative control and the positive control, but only a part of the data may be used as necessary.
ニューラルネットワークは特徴量を組み合わせて薬効を算出するアルゴリズムに対応しており、ニューラルネットワークの学習により、どの特徴量をどのような重みで関連付けるとネガティブコントロールとポジティブコントロールを明確に識別可能になるかが判明する。この学習過程が、熟練者が画像処理の知識に基づいて特徴量を組み合わせて薬効の定量化を試みる作業に対応している。 Neural networks support algorithms that combine features to calculate medicinal effects. By learning neural networks, it is possible to clearly identify negative controls and positive controls by associating which features with what weights. Prove. This learning process corresponds to an operation in which an expert tries to quantify the efficacy by combining feature amounts based on knowledge of image processing.
ニューラルネットワークの中間層のノード数については何らかの経験則に従って決定してもよく、あるいは複数の異なる中間層のノード数のニューラルネットワークに対して繰り返し学習を試み、出力誤差が充分に小さくなるようなノード数を選択してもよい。 The number of nodes in the intermediate layer of the neural network may be determined according to some rule of thumb, or a node whose output error becomes sufficiently small by repeatedly learning the neural network having a number of nodes in different intermediate layers. A number may be selected.
図4は、反応曲線出力部4の動作を示すフローチャートである。 FIG. 4 is a flowchart showing the operation of the reaction curve output unit 4.
反応曲線出力部4は、学習済みのニューラルネットワークを用いて、ネガティブコントロールおよびポジティブコントロール以外の濃度を含むすべての濃度での薬効を判定する処理を実行する。 The response curve output unit 4 uses a learned neural network to execute processing for determining the medicinal effects at all concentrations including concentrations other than negative control and positive control.
図4のステップS11では、判定の対象となる特定薬剤の特定濃度についての特徴量を特徴量抽出部2から取得する。
In step S <b> 11 of FIG. 4, the feature amount for the specific concentration of the specific drug to be determined is acquired from the feature
次に、ステップS12では、特徴量抽出部2から取得された特徴量を学習済みのニューラルネットワークに入力し、出力ベクトルを取得する。
Next, in step S12, the feature quantity acquired from the feature
次に、ステップS13では、ステップS12で得られた出力ベクトルをスカラー量に変換する。出力ベクトルは2次元のベクトル量であるため、反応曲線として表示しにくい。このため、ステップS13では、出力ベクトル(x、y)に対して(y−x+1)/2または{(y2−x2+1)/2}1/2など、(1,0)が0に、(0,1)が1になるような演算を行ってベクトル量をスカラー量に変換する。このスカラー量を用いて反応曲線を描き、創薬スクリーニング分野で標準的に用いられているZ´−factor(最大薬効と最小薬効の差が誤差も考慮してどの程度有意かを示す評価量)やEC50(薬効が最大の半分になる薬剤濃度)、SN(薬効の最大と最小の比)等の評価係数を出力することができる。しかし、スカラー量への変換を行わず、ベクトル量のまま評価を行ってもよい。 Next, in step S13, the output vector obtained in step S12 is converted into a scalar quantity. Since the output vector is a two-dimensional vector quantity, it is difficult to display it as a reaction curve. Therefore, in step S13, (1, 0) is set to 0, such as (y−x + 1) / 2 or {(y 2 −x 2 +1) / 2} 1/2 with respect to the output vector (x, y). , (0, 1) is calculated to be 1, and the vector quantity is converted to a scalar quantity. Using this scalar quantity, draw a response curve and use it as a standard Z'-factor in the drug discovery screening field (an evaluation quantity that shows how significant the difference between the maximum and minimum drug effects takes into account errors) And evaluation coefficients such as EC50 (drug concentration at which the drug efficacy becomes half of the maximum) and SN (ratio between maximum and minimum drug efficacy) can be output. However, the evaluation may be performed with the vector amount without conversion to the scalar amount.
なお、組み合わせ最適化部3によるニューラルネットワークの学習においては、反応曲線出力部4による算出結果をフィードバックして学習に反映させる処理を繰り返しており、この場合、反応曲線出力部4は学習中のニューラルネットワークを用いた演算を実行し、演算結果を組み合わせ最適化部3に向けて出力する。
In the learning of the neural network by the
以上のように、本発明による画像解析方法を用いることにより、薬効が最小と考えられるネガティブコントロールと、薬効が最大と考えられるポジティブコントロールのデータを指定するだけで、自動的に薬効の判定を行うための特徴量の組み合わせが決定される。したがって、画像処理に関する専門知識を要することなく、適切な特徴量の組み合わせによる薬効の判定が可能となる。 As described above, by using the image analysis method according to the present invention, it is possible to automatically determine the efficacy only by designating the data of the negative control that is considered to have the minimum efficacy and the positive control that is considered to have the maximum efficacy. A combination of feature quantities is determined. Therefore, it is possible to determine the medicinal effect by an appropriate combination of feature amounts without requiring specialized knowledge regarding image processing.
これにより、例えば、薬学の研究者がネガティブとポジティブの画像が定性的に異なることは認識できるが、定量化の手法が分からないような場合、本発明による画像解析方法を用いることにより、自動的に最適な解析方法を得ることができる。 This allows, for example, pharmaceutical researchers to recognize that negative and positive images are qualitatively different, but if the quantification method is not known, the image analysis method according to the present invention can be used automatically. An optimal analysis method can be obtained.
また、本発明による画像解析方法を用いて得られたニューラルネットワークの重み係数を分析することで、薬効による画像の変化に対して、経験等に頼った場合よりも深い知見を得ることができる。 Further, by analyzing the weighting coefficient of the neural network obtained by using the image analysis method according to the present invention, it is possible to obtain deeper knowledge than when relying on experience or the like for the change in the image due to the medicinal effect.
上記実施形態では、特徴量抽出部2における画像解析の内容については言及していないが、画像解析での結果得られる特徴量は一般的に画像解析を行う際のパラメタに依存する。このパラメタの単純な例としては、2値化を行うための閾値が挙げられる。滑らかな断面形状を持った細胞であれば、閾値を低くすれば細胞の面積が大きく見え、閾値を高くすれば細胞の面積が小さく見えることは自明である。このため特徴量は画像解析のパラメタの組み合わせに依存する。
In the above embodiment, the content of the image analysis in the feature
そこで、ニューラルネットワークの学習結果に基づいて結果をフィードバックし、薬効あるいは薬効を表すZ´−factorやSNが最大になるように、またはEC50が最小になるように、画像解析のパラメタの最適化を行ってもよい。この場合、特徴量抽出部2で用いられる画像解析のパラメタを変更しながら、組み合わせ最適化部3における演算を繰り返すことにより、最適なパラメタを求めることができる。画像解析パラメタの最適化は、例えば、Nelder-Meade の Down-hill simplex などの手法を用いて行ってもよい。
Therefore, the results are fed back based on the learning result of the neural network, and the parameters of the image analysis are optimized so that the Z′-factor and SN representing the medicinal effect or medicinal effect are maximized or the EC50 is minimized. You may go. In this case, the optimum parameter can be obtained by repeating the calculation in the
上記実施形態では、細胞の顕微鏡画像を対象とする場合について説明したが、本発明は、細胞以外の生物学的試料(細胞の塊であるコロニー、プランクトン、藻類など)、および顕微鏡以外の光学系の画像に対しても適用できる。 In the above-described embodiment, a case where a microscopic image of a cell is targeted has been described. However, the present invention relates to a biological sample other than a cell (such as a colony of cells, plankton, and algae), and an optical system other than a microscope. It can also be applied to other images.
本発明の適用範囲は上記実施形態に限定されることはない。本発明は、生物学的試料の画像の特徴量から薬効を判定するための解析を行う画像解析方法等に対し、広く適用することができる。 The scope of application of the present invention is not limited to the above embodiment. The present invention can be widely applied to an image analysis method for performing an analysis for determining a drug effect from a feature amount of an image of a biological sample.
3 組み合わせ最適化部(受付手段、アルゴリズム取得手段、特徴量取得手段)
4 反応曲線出力部
3. Combination optimization unit (accepting means, algorithm acquiring means, feature amount acquiring means)
4 Response curve output section
Claims (4)
生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付ステップと、
前記受付ステップにより入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得するアルゴリズム取得ステップと、
生物学的試料の画像の特徴量を取得する特徴量取得ステップと、
前記アルゴリズム取得ステップにより算出された前記アルゴリズムを用いて、前記特徴量取得ステップにより特徴量が取得された画像が示す薬効を算出する薬効算出ステップと、
をコンピュータが実行することを特徴とする画像解析方法。 In an image analysis method for performing an analysis to determine the drug efficacy indicated by the image from the feature amount of the image of the biological sample,
An accepting step for receiving an input of a combination of a feature amount of an image of a biological sample and a degree of medicinal effect corresponding to the image;
Based on the combination input in the reception step, an algorithm acquisition step of acquiring an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature amounts;
A feature acquisition step for acquiring a feature of an image of a biological sample;
Using the algorithm calculated in the algorithm acquisition step, a medicinal effect calculation step for calculating the medicinal effect indicated by the image in which the feature amount is acquired in the feature amount acquisition step,
A computer-executable image analysis method.
前記アルゴリズムは前記特徴量抽出ステップにおける画像解析のパラメタの指定を含むことを特徴とする請求項1または2に記載の画像解析方法。 A computer executes a feature amount extraction step for extracting the feature amount,
The image analysis method according to claim 1, wherein the algorithm includes designation of an image analysis parameter in the feature amount extraction step.
生物学的試料の画像の特徴量と、前記画像に対応する薬効の程度との組み合わせの入力を受け付ける受付手段と、
前記受付手段により入力された組み合わせに基づいて、複数の前記特徴量を用いた演算により前記薬効を算出するためのアルゴリズムを取得するアルゴリズム取得手段と、
生物学的試料の画像の特徴量を取得する特徴量取得手段と、
前記アルゴリズム取得手段により算出された前記アルゴリズムを用いて、前記特徴量取得手段により特徴量が取得された画像が示す薬効を算出する薬効算出手段と、
を備えることを特徴とする画像解析装置。 In an image analysis apparatus that performs analysis for determining the medicinal effect indicated by the image from the feature amount of the image of the biological sample,
Receiving means for receiving an input of a combination of a feature amount of an image of a biological sample and a degree of medicinal effect corresponding to the image;
Based on the combination input by the receiving means, an algorithm acquisition means for acquiring an algorithm for calculating the medicinal effect by a calculation using a plurality of the feature amounts;
A feature amount acquisition means for acquiring a feature amount of an image of a biological sample;
Using the algorithm calculated by the algorithm acquisition means, a medicinal effect calculation means for calculating the medicinal effect indicated by the image whose feature value is acquired by the feature value acquisition means,
An image analysis apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011065734A JP5720351B2 (en) | 2011-03-24 | 2011-03-24 | Image analysis method and image analysis apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011065734A JP5720351B2 (en) | 2011-03-24 | 2011-03-24 | Image analysis method and image analysis apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012202743A true JP2012202743A (en) | 2012-10-22 |
JP5720351B2 JP5720351B2 (en) | 2015-05-20 |
Family
ID=47183923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011065734A Active JP5720351B2 (en) | 2011-03-24 | 2011-03-24 | Image analysis method and image analysis apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5720351B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020070885A1 (en) * | 2018-10-05 | 2020-04-09 | 株式会社ニコン | Determination device, determination program, and determination method |
JP2020081542A (en) * | 2018-11-28 | 2020-06-04 | 横河電機株式会社 | Device, method and program |
JP2020135568A (en) * | 2019-02-21 | 2020-08-31 | 横河電機株式会社 | Device, method, and program |
WO2022259648A1 (en) * | 2021-06-09 | 2022-12-15 | ソニーグループ株式会社 | Information processing program, information processing device, information processing method, and microscope system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003506711A (en) * | 1999-08-05 | 2003-02-18 | セロミックス インコーポレイテッド | Analysis of cells by optical system |
JP2005102629A (en) * | 2003-10-01 | 2005-04-21 | Yokogawa Electric Corp | Method and apparatus for screening new drug |
JP2006340686A (en) * | 2005-06-10 | 2006-12-21 | Olympus Corp | Cell analysis method, cell analysis program and cell analysis apparatus |
JP2008101968A (en) * | 2006-10-18 | 2008-05-01 | Yokogawa Electric Corp | Screening apparatus for drug development, and development method for drug development |
WO2010045490A2 (en) * | 2008-10-15 | 2010-04-22 | Ridge Diagnostics, Inc. | Human biomarker hypermapping for depressive disorders |
WO2010100704A1 (en) * | 2009-03-04 | 2010-09-10 | 日本電気株式会社 | Diagnostic imaging support device, diagnostic imaging support method, and storage medium |
-
2011
- 2011-03-24 JP JP2011065734A patent/JP5720351B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003506711A (en) * | 1999-08-05 | 2003-02-18 | セロミックス インコーポレイテッド | Analysis of cells by optical system |
JP2005102629A (en) * | 2003-10-01 | 2005-04-21 | Yokogawa Electric Corp | Method and apparatus for screening new drug |
JP2006340686A (en) * | 2005-06-10 | 2006-12-21 | Olympus Corp | Cell analysis method, cell analysis program and cell analysis apparatus |
JP2008101968A (en) * | 2006-10-18 | 2008-05-01 | Yokogawa Electric Corp | Screening apparatus for drug development, and development method for drug development |
WO2010045490A2 (en) * | 2008-10-15 | 2010-04-22 | Ridge Diagnostics, Inc. | Human biomarker hypermapping for depressive disorders |
WO2010100704A1 (en) * | 2009-03-04 | 2010-09-10 | 日本電気株式会社 | Diagnostic imaging support device, diagnostic imaging support method, and storage medium |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020070885A1 (en) * | 2018-10-05 | 2020-04-09 | 株式会社ニコン | Determination device, determination program, and determination method |
JP2020081542A (en) * | 2018-11-28 | 2020-06-04 | 横河電機株式会社 | Device, method and program |
US11024030B2 (en) | 2018-11-28 | 2021-06-01 | Yokogawa Electric Corporation | Apparatus, method, and recording medium |
JP2020135568A (en) * | 2019-02-21 | 2020-08-31 | 横河電機株式会社 | Device, method, and program |
WO2022259648A1 (en) * | 2021-06-09 | 2022-12-15 | ソニーグループ株式会社 | Information processing program, information processing device, information processing method, and microscope system |
Also Published As
Publication number | Publication date |
---|---|
JP5720351B2 (en) | 2015-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gayoso et al. | Joint probabilistic modeling of single-cell multi-omic data with totalVI | |
Usaj et al. | High-content screening for quantitative cell biology | |
Morton et al. | Learning representations of microbe–metabolite interactions | |
Meijering et al. | Imagining the future of bioimage analysis | |
Charlebois et al. | Modeling cell population dynamics | |
Jeckel et al. | Advances and opportunities in image analysis of bacterial cells and communities | |
AU2019205311A1 (en) | Predicting quality of sequencing results using deep neural networks | |
JP2022500744A (en) | Computer implementation methods, computer program products and systems for analysis of cell images | |
Smith et al. | Applications of artificial intelligence in clinical microbiology diagnostic testing | |
US11928814B2 (en) | Method and system for determining concentration of an analyte in a sample of a bodily fluid, and method and system for generating a software-implemented module | |
JP5720351B2 (en) | Image analysis method and image analysis apparatus | |
Deng et al. | Synchronizing stochastic circadian oscillators in single cells of Neurospora crassa | |
Lopez et al. | Bayesian inference for a generative model of transcriptome profiles from single-cell RNA sequencing | |
Gayoso et al. | Joint probabilistic modeling of paired transcriptome and proteome measurements in single cells | |
WO2019043162A1 (en) | Detection of biological cells and tracing of cell lineage | |
JPWO2019141748A5 (en) | ||
Mukherjee et al. | Joint regression-classification deep learning framework for analyzing fluorescence lifetime images using NADH and FAD | |
Lion et al. | Evolution of class-structured populations in periodic environments | |
Lion et al. | Life-history evolution of class-structured populations in fluctuating environments | |
Schaffter | From genes to organisms: Bioinformatics system models and software | |
Turek et al. | OmicsON–Integration of omics data with molecular networks and statistical procedures | |
CN117377772A (en) | Rapid, automated image-based virus plaque and efficacy assays | |
CN112489012A (en) | Neural network architecture method for CT image recognition | |
CN114981895A (en) | Adaptive data subsampling and calculation | |
Blöbaum et al. | Quantifying microbial robustness in dynamic environments using microfluidic single-cell cultivation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140813 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5720351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |