JPWO2019176012A1 - Image processing methods, image processing devices, user interface devices, image processing systems, and servers - Google Patents

Image processing methods, image processing devices, user interface devices, image processing systems, and servers Download PDF

Info

Publication number
JPWO2019176012A1
JPWO2019176012A1 JP2020506023A JP2020506023A JPWO2019176012A1 JP WO2019176012 A1 JPWO2019176012 A1 JP WO2019176012A1 JP 2020506023 A JP2020506023 A JP 2020506023A JP 2020506023 A JP2020506023 A JP 2020506023A JP WO2019176012 A1 JPWO2019176012 A1 JP WO2019176012A1
Authority
JP
Japan
Prior art keywords
image processing
image
division
subject
auxiliary information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020506023A
Other languages
Japanese (ja)
Other versions
JP6931418B2 (en
Inventor
遊 廣澤
遊 廣澤
朗 松下
朗 松下
勲 坂根
勲 坂根
良介 村田
良介 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2019176012A1 publication Critical patent/JPWO2019176012A1/en
Application granted granted Critical
Publication of JP6931418B2 publication Critical patent/JP6931418B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Urology & Nephrology (AREA)
  • Biochemistry (AREA)
  • Hematology (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Abstract

画像処理方法は、被写体を撮像した被写体画像を取得する工程(S1)と、被写体画像を複数の分割画像に分割する工程(S4)と、複数の分割画像の内、少なくとも一部の特徴量を算出し、特徴量が被写体の外見的特徴を表す量である、工程(S5)と、特徴量に基づいて分割補助情報を作成する工程(S6)とを含み、分割補助情報が、被写体画像の分割方法の決定に用いられる情報である。The image processing method includes a step of acquiring a subject image obtained by capturing an image of the subject (S1), a step of dividing the subject image into a plurality of divided images (S4), and at least a part of the plurality of divided images. The division auxiliary information includes a step (S5) in which the calculated feature amount represents the appearance feature of the subject and a step (S6) in which the division auxiliary information is created based on the feature amount, and the division auxiliary information is the subject image. This is information used to determine the division method.

Description

本発明は、画像処理方法、画像処理装置、ユーザインタフェース装置、画像処理システム、およびサーバに関するものである。 The present invention relates to an image processing method, an image processing device, a user interface device, an image processing system, and a server.

従来、画像内の被写体の外見的特徴に基づいて被写体を認識する画像処理技術が知られている(例えば、特許文献1参照。)。特許文献1では、1枚の画像を複数の小領域に分割し、外見的特徴を表す特徴量を各小領域について算出し、特徴量に基づいて各小領域のカテゴリを判別している。このような方法によれば、1枚の画像内に異なる外見的特徴を有する複数の被写体が含まれる場合に、複数の被写体を区別して認識することができる。 Conventionally, an image processing technique for recognizing a subject based on the appearance characteristics of the subject in an image is known (see, for example, Patent Document 1). In Patent Document 1, one image is divided into a plurality of small regions, a feature amount representing an appearance feature is calculated for each small area, and a category of each small area is determined based on the feature amount. According to such a method, when a plurality of subjects having different appearance characteristics are included in one image, the plurality of subjects can be recognized separately.

一方で、近年、培養細胞を使用した研究において、細胞または細胞群の外見的特徴から、細胞の質または活性を示すパラメータ(管理パラメータ)を推測する技術が注目されている。管理パラメータとは、例えば、細胞群の増殖率、生存率、または細胞数である。 On the other hand, in recent years, in studies using cultured cells, attention has been focused on a technique for estimating parameters (control parameters) indicating cell quality or activity from the appearance characteristics of cells or cell groups. The control parameter is, for example, the proliferation rate, survival rate, or cell number of the cell group.

特開2017−5389号公報JP-A-2017-5389

しかしながら、小領域のサイズに応じて小領域から算出される特徴量が異なることがある。また、どの程度のサイズの被写体の外見的特徴が管理パラメータと相関するかが不明であることがある。
例えば、ある一定数の細胞が特徴的な構造を形成する場合、その特徴的な構造を正確に表す特徴量を得るためには、小領域が一定数の細胞を含むように小領域のサイズが設定される必要がある。小領域のサイズが一定数の細胞全体のサイズに対して小さすぎる、または大きすぎる場合、特徴的な構造を正確に表す特徴量を小領域から算出することができない。さらに、どの程度の数の細胞が特徴的な構造を形成するかという知見が存在しないことがある。
However, the feature amount calculated from the small area may differ depending on the size of the small area. In addition, it may be unclear how large the appearance of the subject correlates with the management parameters.
For example, when a certain number of cells form a characteristic structure, in order to obtain a feature amount that accurately represents the characteristic structure, the size of the small region is set so that the small region contains a certain number of cells. Must be set. If the size of the subregion is too small or too large for the size of a certain number of cells as a whole, the feature amount that accurately represents the characteristic structure cannot be calculated from the subregion. Moreover, there may be no knowledge of how many cells form characteristic structures.

本発明は、上述した事情に鑑みてなされたものであって、被写体の外見的特徴を表す特徴量の算出に適したサイズの分割画像に被写体画像を分割することができる画像処理方法、画像処理装置、ユーザインタフェース装置、画像処理システム、およびサーバを提供することを目的とする。 The present invention has been made in view of the above circumstances, and is an image processing method and image processing capable of dividing a subject image into divided images having a size suitable for calculating a feature amount representing the appearance characteristics of the subject. It is an object of the present invention to provide an apparatus, a user interface apparatus, an image processing system, and a server.

上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、被写体を撮像した被写体画像を取得する工程と、前記被写体画像を複数の分割画像に分割する工程と、前記複数の分割画像の内、少なくとも一部の特徴量を算出し、該特徴量が前記被写体の外見的特徴を表す量である、工程と、前記特徴量に基づいて分割補助情報を作成する工程とを含み、前記分割補助情報が、前記被写体画像の分割方法の決定に用いられる情報である画像処理方法である。
In order to achieve the above object, the present invention provides the following means.
One aspect of the present invention includes a step of acquiring a subject image obtained by capturing an image of a subject, a step of dividing the subject image into a plurality of divided images, and calculating at least a part of the features of the plurality of divided images. The division auxiliary information includes a step of representing the appearance feature of the subject and a step of creating division auxiliary information based on the feature amount, and the division auxiliary information is the method of dividing the subject image. It is an image processing method that is information used for determination.

本態様によれば、被写体画像が複数の分割画像に分割され、各分割画像の特徴量が算出される。特徴量は、各分割画像内の被写体の外見的特徴を表す量である。続いて、特徴量に基づいて分割補助情報が作成される。このような分割補助情報に基づいて、被写体の外見的特徴をより正確に表す特徴量を算出することができる被写体画像の分割方法を決定することができる。 According to this aspect, the subject image is divided into a plurality of divided images, and the feature amount of each divided image is calculated. The feature amount is a quantity representing the appearance feature of the subject in each divided image. Subsequently, the division auxiliary information is created based on the feature amount. Based on such division assistance information, it is possible to determine a method for dividing a subject image that can calculate a feature amount that more accurately represents the appearance characteristics of the subject.

上記態様においては、前記分割補助情報が、前記特徴量の分布図を含み、該分布図において、前記特徴量の大きさを表す軸上に個々の前記特徴量を示すプロットが表示されていてもよい。
この構成によって、軸上のプロットの分布に基づいて、分割画像のサイズが特徴量の算出に適しているか否かを判断することができる。例えば、外見的特徴が異なる複数の被写体が被写体画像に含まれている場合、分割画像のサイズが適切であるときには、個々の外見的特徴を反映した特徴量が算出されるため、特徴量間のばらつきは大きくなり、軸上のプロットの分布範囲は広くなる。一方、分割画像のサイズが不適切であるときには、分割画像のサイズが適切であるときと比較して、特徴量間のばらつきが小さくなり、軸上のプロットの分布範囲は狭くなる。
In the above aspect, even if the division auxiliary information includes the distribution map of the feature amount and the plot showing the individual feature amount is displayed on the axis showing the magnitude of the feature amount in the distribution map. Good.
With this configuration, it is possible to determine whether or not the size of the divided image is suitable for calculating the feature amount based on the distribution of the plot on the axis. For example, when a plurality of subjects having different appearance features are included in the subject image and the size of the divided image is appropriate, the feature amount reflecting each appearance feature is calculated, so that the feature amounts are among the feature amounts. The variability is large and the distribution range of the plot on the axis is wide. On the other hand, when the size of the divided image is inappropriate, the variation between the features becomes smaller and the distribution range of the plot on the axis becomes narrower than when the size of the divided image is appropriate.

上記態様においては、前記分割補助情報が、前記特徴量のヒストグラムに基づく統計値を含んでいてもよい。
特徴量のヒストグラムの統計値は、ヒストグラムの幅または分散を表す統計値であることが好ましい。特徴量のヒストグラムの統計値に基づいて、分割画像のサイズが特徴量の算出に適しているか否かを判断することができる。例えば、外見的特徴が異なる複数の被写体が被写体画像に含まれている場合、分割画像のサイズが適切であるときには、個々の外見的特徴を反映した特徴量が算出されるため、特徴量間のばらつきは大きくなり、ヒストグラムの統計値は大きくなる。一方、分割画像のサイズが不適切であるときには、分割画像のサイズが適切であるときと比較して、特徴量間のばらつきが小さくなり、ヒストグラムの統計値は小さくなる。
In the above aspect, the division auxiliary information may include statistical values based on the histogram of the feature amount.
The statistical value of the feature weight histogram is preferably a statistical value representing the width or variance of the histogram. Based on the statistical value of the feature amount histogram, it can be determined whether or not the size of the divided image is suitable for the feature amount calculation. For example, when a plurality of subjects having different appearance features are included in the subject image, when the size of the divided image is appropriate, the feature amount reflecting each appearance feature is calculated, so that the feature amounts are among the feature amounts. The variability is large and the histogram statistics are large. On the other hand, when the size of the divided image is inappropriate, the variation between the features becomes smaller and the statistical value of the histogram becomes smaller than when the size of the divided image is appropriate.

上記態様においては、前記分割補助情報が、各前記プロットと関連付けられた前記分割画像を含んでいてもよい。
この構成によって、分割画像と特徴量との比較が容易である分割補助情報を提供することができる。
In the above aspect, the division auxiliary information may include the division image associated with each of the plots.
With this configuration, it is possible to provide division auxiliary information that makes it easy to compare the divided image with the feature amount.

上記態様においては、前記被写体の内的性質に関する管理パラメータを取得する工程と、前記管理パラメータをその大きさによって複数のクラスのいずれかに分類する工程とを含み、前記プロットが、前記被写体画像の管理パラメータのクラスに対応する態様で表示されてもよい。
この構成によって、特徴量と管理パラメータとの相関の有無および相関の程度を分布図から認識することができる。
In the above aspect, the plot includes a step of acquiring management parameters relating to the internal properties of the subject and a step of classifying the management parameters into one of a plurality of classes according to the size of the subject image. It may be displayed in a manner corresponding to the class of management parameters.
With this configuration, the presence or absence of correlation between the feature amount and the control parameter and the degree of correlation can be recognized from the distribution map.

上記態様においては、前記被写体が、培養される細胞群であり、前記管理パラメータが、前記細胞群の増殖率、培養終了後の所定時間経過時における前記細胞群の生存率、または、培養終了後の所定時間経過時における前記細胞群の細胞数であってもよい。
この構成によって、被写体画像内の細胞群の外見的特徴に基づいて、当該細胞群の内的性質である増殖率、生存率または細胞数を推定することができる。
In the above embodiment, the subject is a cell group to be cultured, and the control parameters are the proliferation rate of the cell group, the survival rate of the cell group after a lapse of a predetermined time after the end of the culture, or after the end of the culture. It may be the number of cells of the cell group after a lapse of a predetermined time.
With this configuration, it is possible to estimate the proliferation rate, survival rate, or cell number, which are the internal properties of the cell group, based on the external characteristics of the cell group in the subject image.

上記態様においては、前記被写体画像の分割方法を前記分割補助情報に基づいて決定された分割方法に変更する工程と、変更された分割方法で前記被写体画像を複数の分割画像に分割する工程とを含んでいてもよい。
変更された分割方法で被写体画像を複数の分割画像に再度分割することによって、被写体の外見的特徴をより正確に表す特徴量を算出可能な分割画像を得ることができる。
In the above aspect, the step of changing the division method of the subject image to the division method determined based on the division auxiliary information and the step of dividing the subject image into a plurality of divided images by the changed division method. It may be included.
By re-dividing the subject image into a plurality of divided images by the changed division method, it is possible to obtain a divided image capable of calculating the feature amount that more accurately represents the appearance characteristics of the subject.

上記態様においては、前記分割方法を変更する工程において、前記分割画像のサイズが変更されてもよい。
この構成によって、外見的特徴が被写体のサイズと関連している場合に、あるサイズの分割画像から算出された特徴量と他のサイズの分割画像から算出された特徴量とを比較することで、外見的特徴をより正確に表す特徴量が算出される分割画像のサイズを特定することができる。
In the above aspect, the size of the divided image may be changed in the step of changing the dividing method.
With this configuration, when the appearance feature is related to the size of the subject, the feature amount calculated from the divided image of a certain size is compared with the feature amount calculated from the divided image of another size. It is possible to specify the size of the divided image for which the feature amount that more accurately represents the appearance feature is calculated.

上記態様においては、前記分割補助情報をユーザインタフェース装置に送信する工程を含んでいてもよい。
この構成によって、ユーザは、ユーザインタフェース装置を使用して分割補助情報を確認することができる。
In the above aspect, the step of transmitting the division auxiliary information to the user interface device may be included.
With this configuration, the user can confirm the division auxiliary information by using the user interface device.

上記態様においては、前記ユーザインタフェース装置からの前記分割方法の変更の要求を受け付ける工程を含んでいてもよい。
この構成によって、ユーザがユーザインタフェース装置から送信した分割方法の変更の要求に従って、被写体画像の分割方法を変更することができる。
In the above aspect, the step of accepting the request for changing the division method from the user interface device may be included.
With this configuration, the division method of the subject image can be changed according to the request for changing the division method transmitted from the user interface device by the user.

本発明の他の態様は、プロセッサを備え、該プロセッサが、被写体を撮像した被写体画像を取得する工程と、前記被写体画像を複数の分割画像に分割する工程と、前記複数の分割画像の内、少なくとも一部の特徴量を算出し、該特徴量が前記被写体の外見的特徴を表す量である、工程と、前記特徴量に基づいて分割補助情報を作成する工程とを実行し、前記分割補助情報が、前記被写体画像の分割方法の決定に用いられる情報である、画像処理装置である。 Another aspect of the present invention includes a processor, the step of acquiring a subject image obtained by capturing a subject, a step of dividing the subject image into a plurality of divided images, and a step of dividing the plurality of divided images. A step of calculating at least a part of the feature amount and the feature amount representing the appearance feature of the subject and a step of creating the division assist information based on the feature amount are executed to perform the division assistance. The information is an image processing device that is information used for determining a method for dividing the subject image.

本発明の他の態様は、上記画像処理装置と通信ネットワークによって接続され、前記画像処理装置から受信した分割補助情報を表示するディスプレイを備えるユーザインタフェース装置である。
本発明の他の態様は、上記画像処理装置と、上記ユーザインタフェース装置とを備える画像処理システムである。
本発明の他の態様は、上記画像処理装置と通信ネットワークによって接続され、前記分割補助情報を受信および記憶するサーバである。
Another aspect of the present invention is a user interface device that is connected to the image processing device by a communication network and includes a display that displays division auxiliary information received from the image processing device.
Another aspect of the present invention is an image processing system including the image processing device and the user interface device.
Another aspect of the present invention is a server that is connected to the image processing device by a communication network and receives and stores the division auxiliary information.

本発明によれば、被写体の外見的特徴を表す特徴量の算出に適したサイズの分割画像に被写体画像を分割することができるという効果を奏する。 According to the present invention, there is an effect that the subject image can be divided into divided images having a size suitable for calculating a feature amount representing the appearance characteristics of the subject.

本発明の一実施形態に係る画像処理システムの全体構成図である。It is an overall block diagram of the image processing system which concerns on one Embodiment of this invention. 図1のモニタリング装置、画像処理装置およびUI装置の内部構成図である。It is an internal block diagram of the monitoring device, the image processing device, and the UI device of FIG. 本発明の一実施形態に係る画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method which concerns on one Embodiment of this invention. 元画像および分割画像の一例である。It is an example of the original image and the divided image. 外見的特徴が相互に異なる複数の細胞群を含む元画像の一例である。This is an example of an original image containing a plurality of cell groups having different appearance characteristics. 画像処理装置によって作成される分割補助情報およびUI装置の画面の一例である。This is an example of the division auxiliary information created by the image processing device and the screen of the UI device. 画像処理装置によって作成される分割補助情報およびUI装置の画面の他の例である。It is another example of the division auxiliary information created by the image processing device and the screen of the UI device. スライダによる元画像の分割数の変更を説明する図である。It is a figure explaining the change of the division number of the original image by a slider. 画像処理装置によって作成される分割補助情報およびUI装置の画面の他の例である。It is another example of the division auxiliary information created by the image processing device and the screen of the UI device. 図3の画像処理方法の変形例を示すフローチャートである。It is a flowchart which shows the modification of the image processing method of FIG. 図1の画像処理システムの変形例の全体構成図である。It is an overall block diagram of the modification of the image processing system of FIG.

以下に、本発明の一実施形態に係る画像処理装置、ユーザインタフェース装置、画像処理システム、およびサーバについて図面を参照して説明する。
本実施形態に係る画像処理システム100は、図1に示されるように、培養容器4内で培養される細胞群(被写体)の画像を生成するモニタリング装置1と、モニタリング装置1から細胞群の画像を取得し細胞群の画像を処理する画像処理装置2と、ユーザによって使用されるユーザインタフェース(UI)装置3とを備えている。
The image processing apparatus, user interface apparatus, image processing system, and server according to the embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the image processing system 100 according to the present embodiment includes a monitoring device 1 that generates an image of a cell group (subject) cultured in the culture vessel 4, and an image of the cell group from the monitoring device 1. It is provided with an image processing device 2 for acquiring an image of a cell group and processing an image of the cell group, and a user interface (UI) device 3 used by the user.

モニタリング装置1は、図2に示されるように、撮像デバイス5と、プロセッサ6と、通信装置7とを備えている。撮像デバイス5、プロセッサ6および通信装置7は、密閉された箱型の筐体8(図1参照。)内に収容されている。筐体8の透明な天板8aは、培養容器4が載置されるステージとして使用される。モニタリング装置1は、培養期間中、培養容器4と一緒にインキュベータ(図示略)内に配置される。 As shown in FIG. 2, the monitoring device 1 includes an imaging device 5, a processor 6, and a communication device 7. The imaging device 5, the processor 6, and the communication device 7 are housed in a sealed box-shaped housing 8 (see FIG. 1). The transparent top plate 8a of the housing 8 is used as a stage on which the culture container 4 is placed. The monitoring device 1 is arranged in an incubator (not shown) together with the culture vessel 4 during the culture period.

撮像デバイス5は、CMOSイメージセンサまたはCCDイメージセンサのような撮像素子(図示略)を有する。撮像デバイス5は、撮像素子によってステージ8a上の培養容器4の内部を撮像し、細胞群の画像(被写体画像)を生成する。
プロセッサ6は、予め設定されたスケジュールに従って、または、画像処理装置2からの指示に従って、撮像デバイス5に撮像を実行させる。
The image pickup device 5 has an image pickup device (not shown) such as a CMOS image sensor or a CCD image sensor. The image pickup device 5 takes an image of the inside of the culture vessel 4 on the stage 8a by the image pickup device, and generates an image (subject image) of the cell group.
The processor 6 causes the image pickup device 5 to perform imaging according to a preset schedule or an instruction from the image processing device 2.

通信装置7は、画像処理装置2の通信装置12(後述)と通信ネットワーク21によって接続され、画像処理装置2との間でデータ、情報および信号を送受信する。通信ネットワーク21は、例えば、インターネット、イントラネット、LAN(Local Area Network)、WAN(Wide Area Network)、またはこれらの組み合わせである。通信ネットワーク21は、無線および有線のいずれであってもよい。通信装置7は、撮像デバイス5から画像を受け取り、画像を画像処理装置2の通信装置12へ送信する。 The communication device 7 is connected to the communication device 12 (described later) of the image processing device 2 by a communication network 21, and transmits / receives data, information, and signals to and from the image processing device 2. The communication network 21 is, for example, the Internet, an intranet, a LAN (Local Area Network), a WAN (Wide Area Network), or a combination thereof. The communication network 21 may be either wireless or wired. The communication device 7 receives an image from the image pickup device 5 and transmits the image to the communication device 12 of the image processing device 2.

画像処理装置2は、メモリ10と、プロセッサ11と、通信装置12とを備えている。画像処理装置2は、インキュベータの外に配置され、通信装置12,7間の通信によって、インキュベータ内のモニタリング装置1から細胞群の画像(元画像)を受信する。
メモリ10には、プロセッサ11に所定の処理を実行させるための画像処理プログラムが格納されている。プロセッサ11は、メモリ10から画像処理プログラムを読み出し画像処理プログラムに従って処理を実行することによって、分割補助情報を作成する。プロセッサ11が実行する画像処理および分割補助情報については後で詳述する。
The image processing device 2 includes a memory 10, a processor 11, and a communication device 12. The image processing device 2 is arranged outside the incubator, and receives an image (original image) of a cell group from the monitoring device 1 in the incubator by communication between the communication devices 12 and 7.
An image processing program for causing the processor 11 to execute a predetermined process is stored in the memory 10. The processor 11 reads the image processing program from the memory 10 and executes the processing according to the image processing program to create the division auxiliary information. The image processing and division auxiliary information executed by the processor 11 will be described in detail later.

通信装置12は、UI装置3の通信装置16(後述)と通信ネットワーク22によって接続され、UI装置3との間でデータ、情報および信号を送受信する。通信ネットワーク22は、例えば、インターネット、イントラネット、LAN、WAN、またはこれらの組み合わせであり、無線および有線のいずれであってもよい。通信装置12は、プロセッサ11によって作成された分割補助情報をUI装置3の通信装置16へ送信する。 The communication device 12 is connected to the communication device 16 (described later) of the UI device 3 by a communication network 22, and transmits / receives data, information, and signals to / from the UI device 3. The communication network 22 is, for example, the Internet, an intranet, a LAN, a WAN, or a combination thereof, and may be wireless or wired. The communication device 12 transmits the division auxiliary information created by the processor 11 to the communication device 16 of the UI device 3.

UI装置3は、ユーザが画像処理装置2との間でデータ、情報および信号を送受信するために使用するデバイス、例えば汎用のタブレット型コンピュータである。UI装置3は、ディスプレイ14と、プロセッサ15と、通信装置16とを備える。
UI装置3には、画像処理装置2から受信した分割補助情報を表示するための専用のアプリケーションソフトウェアがインストールされている。ユーザは、後述するように、このアプリケーションソフトウェアを使用して、分割補助情報をディスプレイ14に表示したり分割補助情報の変更の要求を画像処理装置2に送信したりすることができる。
The UI device 3 is a device used by a user to send and receive data, information, and signals to and from the image processing device 2, for example, a general-purpose tablet computer. The UI device 3 includes a display 14, a processor 15, and a communication device 16.
Dedicated application software for displaying the division auxiliary information received from the image processing device 2 is installed in the UI device 3. As will be described later, the user can use this application software to display the division auxiliary information on the display 14 and send a request for changing the division auxiliary information to the image processing device 2.

画像処理システム100は、図1に示されるように、複数組のモニタリング装置1、画像処理装置2およびUI装置3を備えていてもよい。
さらに、システム100は、複数台の画像処理装置2と通信ネットワーク23によって接続されたサーバ30を備えていてもよい。通信ネットワーク23は、例えば、インターネット、イントラネット、LAN、WAN、またはこれらの組み合わせであり、無線および有線のいずれであってもよい。サーバ30は、例えば、インターネット上のクラウドサーバ、または、任意の場所に設置されたコンピュータである。
As shown in FIG. 1, the image processing system 100 may include a plurality of sets of monitoring device 1, image processing device 2, and UI device 3.
Further, the system 100 may include a server 30 connected to a plurality of image processing devices 2 by a communication network 23. The communication network 23 is, for example, the Internet, an intranet, a LAN, a WAN, or a combination thereof, and may be wireless or wired. The server 30 is, for example, a cloud server on the Internet or a computer installed at an arbitrary location.

サーバ30は、複数台の画像処理装置2から分割補助情報を受信し記憶する。サーバ30は、一の画像処理装置2から受信した分割補助情報を他の画像処理装置2に送信してもよい。ユーザは、1台のUI装置3を使用して、複数台の画像処理装置2によって作成された分割補助情報を受信し表示させることができる。 The server 30 receives and stores the division auxiliary information from the plurality of image processing devices 2. The server 30 may transmit the division auxiliary information received from one image processing device 2 to another image processing device 2. The user can use one UI device 3 to receive and display the division auxiliary information created by the plurality of image processing devices 2.

次に、画像処理装置2が実行する画像処理方法について説明する。
本実施形態に係る画像処理方法は、図3に示されるように、元画像を取得するステップS1と、元画像の管理パラメータを取得するステップS2と、管理パラメータを分類するステップS3と、元画像を複数の分割画像に分割するステップS4と、分割画像の特徴量を算出するステップS5と、特徴量に基づいて分割補助情報を作成するステップS6と、分割補助情報をUI装置3に送信するステップS7と、元画像の分割方法の変更を受け付けるステップS8と、変更された分割方法で元画像を複数の分割画像に再度分割するステップS9とを含む。
Next, the image processing method executed by the image processing apparatus 2 will be described.
As shown in FIG. 3, the image processing method according to the present embodiment includes step S1 for acquiring the original image, step S2 for acquiring the management parameters of the original image, step S3 for classifying the management parameters, and the original image. A step S4 for dividing the image into a plurality of divided images, a step S5 for calculating the feature amount of the divided image, a step S6 for creating the division auxiliary information based on the feature amount, and a step of transmitting the division auxiliary information to the UI device 3. It includes S7, a step S8 for accepting a change in the division method of the original image, and a step S9 for re-dividing the original image into a plurality of divided images by the changed division method.

ステップS1において、モニタリング装置1から元画像が画像処理装置2に入力される。画像処理装置2は、単一の元画像を取得してもよく、図4に示されるように、一度に複数枚の元画像A,B,Cを取得してもよい。図4の例において、元画像A,B,Cは、異なる培養における細胞群の画像である。 In step S1, the original image is input from the monitoring device 1 to the image processing device 2. The image processing device 2 may acquire a single original image, or may acquire a plurality of original images A, B, and C at one time as shown in FIG. In the example of FIG. 4, the original images A, B, and C are images of cell groups in different cultures.

次に、ステップS2において、元画像の管理パラメータが画像処理装置2に入力される。管理パラメータは、元画像内の細胞群の質または活性等、細胞群の内的性質に関するパラメータである。例えば、管理パラメータは、細胞群の増殖率、培養終了後の所定時間経過時における細胞群の生存率、または、培養終了後の所定時間経過時における細胞数である。 Next, in step S2, the management parameters of the original image are input to the image processing device 2. Management parameters are parameters related to the internal properties of the cell group, such as the quality or activity of the cell group in the original image. For example, the control parameter is the proliferation rate of the cell group, the survival rate of the cell group after the lapse of a predetermined time after the end of the culture, or the number of cells after the lapse of a predetermined time after the end of the culture.

管理パラメータは、培養中または培養終了後に細胞群を測定することによって得られる。例えば、培養によって生産された細胞を出荷する場合、出荷時生存率が管理パラメータとして使用される。出荷時生存率とは、培養終了後の所定時間経過時の培養容器4内の細胞群の生存率である。管理パラメータは、例えば、ユーザによってUI装置3に入力され、UI装置3から画像処理装置2に送信される。 Control parameters are obtained by measuring cell populations during or after culture. For example, when shipping cells produced by culture, factory viability is used as a control parameter. The shipping survival rate is the survival rate of the cell group in the culture vessel 4 after a lapse of a predetermined time after the completion of the culture. The management parameters are input to the UI device 3 by the user, for example, and are transmitted from the UI device 3 to the image processing device 2.

次に、ステップS3において、管理パラメータが、その大きさによって、複数のクラスのいずれかに分類される。例えば、図4に示されるように、元画像Aの出荷時生存率は最も高いクラスIに分類され、元画像Bの出荷時生存率は真ん中のクラスIIに分類され、元画像Cの出荷時生存率は最も低いクラスIIIに分類される。管理パラメータの種類およびクラスは、元画像と関連付けられてメモリ10に記憶される。
ステップS2,S3において画像処理装置2が取得および分類する管理パラメータは、1種類のみであってもよく、2種類以上であってもよい。1枚の元画像に対して、1種類当たり1個の管理パラメータが与えられる。
Next, in step S3, the management parameters are classified into one of a plurality of classes according to their size. For example, as shown in FIG. 4, the shipping survival rate of the original image A is classified into the highest class I, the shipping survival rate of the original image B is classified into the middle class II, and the shipping survival rate of the original image C is classified. Survival rate is classified in the lowest class III. The types and classes of management parameters are stored in the memory 10 in association with the original image.
The management parameters acquired and classified by the image processing apparatus 2 in steps S2 and S3 may be only one type or two or more types. One management parameter is given for each type for one original image.

次に、ステップS4において、初期設定された分割方法で元画像が複数の分割画像に分割される(ステップS43)。具体的には、図4に示されるように、元画像は、予め設定された初期分割数に等分され、1枚の元画像から同一サイズの初期分割数の分割画像が生成される。図4の例において、初期分割数は4であり、3枚の元画像A,B,Cが4枚の分割画像A1〜A4,B1〜B4,C1〜C4にそれぞれ分割されている。 Next, in step S4, the original image is divided into a plurality of divided images by the initially set division method (step S43). Specifically, as shown in FIG. 4, the original image is equally divided into a preset initial division number, and a divided image having the same size initial division number is generated from one original image. In the example of FIG. 4, the initial number of divisions is 4, and the three original images A, B, and C are divided into four divided images A1 to A4, B1 to B4, and C1 to C4, respectively.

ステップS4において、細胞群の種類および元画像の画角が設定され(ステップS41)、細胞群の種類および元画像の画角に基づいて初期分割数が決定されてもよい(ステップS42)。細胞群の種類および元画像の画角に関する情報は、例えば、培養開始時にユーザによってモニタリング装置1に設定され、元画像と一緒にモニタリング装置1から画像処理装置2に送信される。 In step S4, the type of cell group and the angle of view of the original image may be set (step S41), and the initial number of divisions may be determined based on the type of cell group and the angle of view of the original image (step S42). Information on the type of cell group and the angle of view of the original image is set in the monitoring device 1 by the user at the start of culturing, and is transmitted from the monitoring device 1 to the image processing device 2 together with the original image.

次に、ステップS5において、ステップS4で生成された全ての分割画像の特徴量が算出される。特徴量は、各分割画像内の細胞群の外見的特徴、例えば、形状、色、大きさ、または、配向のばらつきを示す量である。特徴量は、ニューラルネットワーク等の人工知能によって自動生成された、人間には認識できない特徴量であってもよい。特徴量は、分割画像に含まれる情報、例えば、各画素の輝度、色、またはエッジ方向に基づいて算出され、HOG(Histograms of Oriented Gradients)特徴量を用いて算出されてもよい。 Next, in step S5, the feature amounts of all the divided images generated in step S4 are calculated. The feature amount is an amount indicating a variation in the appearance characteristics of the cell group in each divided image, for example, shape, color, size, or orientation. The feature amount may be a feature amount that is automatically generated by artificial intelligence such as a neural network and cannot be recognized by humans. The feature amount is calculated based on the information contained in the divided image, for example, the brightness, color, or edge direction of each pixel, and may be calculated using the HOG (Histograms of Oriented Gradients) feature amount.

図5に示されるように、同一の培養容器4内で培養される同一種の細胞群であっても、外見的特徴に差異が生じ得る。例えば、領域R1の細胞群は、小さい略真円形であり、単層構造を形成している。領域R2の細胞群は、楕円形であり、重層化し、不規則に配向している。領域R3の細胞群は、細長く、単層構造を形成し、同一方向に配向している。このように、1枚の元画像A内に相互に異なる外見的特徴を有する複数の細胞群が含まれている場合、複数の分割画像A1,A2、A3,A4の特徴量にばらつきが生じる。 As shown in FIG. 5, differences in appearance characteristics can occur even in cell groups of the same species cultured in the same culture vessel 4. For example, the cell population in region R1 is small, substantially circular, and forms a monolayer structure. The cell population in region R2 is elliptical, stratified, and irregularly oriented. The cell population in region R3 is elongated, forms a monolayer structure, and is oriented in the same direction. As described above, when a plurality of cell groups having different appearance characteristics are included in one original image A, the feature amounts of the plurality of divided images A1, A2, A3, and A4 vary.

ステップS5において、全ての分割画像ではなく、一部の分割画像の特徴量が算出されてもよい。例えば、全ての分割画像の中から所定数の分割画像が選択され、選択された分割画像のみの特徴量が算出されてもよい。 In step S5, the feature amount of some divided images may be calculated instead of all the divided images. For example, a predetermined number of divided images may be selected from all the divided images, and the feature amount of only the selected divided images may be calculated.

次に、ステップS6において、元画像の分割方法の決定に用いられる分割補助情報が作成される。分割補助情報40は、図6に示されるように、特徴量の1次元分布図を含む。1次元分布図において、特徴量の大きさを表す軸41が定義され、軸41上に個々の特徴量を示す吹き出し状のプロット42が表示されている。プロット42は、矢印、丸または多角形等の任意の図形であってよい。 Next, in step S6, the division auxiliary information used for determining the division method of the original image is created. As shown in FIG. 6, the division auxiliary information 40 includes a one-dimensional distribution map of the feature amount. In the one-dimensional distribution map, an axis 41 showing the size of the feature amount is defined, and a balloon-shaped plot 42 showing the individual feature amount is displayed on the axis 41. The plot 42 may be any shape such as an arrow, a circle or a polygon.

プロット42は、管理パラメータのクラスに応じた態様で表示される。態様とは、例えば、プロット42の色である。図6の例において、プロット42のハッチングの向きの違いは、表示態様の違いを表している。例えば、元画像A,B,Cの出荷時生存率のクラスI,II,IIIが相互に異なる場合、分割画像A1〜A4の特徴量のプロット42と、分割画像B1〜B4の特徴量のプロット42と、分割画像C1〜C4の特徴量のプロット42は、相互に異なる色で表示される。 The plot 42 is displayed in a manner corresponding to the class of control parameters. The aspect is, for example, the color of plot 42. In the example of FIG. 6, the difference in the hatching orientation of the plot 42 represents the difference in the display mode. For example, when the shipping survival rates classes I, II, and III of the original images A, B, and C are different from each other, the feature amount plots 42 of the divided images A1 to A4 and the feature amount plots of the divided images B1 to B4. 42 and the plot 42 of the feature amounts of the divided images C1 to C4 are displayed in different colors.

1次元分布図のプロットとして、図形に代えて、分割画像A1〜A4,B1〜B4,C1〜C4が用いられてもよい。あるいは、図7に示されるように、分割補助情報40に、プロット42と視覚的に関連付けられて表示される分割画像A1〜A4,B1〜B4,C1〜C4が含まれていてもよい。 As a plot of the one-dimensional distribution map, divided images A1 to A4, B1 to B4, and C1 to C4 may be used instead of the graphic. Alternatively, as shown in FIG. 7, the division auxiliary information 40 may include divided images A1 to A4, B1 to B4, and C1 to C4 that are visually associated with the plot 42 and displayed.

次に、ステップS7において、分割補助情報40が通信装置12,16間の通信によって画像処理装置2からUI装置3に送信される。
次に、ステップS8において、UI装置3からの元画像の分割方法の変更の要求が受け付けられる。
Next, in step S7, the division auxiliary information 40 is transmitted from the image processing device 2 to the UI device 3 by communication between the communication devices 12 and 16.
Next, in step S8, a request for changing the method of dividing the original image from the UI device 3 is accepted.

ユーザは、UI装置3にインストールされたアプリケーションソフトウェアを使用して、画像処理装置2から受信した分割補助情報40をディスプレイ14に表示させる。図6および図7は、UI装置3のディスプレイ14に表示される画面の一例を示している。画面には、分割補助情報40を表示する領域51と、管理パラメータの種類を表示する領域52と、元画像の分割数を変更するためのスライダ53とが表示される。 The user uses the application software installed in the UI device 3 to display the division auxiliary information 40 received from the image processing device 2 on the display 14. 6 and 7 show an example of a screen displayed on the display 14 of the UI device 3. On the screen, an area 51 for displaying the division auxiliary information 40, an area 52 for displaying the types of management parameters, and a slider 53 for changing the number of divisions of the original image are displayed.

ユーザは、領域51に表示される分割補助情報40から、特徴量が管理パラメータと相関しているか否かを知ることができる。
例えば、図6および図7の例において、特徴量の小さい側にクラスIのプロット42が偏って分布し、特徴量の大きい側にクラスIIIのプロット42が偏って分布している。このような場合には、特徴量が出荷時生存率と相関していると判断することができる。一方、クラスI,II,III間でプロット42の分布に差異が認められない場合には、特徴量が出荷時生存率と相関していないと判断することができる。
From the division auxiliary information 40 displayed in the area 51, the user can know whether or not the feature amount correlates with the management parameter.
For example, in the examples of FIGS. 6 and 7, the class I plot 42 is unevenly distributed on the side with the small feature amount, and the class III plot 42 is unevenly distributed on the side with the large feature amount. In such a case, it can be determined that the feature amount correlates with the shipping survival rate. On the other hand, if there is no difference in the distribution of the plot 42 between the classes I, II, and III, it can be determined that the feature amount does not correlate with the shipping survival rate.

図8に示されるように、ユーザは、スライダ53の操作によって、元画像の分割方法、具体的には元画像の分割数を変更することができる。分割数の変更によって、分割画像のサイズが変更される。分割数を変更したい場合、ユーザは、スライダ53の操作によって初期分割数とは異なる分割数を決定し、決定された分割数への変更の要求をUI装置3から画像処理装置2へ送信する。 As shown in FIG. 8, the user can change the method of dividing the original image, specifically, the number of divisions of the original image, by operating the slider 53. By changing the number of divisions, the size of the divided image is changed. When the user wants to change the number of divisions, the user determines the number of divisions different from the initial number of divisions by operating the slider 53, and transmits a request for change to the determined number of divisions from the UI device 3 to the image processing device 2.

ステップS8において、画像処理装置2は、分割補助情報40のデータをUI装置3に送信した後、一定期間、分割方法の変更を受け付ける。一定期間が経過した時点で分割方法の変更の要求がUI装置3から無い場合には(ステップS8のNO)、画像処理装置2は、一連の処理を終了する。一方、一定期間内にUI装置3から分割数の変更の要求が有った場合には(ステップS8のYES)、画像処理装置2は、次にステップS9を実行する。 In step S8, the image processing device 2 receives the change of the division method for a certain period of time after transmitting the data of the division auxiliary information 40 to the UI device 3. If there is no request from the UI device 3 to change the division method after a certain period of time has elapsed (NO in step S8), the image processing device 2 ends a series of processes. On the other hand, if there is a request from the UI device 3 to change the number of divisions within a certain period of time (YES in step S8), the image processing device 2 then executes step S9.

ステップS9において、ユーザによって決定された変更後の分割数に元画像が等分され、変更後の分割数の分割画像が生成される。
次に、ステップS9において生成された分割画像の特徴量が算出され(ステップS5)、分割補助情報が新たに作成され(ステップS6)、新たに作成された分割補助情報が画像処理装置2からUI装置3に送信される(ステップS7)。
In step S9, the original image is equally divided into the changed number of divisions determined by the user, and the changed number of divisions is generated.
Next, the feature amount of the divided image generated in step S9 is calculated (step S5), the division auxiliary information is newly created (step S6), and the newly created division auxiliary information is UI from the image processing device 2. It is transmitted to the device 3 (step S7).

分割数が変更されると、分割画像のサイズが変化し、各分割画像に含まれる細胞群のサイズが変化し、分割画像の特徴量が変化し、1次元分布図におけるプロット42の分布が変化する。 When the number of divisions is changed, the size of the divided images changes, the size of the cell group contained in each divided image changes, the feature amount of the divided images changes, and the distribution of the plot 42 in the one-dimensional distribution map changes. To do.

例えば、特徴量が細胞群の配向のばらつきを表す量である場合を考える。
分割画像が単一の細胞群を含むとき、配向のばらつきを最も明確に表す特徴量が算出される。したがって、複数の分割画像の特徴量間にばらつきが生じ、1次元分布図においてプロット42が広い範囲に分布する。
一方、分割画像が、相互に配向特性が異なる複数の細胞群を含むとき、複数の細胞群の配向のばらつきが平均化された特徴量が算出される。したがって、複数の分割画像の特徴量間のばらつきは小さくなり、1次元分布図においてプロット42が狭い範囲内に分布する。
For example, consider the case where the feature amount is an amount representing the variation in the orientation of the cell group.
When the split image contains a single cell population, the features that most clearly represent the variability in orientation are calculated. Therefore, the features of the plurality of divided images vary, and the plot 42 is distributed over a wide range in the one-dimensional distribution map.
On the other hand, when the divided image contains a plurality of cell groups having different orientation characteristics from each other, the feature amount obtained by averaging the variation in the orientation of the plurality of cell groups is calculated. Therefore, the variation between the features of the plurality of divided images becomes small, and the plot 42 is distributed within a narrow range in the one-dimensional distribution map.

本実施形態によれば、ユーザが元画像の分割数の変更の要求を画像処理装置2に送信する度に、UI装置3の画面に表示される1次元分布図が更新される。これにより、ユーザは、各分割数における特徴量のばらつきを分割数を変更しながら確認し、細胞群の外見的特徴を最も明確に表す特徴量の算出に最適な分割数を特定することができる。また、最適な分割数を用いて生成された分割画像の特徴量に基づいて、管理パラメータと特徴量との相関の有無および相関の程度を正確に知ることができる。 According to the present embodiment, the one-dimensional distribution map displayed on the screen of the UI device 3 is updated every time the user transmits a request for changing the number of divisions of the original image to the image processing device 2. As a result, the user can confirm the variation of the feature amount in each division number while changing the division number, and specify the optimum division number for calculating the feature amount that most clearly expresses the appearance characteristics of the cell group. .. In addition, it is possible to accurately know the presence or absence of correlation between the management parameter and the feature amount and the degree of correlation based on the feature amount of the divided image generated by using the optimum number of divisions.

また、管理パラメータと相関する特徴量が一度特定された後は、管理パラメータが未知である細胞群の画像から、当該細胞群の管理パラメータを推定することができる。すなわち、管理パラメータが未知である細胞群の元画像を最適な分割数で分割し、生成された分割画像の特徴量を算出し、算出された特徴量に基づいて管理パラメータを推定することができる。 In addition, once the feature amount that correlates with the management parameter is specified, the management parameter of the cell group can be estimated from the image of the cell group whose management parameter is unknown. That is, the original image of the cell group whose management parameter is unknown can be divided by the optimum number of divisions, the feature amount of the generated divided image can be calculated, and the management parameter can be estimated based on the calculated feature amount. ..

各元画像に複数種類の管理パラメータが関連付けられている場合には、プロット42と対応付ける管理パラメータの種類を変更可能であってもよい。例えば、領域52のプルダウンメニューの中から所望の種類の管理パラメータを選択可能であってもよい。管理パラメータの種類が変更されると、UI装置3に表示される1次元分布図のプロット42の表示態様、例えば色が変化する。 When a plurality of types of management parameters are associated with each original image, the types of management parameters associated with the plot 42 may be changed. For example, a desired type of management parameter may be selectable from the pull-down menu of the area 52. When the type of the management parameter is changed, the display mode of the plot 42 of the one-dimensional distribution map displayed on the UI device 3, for example, the color changes.

本実施形態において、スライダ53によって選択可能な最大分割数または分割画像の最小サイズは、培養容器4内の細胞の分裂回数に応じて決定されてもよい。
培養期間中に細胞がN回分裂した場合、1個の細胞が2個の細胞に増える。1枚の分割画像に少なくとも約2個の細胞が含まれるように、元画像の最大分割数または分割画像の最小サイズが決定されてもよい。細胞の分裂回数Nは、培養時間から推定することができる。
In the present embodiment, the maximum number of divisions or the minimum size of the divided image selectable by the slider 53 may be determined according to the number of divisions of the cells in the culture vessel 4.
If cells divide N times during the culture period, one cell grows to 2N cells. The maximum number of divisions of the original image or the minimum size of the divided image may be determined so that one divided image contains at least about 2N cells. The number of cell divisions N can be estimated from the culture time.

本実施形態においては、画像処理装置2が、分割補助情報40として、特徴量の1次元分布図を作成することとしたが、これに代えて、図9に示されるように、特徴量の2次元分布図を作成してもよい。
この場合、ステップS5において、相互に異なる外見的特徴を表す第1の特徴量および第2の特徴量が算出される。2次元分布図において、第1の特徴量の大きさを表す軸41aと、第2の特徴量の大きさを表す軸41bが定義される。
In the present embodiment, the image processing device 2 decides to create a one-dimensional distribution map of the feature amount as the division auxiliary information 40, but instead of this, as shown in FIG. 9, the feature amount 2 A dimensional distribution map may be created.
In this case, in step S5, a first feature amount and a second feature amount representing different appearance features are calculated. In the two-dimensional distribution map, an axis 41a representing the size of the first feature amount and an axis 41b representing the size of the second feature amount are defined.

本実施形態においては、ユーザが、UI装置3に表示された分割補助情報40に基づいて、分割数を変更するか否かの判断および分割数の決定を行うこととしたが、これに代えて、画像処理装置2が分割数の変更の判断および分割数の決定を行ってもよい。すなわち、画像処理装置2は、図10に示されるように、ステップS6からS8に代えて、ステップS10からS12を実行してもよい。 In the present embodiment, the user determines whether or not to change the number of divisions and determines the number of divisions based on the division auxiliary information 40 displayed on the UI device 3, but instead of this. , The image processing device 2 may determine the change in the number of divisions and determine the number of divisions. That is, as shown in FIG. 10, the image processing apparatus 2 may execute steps S10 to S12 instead of steps S6 to S8.

ステップS5の後、特徴量のヒストグラムが作成され(ステップS10)、ヒストグラムの統計値が分割補助情報として算出される(ステップS11)。統計値は、ヒストグラムの幅または分散を表す値であり、好ましくは、ヒストグラムの半値幅である。半値幅は、例えば、ヒストグラムを近似するガウス曲線の半値幅である。ヒストグラムの半値幅は、1次元分布図におけるプロット42の分布幅と同様に、特徴量の平均化の程度を示す指標であり、分割画像のサイズに応じて変化する。 After step S5, a histogram of the feature amount is created (step S10), and the statistical value of the histogram is calculated as the division auxiliary information (step S11). The statistic is a value that represents the width or variance of the histogram, preferably the half width of the histogram. The full width at half maximum is, for example, the full width at half maximum of a Gaussian curve that approximates a histogram. The full width at half maximum of the histogram is an index showing the degree of averaging of the feature amounts, like the distribution width of the plot 42 in the one-dimensional distribution map, and changes according to the size of the divided image.

半値幅が所定の閾値よりも大きい場合(ステップS11のYES)、分割数の変更は行われず、処理が終了する。一方、半値幅が所定の閾値以下である場合(ステップS11のNO)、分割数が変更され(ステップS12)、続いてステップS9が実行される。
ステップS12において、分割数は、ヒストグラムの半値幅が大きくなる方向に変更されることが好ましい。また、ステップS5,S10,S11,S12,S9の処理を繰り返しながら分割数とヒストグラムの半値幅とが対応付けられたテーブルが作成され、テーブルに基づいて、分割数の変更の方向および分割数が決定されてもよい。
ヒストグラムおよび半値幅は、分割数が変更される度にUI装置3に表示されてもよく、最終結果のみがUI装置3に表示されてもよい。
When the full width at half maximum is larger than the predetermined threshold value (YES in step S11), the number of divisions is not changed and the process ends. On the other hand, when the half width is equal to or less than a predetermined threshold value (NO in step S11), the number of divisions is changed (step S12), and then step S9 is executed.
In step S12, the number of divisions is preferably changed in the direction in which the half-value width of the histogram becomes large. Further, while repeating the processes of steps S5, S10, S11, S12, and S9, a table in which the number of divisions and the half width of the histogram are associated is created, and the direction of change of the number of divisions and the number of divisions are determined based on the table. It may be decided.
The histogram and the full width at half maximum may be displayed on the UI device 3 each time the number of divisions is changed, or only the final result may be displayed on the UI device 3.

本実施形態においては、元画像を等分することによって複数の分割画像が生成されることとしたが、元画像の分割方法はこれに限定されるものではなく、他の方法で元画像が分割されてもよい。
例えば、元画像全体から個々の細胞が抽出され、1個の細胞に対応する最小ユニットに元画像が分割され、相互に隣接する所定数の最小ユニットを結合することによって分割画像が生成されてもよい。また、最小ユニットの結合数を変更することによって、分割画像のサイズが変更されてもよい。
In the present embodiment, it is decided that a plurality of divided images are generated by equally dividing the original image, but the method of dividing the original image is not limited to this, and the original image is divided by another method. May be done.
For example, even if individual cells are extracted from the entire original image, the original image is divided into the smallest units corresponding to one cell, and a predetermined number of adjacent minimum units are combined to generate a divided image. Good. Further, the size of the divided image may be changed by changing the number of combined minimum units.

本実施形態においては、細胞の種類、培養条件、または管理パラメータの種類から、好ましい初期分割数を予測することができる場合に、ステップS4において、細胞の種類、培養条件、および管理パラメータの種類の少なくとも1つに基づいて初期分割数が決定されてもよい。
例えば、接着培養系でのiPS細胞の培養において、細胞生存率が、数十個の細胞の重層構造と相関することが確認されている。したがって、接着培養されたiPS細胞の生存率と特徴量との相関を調べる場合には、元画像の初期分割数が、各分割画像に数十個の細胞が含まれるような値に設定されてもよい。また、ステップS12において、数十個の細胞が分割画像に含まれる方向に、分割数が変更されてもよい。
In the present embodiment, when the preferable initial number of divisions can be predicted from the cell type, culture condition, or control parameter type, in step S4, the cell type, culture condition, and control parameter type can be predicted. The initial number of divisions may be determined based on at least one.
For example, in culturing iPS cells in an adhesive culture system, it has been confirmed that the cell viability correlates with the layered structure of dozens of cells. Therefore, when investigating the correlation between the viability of adherently cultured iPS cells and the feature amount, the initial number of divisions of the original image is set to a value such that each division image contains dozens of cells. May be good. Further, in step S12, the number of divisions may be changed in the direction in which several tens of cells are included in the divided image.

本実施形態においては、被写体が、培養容器4内で培養される細胞群であることとしたが、他の被写体であってもよい。例えば、被写体が、内視鏡によって観察される病変部であり、病変部の悪性度と相関の高い粘膜の外見的特徴の特徴量を算出してもよい。 In the present embodiment, the subject is a group of cells to be cultured in the culture vessel 4, but other subjects may be used. For example, the subject is a lesion observed by an endoscope, and the feature amount of the appearance characteristics of the mucous membrane having a high correlation with the malignancy of the lesion may be calculated.

本実施形態においては、ステップS1において、画像処理装置2がモニタリング装置1から元画像を受信することとしたが、これに代えて、画像処理装置2が、自身で培養容器4内の細胞群を撮像し元画像を生成してもよい。すなわち、画像処理装置2が、撮像デバイス5および筐体8を備え、インキュベータ内で元画像の生成および画像処理の両方を実行してもよい。 In the present embodiment, in step S1, the image processing device 2 receives the original image from the monitoring device 1, but instead, the image processing device 2 itself produces the cell group in the culture vessel 4. An image may be taken to generate an original image. That is, the image processing device 2 may include the imaging device 5 and the housing 8 and execute both the generation of the original image and the image processing in the incubator.

本実施形態においては、図11に示されるように、上述した画像処理がサーバ30によって実行されてもよい。すなわち、本実施形態に係る画像処理装置がサーバとして実現されてもよい。
この場合、サーバ30は、メモリ10およびプロセッサ11と同様に構成されたメモリおよびプロセッサを備え、モニタリング装置1およびUI装置3と通信ネットワーク23によって接続される。元画像はモニタリング装置1からサーバ30に送信され、サーバ30において上述した画像処理によって分割補助情報が作成され、サーバ30からUI装置3に分割補助情報が送信される。
多くの処理を必要とする画像処理を実現するためには、高い処理能力が要求される。画像処理を、サーバ30、特にクラウドサーバに担わせることで、画像処理システム100の簡素化および低コスト化を図ることができる。
In this embodiment, as shown in FIG. 11, the above-mentioned image processing may be executed by the server 30. That is, the image processing device according to this embodiment may be realized as a server.
In this case, the server 30 includes a memory and a processor configured in the same manner as the memory 10 and the processor 11, and is connected to the monitoring device 1 and the UI device 3 by the communication network 23. The original image is transmitted from the monitoring device 1 to the server 30, the division auxiliary information is created by the image processing described above in the server 30, and the division auxiliary information is transmitted from the server 30 to the UI device 3.
In order to realize image processing that requires a lot of processing, high processing capacity is required. By letting the server 30, particularly the cloud server, perform the image processing, the image processing system 100 can be simplified and the cost can be reduced.

1 モニタリング装置
2 画像処理装置
3 ユーザインタフェース装置
4 培養容器
5 撮像デバイス
6,11,15 プロセッサ
7,12,16 通信装置
8 筐体
8a 天板
10 メモリ
14 ディスプレイ
21,22,22,23 通信ネットワーク
30 サーバ
40 分割補助情報
41,41a,41b 軸
42 プロット
100 画像処理システム
A,B,C 元画像
A1〜A4,B1〜B4,C1〜C4 分割画像
1 Monitoring device 2 Image processing device 3 User interface device 4 Culture container 5 Imaging device 6, 11, 15 Processor 7, 12, 16 Communication device 8 Housing 8a Top plate 10 Memory 14 Display 21, 22, 22, 23 Communication network 30 Server 40 Division auxiliary information 41, 41a, 41b Axis 42 Plot 100 Image processing system A, B, C Original image A1 to A4, B1 to B4, C1 to C4 Divided image

Claims (14)

被写体を撮像した被写体画像を取得する工程と、
前記被写体画像を複数の分割画像に分割する工程と、
前記複数の分割画像の内、少なくとも一部の特徴量を算出し、該特徴量が前記被写体の外見的特徴を表す量である、工程と、
前記特徴量に基づいて分割補助情報を作成する工程とを含み、
前記分割補助情報が、前記被写体画像の分割方法の決定に用いられる情報である画像処理方法。
The process of acquiring a subject image that captures the subject, and
The process of dividing the subject image into a plurality of divided images, and
A step of calculating at least a part of the feature amount of the plurality of divided images, and the feature amount is an amount representing the appearance feature of the subject.
Including a step of creating division auxiliary information based on the feature amount.
An image processing method in which the division auxiliary information is information used for determining a method for dividing the subject image.
前記分割補助情報が、前記特徴量の分布図を含み、該分布図において、前記特徴量の大きさを表す軸上に個々の前記特徴量を示すプロットが表示されている請求項1に記載の画像処理方法。 The first aspect of the present invention, wherein the division auxiliary information includes a distribution map of the feature amount, and in the distribution map, plots showing the individual feature amounts are displayed on an axis showing the magnitude of the feature amount. Image processing method. 前記分割補助情報が、前記特徴量のヒストグラムに基づく統計値を含む請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the division auxiliary information includes a statistical value based on a histogram of the feature amount. 前記分割補助情報が、各前記プロットと関連付けられた前記分割画像を含む請求項2に記載の画像処理方法。 The image processing method according to claim 2, wherein the division auxiliary information includes the division image associated with each plot. 前記被写体の内的性質に関する管理パラメータを取得する工程と、
前記管理パラメータをその大きさによって複数のクラスのいずれかに分類する工程とを含み、
前記プロットが、前記被写体画像の管理パラメータのクラスに対応する態様で表示される請求項2または請求項4に記載の画像処理方法。
The process of acquiring management parameters related to the internal properties of the subject, and
Including the step of classifying the control parameter into one of a plurality of classes according to its size.
The image processing method according to claim 2 or 4, wherein the plot is displayed in a mode corresponding to the class of management parameters of the subject image.
前記被写体が、培養される細胞群であり、
前記管理パラメータが、前記細胞群の増殖率、培養終了後の所定時間経過時における前記細胞群の生存率、または、培養終了後の所定時間経過時における前記細胞群の細胞数である請求項5に記載の画像処理方法。
The subject is a group of cells to be cultured.
5. The control parameter is the proliferation rate of the cell group, the survival rate of the cell group after the lapse of a predetermined time after the end of the culture, or the number of cells of the cell group after the lapse of a predetermined time after the end of the culture. The image processing method described in.
前記被写体画像の分割方法を前記分割補助情報に基づいて決定された分割方法に変更する工程と、
変更された分割方法で前記被写体画像を複数の分割画像に分割する工程とを含む請求項1から請求項6のいずれかに記載の画像処理方法。
A step of changing the division method of the subject image to a division method determined based on the division auxiliary information, and
The image processing method according to any one of claims 1 to 6, which includes a step of dividing the subject image into a plurality of divided images by a modified division method.
前記分割方法を変更する工程において、前記分割画像のサイズが変更される請求項7に記載の画像処理方法。 The image processing method according to claim 7, wherein the size of the divided image is changed in the step of changing the division method. 前記分割補助情報をユーザインタフェース装置に送信する工程を含む請求項7または請求項8に記載の画像処理方法。 The image processing method according to claim 7 or 8, further comprising a step of transmitting the division auxiliary information to the user interface device. 前記ユーザインタフェース装置からの前記分割方法の変更の要求を受け付ける工程を含む請求項9に記載の画像処理方法。 The image processing method according to claim 9, further comprising a step of receiving a request for changing the division method from the user interface device. プロセッサを備え、
該プロセッサが、
被写体を撮像した被写体画像を取得する工程と、
前記被写体画像を複数の分割画像に分割する工程と、
前記複数の分割画像の内、少なくとも一部の特徴量を算出し、該特徴量が前記被写体の外見的特徴を表す量である、工程と、
前記特徴量に基づいて分割補助情報を作成する工程とを実行し、
前記分割補助情報が、前記被写体画像の分割方法の決定に用いられる情報である、画像処理装置。
Equipped with a processor
The processor
The process of acquiring a subject image that captures the subject, and
The process of dividing the subject image into a plurality of divided images, and
A process in which at least a part of the features of the plurality of divided images is calculated, and the features represent the appearance features of the subject.
The process of creating the division auxiliary information based on the feature amount is executed.
An image processing device in which the division auxiliary information is information used for determining a method for dividing a subject image.
請求項11に記載の画像処理装置と通信ネットワークによって接続され、前記画像処理装置から受信した分割補助情報を表示するディスプレイを備えるユーザインタフェース装置。 A user interface device that is connected to the image processing device according to claim 11 by a communication network and includes a display that displays division auxiliary information received from the image processing device. 請求項11に記載の画像処理装置と、
請求項12に記載のユーザインタフェース装置とを備える画像処理システム。
The image processing apparatus according to claim 11 and
An image processing system including the user interface device according to claim 12.
請求項11に記載の画像処理装置と通信ネットワークによって接続され、前記分割補助情報を受信および記憶するサーバ。 A server that is connected to the image processing device according to claim 11 by a communication network and receives and stores the division auxiliary information.
JP2020506023A 2018-03-14 2018-03-14 Image processing methods, image processing devices, user interface devices, image processing systems, servers, and image processing programs Active JP6931418B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/009966 WO2019176012A1 (en) 2018-03-14 2018-03-14 Image processing method, image processing device, user interface device, image processing system and server

Publications (2)

Publication Number Publication Date
JPWO2019176012A1 true JPWO2019176012A1 (en) 2021-01-07
JP6931418B2 JP6931418B2 (en) 2021-09-01

Family

ID=67907519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506023A Active JP6931418B2 (en) 2018-03-14 2018-03-14 Image processing methods, image processing devices, user interface devices, image processing systems, servers, and image processing programs

Country Status (2)

Country Link
JP (1) JP6931418B2 (en)
WO (1) WO2019176012A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220300A1 (en) * 2021-04-16 2022-10-20 国立大学法人九州大学 Treatment effect prediction device, treatment effect prediction method, treatment effect prediction program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329241A (en) * 1995-06-05 1996-12-13 Xerox Corp Improvement method of contrast
JPH10261077A (en) * 1997-03-17 1998-09-29 Matsushita Electric Ind Co Ltd Device and method for correcting gradation of image pickup device
JP2014232485A (en) * 2013-05-30 2014-12-11 三星電子株式会社Samsung Electronics Co.,Ltd. Texture detection device, texture detection method, texture detection program, and image processing system
JP2015200695A (en) * 2014-04-04 2015-11-12 キヤノン株式会社 Image processor and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329241A (en) * 1995-06-05 1996-12-13 Xerox Corp Improvement method of contrast
JPH10261077A (en) * 1997-03-17 1998-09-29 Matsushita Electric Ind Co Ltd Device and method for correcting gradation of image pickup device
JP2014232485A (en) * 2013-05-30 2014-12-11 三星電子株式会社Samsung Electronics Co.,Ltd. Texture detection device, texture detection method, texture detection program, and image processing system
JP2015200695A (en) * 2014-04-04 2015-11-12 キヤノン株式会社 Image processor and control method thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
上野 智史、外5名: ""胃生検画像の核細胞質比に基づく類似画像検索に関する一検討"", 電子情報通信学会技術研究報告, vol. 107, no. 115, JPN6018013394, 21 June 2007 (2007-06-21), JP, pages 63 - 68, ISSN: 0004550252 *
武藤 友香、外2名: ""CGと実写間の質感補正における領域の対応付け"", 第75回(平成25年)全国大会講演論文集(2) 人工知能と認知科学, JPN6018013397, 6 March 2013 (2013-03-06), JP, pages 623 - 624, ISSN: 0004550253 *

Also Published As

Publication number Publication date
WO2019176012A1 (en) 2019-09-19
JP6931418B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
JP5871325B2 (en) Information processing apparatus, information processing system, information processing method, program, and recording medium
CN107423551B (en) Imaging method and imaging system for performing medical examinations
WO2018101004A1 (en) Cell image evaluation system and program for controlling cell image evaluation
US20200250427A1 (en) Shadow and cloud masking for agriculture applications using convolutional neural networks
CN109564680A (en) Information processing equipment, information processing method and program
CN105975612A (en) Picture processing method, device and equipment
CN109344738A (en) The recognition methods of crop diseases and pest crop smothering and device
WO2017016886A1 (en) System and method for providing a recipe
US20160364599A1 (en) Cell region display control device, method, and program
CN110263748A (en) Method and apparatus for sending information
TW202232387A (en) Interactive training of a machine learning model for tissue segmentation
JP2020024672A (en) Information processor, information processing method and program
CN114511820A (en) Goods shelf commodity detection method and device, computer equipment and storage medium
US11995822B2 (en) Plant monitoring server, a plant monitoring system and a plant monitoring terminal device
JP6931418B2 (en) Image processing methods, image processing devices, user interface devices, image processing systems, servers, and image processing programs
US20220101568A1 (en) Image generation system, image generation method, and non-transitory computer-readable storage medium
CN113439227A (en) Capturing and storing magnified images
Sayama Seeking open-ended evolution in swarm chemistry II: Analyzing long-term dynamics via automated object harvesting
JPWO2015045012A1 (en) Colony inspection program, colony inspection apparatus and colony inspection method
WO2020158909A1 (en) Counting device, learner manufacturing device, counting method, and learner manufacturing method
JP2015171334A (en) Colony counting method, occurrence detection method of combination among bacteria colonies, counting method of bacteria colonies, colony counting program, and colony counter
CN113011220A (en) Spike number identification method and device, storage medium and processor
JP6863154B2 (en) Dry weight estimation program, dry weight estimation method and dry weight estimation device
US20220163387A1 (en) Method for optimizing output result of spectrometer and electronic device using the same
CN111064864A (en) Method and device for setting distortion correction parameters and endoscope system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210813

R151 Written notification of patent or utility model registration

Ref document number: 6931418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350