JP2017068349A - Image processing method and control program - Google Patents

Image processing method and control program Download PDF

Info

Publication number
JP2017068349A
JP2017068349A JP2015189844A JP2015189844A JP2017068349A JP 2017068349 A JP2017068349 A JP 2017068349A JP 2015189844 A JP2015189844 A JP 2015189844A JP 2015189844 A JP2015189844 A JP 2015189844A JP 2017068349 A JP2017068349 A JP 2017068349A
Authority
JP
Japan
Prior art keywords
value
image
block
feature
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015189844A
Other languages
Japanese (ja)
Inventor
ジャリコ バンステーンベルグ
Vansteenberge Jarich
ジャリコ バンステーンベルグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2015189844A priority Critical patent/JP2017068349A/en
Priority to PCT/JP2016/069136 priority patent/WO2017056600A1/en
Publication of JP2017068349A publication Critical patent/JP2017068349A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology of segmenting an image into a plurality of regions on the basis of feature values, which alleviates effects of defects on results of the region segmentation, without changing processing methods in accordance with types of defects.SOLUTION: An image processing method comprises a first step (S105-S106) in which feature values are derived for each of blocks into which an image has been segmented, a second step (S107) in which the feature values for each block are corrected on the basis of the feature values of a plurality of peripheral blocks which are in the periphery of the block, and a third step (S108) in which the image is region-segmented into a plurality of regions according to the corrected feature values of each block.SELECTED DRAWING: Figure 5

Description

この発明は、特徴量の値に基づき画像を複数の領域に分割する画像処理方法に関するものである。   The present invention relates to an image processing method for dividing an image into a plurality of regions based on feature value.

画像から特徴量を求め、その値に応じて当該画像を複数の領域に分割する領域分割処理の技術分野では、画像に混入したノイズ、汚れ、歪み等の部分的な欠陥が処理結果に影響を及ぼすことがある。このため、画像からこのような欠陥を除去する必要がある。画像からノイズ等の欠陥を除去することを目的とした技術としては、例えば特許文献1に記載されたものがある。この技術においては、注目画素の輝度値にその周辺の画素の輝度値の平均値との差分に応じた係数を乗じる補正処理を行うことにより、ハイライトにより生じた階調段差が解消されている。このように、画像を構成する画素の画素値(輝度値)を補正することで欠陥を解消しようとすることが一般に行われている。   In the technical field of area division processing that obtains feature values from an image and divides the image into a plurality of areas according to the value, partial defects such as noise, dirt, and distortion mixed in the image affect the processing result. May have an effect. For this reason, it is necessary to remove such defects from the image. As a technique aiming at removing defects such as noise from an image, there is one described in Patent Document 1, for example. In this technique, the gradation level difference caused by highlighting is eliminated by performing correction processing that multiplies the luminance value of the target pixel by a coefficient corresponding to the difference between the average value of the luminance values of surrounding pixels. . As described above, it is generally performed to correct the defect by correcting the pixel value (luminance value) of the pixels constituting the image.

特開2011−022656号公報JP 2011-022656 A

上記従来技術はハイライトによる階調段差の解消に特化したものであるが、このように画像そのものに対する補正を行う場合には、欠陥の種類に応じた補正方法を用意する必要がある。というのは、欠陥の種類によって特徴量の値に及ぼす影響が異なるからである。このため、例えば複数種類の欠陥が含まれる画像においては欠陥の種類ごとに個別の補正処理が必要となり、処理のために必要な時間が長くなったり、過剰な補正で特徴量の算出に必要な画像情報が失われたりするなどの問題が生じる。また、そもそも画像にどのような欠陥が現れるかを事前に予測することが困難である。   The prior art described above is specialized in eliminating gradation steps due to highlights. However, when correcting an image itself as described above, it is necessary to prepare a correction method according to the type of defect. This is because the influence on the feature value varies depending on the type of defect. For this reason, for example, in an image including a plurality of types of defects, it is necessary to perform individual correction processing for each type of defect, and the time required for the processing becomes longer, or it is necessary to calculate the feature amount by excessive correction. Problems such as loss of image information occur. In addition, it is difficult to predict in advance what kind of defect will appear in the image.

この発明は上記課題に鑑みなされたものであり、特徴量の値に基づき画像を複数の領域に分割する技術において、欠陥の種類によって処理方法を変えることなく、欠陥が領域分割の結果に与える影響を抑えることのできる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and in the technique of dividing an image into a plurality of regions based on feature value, the influence of defects on the result of region division without changing the processing method depending on the type of defect. The purpose is to provide a technology capable of suppressing the problem.

この発明にかかる画像処理方法の一の態様は、上記目的を達成するため、画像を複数に分割してなるブロックごとに特徴量を求める第1工程と、前記ブロックごとの特徴量を、当該ブロックの周辺にある複数の周辺ブロックの特徴量の値に基づき補正する第2工程と、前記画像を、補正後の前記ブロックごとの特徴量の値に応じて複数の領域に領域分割する第3工程とを備えている。   In one aspect of the image processing method according to the present invention, in order to achieve the above object, a first step of obtaining a feature amount for each block obtained by dividing an image into a plurality of blocks, and a feature amount for each block A second step of correcting based on feature value values of a plurality of peripheral blocks in the vicinity of the image, and a third step of dividing the image into a plurality of regions according to the feature value values of the corrected blocks And.

このように構成された発明では、特徴量の値に基づく領域分割を良好に行うという観点から、画像の輝度値を補正することで画像自体に補正を施すのではなく、画像から求められた特徴量に対して補正が行われる。具体的には、画像を複数に分割してなるブロックごとの特徴量の値が、当該ブロックの周辺にあるブロックの特徴量の値に基づいて補正される。   In the invention configured as described above, from the viewpoint of satisfactorily performing region division based on the value of the feature amount, the feature obtained from the image is not corrected by correcting the luminance value of the image. A correction is made to the quantity. Specifically, the feature value for each block obtained by dividing the image into a plurality of blocks is corrected based on the feature value of the blocks around the block.

各ブロックについて求められる特徴量の値に、当該ブロックの画像に含まれる欠陥による寄与分が含まれる場合、そのような寄与は同じ欠陥が含まれる周辺のブロックにも同様に現れると考えられる。したがって、補正したい注目ブロックの特徴量の値に対し、周辺ブロックの特徴量の値に基づく補正を行うことで、欠陥の影響を小さくすることが可能となる。欠陥の種類によって特徴量の値への影響が異なる場合でも、その影響が含まれた特徴量の値同士を用いて補正が行われるので、欠陥の種類に応じて補正方法を変える必要はない。   If the feature value calculated for each block includes a contribution due to a defect included in the image of the block, it is considered that such a contribution appears in the surrounding blocks including the same defect as well. Therefore, it is possible to reduce the influence of the defect by performing correction based on the feature value of the peripheral block with respect to the feature value of the target block to be corrected. Even when the influence on the value of the feature amount varies depending on the type of defect, the correction is performed using the feature amount values including the influence, so that it is not necessary to change the correction method according to the type of defect.

また、この発明の他の態様は、上記した画像処理方法の各工程をコンピュータに実行させる制御プログラムである。上記した一連の処理は、一般的な構成のコンピュータ装置が備えるハードウェア資源を用いて実行可能なものであり、このようなコンピュータにより実行可能な制御プログラムとして提供されることで、当該コンピュータに本発明の処理を実行させることが可能になる。   Another aspect of the present invention is a control program that causes a computer to execute each step of the above-described image processing method. The series of processes described above can be executed using hardware resources included in a computer device having a general configuration, and provided as a control program executable by such a computer, The processing of the invention can be executed.

上記のように、本発明では、画像の輝度値ではなく、画像を複数に分割してなるブロックごとに求めた特徴量の値に対し、周辺ブロックの特徴量に基づく補正を施すので、欠陥の種類によらず、特徴量の値に及んだ欠陥の影響を低減することができる。そのため、画像に含まれる欠陥が領域分割の結果に与える影響を抑えることが可能である。   As described above, in the present invention, since the feature value obtained for each block obtained by dividing the image into a plurality of blocks is corrected based on the feature values of the peripheral blocks, not the brightness value of the image, Regardless of the type, it is possible to reduce the influence of defects on the feature value. Therefore, it is possible to suppress the influence of defects included in the image on the result of area division.

本発明にかかる画像処理方法を適用可能な撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device which can apply the image processing method concerning this invention. この撮像装置により撮像される画像の例を模式的に示す図である。It is a figure which shows typically the example of the image imaged with this imaging device. この実施形態における補正処理の原理を説明する図である。It is a figure explaining the principle of the correction process in this embodiment. 補正処理の具体的内容を説明するための図である。It is a figure for demonstrating the specific content of a correction process. この撮像装置により実行される画像処理内容を示すフローチャートである。It is a flowchart which shows the image processing content performed by this imaging device.

図1は本発明にかかる画像処理方法を適用可能な撮像装置の概略構成を示す図である。この撮像装置1は、ウェルプレートWPの上面に形成されたウェルWと称される窪部に注入された液体中で培養される細胞、細胞コロニー、細菌等(以下、「細胞等」と称する)の生試料を撮像する装置である。   FIG. 1 is a diagram showing a schematic configuration of an imaging apparatus to which an image processing method according to the present invention can be applied. This imaging device 1 is a cell, cell colony, bacteria, etc. (hereinafter referred to as “cell etc.”) cultured in a liquid injected into a recess called a well W formed on the upper surface of the well plate WP. This is an apparatus for imaging a raw sample.

ウェルプレートWPは、創薬や生物科学の分野において一般的に使用されているものであり、平板状のプレートの上面に、断面が略円形の筒状に形成され底面が透明で平坦なウェルWが複数設けられている。1つのウェルプレートWPにおけるウェルWの数は任意であるが、例えば96個(12×8のマトリクス配列)のものを用いることができる。各ウェルWの直径および深さは代表的には数mm程度である。なお、この撮像装置1が対象とするウェルプレートのサイズやウェルの数はこれらに限定されるものではなく任意であり、例えば12ないし384穴のものが一般的に使用されている。また、複数ウェルを有するウェルプレートに限らず、例えばディッシュと呼ばれる平型の容器で培養された細胞等の撮像にも、この撮像装置1を使用することが可能である。   The well plate WP is generally used in the fields of drug discovery and biological science. The well plate WP is formed in a cylindrical shape with a substantially circular cross section on the top surface of a flat plate, and the bottom surface is transparent and flat. Are provided. Although the number of wells W in one well plate WP is arbitrary, for example, 96 (12 × 8 matrix arrangement) can be used. The diameter and depth of each well W is typically about several mm. The size of the well plate and the number of wells targeted by the imaging apparatus 1 are not limited to these, and are arbitrary. For example, those having 12 to 384 holes are generally used. The imaging apparatus 1 can be used not only for imaging a well plate having a plurality of wells but also for imaging cells or the like cultured in a flat container called a dish.

ウェルプレートWPの各ウェルWには、培地としての液体が所定量注入され、この液体中において所定の培養条件で培養された細胞等が、この撮像装置1の撮像対象となる。培地は適宜の試薬が添加されたものでもよく、また液状でウェルWに投入された後ゲル化するものであってもよい。後述するように、この撮像装置1では、例えばウェルWの内底面で培養された細胞等を撮像対象とすることができる。常用される一般的な液量は、50ないし200マイクロリットル程度である。   A predetermined amount of liquid as a medium is injected into each well W of the well plate WP, and cells or the like cultured under predetermined culture conditions in the liquid are imaging targets of the imaging apparatus 1. The medium may be one to which an appropriate reagent has been added, or it may be in a liquid state and gelled after being placed in the well W. As will be described later, in the imaging apparatus 1, for example, cells cultured on the inner bottom surface of the well W can be targeted for imaging. Commonly used liquid volume is about 50 to 200 microliters.

撮像装置1は、試料を液体とともに各ウェルWに担持するウェルプレートWPの下面周縁部に当接してウェルプレートWPを略水平姿勢に保持するホルダ11と、ホルダ11の上方に配置される照明部12と、ホルダ11の下方に配置される撮像部13と、これら各部の動作を制御するCPU141を有する制御部14とを備えている。   The imaging apparatus 1 includes a holder 11 that holds a well plate WP in a substantially horizontal posture by contacting a lower surface peripheral portion of a well plate WP that holds a sample in each well W together with a liquid, and an illumination unit disposed above the holder 11. 12, an imaging unit 13 disposed below the holder 11, and a control unit 14 having a CPU 141 that controls the operation of each unit.

照明部12は、ホルダ11により保持されたウェルプレートWPに向けて適宜の拡散光(例えば白色光)を出射する。より具体的には、例えば光源としての白色LED(Light Emitting Diode)光源と拡散板とを組み合わせたものを、照明部12として用いることができる。照明部12により、ウェルプレートWPに設けられたウェルW内の細胞等が上方から照明される。   The illumination unit 12 emits appropriate diffused light (for example, white light) toward the well plate WP held by the holder 11. More specifically, for example, a combination of a white LED (Light Emitting Diode) light source as a light source and a diffusion plate can be used as the illumination unit 12. The illumination unit 12 illuminates cells and the like in the well W provided on the well plate WP from above.

ホルダ11により保持されたウェルプレートWPの下方に、撮像部13が設けられる。撮像部13には、ウェルプレートWPの直下位置に図示を省略する撮像光学系が配置されており、撮像光学系の光軸は鉛直方向に向けられている。図1は側面図であり、図の上下方向が鉛直方向を表す。   An imaging unit 13 is provided below the well plate WP held by the holder 11. In the imaging unit 13, an imaging optical system (not shown) is disposed immediately below the well plate WP, and the optical axis of the imaging optical system is directed in the vertical direction. FIG. 1 is a side view, and the vertical direction in the figure represents the vertical direction.

撮像部13により、ウェルW内の細胞等が撮像される。具体的には、照明部12から出射されウェルWの上方から液体に入射した光が撮像対象物を照明し、ウェルW底面から下方へ透過した光が、撮像光学系を介して図示しない撮像素子の受光面に入射する。撮像光学系により撮像素子の受光面に結像する撮像対象物の像が、撮像素子により撮像される。撮像素子としては例えばCCDセンサまたはCMOSセンサを用いることができ、二次元イメージセンサおよび一次元イメージセンサのいずれであってもよい。   The imaging unit 13 images a cell or the like in the well W. Specifically, light emitted from the illumination unit 12 and incident on the liquid from above the well W illuminates the object to be imaged, and light transmitted downward from the bottom surface of the well W is not illustrated via the imaging optical system. Is incident on the light receiving surface. An image of the imaging target imaged on the light receiving surface of the imaging device by the imaging optical system is captured by the imaging device. As the image sensor, for example, a CCD sensor or a CMOS sensor can be used, and either a two-dimensional image sensor or a one-dimensional image sensor may be used.

撮像部13は、制御部14に設けられたメカ制御部146により水平方向および鉛直方向に移動可能となっている。具体的には、メカ制御部146が、CPU141からの制御指令に基づき、撮像部13を水平方向に移動させることにより、撮像部13がウェルWに対し水平方向に移動する。また鉛直方向への移動によりフォーカス調整がなされる。1つのウェルW内の撮像対象物が撮像されるときには、メカ制御部146は、光軸が当該ウェルWの中心と一致するように、撮像部13を水平方向に位置決めする。撮像部13の撮像素子が一次元イメージセンサである場合には、イメージセンサの長手方向と直交する方向に撮像部13を走査させることにより二次元画像を撮像することができる。このような撮像方法では、撮像対象である細胞等に対し非接触、非破壊かつ非侵襲で撮像を行うことができ、撮像による細胞等へのダメージを抑えることができる。   The imaging unit 13 can be moved in the horizontal direction and the vertical direction by a mechanical control unit 146 provided in the control unit 14. Specifically, the mechanical control unit 146 moves the imaging unit 13 in the horizontal direction based on a control command from the CPU 141, so that the imaging unit 13 moves in the horizontal direction with respect to the well W. The focus is adjusted by moving in the vertical direction. When the imaging target in one well W is imaged, the mechanical control unit 146 positions the imaging unit 13 in the horizontal direction so that the optical axis coincides with the center of the well W. When the imaging device of the imaging unit 13 is a one-dimensional image sensor, a two-dimensional image can be captured by scanning the imaging unit 13 in a direction orthogonal to the longitudinal direction of the image sensor. With such an imaging method, it is possible to perform non-contact, non-destructive and non-invasive imaging on cells or the like that are imaging targets, and suppress damage to cells or the like due to imaging.

また、メカ制御部146は、撮像部13を水平方向に移動させる際、図において点線矢印で示すように照明部12を撮像部13と一体的に移動させる。すなわち、照明部12は、その光中心が撮像部13の光軸と略一致するように配置されており、撮像部13が水平方向に移動するとき、これと連動して移動する。これにより、どのウェルWが撮像される場合でも、当該ウェルWの中心および照明部12の光中心が常に撮像部13の光軸上に位置することとなり、各ウェルWに対する照明条件を一定にして、撮像条件を良好に維持することができる。   In addition, when moving the imaging unit 13 in the horizontal direction, the mechanical control unit 146 moves the illumination unit 12 integrally with the imaging unit 13 as indicated by a dotted arrow in the drawing. That is, the illuminating unit 12 is arranged so that the optical center thereof substantially coincides with the optical axis of the imaging unit 13, and moves in conjunction with the imaging unit 13 when moving in the horizontal direction. As a result, regardless of which well W is imaged, the center of the well W and the optical center of the illumination unit 12 are always located on the optical axis of the imaging unit 13, and the illumination condition for each well W is made constant. The imaging conditions can be maintained satisfactorily.

撮像部13の撮像素子から出力される画像信号は、制御部14に送られる。すなわち、画像信号は制御部14に設けられたADコンバータ(A/D)143に入力されてデジタル画像データに変換される。CPU141は、受信した画像データに基づき適宜画像処理を実行する。制御部14はさらに、画像データを記憶保存するための画像メモリ144と、CPU141が実行すべきプログラムやCPU141により生成されるデータを記憶保存するためのメモリ145とを有しているが、これらは一体のものであってもよい。CPU141は、メモリ145に記憶された制御プログラムを実行することにより、後述する各種の演算処理を行う。   An image signal output from the image sensor of the imaging unit 13 is sent to the control unit 14. That is, the image signal is input to an AD converter (A / D) 143 provided in the control unit 14 and converted into digital image data. The CPU 141 executes image processing as appropriate based on the received image data. The control unit 14 further includes an image memory 144 for storing and storing image data, and a memory 145 for storing and storing programs to be executed by the CPU 141 and data generated by the CPU 141. It may be integral. The CPU 141 executes various control processes described later by executing a control program stored in the memory 145.

その他に、制御部14には、インターフェース(IF)部142が設けられている。インターフェース部142は、ユーザからの操作入力の受け付けや、ユーザへの処理結果等の情報提示を行うユーザインターフェース機能のほか、通信回線を介して接続された外部装置との間でのデータ交換を行う機能を有する。ユーザインターフェース機能を実現するために、インターフェース部142には、ユーザからの操作入力を受け付ける入力受付部147と、ユーザへのメッセージや処理結果などを表示出力する表示部148とが接続されている。   In addition, the control unit 14 is provided with an interface (IF) unit 142. The interface unit 142 accepts operation input from the user and presents information such as processing results to the user, and exchanges data with an external device connected via a communication line. It has a function. In order to realize the user interface function, the interface unit 142 is connected to an input receiving unit 147 that receives an operation input from the user and a display unit 148 that displays and outputs a message to the user, a processing result, and the like.

なお、制御部14は、上記したハードウェアを備えた専用装置であってもよく、またパーソナルコンピュータやワークステーション等の汎用処理装置に、後述する処理機能を実現するための制御プログラムを組み込んだものであってもよい。すなわち、この撮像装置1の制御部14として、汎用のコンピュータ装置を利用することが可能である。汎用処理装置を用いる場合、撮像装置1には、撮像部13等の各部を動作させるために必要最小限の制御機能が備わっていれば足りる。   The control unit 14 may be a dedicated device equipped with the hardware described above, and a control program for realizing processing functions to be described later is incorporated into a general-purpose processing device such as a personal computer or a workstation. It may be. That is, a general-purpose computer device can be used as the control unit 14 of the imaging device 1. In the case of using a general-purpose processing device, it is sufficient that the imaging device 1 has a minimum control function for operating each unit such as the imaging unit 13.

図2はこの撮像装置により撮像される画像の例を模式的に示す図である。具体的には、図2(a)は撮像装置1により撮像される理想的な画像の例を示し、図2(b)は欠陥を含んだ画像の例を示す。以下では、撮像部13により撮像される画像のうち横方向を「X方向」、縦方向を「Y方向」と称する。図2(a)に示すように、画像Iaは、撮像部13の撮像視野に相当する矩形領域にウェルWの全体が収まるように撮像される。画像IaのうちウェルWの内部に相当する略円形の領域Rw内では、一様に分布する培地Mの中に細胞等Cが点在している。   FIG. 2 is a diagram schematically illustrating an example of an image captured by the imaging apparatus. Specifically, FIG. 2A illustrates an example of an ideal image captured by the imaging apparatus 1, and FIG. 2B illustrates an example of an image including a defect. Hereinafter, the horizontal direction of the image captured by the imaging unit 13 is referred to as “X direction”, and the vertical direction is referred to as “Y direction”. As shown in FIG. 2A, the image Ia is imaged so that the entire well W fits in a rectangular area corresponding to the imaging field of the imaging unit 13. In the substantially circular region Rw corresponding to the inside of the well W in the image Ia, cells C and the like are scattered in the uniformly distributed medium M.

後述するように、この撮像装置1では、画像を構成する画素ごとに算出した特徴量の値を用いた適宜の領域分割処理により、ウェル領域Rwが培地Mの領域と細胞等Cの領域とに分割される。しかしながら、図2(b)に示すように、実際に撮像される画像Ibは何らかの画像欠陥Dを含む場合がある。画像欠陥は、例えばノイズ、汚れ、歪み等、種々の原因に起因して生じ得る。   As will be described later, in the imaging apparatus 1, the well region Rw is divided into a region of the medium M and a region of cells C, etc. by an appropriate region dividing process using the feature value calculated for each pixel constituting the image. Divided. However, as shown in FIG. 2B, the actually imaged image Ib may include some image defect D. Image defects can occur due to various causes such as noise, dirt, distortion, and the like.

このような欠陥が、特徴量の算出およびその結果に基づく領域分割処理の結果に影響を与えることがある。そこで、画像に現れた欠陥が領域分割処理に及ぼす影響を低減するための補正処理が必要となる。以下、この実施形態における補正処理について説明する。   Such a defect may affect the calculation of the feature value and the result of the area division process based on the result. Therefore, correction processing is required to reduce the influence of defects appearing in the image on the region division processing. Hereinafter, correction processing in this embodiment will be described.

図3はこの実施形態における補正処理の原理を説明する図である。図3上段は図2(b)に示す画像Ibのように欠陥Dを含む画像の一部を模式的に示している。この画像Icから、例えばエッジ強度に関する特徴量Fを求める場合を考える。図3下段は画像Ic中の線分A−A上に位置する画素ごとに求められる特徴量Fの変化を模式的に示している。同図に示すように、細胞等Cの輪郭に相当する部分の画素で特徴量Fの値が顕著に大きくなるほか、欠陥Dに対応する部分で他の部分と異なる値が現れる。   FIG. 3 is a diagram for explaining the principle of correction processing in this embodiment. The upper part of FIG. 3 schematically shows a part of an image including the defect D like the image Ib shown in FIG. Consider a case where, for example, a feature amount F related to edge strength is obtained from this image Ic. The lower part of FIG. 3 schematically shows a change in the feature amount F obtained for each pixel located on the line segment AA in the image Ic. As shown in the figure, the value of the feature amount F is remarkably increased in the pixel corresponding to the outline of the cell C or the like, and a value different from the other portion appears in the portion corresponding to the defect D.

なお、ここでは欠陥Dの部分で特徴量Fの値が他の部分より小さくなるものとしているが、欠陥Dの種類および特徴量Fの種類によっては、他の部分より値が大きくなる場合やほとんど差異が現れない場合もあり得る。   Here, the value of the feature amount F is smaller in the portion of the defect D than in the other portions. However, depending on the type of the defect D and the type of the feature amount F, the value may be larger than the other portion or almost. There may be no difference.

欠陥Dによる特徴量への影響は、欠陥Dに対応する画素間でほぼ同様に現れると考えられるので、図に示す値F1,F2のように、注目画素の特徴量の値を例えばその周辺の(より具体的には、注目画素との距離が近いものから順に選出された適宜の個数の)画素の特徴量の値を基準とした相対値として表すことにより、欠陥Dの有無に影響されない特徴量とすることができる。これは、注目画素の特徴量の値を、当該画素の周辺にある他の画素の特徴量の値に基づいて補正することに相当する。実際の画像は二次元的な広がりを有しているので、補正処理の具体的内容は次のようなものとなる。   Since it is considered that the influence on the feature amount due to the defect D appears in a similar manner between the pixels corresponding to the defect D, the feature amount value of the target pixel is set to, for example, the surrounding values like the values F1 and F2 shown in the figure. A feature that is not affected by the presence or absence of the defect D is expressed as a relative value based on the feature value of the pixel (more specifically, an appropriate number of pixels selected in order from the closest distance to the target pixel). It can be an amount. This corresponds to correcting the feature value of the pixel of interest based on the feature value of other pixels around the pixel. Since the actual image has a two-dimensional spread, the specific contents of the correction processing are as follows.

図4は補正処理の具体的内容を説明するための図である。より具体的には、図4(a)は注目画素と補正に使用される周辺画素との関係を示す図であり、図4(b)は補正に使用される特徴量Fの値を示す図である。図4(a)に示すように、X座標値がx、Y座標値がyである注目画素P(x,y)を中心として、X方向、Y方向にそれぞれN画素(Nは3以上の整数)分のサイズを有する矩形領域Rrを考え、この領域Rr内の画素の特徴量の値を用いて注目画素P(x,y)の特徴量を補正する。以下では、領域Rr内の画素のうち注目画素P(x,y)を除く各画素を当該画素P(x,y)に対する「周辺画素」と称することとする。   FIG. 4 is a diagram for explaining the specific contents of the correction processing. More specifically, FIG. 4A is a diagram showing the relationship between the pixel of interest and peripheral pixels used for correction, and FIG. 4B is a diagram showing the value of the feature amount F used for correction. It is. As shown in FIG. 4 (a), the pixel of interest P (x, y) whose X coordinate value is x and Y coordinate value is y is the center, and N pixels (N is 3 or more) in the X direction and Y direction, respectively. Considering a rectangular region Rr having a size of (integer), the feature amount of the pixel of interest P (x, y) is corrected using the feature value of the pixel in the region Rr. Hereinafter, each pixel in the region Rr excluding the target pixel P (x, y) is referred to as a “peripheral pixel” for the pixel P (x, y).

矩形領域Rrの左上隅の画素は符号P(x1,y1)、右上隅の画素は符号P(x2,y1)、左下隅の画素は符号P(x1,y2)、右下隅の画素は符号P(x2,y2)により表される。ここで、
x1=x−(N−1)/2
x2=x+(N−1)/2
y1=y−(N−1)/2
y2=y+(N−1)/2
である。
The pixel at the upper left corner of the rectangular area Rr is denoted by P (x1, y1), the pixel at the upper right corner is denoted by P (x2, y1), the pixel at the lower left corner is denoted by P (x1, y2), and the pixel at the lower right corner is denoted by P. It is represented by (x2, y2). here,
x1 = x- (N-1) / 2
x2 = x + (N-1) / 2
y1 = y- (N-1) / 2
y2 = y + (N-1) / 2
It is.

図4(b)に示すように、画素P(x,y)の補正前の特徴量の値を符号Fr(x,y)により表すとき、当該画素P(x,y)の補正後の特徴量Fc(x,y)は次式:
Fc(x,y)=Fr(x,y)−Fa(x,y)
により定義される。ここで、Fa(x,y)は矩形領域Rr内の各画素P(i,j)それぞれの特徴量Fr(i,j)の平均値であり、以下の式(1)または式(2)のいずれかで表される。
As shown in FIG. 4B, when the value of the feature amount before correction of the pixel P (x, y) is represented by the symbol Fr (x, y), the feature after correction of the pixel P (x, y). The quantity Fc (x, y) is:
Fc (x, y) = Fr (x, y) −Fa (x, y)
Defined by Here, Fa (x, y) is an average value of the feature values Fr (i, j) of the respective pixels P (i, j) in the rectangular region Rr, and the following formula (1) or formula (2) Represented by either

式(1)は、矩形領域Rr内の画素のうち、注目画素P(x,y)以外の周辺画素の特徴量の平均値を表す。また、式(2)は注目画素P(x,y)とそれに対する周辺画素との双方を含む矩形領域Rr内の全画素の特徴量の平均値を表す。注目画素P(x,y)の特徴量Fr(x,y)を補正する際の基準となる周辺画素の特徴量の平均値Fa(x,y)としては、上記式(1)、(2)のいずれが用いられてもよい。   Expression (1) represents an average value of feature amounts of peripheral pixels other than the target pixel P (x, y) among the pixels in the rectangular region Rr. Expression (2) represents the average value of the feature values of all the pixels in the rectangular region Rr including both the target pixel P (x, y) and the surrounding pixels. As the average value Fa (x, y) of the feature values of peripheral pixels serving as a reference when correcting the feature value Fr (x, y) of the target pixel P (x, y), the above formulas (1) and (2 ) May be used.

なお、上記では、注目画素P(x,y)の特徴量Fr(x,y)と、周辺画素(および当該注目画素)の特徴量の平均値Fa(x,y)との差を補正後の特徴量Fc(x,y)としているが、上記差の値に適宜のオフセット値を加算あるいは係数を乗じてスケーリングした値を補正後の特徴量としてもよい。一般には、補正後の特徴量Fc(x,y)は定数a,b,c(ただし、a≠0)を用いて次式:
Fc(x,y)=a・{Fr(x,y)−Fa(x,y)+b}+c
により表すことができる。すなわち、補正後の特徴量Fc(x,y)は一般に、補正前の特徴量Fr(x,y)と周辺画素(および当該注目画素)との差を変数とする一次関数として定義することができる。
In the above, after correcting the difference between the feature value Fr (x, y) of the target pixel P (x, y) and the average value Fa (x, y) of the feature values of the surrounding pixels (and the target pixel). However, a value obtained by scaling by adding an appropriate offset value to the difference value or multiplying by a coefficient may be used as the corrected feature value. In general, the corrected feature value Fc (x, y) is expressed by the following equation using constants a, b, and c (where a ≠ 0):
Fc (x, y) = a · {Fr (x, y) −Fa (x, y) + b} + c
Can be represented by That is, the corrected feature quantity Fc (x, y) is generally defined as a linear function having a variable between the feature quantity Fr (x, y) before correction and the surrounding pixel (and the target pixel) as a variable. it can.

例えば、補正後の特徴量の値をXY座標平面にマッピングすることで特徴量の値を可視化することが必要な場合には、このように補正後の特徴量の値を適宜にスケーリングすることで、可視化の効果を高めることが可能となる。   For example, when it is necessary to visualize the feature value by mapping the corrected feature value on the XY coordinate plane, the corrected feature value is appropriately scaled as described above. It becomes possible to enhance the visualization effect.

このような補正が有効に機能する特徴量としては種々のものが考えられるが、本願発明者の実験では、画素値(輝度値)をX座標およびY座標と直交する第3の座標軸とした三次元座標空間に各画素の画素値をプロットすることで得られる画素値プロファイルが描く曲面の各画素位置における法線ベクトルの方向の標準偏差として求められる「NormalStDev」と呼ばれる特徴量において、良好な補正結果を得られることが確認されている。   There are various possible feature quantities for which such correction functions effectively, but in the experiments of the present inventor, the third order with the pixel value (luminance value) as the third coordinate axis orthogonal to the X coordinate and Y coordinate is used. Good correction in the feature value called "NormalStDev", which is obtained as the standard deviation of the normal vector direction at each pixel position on the curved surface drawn by the pixel value profile obtained by plotting the pixel value of each pixel in the original coordinate space It has been confirmed that results can be obtained.

より一般には、特徴量の値を各画素の画素値を変数とする連続関数で表すことができるとき、周辺画素の特徴量の平均値に基づく上記補正方法が有効に機能する。特に、特徴量が画素値を変数とする凸関数あるいは線形関数として表されるとき、良好な補正結果を得ることができる。   More generally, when the feature value can be expressed by a continuous function having the pixel value of each pixel as a variable, the above correction method based on the average value of the feature values of the surrounding pixels functions effectively. In particular, when the feature amount is expressed as a convex function or a linear function with the pixel value as a variable, a good correction result can be obtained.

図5はこの撮像装置により実行される画像処理内容を示すフローチャートである。この処理は、細胞等が担持されたウェルWを撮像した画像から細胞等の領域と培地の領域とを区別するための処理であり、予め作成されメモリ145に記憶されている制御プログラムをCPU141が実行して装置各部に所定の動作を行わせることにより実現される。制御プログラムはメモリ145に予め組み込まれていてもよく、また必要に応じて適宜の記憶媒体から読み出されてインターフェース部142を介してメモリ145に書き込まれる態様であってもよい。   FIG. 5 is a flowchart showing the contents of image processing executed by this imaging apparatus. This process is a process for distinguishing the area of the cells and the like from the image of the well W carrying the cells and the like, and the control program stored in the memory 145 is stored in the CPU 141 by the CPU 141. This is implemented by causing each part of the apparatus to perform a predetermined operation. The control program may be incorporated in the memory 145 in advance, or may be read from an appropriate storage medium and written to the memory 145 via the interface unit 142 as necessary.

最初に、撮像部13によりウェルWの撮像が行われ(ステップS101)、得られた原画像からウェル領域Rw(図2)が切り出される(ステップS102)。ウェル領域Rwを表すウェル画像は表示部148に表示される(ステップS103)。このとき表示される画像の内容は撮像された原画像のものと同じであり、原画像が欠陥を含む場合、その欠陥を含んだ状態で表示される。ユーザは表示された画像から欠陥の有無やその程度を把握することができる。   First, imaging of the well W is performed by the imaging unit 13 (step S101), and the well region Rw (FIG. 2) is cut out from the obtained original image (step S102). A well image representing the well region Rw is displayed on the display unit 148 (step S103). The content of the image displayed at this time is the same as that of the captured original image. When the original image includes a defect, the image is displayed in a state including the defect. The user can grasp the presence / absence of a defect and the extent thereof from the displayed image.

続いて、補正サイズ情報に関するユーザからの操作入力が入力受付部147により受け付けられる(ステップS104)。上記した補正アルゴリズム自体は欠陥の種類や程度によらず適用可能であるが、補正に用いる周辺画素の範囲を決める矩形領域Rrのサイズは欠陥の現れ方に応じて適切に選ばれる必要がある。具体的には、画像内の有用なテクスチャ(例えば細胞等の輪郭線)の情報が失われないようにするために、このようなテクスチャのサイズよりも矩形領域Rrのサイズが大きくなければならない。一方、特徴量の平均値を差し引くことで欠陥の影響を除去するという作用を有効なものとするためには、欠陥が当該領域内で一様に現れていると見なせることが好ましく、画像において欠陥が現れている領域のサイズよりも矩形領域Rrのサイズが小さくなければならない。   Subsequently, an operation input from the user regarding the correction size information is received by the input receiving unit 147 (step S104). The above correction algorithm itself can be applied regardless of the type and degree of the defect, but the size of the rectangular region Rr that determines the range of the peripheral pixels used for the correction needs to be appropriately selected according to the appearance of the defect. Specifically, the size of the rectangular region Rr must be larger than the size of such a texture so that information on useful textures (for example, contour lines of cells or the like) in the image is not lost. On the other hand, in order to effectively remove the influence of the defect by subtracting the average value of the feature amount, it is preferable that the defect appears to appear uniformly in the region. The size of the rectangular region Rr must be smaller than the size of the region in which appears.

種々の欠陥に対応するためには矩形領域Rrのサイズが可変であることが好ましく、このサイズを決定するための情報を補正サイズ情報としてユーザから受け付けるようにすることで、より効果的な補正を行うことが可能となる。例えば、矩形領域Rrの1辺の長さを決める画素数Nの値を補正サイズ情報として受け付けるようにすることができる。   In order to deal with various defects, the size of the rectangular region Rr is preferably variable, and more effective correction can be performed by accepting information for determining the size from the user as correction size information. Can be done. For example, the value of the number of pixels N that determines the length of one side of the rectangular region Rr can be received as the correction size information.

続いて、ウェル画像が複数の小ブロックに分割されて(ステップS105)、各ブロックの特徴量が算出される(ステップS106)。上記の例では特徴量を画素単位で求めており、これは1つの画素を1つのブロックとした場合に対応する。これに代えて、1つのブロックがいくつかの画素を含むものとなるようにしてもよい。例えば画像中で着目するテクスチャのサイズに応じたサイズのブロックに画像を分割することができる。ブロック単位で求められた特徴量を用いて補正を行う場合、各ブロックは同一サイズであることが望ましい。   Subsequently, the well image is divided into a plurality of small blocks (step S105), and the feature amount of each block is calculated (step S106). In the above example, the feature amount is obtained in units of pixels, which corresponds to the case where one pixel is one block. Instead, one block may include several pixels. For example, the image can be divided into blocks of a size corresponding to the size of the texture of interest in the image. When correction is performed using the feature amount obtained in units of blocks, it is desirable that the blocks have the same size.

こうして求められた各ブロックの特徴量については、上記した方法を用いて、当該ブロックの特徴量の値をその周辺ブロックの特徴量の値に基づいて補正する(ステップS107)。補正後の各ブロックの特徴量の値に基づき適宜の領域分割処理を行うことで(ステップS108)、ウェル画像が細胞等Cに対応する領域と培地Mに対応する領域とに分割される。補正後の特徴量では画像欠陥の影響が低減されているので、画像欠陥が領域分割処理の結果に影響を及ぼすことが抑制されている。細胞等Cに対応する領域については、細胞等Cの種類や形状等(例えば、通常細胞と未分化細胞など)に応じて複数種に区分されてもよい。   With respect to the feature amount of each block thus obtained, the value of the feature amount of the block is corrected based on the value of the feature amount of the surrounding blocks using the above-described method (step S107). By performing an appropriate region dividing process based on the corrected feature value of each block (step S108), the well image is divided into a region corresponding to cells C and the like and a region corresponding to the medium M. Since the influence of the image defect is reduced in the corrected feature amount, the influence of the image defect on the result of the area division process is suppressed. The region corresponding to the cell etc. C may be classified into a plurality of types according to the type and shape of the cell etc. C (for example, normal cells and undifferentiated cells etc.).

領域分割の手法としては、特徴量の値を用いた公知の機械学習法、例えばランダムフォレスト法を用いることができる。また例えば、補正後の特徴量の値に何段階かの閾値を設定し、該閾値との大小関係に応じて領域分割を行う方法でもよい。   As a method of area division, a known machine learning method using a feature value, for example, a random forest method can be used. Alternatively, for example, a method may be used in which a threshold value in several steps is set for the corrected feature value, and the region is divided according to the magnitude relationship with the threshold value.

以上説明したように、上記実施形態においては、図5のステップS105〜S106が本発明の「第1工程」に相当する一方、ステップS107、S108がそれぞれ本発明の「第2工程」、「第3工程」に相当している。また、上記実施形態では画像を構成する画素の各々が本発明の「ブロック」に相当している。そして、矩形領域Rr内の各画素のうち注目画素P(x,y)以外の画素が本発明の「周辺ブロック」に対応している。   As described above, in the above embodiment, steps S105 to S106 in FIG. 5 correspond to the “first step” of the present invention, while steps S107 and S108 are the “second step” and “second step” of the present invention, respectively. This corresponds to “3 steps”. In the above embodiment, each of the pixels constituting the image corresponds to a “block” of the present invention. Of the pixels in the rectangular region Rr, the pixels other than the target pixel P (x, y) correspond to the “peripheral block” of the present invention.

また、特徴量の平均値Fa(x,y)のうち式(1)で表されるものが本発明の「第1平均値」に相当する一方、式(2)で表されるものが本発明の「第2平均値」に相当している。   Further, among the average value Fa (x, y) of the feature quantity, what is represented by the expression (1) corresponds to the “first average value” of the present invention, while what is represented by the expression (2) is the present value. This corresponds to the “second average value” of the invention.

なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態は本発明にかかる画像処理方法を実行可能な撮像装置であるが、本発明の画像処理方法を実行する装置は撮像機能を有していなくてもよい。先にも述べたように、本発明にかかる画像処理方法は一般的な構成を有するパーソナルコンピュータやワークステーションのハードウェア資源を用いて実行することが可能であり、このような装置に本発明にかかる画像処理方法の各処理工程を記述した制御プログラムを実装することにより、本発明が実現されてもよい。この場合、外部の撮像装置で撮像された画像や予めデータベースや記憶媒体に記憶保存された画像等が本発明の処理対象となる。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, the above embodiment is an imaging apparatus that can execute the image processing method according to the present invention, but the apparatus that executes the image processing method of the present invention may not have an imaging function. As described above, the image processing method according to the present invention can be executed by using hardware resources of a personal computer or workstation having a general configuration. The present invention may be realized by mounting a control program describing each processing step of the image processing method. In this case, an image captured by an external imaging device, an image previously stored in a database or a storage medium, and the like are processing targets of the present invention.

また、上記実施形態では補正サイズ情報の設定入力をユーザから受け付けて補正が実行されるが、これに限定されない。例えば、適宜の画像処理によって欠陥の程度を見積もり、その結果に応じて矩形領域Rrのサイズが自動的に決定される構成でもよい。また例えば、矩形領域Rrのサイズが予めいくつか用意され、それらを用いた補正結果がユーザに提示される態様であってもよい。   Further, in the above-described embodiment, correction is performed by receiving a setting input of correction size information from the user, but the present invention is not limited to this. For example, the configuration may be such that the degree of defects is estimated by appropriate image processing, and the size of the rectangular region Rr is automatically determined according to the result. Further, for example, there may be a mode in which several sizes of the rectangular region Rr are prepared in advance and a correction result using them is presented to the user.

また、上記実施形態では画像を構成する画素の各々が本発明の「ブロック」とされており、これは「ブロック」として原理的に最も小さいものである。この場合、画像に含まれる画素単位で表されるような細かいテクスチャの画像情報を維持しつつ補正を行うことができる。しかしながら、用途に応じてブロックのサイズはより大きいものであってもよい。例えば、ウェル内に点在するほぼ同サイズの細胞等を計数する目的においては、そのような細胞等のサイズに応じた複数画素からなるブロックが設定されてもよい。   In the above embodiment, each of the pixels constituting the image is a “block” of the present invention, which is the smallest in principle as a “block”. In this case, it is possible to perform correction while maintaining image information of a fine texture represented by a pixel unit included in the image. However, the block size may be larger depending on the application. For example, for the purpose of counting cells of substantially the same size scattered in the wells, a block composed of a plurality of pixels corresponding to the size of such cells may be set.

また、上記実施形態は細胞等を担持するウェルを撮像した画像に対し領域分割処理を施すものであるが、本発明において処理対象となる画像はこのような生試料を撮像対象物としたものに限定されず、種々の画像を用いることが可能である。   Moreover, although the said embodiment performs an area | region division process with respect to the image which imaged the well which carries a cell etc., the image used as a process target in this invention uses such a raw sample as the imaging target object. It is not limited and various images can be used.

以上、具体的な実施形態を例示して説明してきたように、本発明の画像処理方法において、例えば第2工程では、ブロックごとの特徴量の値を、当該ブロックの周辺ブロック各々の特徴量の平均値である第1平均値、または当該ブロックと当該ブロックの周辺ブロックとの各々の特徴量の平均値である第2平均値に基づき補正するようにしてもよい。このような構成によれば、当該ブロックおよび周辺ブロックの特徴量に対して同程度の影響を及ぼす欠陥による寄与分をキャンセルすることができる。   As described above, the specific embodiment has been described by way of example. In the image processing method of the present invention, for example, in the second step, the value of the feature value for each block is set to the value of the feature value of each peripheral block of the block. You may make it correct | amend based on the 1st average value which is an average value, or the 2nd average value which is the average value of each feature-value of the said block and the surrounding block of the said block. According to such a configuration, it is possible to cancel the contribution due to defects that have the same degree of influence on the feature quantities of the block and the peripheral blocks.

また例えば、第2工程では、補正後のブロックの特徴量の値を、当該ブロックの特徴量の値と第1平均値または第2平均値との差に応じた値としてもよい。このような構成によれば、当該ブロックの特徴量の値から欠陥の影響による値を差し引いた値を補正後の特徴量とすることができる。   Further, for example, in the second step, the corrected feature value of the block may be a value corresponding to the difference between the feature value of the block and the first average value or the second average value. According to such a configuration, a value obtained by subtracting a value due to the influence of a defect from a value of the feature value of the block can be used as a corrected feature value.

この場合、第2工程では、ブロックの特徴量の値と第1平均値または第2平均値との差の値を変数とする一次関数により表される値を、補正後のブロックの特徴量の値としてもよい。このようにすることで、補正後の特徴量の値を適宜にスケーリングされたものとすることが可能となり、欠陥の影響が低減された特徴量を目的に応じた態様で出力することができる。   In this case, in the second step, a value represented by a linear function whose variable is the difference between the block feature value and the first average value or the second average value is used as the corrected block feature value. It may be a value. In this way, the corrected feature value can be appropriately scaled, and the feature value in which the influence of the defect is reduced can be output in a mode according to the purpose.

また例えば、複数のブロックが互いに同一のサイズを有していてもよい。このような構成によれば、各ブロックの特徴量の値が互いに同程度の重みを持つことになり、補正時の演算において特別な重み付けを与える必要がないので、処理を簡単にすることができる。   For example, a plurality of blocks may have the same size. According to such a configuration, the feature value of each block has the same weight as each other, and it is not necessary to give a special weight in the calculation at the time of correction, so that the processing can be simplified. .

また例えば、第2工程では、複数のブロックを含み当該ブロックを中心とする所定サイズの矩形内にある、当該ブロック以外のブロックを周辺ブロックとしてもよい。このような構成では、補正処理は当該ブロックを中心として設定されたウィンドウ内のブロックの特徴量を対象としたものとなり、画像中の任意のブロックについて同様の処理を行うことができる。これにより、補正処理を簡単にすることができる。   Further, for example, in the second step, a block other than the block that is included in a rectangle of a predetermined size including a plurality of blocks and centered on the block may be used as a peripheral block. In such a configuration, the correction processing is targeted for the feature amount of the block in the window set around the block, and the same processing can be performed for any block in the image. Thereby, the correction process can be simplified.

この場合、矩形のサイズを変更可能であることがより好ましい。より具体的には、例えば、矩形のサイズを決定するための情報の設定入力を受け付けて第2工程を実行するようにしてもよい。補正処理に用いられる周辺ブロックの範囲を欠陥の現れ方に応じて変更できるようにすることで、補正の効果をより高めることが可能である。   In this case, it is more preferable that the size of the rectangle can be changed. More specifically, for example, the second step may be executed in response to an input for setting information for determining the size of the rectangle. By making it possible to change the range of the peripheral blocks used for the correction process according to the appearance of defects, it is possible to further enhance the correction effect.

また、特徴量は、画像を構成する各画素の画素値を変数とする連続関数で表されるものであってもよい。このような条件が満たされる特徴量では、周辺ブロックの特徴量の値に基づく補正が特に有効に機能する。   Further, the feature amount may be expressed by a continuous function with the pixel value of each pixel constituting the image as a variable. In the feature quantity that satisfies such a condition, correction based on the value of the feature quantity of the peripheral block functions particularly effectively.

また例えば、ブロックの各々は、画像を構成する画素の1つであってもよい。このような構成によれば、画素単位で表される細かいテクスチャを含む画像に対して補正を有効に機能させることができる。   For example, each of the blocks may be one of the pixels constituting the image. According to such a configuration, it is possible to make the correction function effectively for an image including a fine texture expressed in pixel units.

この発明は、画像を特徴量の値に応じて複数の領域に分割する技術に適用可能であり、処理対象となる画像における撮像対象物は任意である。   The present invention can be applied to a technique for dividing an image into a plurality of regions in accordance with a feature value, and an imaging target in an image to be processed is arbitrary.

1 撮像装置
13 撮像部
14 制御部
141 CPU
147 入力受付部
148 表示部
C 細胞等
M 培地
S105〜S106 第1工程
S107 第2工程
S108 第3工程
W ウェル
DESCRIPTION OF SYMBOLS 1 Imaging device 13 Imaging part 14 Control part 141 CPU
147 Input reception unit 148 Display unit C cells and the like M medium S105 to S106 First step S107 Second step S108 Third step W well

Claims (11)

画像を複数に分割してなるブロックごとに特徴量を求める第1工程と、
前記ブロックごとの特徴量を、当該ブロックの周辺にある複数の周辺ブロックの特徴量の値に基づき補正する第2工程と、
前記画像を、補正後の前記ブロックごとの特徴量の値に応じて複数の領域に領域分割する第3工程と
を備える画像処理方法。
A first step for obtaining a feature value for each block obtained by dividing an image into a plurality of blocks;
A second step of correcting the feature value for each block based on the feature value values of a plurality of peripheral blocks around the block;
An image processing method comprising: a third step of dividing the image into a plurality of regions in accordance with the feature value of each block after correction.
前記第2工程では、前記ブロックごとの特徴量の値を、当該ブロックの前記周辺ブロック各々の特徴量の平均値である第1平均値、または当該ブロックと当該ブロックの前記周辺ブロックとの各々の特徴量の平均値である第2平均値に基づき補正する請求項1に記載の画像処理方法。   In the second step, the value of the feature value for each block is set to a first average value that is an average value of feature values of each of the peripheral blocks of the block, or each of the block and the peripheral blocks of the block. The image processing method according to claim 1, wherein correction is performed based on a second average value that is an average value of feature amounts. 前記第2工程では、補正後の前記ブロックの特徴量の値を、当該ブロックの特徴量の値と前記第1平均値または前記第2平均値との差に応じた値とする請求項2に記載の画像処理方法。   The feature value of the block after correction is a value corresponding to a difference between the feature value of the block and the first average value or the second average value in the second step. The image processing method as described. 前記第2工程では、前記ブロックの特徴量の値と前記第1平均値または前記第2平均値との差の値を変数とする一次関数により表される値を、補正後の前記ブロックの特徴量の値とする請求項3に記載の画像処理方法。   In the second step, the value of the block after correction is represented by a value expressed by a linear function having the difference value between the block feature value and the first average value or the second average value as a variable. The image processing method according to claim 3, wherein an amount value is used. 前記複数のブロックが互いに同一のサイズを有する請求項1ないし4のいずれかに記載の画像処理方法。   The image processing method according to claim 1, wherein the plurality of blocks have the same size. 前記第2工程では、複数の前記ブロックを含み当該ブロックを中心とする所定サイズの矩形内にある、当該ブロック以外の前記ブロックを前記周辺ブロックとする請求項1ないし5のいずれかに記載の画像処理方法。   The image according to any one of claims 1 to 5, wherein in the second step, the blocks other than the block, which are included in a rectangle having a predetermined size including the plurality of blocks and are centered on the block, are used as the peripheral blocks. Processing method. 前記矩形のサイズを変更可能である請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the size of the rectangle can be changed. 前記矩形のサイズを決定するための情報の設定入力を受け付けて前記第2工程を実行する請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein the second step is executed in response to an input of setting information for determining the size of the rectangle. 前記特徴量は、前記画像を構成する各画素の画素値を変数とする連続関数で表される請求項1ないし8のいずれかに記載の画像処理方法。   The image processing method according to claim 1, wherein the feature amount is represented by a continuous function having a pixel value of each pixel constituting the image as a variable. 前記ブロックの各々は、前記画像を構成する画素の1つである請求項1ないし9のいずれかに記載の画像処理方法。   The image processing method according to claim 1, wherein each of the blocks is one of pixels constituting the image. 請求項1ないし10のいずれかに記載の画像処理方法の各工程をコンピュータに実行させる制御プログラム。   A control program for causing a computer to execute each step of the image processing method according to claim 1.
JP2015189844A 2015-09-28 2015-09-28 Image processing method and control program Pending JP2017068349A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015189844A JP2017068349A (en) 2015-09-28 2015-09-28 Image processing method and control program
PCT/JP2016/069136 WO2017056600A1 (en) 2015-09-28 2016-06-28 Image processing method and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189844A JP2017068349A (en) 2015-09-28 2015-09-28 Image processing method and control program

Publications (1)

Publication Number Publication Date
JP2017068349A true JP2017068349A (en) 2017-04-06

Family

ID=58423368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189844A Pending JP2017068349A (en) 2015-09-28 2015-09-28 Image processing method and control program

Country Status (2)

Country Link
JP (1) JP2017068349A (en)
WO (1) WO2017056600A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021009906A1 (en) * 2019-07-18 2021-01-21 株式会社島津製作所 Cell image analysis method and cell image analysis device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4094789B2 (en) * 1999-11-26 2008-06-04 富士通株式会社 Image processing apparatus and image processing method
JP4203636B2 (en) * 2000-04-13 2009-01-07 パナソニック株式会社 Image processing method and image input apparatus

Also Published As

Publication number Publication date
WO2017056600A1 (en) 2017-04-06

Similar Documents

Publication Publication Date Title
EP3788591B1 (en) Focus-weighted, machine learning classifier error prediction for microscope slide images
US8265393B2 (en) Photo-document segmentation method and system
JP5742399B2 (en) Image processing apparatus and program
EP3203290A1 (en) Image processing method and image processing device
CN110176010B (en) Image detection method, device, equipment and storage medium
JP2012221237A (en) Haze removal image processing system, haze removal image processing method and haze removal image processing program
JP6196607B2 (en) Image processing method, control program, and image processing apparatus
JP5819897B2 (en) Imaging system and imaging method
WO2010050412A1 (en) Calibration index determination device, calibration device, calibration performance evaluation device, system, method, and program
JP2015211471A (en) Image processing apparatus and method
JP6229365B2 (en) Colony counting device, colony counting method, and colony counting program
JP2012221117A (en) Image processing device and program
WO2019187420A1 (en) Image processing method, image processing device, program, and recording medium
JP2013105245A (en) Image processing method, device and program
CN114627175A (en) Image processing method, intelligent terminal and computer readable storage medium
WO2019181072A1 (en) Image processing method, computer program, and recording medium
CN117351011B (en) Screen defect detection method, apparatus, and readable storage medium
WO2017056600A1 (en) Image processing method and control program
JP5762315B2 (en) Image processing method
WO2017069035A1 (en) Image-processing method and method for creating shading reference data
US20200098094A1 (en) Image processing method and image processing apparatus
WO2019176614A1 (en) Image processing device, image processing method, and computer program
JP2011095921A (en) Apparatus and method for processing image and program
CN111368572A (en) Two-dimensional code identification method and system
JP5264956B2 (en) Two-dimensional code reading apparatus and method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170725