JP2019175422A - 画像処理方法、画像処理装置、プログラムおよび記憶媒体 - Google Patents

画像処理方法、画像処理装置、プログラムおよび記憶媒体 Download PDF

Info

Publication number
JP2019175422A
JP2019175422A JP2018214310A JP2018214310A JP2019175422A JP 2019175422 A JP2019175422 A JP 2019175422A JP 2018214310 A JP2018214310 A JP 2018214310A JP 2018214310 A JP2018214310 A JP 2018214310A JP 2019175422 A JP2019175422 A JP 2019175422A
Authority
JP
Japan
Prior art keywords
search
edge
image
boundary
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018214310A
Other languages
English (en)
Other versions
JP7076361B2 (ja
Inventor
拓矢 安田
Takuya Yasuda
拓矢 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to PCT/JP2018/047281 priority Critical patent/WO2019187420A1/ja
Priority to EP18912506.5A priority patent/EP3779463A4/en
Priority to US16/980,017 priority patent/US11244200B2/en
Publication of JP2019175422A publication Critical patent/JP2019175422A/ja
Application granted granted Critical
Publication of JP7076361B2 publication Critical patent/JP7076361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/02Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor using a plurality of sample containers moved by a conveyor system past one or more treatment or analysis stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20168Radial search

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Chemical & Material Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Wood Science & Technology (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biotechnology (AREA)
  • Organic Chemistry (AREA)
  • Biochemistry (AREA)
  • Zoology (AREA)
  • Molecular Biology (AREA)
  • Sustainable Development (AREA)
  • Microbiology (AREA)
  • Genetics & Genomics (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】培地を担持する容器の凹部を撮像した画像から、凹部の周縁部の無効領域とその内側の有効領域との境界を確実にしかも精度よく特定することのできる技術を提供する。【解決手段】本発明の画像処理方法は、画像内の周縁部の近傍に、周縁部に沿った周方向の位置が互いに異なり、凹部の中央から周縁部へ向かう径方向に延びる所定サイズの探索領域を複数設定する工程と、探索領域内でエッジ検出を実行し、検出されたエッジ位置およびエッジ強度を探索領域ごとに取得する工程と、探索領域の各々について、周方向において当該探索領域と隣接する他の探索領域を、当該探索領域に対して径方向にシフトさせたときに画像パターンの類似度が最高となる相対シフト量を求める工程と、一の探索領域内における境界の位置を、当該探索領域および周方向において近傍範囲にある探索領域それぞれのエッジ位置、エッジ強度および相対シフト量に基づき特定する工程とを備える。【選択図】図6

Description

この発明は、容器の凹部に担持された培地を撮像した画像から、凹部の周縁部の無効領域とその内側の有効領域との境界を特定する画像処理技術に関するものである。
細胞の解析には、ウェルプレートまたはマイクロプレート等と呼ばれる、複数のウェル(凹部)が設けられた平板状の容器が用いられる。解析対象物の細胞はウェル内に培地とともに保持される。そして、カメラで細胞を撮像して解析に供される。撮像の際、ウェルとその周囲が撮像される場合には、画像の中から、解析対象の細胞が含まれる有効領域であるウェル内部と周縁部の無効領域との境界を精度よく検出する必要がある。
これに関し、特許文献1には、マイクロプレートの試験ウェル壁境界を識別する方法が開示されている。特許文献1に記載の方法は、マイクロプレートの画像から、試験ウェルの壁境界の特徴を検出する。そして、壁境界の特徴を使用して、壁境界の候補エッジ画像を生成する。その候補エッジ画像を解析して試験ウェルの外周境界の空間的位置を計算し、その情報を使用して内周境界を決定する。
特許第5920994号
撮像時のウェル内には培養液等の液体が保持されているため、表面張力により液体の表面に凹状のメニスカスが形成される。また、ウェル側壁面がテーパー形状を有している場合や、撮像方向に傾きがある場合等には、ウェルの側壁面が映り込むことがある。また、照明光の入射方向に傾きがある場合には、ウェルの周縁部に暗い影が生じることがある。さらに、ウェルの周縁部に気泡や細胞由来の付着物が付着している場合がある。
これらに起因して、特許文献1の方法で特定される内周境界が、画像における有効領域と無効領域との境界を必ずしも的確に表していないケースがある。また、同じ原因により、ウェルの周縁部で境界が部分的に不明瞭となるケースや、境界の特徴を有するエッジが複数含まれるケース等も生じている。そのため、このように不明瞭な画像からでも有効領域と無効領域との境界を確実に特定することのできる技術が求められている。
この発明は上記課題に鑑みなされたものであり、培地を担持する容器の凹部を撮像した画像から、凹部の周縁部の無効領域とその内側の有効領域との境界を確実に、しかも精度よく特定することのできる技術を提供することを目的とする。
この発明の一の態様は、培地を担持する容器の凹部を撮像した画像から、前記凹部の周縁部の無効領域とその内側の有効領域との境界を特定する画像処理方法であって、上記目的を達成するため、前記画像内の前記周縁部の近傍に、前記周縁部に沿った周方向の位置が互いに異なり、前記凹部の中央から前記周縁部へ向かう径方向に延びる所定サイズの探索領域を複数設定する工程と、前記探索領域内でエッジ検出を実行し、検出されたエッジ位置およびエッジ強度を前記探索領域ごとに取得する工程と、前記探索領域の各々について、前記周方向において当該探索領域と隣接する他の探索領域を、当該探索領域に対して前記径方向にシフトさせたときに画像パターンの類似度が最も高くなる相対シフト量を求める工程と、一の前記探索領域内における前記境界の位置を、当該探索領域および前記周方向において近傍範囲にある前記探索領域それぞれの前記エッジ位置、前記エッジ強度および前記相対シフト量に基づき特定する工程とを備えている。
このように構成された発明では、凹部の周縁部近傍に、径方向に延びる探索領域が周方向に複数設定される。そして、探索領域内での径方向において求められたエッジ検出の結果と、周方向において求められた相対シフト量とに基づき、当該探索領域内での境界位置が特定される。
探索領域内において強いエッジが検出されればそのエッジ位置が境界位置である蓋然性が高いと言えるが、誤検出の可能性もある。また、検出されたエッジの強度が低いもしくは有意なエッジが見つからない場合には他の方法で補う必要がある。本発明では、周方向で近傍にある探索領域との画像内容の比較により、境界である可能性の高い位置を特定することができる。
具体的には次の通りである。境界を不明瞭にする原因となる画像内の要素は、周方向にある程度の連続性を持って分布していると考えられる。したがって、周方向において近傍にある探索領域間における画像内容の変化は比較的緩やかである。このため境界の位置も緩やかに変化してゆくと考えられる。言い換えれば、エッジが見つからない探索領域であっても、その近傍の他の探索領域において境界の位置がわかっていれば、その位置から推定して境界位置を求めることが可能である。
2つの探索領域を径方向に相対シフトさせ、画像パターンの類似度が最も高くなるように両者の位置を合わせたとき、2つの探索領域間で画像内容が類似しており、上記した連続性を考慮すれば両者の境界の位置も概ね揃っていると言える。したがって、このときの相対シフト量は、2つの探索領域間での境界位置の変化量を示していることになる。この情報を用いれば、当該探索領域で明確なエッジが見つかっているか否かに関わらず、他の探索領域の情報から境界の位置を推定することができる。
これらの情報を組み合わせて境界位置を特定することで、この発明では、周縁部の近傍に明確なエッジが見つからない場合であっても、周縁部の無効領域とその内側の有効領域との境界を確実に、しかも精度よく特定することが可能である。
上記のように、本発明によれば、凹部の周縁部近傍に複数設定した探索領域の各々について、エッジ検出および隣接する探索領域との間で画像パターンの類似度が最も高くなる相対シフト量を求める処理を実行している。これらで得られる情報を組み合わせることで、周縁部の無効領域とその内側の有効領域との境界を確実に、しかも精度よく特定することができる。
本発明に使用されるウェルプレートの一例を示す図である。 本実施形態における撮像装置の概略構成を示す図である。 撮像における問題点について説明する図である。 ウェルを撮像した画像の例を模式的に示す図である。 本実施形態における画像処理の原理を示す図である。 本実施形態における画像処理を示すフローチャートである。 基準点および探索領域を示す図である。 各探索領域内の画像における輝度変化の例を示す図である。 画像パターン比較の例を示す図である。 各探索領域間でのパターン比較の結果を例示する図である。 求められた情報から境界位置を特定する原理を示す図である。 角丸矩形ウェルの画像への対応例を示す図である。
以下、本発明の好適な実施形態について、図面を参照しつつ説明する。以下では、本発明の「画像処理装置」は、セットされたウェルプレートを撮像する撮像装置として説明する。そして、その撮像装置において、本発明の「画像処理方法」が実行されるものとして説明する。
図1は本発明に使用されるウェルプレートの一例を示す図である。具体的には、図1(a)はウェルプレート9の上面図であり、図1(b)はその斜視図である。ウェルプレート9は、複数のウェル91を有する略板状の試料容器である。ウェルプレート9の材料には、例えば、光を透過する透明な樹脂が使用される。ウェルプレート9の上面には、複数のウェル91が規則的に配列されている。ウェル91は、培地とともに撮像対象物となる複数の細胞を保持する。本実施形態では、上面視におけるウェル91の形状は、円形として説明する。ただし、ウェル91の形状は、矩形、角丸矩形等の他の形状であってもよい。
図2は本実施形態における撮像装置の概略構成を示す図である。この撮像装置1は、ウェルプレート9の上面に形成されたウェル91と称される凹部に担持された培地中で培養される細胞、細胞コロニー、細菌等(以下、「細胞等」と称し参照符号Cを付す)の生試料を撮像する装置である。なお、この撮像装置1が対象とするウェルプレートのサイズやウェルの数はこれらに限定されるものではなく任意であり、例えば6ないし384穴のものが一般的に使用されている。また、複数ウェルを有するウェルプレートに限らず、例えばディッシュと呼ばれる平型の容器で培養された細胞等の撮像にも、この撮像装置1を使用することが可能である。
ウェルプレート9の各ウェル91には、培地Mとしての液体が所定量注入され、この液体中において所定の培養条件で培養された細胞等Cが、この撮像装置1の撮像対象物となる。培地は適宜の試薬が添加されたものでもよく、また液状でウェル91に投入された後ゲル化するものであってもよい。この撮像装置1では、例えばウェル91の内底面で培養された細胞等Cを撮像対象とすることができる。
撮像装置1は、ウェルプレート9を保持するホルダ11と、ホルダ11の上方に配置される照明部12と、ホルダ11の下方に配置される撮像部13と、これら各部の動作を制御するCPU141を有する制御部14とを備えている。ホルダ11は、試料を培地Mとともに各ウェル91に担持するウェルプレート9の下面周縁部に当接してウェルプレート9を略水平姿勢に保持する。
照明部12は、ホルダ11により保持されたウェルプレート9に向けて照明光を出射する。照明光の光源としては、例えば白色LED(Light Emitting Diode)を用いることができる。光源と適宜の照明光学系とを組み合わせたものが、照明部12として用いられる。照明部12により、ウェルプレート9に設けられたウェルW内の細胞等が上方から照明される。
ホルダ11により保持されたウェルプレート9の下方に、撮像部13が設けられる。撮像部13には、ウェルプレート9の直下位置に図示を省略する撮像光学系が配置されており、撮像光学系の光軸は鉛直方向に向けられている。図2は側面図であり、図の上下方向が鉛直方向を表す。
撮像部13により、ウェル91内の細胞等が撮像される。具体的には、照明部12から出射されウェル91の上方から液体に入射した光が撮像対象物を照明し、ウェル91底面から下方へ透過した光が、撮像部13の対物レンズ131を含む撮像光学系を介して撮像素子132の受光面に入射する。撮像光学系により撮像素子132の受光面に結像する撮像対象物の像が、撮像素子132により撮像される。撮像素子132は二次元の受光面を有するエリアイメージセンサであり、例えばCCDセンサまたはCMOSセンサを用いることができる。
撮像部13は、制御部14に設けられたメカ制御部146により水平方向および鉛直方向に移動可能となっている。具体的には、メカ制御部146がCPU141からの制御指令に基づき駆動機構15を作動させ、撮像部13を水平方向に移動させることにより、撮像部13がウェル91に対し水平方向に移動する。また鉛直方向への移動によりフォーカス調整がなされる。撮像視野内に1つのウェル91の全体が収められた状態で撮像されるときには、メカ制御部146は、光軸が当該ウェル91の中心と一致するように、撮像部13を水平方向に位置決めする。
また、駆動機構15は、撮像部13を水平方向に移動させる際、図において点線矢印で示すように照明部12を撮像部13と一体的に移動させる。すなわち、照明部12は、その光中心が撮像部13の光軸と略一致するように配置されており、撮像部13が水平方向に移動するとき、これと連動して移動する。これにより、どのウェル91が撮像される場合でも、当該ウェル91の中心および照明部12の光中心が常に撮像部13の光軸上に位置することとなり、各ウェル91に対する照明条件を一定にして、撮像条件を良好に維持することができる。
撮像部13の撮像素子132から出力される画像信号は、制御部14に送られる。すなわち、画像信号は制御部14に設けられたADコンバータ(A/D)143に入力されてデジタル画像データに変換される。CPU141は、受信した画像データに基づき適宜画像処理を実行する。制御部14はさらに、画像データを記憶保存するための画像メモリ144と、CPU141が実行すべきプログラムやCPU141により生成されるデータを記憶保存するためのメモリ145とを有しているが、これらは一体のものであってもよい。CPU141は、メモリ145に記憶された制御プログラムを実行することにより、後述する各種の演算処理を行う。
その他に、制御部14には、インターフェース(IF)部142が設けられている。インターフェース部142は、ユーザからの操作入力の受け付けや、ユーザへの処理結果等の情報提示を行うユーザインターフェース機能のほか、通信回線を介して接続された外部装置との間でのデータ交換を行う機能を有する。ユーザインターフェース機能を実現するために、インターフェース部142には、ユーザからの操作入力を受け付ける入力受付部147と、ユーザへのメッセージや処理結果などを表示出力する表示部148とが接続されている。
なお、制御部14は、上記したハードウェアを備えた専用装置であってもよく、またパーソナルコンピュータやワークステーション等の汎用処理装置に、後述する処理機能を実現するための制御プログラムを組み込んだものであってもよい。すなわち、この撮像装置1の制御部14として、汎用のコンピュータ装置を利用することが可能である。汎用処理装置を用いる場合、撮像装置1には、撮像部13等の各部を動作させるために必要最小限の制御機能が備わっていれば足りる。
図3は撮像における問題点について説明する図である。より具体的には、図3は培地Mを担持した状態のウェル91の側面断面を示している。同図に示すように、ウェル91の側壁面92は上部から底部に向けて断面積が漸減するテーパー形状となっていることがある。また、ウェル91に注入されている培地Mがウェル側壁面92との接触部分でメニスカスによる盛り上がりが生じる。また、照明光Lが鉛直方向に対し斜めに入射することで、ウェル側壁面92の影が液面に映り込むことがある。さらに、ウェル91の側壁面92と底面93との接続部分に細胞由来の老廃物等が付着していることがある。
このような状態を取り得るウェル91が、矢印D1で示すように底面93側から、または矢印D2で示すように上部開口側から撮像されるとき、上記した種々の原因により、ウェル91の周縁部において輪郭が不明瞭となることがある。
図4はウェルを撮像した画像の例を模式的に示す図である。図4(a)に示すように、ウェルプレート上面9aの一部を含んでウェル91を撮像した画像IMにおいては、特にウェル91の周縁部付近において上記した原因により不規則な濃淡が現れている。画像IMにおいて、解析対象である細胞等が含まれるのは中央部の高輝度で略一様な領域A1であり、ウェル側壁面のテーパーやメニスカス等により暗く映った領域A2や、周縁部付近の付着物等により中央部と異なる輝度を持つ領域A3については、解析エラーの原因となるおそれがあるので除外する必要がある。このため、画像から、中央部の領域A1とそれ以外の領域とを区画する境界の位置を特定する必要がある。
本明細書では、ウェル中央部の比較的高輝度で一様な領域A1を、解析対象となる細胞等を当該領域から良好に抽出することのできる「有効領域」と称する一方、ウェル周縁部の不規則な濃淡を含み解析に利用できない領域A2,A3を「無効領域」と称する。そうすると、求められるのは画像から有効領域と無効領域との境界を特定することである。
ここで、図4(a)に示すように、画像内でウェル91の仮想的な中心とみなせる点Oを原点とし、原点Oから周縁部に向かう径方向を動径r方向、原点O回りの回転方向を偏角θ方向とする極座標系(r,θ)を設定する。偏角θの起点については、例えば画像において原点Oから上向きの方向をθ=0とすることができる。
種々の偏角θに対して、原点Oから動径方向における有効領域A1と無効領域との境界までの距離を符号Rで表す。そうすると、図4(b)に示すように、有効領域A1と無効領域との境界は、偏角θに対し距離Rをプロットしたプロファイルによって表すことができる。言い換えれば、このプロファイルを求めることにより、画像における境界の位置を特定したことになる。次に説明する本実施形態の画像処理は、このプロファイルを求めるためのものである。まずその基本的な考え方を説明し、その後で具体的な処理内容について説明する。
図5は本実施形態における画像処理の原理を示す図である。図5(a)に破線で示すように、原点Oから放射状に延びる複数の動径方向が設定される。ここでは原点Oから互いに等角度間隔で8つの動径方向が設定されるが、その数は任意である。この数が多いほどより複雑な形状の境界にも対応可能となるが、処理に要する時間は長くなる。また等角度間隔である必要は必ずしもないが、演算処理の便宜からはこのような規則性を持たせておくことが有利である。
こうして設定された各動径上で、有効領域A1と無効領域との境界が検出される。図4(b)に示すように、検出された境界位置をθに対してプロットし、実線で示す滑らかな曲線で結ぶと、図に点線で示す目的のプロファイルに近い曲線が得られる。したがって、各動径上で境界の位置が特定できれば、適宜の曲線近似によって必要なプロファイルを得ることが可能である。以下、その具体的処理内容の一例を説明する。
図6は本実施形態における画像処理を示すフローチャートである。この画像処理は、本発明に係る「画像処理方法」の一実施形態であり、撮像装置1の制御部14に設けられたCPU141が、予めメモリ145に記憶されている制御プログラムを実行して装置各部に所定の動作を行わせることにより実現される。なお、この処理は、画像データが予め準備されていれば、一般的な構成のコンピュータ装置でも実現可能なものである。その意味において、本発明は、コンピュータにより実行されるプログラムとして、またそれを記憶した記憶媒体として実現することが可能である。
最初に、ウェルを撮像した画像データが取得される(ステップS101)。この撮像装置1は撮像機能を有しており、ホルダ11にセットされたウェルプレート9に設けられたウェル91を撮像することにより画像データを取得することが可能である。また、外部の撮像装置あるいはストレージ装置からインターフェース部142を介して与えられる画像データを取得する態様であってもよい。
次に、画像に基準点を設定するための基準位置情報が取得される(ステップS102)。基準位置情報は、画像内におけるウェル周縁部の概略位置を特定するための情報であり、周縁部の厳密な位置を示すものである必要はない。例えばウェル91の開口サイズや形状などに関する設計データから予め作成しておくことが可能である。このような情報は予めメモリ145に記憶されていてもよく、また必要に応じてユーザの指示入力によって与えられてもよい。また、取得された画像に対する簡易的な画像処理により、ウェル91の中心位置や直径などの概算値が求められる態様でもよい。また、撮像時の光軸とウェル中心とが概ね一致するとの前提の下、画像の中心が仮想的にウェルの中心とされてもよい。
こうして与えられた基準位置情報に基づき、画像内に複数の基準点が設定されるとともに、基準点を含む探索領域が各基準点のそれぞれについて設定される(ステップS103)。
図7は基準点および探索領域を示す図である。ここでは、原点Oの周りに等角度間隔で8つの基準点P0〜P7が設定されるが、基準点の数および配置はこれに限定されない。ただし、基準点はウェル91の周縁部の近傍で、周方向には互いに位置を異ならせて複数設けられることが必要である。周縁部の全周にわたって精度よく境界位置を特定するためには、周方向に分散して基準点が設けられることが好ましい。
まず基準点P0〜P7の設定について説明する。図7(a)に破線で示すように、基準位置情報に基づき仮設定された原点Oに対し複数の(ここでは8つの)動径方向が選択され、各動径上でウェル91の周縁部の近傍に位置する点が、基準点P0〜P7とされる。ウェル91の周縁部の位置に一致させる必要はない。後の演算を簡単にするためには、各基準点P0〜P7は原点Oからの距離が互いに等しいことが好ましい。
次に、各動径上で、基準点を含み、動径方向つまり径方向に延びる探索領域R0〜R7が設定される。例えば基準点P0に対応する探索領域R0は、図7(b)に示すように、基準点P0を中心として径方向に所定の長さを有する1画素分の幅のライン画像である。探索領域R0の長さは、当該動径方向における有効領域A1と無効領域との境界が探索領域内に含まれるように設定される。すなわち、予想される境界位置の変動を確実にカバーすることができるように、基準点P0の位置およびそこから延びる探索領域R0の長さが設定されればよい。他の基準点P1〜P7および探索領域R1〜R7についても同様である。
なお、基準点は探索領域の中心である必要は必ずしもない。例えば基準点がウェル91の外周部より外側に設定され、そこから探索領域が原点O方向に延びていてもよい。また、基準点の情報は後の処理に使用されないので、基準点を定めることなく各動径方向の探索領域が設定されてもよい。この場合には、原点Oから各探索領域までの距離が互いに等しいことが望ましい。また、探索領域の幅は1画素分に限定されず、複数画素分の幅であってもよい。
このようにして設定された各探索領域R0〜R7のそれぞれについてエッジ検出が実行され(ステップS104)、画像内容が急峻な変化を示すエッジの位置およびエッジ強度が求められる。各探索領域R0〜R7のエッジ位置およびエッジ強度はメモリ145に記憶される(ステップS105)。
エッジ検出のアルゴリズムとしては特に限定されず、公知のものを用いることができる。ただし、エッジ強度が所定値以上の明確なエッジが検出され、これよりエッジ強度の弱い輝度変化しかない場合にはエッジなしと判定されることが望ましい。また、各探索領域内でのエッジ検出は、図7(b)に示すように、ウェル91の中心側から周縁側に向けて探索が行われることが望ましい。
図8は各探索領域内の画像における輝度変化の例を示す図である。図7(a)に例示する画像IMにおいて設定された各探索領域R0〜R7のそれぞれについて、ウェル中心側から周縁側へ向かう輝度変化を模式的に描画すると図8のようになる。いずれの領域においても、ウェル中央側(図において左方)で培地Mの輝度に対応する高輝度の領域が広がっており、周縁側(図において右方)で輝度の低下が起こっている。ウェル周縁部の状態により、輝度低下が生じる位置やその変化態様はまちまちである。
求めるべき有効領域A1と無効領域との境界は、培地M由来の輝度が維持されているウェル中央部の領域とこれより輝度変動のある領域とを隔てるものであるから、図8の各グラフを左から右へ見たときに最初に輝度の低下が起こり始める位置にあると考えてよい。このことから、エッジの探索はウェル中央部から周縁部に向かう方向に実行され、最初に検出されたエッジが有効とされる。
なお、周縁部での輝度変化の態様としては、高輝度から低輝度への変化と、低輝度から高輝度への変化とがあり得る。対象となる試料において輝度変化の方向が既知である場合には、その知見に基づき、高輝度から低輝度へ変化するエッジ、および低輝度から高輝度へ変化するエッジのいずれか一方のみを検出するようにしてもよい。
図8においてグラフの横軸に付した黒丸印はエッジ検出により特定されるエッジの位置を示している。探索領域R0〜R3,R7においては急峻な輝度低下がありこの位置がエッジと判断される。一方、探索領域R6におけるエッジは輝度変化が比較的小さく、エッジ強度の弱いエッジである。また、探索領域R4,R5では輝度変化が緩やかでありエッジは検出されない。
次に、各探索領域について、当該探索領域内の画像パターンと、周方向において当該探索領域に隣接する他の1つの探索領域内の画像パターンとが比較される(ステップS106)。図7(a)に示されるように、ウェル周縁部における画像パターンは、周方向において概ね緩やかに変化する。したがって、周方向における探索領域間の間隔が適切に設定されていれば、隣接する探索領域間での画像パターンの差異もさほど大きくはならない。このため、隣接する探索領域の間では、有効領域A1と無効領域との境界の位置(以下、単に「境界位置」ということがある)は大きく異ならないと考えられる。
画像パターンが緩やかに変化するという性質から、一方の探索領域に対して他方の探索領域を動径方向に相対シフトさせながら画像パターンを比較したとき、境界位置が概ね同じになるときに画像パターンの類似度が最も高くなると考えられる。言い換えれば、画像パターンの類似度が最も高くなるときのシフト量が、両探索領域の間での境界位置の差を表していると言える。
そこで、隣接する探索領域間で画像パターンの類似度が最も高くなるときのシフト量を求めれば、両探索領域の間で境界位置がどのように推移しているかを把握することができる。類似度については、一方の画像パターンに対し他方の画像パターンをテンプレートとする一次元パターンマッチングの考え方を適用することができる。すなわち、他方の画像パターンを1画素ずつシフトさせながら一方の画像パターンとの画素ごとの差分を求め、その絶対値の合計値が最も小さくなるときの相対シフト量が、両探索領域間での境界位置の変化量を表す。したがって、この関係を用いれば、一方の境界位置から他方の境界位置を推定することが可能となる。こうして求められた相対シフト量はメモリ145に記憶される(ステップS107)。ここでは画像パターンの類似度を評価する尺度として差分の絶対値の合計値を用い、これが最小となるときの相対シフト量を求めているが、画像パターンの類似度の評価には他の公知のパターンマッチング手法が用いられてもよい。
図9は画像パターン比較の例を示す図である。図9(a)は2つの探索領域R1,R2間の比較例を示す。図からわかるように、探索領域R2の画像パターンを一定量左にシフトさせた状態で両パターンを重ね合わせると差分が小さくなることから、探索領域R2では探索領域R1と比較して境界位置が右側(すなわちウェル周縁側)に移動していることが示唆される。図8に示すように、検出されたエッジの位置も同様の傾向を示しており、このエッジ位置が境界位置である妥当性が高いと言える。
このようなパターン比較による境界位置の推定は、エッジが検出されなかった場合にも有効に機能する。例えば、図9(b)はエッジが検出された探索領域R3と、これと(+θ)方向に隣接し、エッジが検出されなかった探索領域R4との比較例を示している。この場合、両者を重ねるとシフト量ゼロでも高い相関がある。このことから、探索領域R3,R4の間では境界位置の移動は少ないと考えられる。探索領域R3で検出されたエッジ位置が境界位置を示すものであるとすれば、探索領域R4における境界位置も同じ位置にあると推定できる。
また、図9(c)はいずれもエッジが検出されなかった探索領域R4,R5間での比較例を示す。この場合でも、例えば探索領域R5のパターンを一定量右方向へシフトさせることで差分を最小とすることができれば、そのときのシフト量が両探索領域間での境界位置の移動量を表していると考えられる。そして、上記のように探索領域R4における境界位置が隣接する探索領域R3でのエッジ位置から推定可能であれば、そこからさらに探索領域R5の境界位置も推定することができる。
このように、隣接する探索領域間でのパターン比較により、明確なエッジが含まれるか否かに関わらず、両探索領域間での境界位置の移動量を推定することが可能である。したがって、エッジ検出結果では境界位置が特定されない探索領域についても、その周辺の探索領域における境界位置から境界位置を推定することが可能である。
図10は各探索領域間でのパターン比較の結果を例示する図である。探索領域R0は探索領域R1とパターン比較される。また、探索領域R1は探索領域R2とパターン比較される。同様に、1つの探索領域Rxは、(+θ)方向に隣接する他の探索領域R(x+1)とパターン比較され、両者の差分を最小とするための相対シフト量が求められる。ここでxは第x番目の探索領域を表す添え字である。探索領域R7は、(+θ)方向に隣接する探索領域R0とパターン比較される。
この結果では、探索領域R2は探索領域R1に対し左方向に適宜の1単位(例えば画素単位)の相対シフト量となり、探索領域R3は探索領域R2に対し右方向に1単位の相対シフト量となる。例えば図において右方向を正とすれば、探索領域R2は探索領域R1に対し(−1)の相対シフト量を有し、探索領域R3は探索領域R2に対し(+1)の相対シフト量を有すると表現することができる。隣接探索領域間の相対シフト量を積算してゆけば、隣接関係にない2つの探索領域間でのシフト量を表すことができる。これを「積算シフト量」と称することとする。積算シフト量は、周方向における境界の候補位置を指標する情報となる。
図11は求められた情報から境界位置を特定する原理を示す図である。ここまで説明した処理により、図11(a)に示すように、探索領域R0〜R7のそれぞれについて、検出されたエッジの位置および強度と、隣接探索領域との間の相対シフト量と、相対シフト量の積算値として求まる積算シフト量とが求められ、これらはメモリ145に記憶されている。これらから、各探索領域R0〜R7における境界位置を決定してゆく。
これらの結果から境界位置を求める方法は、図11(a)の表を図11(b)に示すように図示することによって理解しやすくなる。なお、ここでは説明を単純化して原理をより理解しやすくするために、各探索領域R0〜R7がそれぞれ9画素分の長さを有するものとする。すなわち、図11(a)に示されるエッジ位置やシフト量は画素単位で表され、図11(b)では正方形1つが1つの画素を表している。
図11(b)左端のバーグラフ状の図は、各探索領域R0〜R7の画像パターンと、検出されたエッジ位置とを表したものである。それぞれの画像パターンは図7(a)に対応する濃淡を有している。黒丸印がエッジ位置を表している。その右側には検出されたエッジ強度が示される。さらにその右側には、境界位置の推移を示す積算シフト量がバーグラフ上の位置で表されている。
これらを上から順に見てゆくと、探索領域R0から探索領域R3まではいずれ強いエッジが検出されており、しかも検出されたエッジ位置の変化と、積算シフト量で表される境界位置の変化とが一致している。このことから、これらのエッジ位置が、有効領域と無効領域との境界の位置を表している蓋然性が高いと言える。したがって、これらのエッジ位置についてはそのまま境界位置とみなすことができる。
次に、探索領域R4では大きな輝度変化がなくエッジが検出されていない。このとき積算シフト量を見ると、1つ上の探索領域R3と同じ位置に境界があることが示されている。したがってこのとき、探索領域R3の境界位置と同じ位置を探索領域R4の境界位置とみなす。また、探索領域R5でもエッジが検出されていないが、積算シフト量は、近傍の探索領域よりも1つ左側の位置に境界位置があることを示している。したがって、そのような位置を境界位置とみなす。
探索領域R6ではエッジが検出されているが、その強度は他のエッジよりも弱く、またそのエッジ位置も、積算シフト量で示される近傍探索領域間の境界位置の関係と一致しない。この場合にはエッジ位置を境界位置とせず、近傍の探索領域、特に強いエッジが検出されている探索領域R7における境界位置と積算シフト量とで決まる位置を境界位置とする。
探索領域R7については強いエッジが検出されており、そのエッジ位置と、隣接する探索領域R0におけるエッジ位置との関係についても、積算シフト量で示される関係と一致している。したがって、この場合はエッジ位置を境界位置とみなすことができる。
図11(b)の右端は確定された境界位置を示したものである。黒丸印はエッジ検出結果から推定された境界位置を示し、白丸印はパターン比較の結果を加味して補足・修正された境界位置を示している。左側の一様かつ高輝度の領域から低輝度の領域に遷移する位置に境界位置が設定されており、図5(a)に示した境界特定の目的が達成されていることがわかる。
このように、上記の考え方によって各探索領域の境界位置を確定させてゆくことにより、十分な強度のエッジが検出されない部分についても、ウェル中央側の高輝度の領域(有効領域)と周縁部の低輝度の領域(無効領域)との境界を精度よく特定することができる。
上記の境界特定方法の原理を整理すると以下の通りである。
(1)強いエッジが検出されている探索領域については、そのエッジ位置が境界位置を表す蓋然性が高いものとする。特に、近傍の探索領域の間でのエッジ位置の変化が積算シフト量で示される境界位置の変化とよく合致している場合には、その蓋然性がより高いものとする。また、このような強いエッジは、近傍の探索領域における境界位置の特定にも強い影響を及ぼすようにする。
(2)弱いエッジが検出されている探索領域およびエッジが検出されていない探索領域については、積算シフト量で示される境界位置の変化態様をより重視して境界位置を特定する。すなわち、積算シフト量で示される境界位置の変化態様に基づき、当該探索領域の近傍で確定される境界位置から境界位置を推定する。
詳しい説明は省略するが、このような原理は、例えば下記の(式1)に基づく演算によって具現化することが可能である。
Figure 2019175422
(式1)において、変数nは設定される探索領域の数(この例では8)を表し、変数xはそのうち1つを特定するためのパラメータである(すなわち、xは0≦x<nの関係を満たす整数)。左辺Pl(x)は、第x番目の探索領域Rxにおいて境界に対応する画素の位置を表し、この演算によって求めようとする解である。また、右辺Pe(x)は第x番目の探索領域Rxにおいて検出されたエッジ位置を画素位置で表したものであり、S(x)はそのエッジ強度である。
また、Gs(x)は探索領域R0〜Rxの積算シフト量である。また、関数M(x+k,n)は剰余演算関数を略記したものであり、正確には次式(式2):
M(x+k,n)=mod(x+k+n,n) … (式2)
により表すことができる。(式2)右辺は、値(x+k+n)を値nで除したときの剰余を返す関数である。
また、変数mは、1つの探索領域Pxの境界位置を特定する際に参照される近傍の探索領域の数を示す整数パラメータである。具体的には、当該探索領域Rxに対し、(−θ)方向および(+θ)方向にそれぞれ幾つの探索領域を「近傍」とみなすかを表す。例えばm=1である場合、当該探索領域と、周方向においてこれを挟む1つずつの探索領域R(x−1),R(x+1)とが近傍範囲とみなされ、これらの探索領域について求められた情報から、中央の探索領域Rxにおける境界位置が特定される。
パラメータmを大きくすると、1つの探索領域の境界位置に、当該探索領域から離れた探索領域の情報も反映されることになるため、ノイズや誤検出による影響を軽減することができる。その反面、局所的な境界位置の変動が打ち消されてしまうという問題がある。周方向における探索領域の配置ピッチ(これはパラメータnが大きいほど小さくなる)が十分に小さければ、このような問題を生じることなくパラメータmを大きくすることが可能である。これらのことから、ウェル周縁部に現れる輝度の不規則性の程度や、それをどこまで細かく検出する必要があるかに応じて、パラメータm,nが設定されることが望ましい。またこれらを大きくすることで処理時間も長くなるので、この点も考慮してパラメータ設定を行う必要がある。
上記の原理に基づき、各探索領域R0〜R7のそれぞれにおいて、有効領域と無効領域との境界の位置が特定される(ステップS108)。こうして境界位置を求めることは、図5(a)に示す黒丸印の位置を特定するのと等価である。したがって、これらの境界位置の間を補間する近似曲線を求めることで(ステップS109)、周方向の全周にわたって有効領域と無効領域との境界を特定することができる。近似方法については公知のものから適宜選択可能である。そして、例えばこうして特定された境界に基づきマスクを作成すれば、原画像から有効領域A1のみを切り出すことが可能となる。
以上説明したように、上記実施形態においては、ウェルプレート9が本発明の「容器」に相当しており、ウェル91が本発明の「凹部」に相当している。また、上記実施形態の撮像装置1においては、撮像部13が本発明の「画像取得部」として機能しており、制御部14、特にCPU141が本発明の「制御部」として機能している。なお、原画像データを外部装置から取得する態様においては、外部装置との通信を担うインターフェース部142が本発明の「画像取得部」として機能することになる。
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では平面視において円形のウェル91の画像を処理対象としているが、ウェルの断面形状としては、この他にも矩形の四隅を丸めた、いわゆる角丸矩形のものも広く用いられている。上記実施形態の画像処理は、このような形状のウェルにも対応可能なものである。
図12は角丸矩形ウェルの画像への対応例を示す図である。図12(a)に破線で示すように、角丸矩形の断面形状を有するウェルWの画像に対しても、その概略中心から放射状に複数の動径方向を設定することができる。そして、各動径上にそれぞれ探索領域R10〜R17を設定し、上記と同様の処理によって各探索領域内での境界位置を特定することができる。
各探索領域を中心から等距離に配置した場合、図12(b)に示すように、理想的な状態でも中心からウェル周縁部までの距離Rが周期的に変動することになり、特定される境界の位置もうねることになるが、処理自体は上記と同じとすることができる。ただし、全周にわたって境界位置を表す近似曲線を精度よく求めるためには、探索領域の数については円形の場合より多くすることが好ましい。
また、上記実施形態では、原画像および各探索領域においては原画像の各画素の輝度値がそのまま用いられているが、適宜のフィルタ処理によって平滑化がなされてもよい。これにより、ノイズや有効領域内に分布する細胞の像に起因する誤検出を低減することができる。ただし、境界位置の微小な変化の情報が失われる恐れがあることに留意する必要がある。
また例えば、検出されたエッジ位置や相対シフト量についても計算値をそのまま使用しているが、径方向および周方向において隣接する他の計算値との間で平滑化が行われてもよい。また例えば、最終的に特定された境界位置についても、周方向に平滑化を行うことで局所的な歪みを除去するようにしてもよい。
また、上記実施形態の(式1)では、パラメータmで定まる近傍範囲のうち強いエッジ強度を持つエッジが強い影響力を持つように構成されているが、周方向における当該探索領域からの距離の大小は反映されていない。現実的には、処理対象の探索領域から離れるほど与える影響は小さくなると考えられるから、(式1)に探索距離kに応じた重み付けが加えられてもよい。
また例えば、上記実施形態のパターン比較においては、探索領域間で画像の差分が最小となる相対シフト量が求められているが、その差分値、つまり両画像がどの程度類似しているか(あるいは乖離しているか)の情報は用いられていない。隣接する対象領域間で画像の類似度が高いほど相対シフト量が持つ情報の信頼性は高いと考えられるから、例えばパターンマッチングにおけるマッチングスコアに応じてシフト量に重み付けが加えられるようにしてもよい。
以上、具体的な実施形態を例示して説明してきたように、本発明においては、エッジ強度が所定値より大きいエッジが検出された探索領域については、エッジ位置を境界の位置とする一方、エッジ強度が所定値より小さいまたはエッジが検出されない探索領域については、周方向において隣接する他の探索領域の境界の位置を当該探索領域の相対シフト量に応じて補正した位置を、当該探索領域の境界の位置とすることができる。このような構成によれば、十分な強度のエッジが存在しない探索領域についても、確実にかつ高い蓋然性で境界位置を定めることができる。
また、複数の探索領域は、凹部の中央部に設定した仮想中心からの距離が互いに等しくなるように設定されてもよい。このような構成によれば、各探索領域間でのエッジ位置や画像内容の比較において仮想中心からの距離の違いを考慮する必要がないので、処理が簡単になる。特に凹部の形状が円形である場合に有効である。
またこの場合、複数の探索領域は、周方向において等角度間隔で設けられてもよい。このような構成によれば、周方向において各探索領域の画像内容を比較するときに、それらの周方向における距離の違いを考慮する必要がなく、やはり処理を簡単にすることができる。
また、エッジ検出では、探索領域を中央から周縁部へ向かう方向に探索して最初のエッジを検出するようにしてもよい。凹部に培地が注入された一般的なケースでは、培地は透明に近い一方、周縁部では光が種々の方向に散乱するため周縁部が中央部よりも暗く映ることが多い。このことから、中央部から周縁部に向けてエッジを探索することで、仮に探索領域内にエッジに該当する箇所が複数あったとしても、それらのうち中央の有効領域とその外側の無効領域とのエッジを検出することができる。また、エッジ検出では、高輝度から低輝度へ変化するエッジ、低輝度から高輝度へ変化するエッジの少なくとも一方が検出されてもよい。特に、培地から周縁部に向かう方向における輝度変化が既知である場合には、高輝度から低輝度への変化、低輝度から高輝度への変化のいずれかのみの検出により、目的とするエッジを検出することが可能である。
また、この発明では、探索領域ごとに求められた境界の位置に基づき、境界を近似する曲線が特定されてもよい。このような構成によれば、各探索領域について離散的に求められた境界位置の間を補間して、周方向の全周にわたって境界位置を表す情報を得ることができる。
この発明は、細胞、細胞塊等を撮像した画像から生きている細胞等を検出するものであり、例えば創薬スクリーニングなど、医学や生化学の分野に特に好適に適用可能なものである。
1 撮像装置(画像処理装置)
9 ウェルプレート(容器)
13 撮像部(画像取得部)
14 制御部
91 ウェル(凹部)
C 細胞
M 培地
R0〜R7 探索領域

Claims (10)

  1. 培地を担持する容器の凹部を撮像した画像から、前記凹部の周縁部の無効領域とその内側の有効領域との境界を特定する画像処理方法において、
    前記画像内の前記周縁部の近傍に、前記周縁部に沿った周方向の位置が互いに異なり、前記凹部の中央から前記周縁部へ向かう径方向に延びる所定サイズの探索領域を複数設定する工程と、
    前記探索領域内でエッジ検出を実行し、検出されたエッジ位置およびエッジ強度を前記探索領域ごとに取得する工程と、
    前記探索領域の各々について、前記周方向において当該探索領域と隣接する他の探索領域を、当該探索領域に対して前記径方向にシフトさせたときに画像パターンの類似度が最も高くなる相対シフト量を求める工程と、
    一の前記探索領域内における前記境界の位置を、当該探索領域および前記周方向において近傍範囲にある前記探索領域それぞれの前記エッジ位置、前記エッジ強度および前記相対シフト量に基づき特定する工程と
    を備える画像処理方法。
  2. 前記エッジ強度が所定値より大きいエッジが検出された前記探索領域については、前記エッジ位置を前記境界の位置とする一方、
    前記エッジ強度が前記所定値より小さいまたはエッジが検出されない前記探索領域については、前記周方向において隣接する他の前記探索領域の前記境界の位置を当該探索領域の前記相対シフト量に応じて補正した位置を、当該探索領域の前記境界の位置とする請求項1に記載の画像処理方法。
  3. 前記複数の探索領域は、前記凹部の中央部に設定した仮想中心からの距離が互いに等しい請求項1または2に記載の画像処理方法。
  4. 前記複数の探索領域は、前記周方向において等角度間隔で設けられる請求項3に記載の画像処理方法。
  5. 前記エッジ検出では、前記探索領域を前記中央から前記周縁部へ向かう方向に探索して最初のエッジを検出する請求項1ないし4のいずれかに記載の画像処理方法。
  6. 前記エッジ検出では、高輝度から低輝度へ変化するエッジ、低輝度から高輝度へ変化するエッジの少なくとも一方を検出する請求項1ないし5のいずれかに記載の画像処理方法。
  7. 前記探索領域ごとに求められた前記境界の位置に基づき、前記境界を近似する曲線を特定する請求項1ないし6のいずれかに記載の画像処理方法。
  8. コンピュータに、請求項1ないし7のいずれかに記載の画像処理方法の各工程を実行させるプログラム。
  9. 請求項8に記載のプログラムを記憶した、コンピュータ読み取り可能な記憶媒体。
  10. 容器の培地を担持する凹部を撮像した画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像に対し、請求項1ないし7のいずれかに記載の画像処理方法を実行する制御部と
    を備える画像処理装置。
JP2018214310A 2018-03-26 2018-11-15 画像処理方法、画像処理装置、プログラムおよび記憶媒体 Active JP7076361B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/047281 WO2019187420A1 (ja) 2018-03-26 2018-12-21 画像処理方法、画像処理装置、プログラムおよび記録媒体
EP18912506.5A EP3779463A4 (en) 2018-03-26 2018-12-21 IMAGE PROCESSING METHOD, IMAGE PROCESSING DEVICE, PROGRAM AND RECORDING MEDIUM
US16/980,017 US11244200B2 (en) 2018-03-26 2018-12-21 Image processing method, image processing apparatus, and computer-readable recording medium having recorded thereon image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018058221 2018-03-26
JP2018058221 2018-03-26

Publications (2)

Publication Number Publication Date
JP2019175422A true JP2019175422A (ja) 2019-10-10
JP7076361B2 JP7076361B2 (ja) 2022-05-27

Family

ID=68167102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214310A Active JP7076361B2 (ja) 2018-03-26 2018-11-15 画像処理方法、画像処理装置、プログラムおよび記憶媒体

Country Status (2)

Country Link
EP (1) EP3779463A4 (ja)
JP (1) JP7076361B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210687A (ja) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd 形状検出装置
JP2011100222A (ja) * 2009-11-04 2011-05-19 Panasonic Electric Works Co Ltd 画像処理装置および画像処理方法
US20120212748A1 (en) * 2011-02-22 2012-08-23 Hollenbeck Ronald C Optical reader systems and methods for microplate position detection
JP2013526717A (ja) * 2010-05-19 2013-06-24 ゼネラル・エレクトリック・カンパニイ マイクロプレートのウェル壁境界を識別するための方法及びシステム
JP2014500955A (ja) * 2010-11-16 2014-01-16 エフ.ホフマン−ラ ロシュ アーゲー 容器内の液面上の泡を検出する方法および装置
WO2018055823A1 (ja) * 2016-09-21 2018-03-29 株式会社Screenホールディングス 試料容器の位置ずれ検出方法およびそれを用いた撮像方法、ならびに試料容器の位置ずれ検出装置
JP2018160217A (ja) * 2017-03-24 2018-10-11 株式会社Screenホールディングス 画像処理方法および画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210687A (ja) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd 形状検出装置
JP2011100222A (ja) * 2009-11-04 2011-05-19 Panasonic Electric Works Co Ltd 画像処理装置および画像処理方法
JP2013526717A (ja) * 2010-05-19 2013-06-24 ゼネラル・エレクトリック・カンパニイ マイクロプレートのウェル壁境界を識別するための方法及びシステム
JP2014500955A (ja) * 2010-11-16 2014-01-16 エフ.ホフマン−ラ ロシュ アーゲー 容器内の液面上の泡を検出する方法および装置
US20120212748A1 (en) * 2011-02-22 2012-08-23 Hollenbeck Ronald C Optical reader systems and methods for microplate position detection
WO2018055823A1 (ja) * 2016-09-21 2018-03-29 株式会社Screenホールディングス 試料容器の位置ずれ検出方法およびそれを用いた撮像方法、ならびに試料容器の位置ずれ検出装置
JP2018160217A (ja) * 2017-03-24 2018-10-11 株式会社Screenホールディングス 画像処理方法および画像処理装置

Also Published As

Publication number Publication date
EP3779463A1 (en) 2021-02-17
JP7076361B2 (ja) 2022-05-27
EP3779463A4 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
WO2019187420A1 (ja) 画像処理方法、画像処理装置、プログラムおよび記録媒体
JP5920994B2 (ja) マイクロプレートのウェル壁境界を識別するための方法及びシステム
US9928592B2 (en) Image-based signal detection for object metrology
EP3225154A2 (en) Gaze detection apparatus and gaze detection method
JP2013526717A5 (ja)
US20170262979A1 (en) Image correction and metrology for object quantification
CN111985292A (zh) 用于图像处理结果的显微镜方法、显微镜和具有验证算法的计算机程序
US9916515B2 (en) Image processing
TW202001228A (zh) 校正用於偵測樣本中之分析物之行動裝置之攝像機的校正方法
TWI832840B (zh) 用於執行分析量測之方法及裝置
JP7157118B2 (ja) コードリーダ及び光学コードの読み取り方法
CN104641381B (zh) 用于检测圆形标签中的2d条形码的方法和系统
JP7076361B2 (ja) 画像処理方法、画像処理装置、プログラムおよび記憶媒体
JP6647903B2 (ja) 画像検査装置、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN110958380B (zh) 图像处理方法及图像处理装置
JP5762315B2 (ja) 画像処理方法
JPWO2018011928A1 (ja) 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
US20180130230A1 (en) Recognition apparatus, determination method, and article manufacturing method
CN109754365B (zh) 一种图像处理方法及装置
WO2017069035A1 (ja) 画像処理方法およびシェーディング基準データ作成方法
JP2023552585A (ja) 試料の存在の検出方法及び関連装置
US20200271522A1 (en) Microspectroscope having automatic sample detection function
JP2017068349A (ja) 画像処理方法および制御プログラム
JP2000193435A (ja) 対象物の画像処理方法
JP2011123737A (ja) 物体認識装置、物体認識方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220517

R150 Certificate of patent or registration of utility model

Ref document number: 7076361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150