JP7241598B2 - 画像処理方法、画像処理装置及び画像処理システム - Google Patents
画像処理方法、画像処理装置及び画像処理システム Download PDFInfo
- Publication number
- JP7241598B2 JP7241598B2 JP2019085082A JP2019085082A JP7241598B2 JP 7241598 B2 JP7241598 B2 JP 7241598B2 JP 2019085082 A JP2019085082 A JP 2019085082A JP 2019085082 A JP2019085082 A JP 2019085082A JP 7241598 B2 JP7241598 B2 JP 7241598B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- pixel
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
- G06T2207/10061—Microscopic image from scanning electron microscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20041—Distance transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20152—Watershed segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20156—Automatic seed setting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
画像を入力する入力部と、画像の前景と背景を分割する領域分割部と、画像内の接触している複数のオブジェクトを分離する接触分離部と、各オブジェクトをクラス毎に分類する分類部と、オブジェクトに関する定量情報を生成する定量情報算出部とを含む。
(本発明の概要)
そこで、以下に説明する本発明の実施形態によれば、画像に前景として現れているオブジェクトを正確に検出し、互いに接触している複数のオブジェクトを独立したオブジェクトに分離し、分離したオブジェクトをクラスカテゴリ毎に分類した後、正確な定量分析を行うことができる。
なお、以下の図面では、説明の便宜上、二次元のオブジェクトを示しているが、本発明はそれに限定されない。
まず、対象となるオブジェクト及び不要なオブジェクトを含む画像は、領域分割部(Segmentation Unit)と、接触分離部(Separation Unit)と、分類部(Classification Unit)と、定量情報算出部(Quantitative Calculation Unit)とを含む画像処理装置に入力される。領域分割部は、入力された画像を、対象となるオブジェクトを含む前景の部分と、不要なオブジェクトを含む背景の部分とに分割する。次に、接触分離部は、前景において互いに接触している複数のオブジェクトを後述する処理によって分離する。次に、分類部は、分離されたオブジェクトをクラス毎に分類する。次に、定量情報算出部は、分類されたオブジェクトに対する定量的分析を施すことにより、分類されたオブジェクトに関する定量情報を生成し、提供する。
ここでの「分割」とは、画像の背景と前景とを区別することを意味する。具体的には、領域分割部は、背景に属する画素(以下、背景画素)と、前景に属する画素(以下前景画素)に対して、当該画素が背景画素であるか、前景画素であるかを示すメタデータをラベルとして付けることで、画像の背景と前景を区別してもよい。
また、画像において、オブジェクトの一部が画像外に存在する「ボーダーオブジェクト」と、オブジェクト全体が画像内に存在する「非ボーダーオブジェクト」が存在する場合がある。
図6にボーダーオブジェクトの一例、図8に非ボーダーオブジェクトの一例を示す。図6のボーダーオブジェクトB2001に示すように、オブジェクトの一部が画像外に存在し、かつ、互いに接触している複数のオフジェクトを、本開示ではボーダーオブジェクトと呼ぶ。また、図8の非ボーダーオブジェクトNB2001に示すように、オブジェクト全体が画像内に存在し、かつ、互いに接触している複数のオフジェクトを、本開示では非ボーダーオブジェクトと呼ぶ。
オブジェクトがボーダーオブジェクトであるか、非ボーダーオブジェクトであるかによって、当該オブジェクトを分離する手段が異なる。そのため、図1に示すように、接触分離部12は、ボーダーオブジェクトを分離するためのボーダーオブジェクト分離部13と、非ボーダーオブジェクトを分離するための非ボーダーオブジェクト分離部14とを含む。これらの機能部の処理については後述する。
なお、図1では、制御部91を含む構成を一例として示しているが、本発明はこれに限定されず、各機能部が自律的に動作する構成であってもよい。
なお、入力部10、領域分割部11、接触分離部12、ボーダーオブジェクト分離部13、非ボーダーオブジェクト分離部14、分類部15、定量情報算出部16、ストレージ部90、及び制御部91は、図1と同様であるため、それらの説明は省略する。
尚、通信装置205が画像処理装置1に内蔵されている構成を一例として示しているが、本発明はこれに限定されず、通信装置205が外部に配置されており、画像処理装置1に接続される構成も可能である。そのため通信装置205は画像処理装置1のハードウェア構成要素として必ずしも含まれる必要はない。
なお、これらの中間出力の詳細については後述する。以下の説明では、それぞれの画像の一例を図示するが、これはあくまでも説明を分かりやすくするための例示であり、本発明の機能部の出力が図示されている画像に限定される趣旨ではない。
なお、上記では、領域分割部が畳み込みニューラルネットワークを用いて画像Cの背景領域と前景領域とを区別する例を説明したが、本発明はそれに限定されず、背景領域と前景領域とを区別できる手段であれば、任意の方法を用いてもよい。
この距離マップでは、前景画素から最も近い背景画素までの距離が長い程、輝度値が高いため、背景画素から離れているオブジェクトの中心部分の輝度値が高く、オブジェクトの縁に近い部分の輝度値が低くなる。また、この距離変換処理では、所定の輝度値に達しない前景画素が背景とされるため、それぞれのオブジェクトにおいて、輝度値が最も高い領域(つまり、中心部)がいわゆるシード領域B20011として残る。
互いに接触している非ボーダーオブジェクトNB2001が選択された後、非ボーダーオブジェクト分離部14は、選択した非ボーダーオブジェクトNB2001を構成する第1のオブジェクトNB2002及び第2のオブジェクトNB2003に対して、図11のステップS1102と同様に距離変換処理を適用する。上述したように、この距離変換処理では、第1のオブジェクトNB2002及び第2のオブジェクトNB2003に属するそれぞれの画素から最も近い背景画素までの距離が輝度値として表現される距離マップが生成される。この距離マップでは、前景画素から最も近い背景画素までの距離が長い程、輝度値が高いため、背景から離れている第1のオブジェクトNB2002及び第2のオブジェクトNB2003のそれぞれの中心部の輝度値が高く、縁に近い部分の輝度値が低くなる。図15は、第1のオブジェクトNB2002及び第2のオブジェクトNB2003に対して距離変換を施した後の状態を示す図である。
これらの条件を満たす対象画素Pが検出された場合には、本処理はステップNBS3に進み、これらの条件を満たす対象画素Pが検出されない場合には、非ボーダーオブジェクト分離部14は第1軸と第2軸の角度を変更し、上記の処理を繰り返す。この処理は、対象画素Pが特定されるか、全ての画素および角度に対して上記の処理が適用されるまで、第1のオブジェクトNB2002と第2のオブジェクトNB2003の距離マップの各画素の周辺360度の全ての角度に対して繰り返して行われる。
なお、上記の処理では、特定の画素(PRV、PLV、PTV、PBV)の輝度を検証することで対象画素Pを特定したが、本発明はそれに限定されず、第1軸と第2軸から所定の距離範囲内の全ての画素の輝度値を検証することも可能である。
以下では、上述した第1の境界基準画素PRを特定する処理の詳細について説明する。
まず、第1の境界基準画素PRを特定するために、非ボーダーオブジェクト分離部14は、画素Pの輝度値に基づいて、上述の処理で輝度が低いと判断された第1軸の正方向における最も近い背景画素までの距離dを計算し、そしてこの距離dと、所定のオフセットbとに基づいて、第1軸の正方向に沿って第1の境界基準画素PRまでの距離dNを計算する。ここでは、dNは以下の数式で求められる。
[数1]
dN=d+b
次に、非ボーダーオブジェクト分離部14は、第1の境界基準画素PRを特定するために、対象画素Pから第1軸(つまり、距離マップにおける輝度値が低い画素で構成される軸であるX軸)の正方向に沿った画素PRが下記a、b、cを満たすか否かを検証する。
a)背景画素(輝度値が0の画素)である
b)正方向に存在する画素(第1の参考画素PR1)が背景画素である
c)第1のオブジェクト及び第2のオブジェクトが第2軸の正方向および負方向に存在し、境界基準画素PRから第1のオブジェクト及び第2のオブジェクトまでの距離が所定の距離基準a(例えば、5画素)以内である
これらの条件を満たす画素が特定された場合には、非ボーダーオブジェクト分離部14は、特定された画素を第1の境界基準画素PR(図16及び図17参照)とする。
なお、第1の参考画素PR1は、第1の境界基準画素PRに隣接している画素であってもよい。
次に、非ボーダーオブジェクト分離部14は、第2の境界基準画素PLを特定するために、非ボーダーオブジェクト分離部14は、対象画素Pから第1軸(つまり、輝度値が低い画素で構成される軸であるX軸)の負方向に沿った画素PLが下記a、b、cを満たすか否かを検証する。
a)背景画素(輝度値が0の画素)である
b)負方向に存在する画素(第2の参考画素PL1、図示せず)が背景画素である
c)第1のオブジェクト及び第2のオブジェクトが第2軸の正方向および負方向に存在し、境界基準画素PLから第1のオブジェクト及び前記第2のオブジェクトまでの距離が所定の距離基準a(例えば、5画素)以内である
これらの条件を満たす画素が特定された場合には、非ボーダーオブジェクト分離部14は、特定された画素を第2の境界基準画素PL(図16及び図17参照)とする。
なお、第2の参考画素PL1は、第2の境界基準画素PLに隣接している画素であってもよい。
また、分離境界線を生成した後、非ボーダーオブジェクト分離部14は、第1のオブジェクトNB2002と第2のオブジェクトNB2003を分離境界線NB2005に沿って分離した画像CBを生成する。この画像CBを後述する分類部に供給することで、画像CBに写っているオブジェクト(例えば、第1のオブジェクトNB2002と第2のオブジェクトNB2003)を、オブジェクトが属するカテゴリーに分類可能となる。
なお、以上説明した非ボーダーオブジェクトを分離する処理はあくまでも一例であり、重なっている非ボーダーオブジェクトを分離できる手段であれば、他の手段も用いられてもよい。
まず、ステップCON1では、分類部(例えば図1に示す分類部15)は、第1のオブジェクトと第2のオブジェクトとが分離境界線に沿って分離された画像CBの前景を複数の領域に区画する。ここで、「区画する」とは、画像CBを複数の領域に分割したり、仕切ったり、グループ化したりすることを含む。この画像区画処理では、対象の画像は例えば均等の面積を有する格子状のパッチに分断されてもよい。パッチの大きさは、対象画像の画素数や複雑さ、又は画像処理装置のメモリ制約等に応じて適宜に定める。
なお、ここでは、オブジェクトに関する定量情報として、オブジェクトの数及びクラス間の割合を計算する一例を説明するが、本発明はそれに限定されず、他の定量情報を生成することもできる。
上述したように、画像の前景と背景を分割する際に、色やテクスチャが背景に類似しているため、背景と判断されてしまう前景領域(誤背景領域)が発生する場合がある。このような誤背景領域が画像に存在する場合には、正確に画像を分析をできない恐れがあるため、本発明の係る実施例2は、画像中に発生する誤背景領域を特定し、修正することで、正確な定量的分析を可能にするものである。
なお、本発明の実施例2に係る画像処理装置H1と実施例1に係る画像処理装置1と異なる点は、画像処理装置H1が領域修正部H1000を備える点である。画像処理装置H1が領域修正部H1000を備える点以外、画像処理装置H1の構成は実施例1の画像処理装置1と同様であるため、同様の機能部の説明は省略する。
なお、本発明の実施例2に係る画像処理装置H1と実施例1に係る画像処理装置1の異なる点は、画像処理装置H1が領域修正部H1000を備える点である。画像処理装置H1が領域修正部H1000を備える点以外、画像処理装置H1の構成は実施例1の画像処理装置1と同様であるため、同様の機能部の説明を省略する。
本発明の実施例3に係る画像処理システムW1は、例えば血液、材料、細胞等の状態を分析するために適用されてもよい。
例えば、画像に写るオブジェクトが血球の場合、試料状態分析装置W12は、画像処理装置1から出力した血球の数や割合等の定量情報を血液分析用の専用データベースに照合することで、患者の健康状態に関する分析結果を導出することができる。
また、画像に写るオブジェクトが磁性粒子の場合、試料状態分析装置W12は、画像処理装置1から出力した磁性粒子の密度等の定量情報を物理学の情報を有する専用データベースに照合することで、試料の磁気特性に関する分析結果を導出することができる。
プログラムコードを記録するための記憶媒体としては、例えばフレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性メモリカード、ROM等がある。
10 入力部
11 領域分割部
12 接触分離部
13 ボーダーオブジェクト分離部
14 非ボーダーオブジェクト分離部
15 分類部
16 定量情報算出部
90 ストレージ部
91 制御部
201 CPU
202 メモリ
203 出力装置
204 入力装置
205 通信装置
206 ストレージ装置
207 バス
Claims (15)
- 画像内のオブジェクトの定量的な情報を算出する画像処理装置であって、
前記画像処理装置は、
画像を入力する入力部と
画像の前景と背景を分割する領域分割部と、
画像内の接触している複数のオブジェクトを分離する接触分離部と、
各オブジェクトをクラス毎に分類する分類部と、
オブジェクトに関する定量情報を生成する定量情報算出部と、
を含み、
前記入力部は、
定量情報の算出対象である画像を受付け、
前記領域分割部は、
前記画像において、定量情報の算出対象であるオブジェクトが写っている領域を前景領域、その他を背景領域として画像を分割し、
前記接触分離部は、
前記画像内の互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
前記領域分割部が出力する領域分割結果に基づいて、
前記第1のオブジェクトと第2のオブジェクトの接触点を検出し、
接触点から最も近い背景領域を第1の境界基準画素、
第1の境界基準画素から接触点を挟んで逆方向にある背景領域を第2の境界基準画素として、
2つの境界基準画素を結ぶことで前記第1のオブジェクトと第2のオブジェクトを分離し、
前記分類部は、
前記画像内の各オブジェクトをクラス毎に分類し、
前記定量情報算出部は、
前記領域分割部が出力する領域分割結果、前記接触分離部が出力する接触分離結果、および、前記分類部が出力する分類結果に基づいて、
オブジェクトに関する定量情報を生成し、出力する、
ことを特徴とする画像処理装置。 - 請求項1に記載の装置であって、
前記接触分離部は、
画像端に存在する接触している複数のオブジェクトを分離するボーダーオブジェクト分離部と、
画像端以外に存在する接触している複数のオブジェクトを分離する非ボーダーオブジェクト分離部から構成され、
前記ボーダーオブジェクト分離部は、
画像端に存在する互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
前記領域分割部が出力する領域分割結果内の前景領域から各オブジェクトを代表する中心領域を抽出し、
前記各オブジェクトの中心領域同士の位置関係に基づいて、
前記第1のオブジェクトと第2のオブジェクトを分離し、
前記非ボーダーオブジェクト分離部は、
画像端以外に存在する互いに接触している第1のオブジェクトと第2のオブジェクトを分離する為に、
請求項1に記載の接触分離部を用いる、
ことを特徴とする画像処理装置。 - 請求項1または請求項2に記載の装置であって、
前記領域分割部が出力する領域分割結果に含まれる、前景領域内の誤背景領域を修正する領域修正部、
を更に含み、
前記領域修正部は、前記領域分割結果内の前景領域または背景領域の接続状況や面積に基づいて、
前記領域分割結果内の背景領域を特定することで、
前記領域分割結果に含まれる前景領域内の誤背景領域を検出し、
検出した誤背景領域を前景領域に変換する
ことを特徴とする画像処理装置。 - 請求項1または請求項2に記載の装置であって、
画像内の球状および類円状のオブジェクト、または、球状および類円状を拡大縮小した形状のオブジェクトを定量情報の算出対象とする、
ことを特徴とする画像処理装置。 - 画像内のオブジェクトの定量的な情報を算出する画像処理装置であって、
前記画像処理装置は、
画像を入力する入力部と、
画像の背景と前景を分割する領域分割部と、
画像におけるオブジェクトを分離する接触分離部と、
オブジェクトをクラス毎に分類する分類部と、
オブジェクトに関する定量情報を生成する定量情報算出部と、
を含み、
前記入力部は、
定量情報の算出対象である画像を受付け、
前記領域分割部は、
前記画像において、第1のオブジェクトと第2のオブジェクトとを含む前景と、それ以外の領域を含む背景とを分割し、
前記接触分離部は、
前記第1のオブジェクトと前記第2のオブジェクトの少なくとも一方に属する各画素に対して、当該画素から最も近い背景までの距離を輝度値で示す距離マップを生成し、
前記距離マップにおいて、第1軸に沿う輝度値が第2軸に沿う輝度値より低い対象画素(P)を特定し、
前記対象画素から、前記第1軸の正方向に沿った画素が以下の条件a、b、cを満たした場合に当該画素を第1の境界基準画素(PR)とし、
a)当該画素が背景画素であり、
b)当該画素の更に正方向に存在する第1の参考画素が背景画素であり、
c)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第1の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
前記対象画素から、前記第1軸の負方向に沿った画素が以下の条件d、e、fを満たした場合に当該画素を第2の境界基準画素(PL)とし、
d)当該画素が背景画素であり、
e)当該画素の更に負方向に存在する第2の参考画素が背景画素であり、
f)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第2の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
前記第1の境界基準画素と前記第2の境界基準画素とを結んだ線分を、前記対象画素を通過する分離境界線として生成し、
前記第1のオブジェクトと前記第2のオブジェクトを前記分離境界線に沿って分離した最終画像を生成し、
前記分類部は、
前記第1のオブジェクトと前記第2のオブジェクトをクラス毎に分類し、
前記定量情報算出部は、前記第1のオブジェクトと前記第2のオブジェクトに関する定量情報を生成し、出力する、
ことを特徴とする画像処理装置。 - 画像内のオブジェクトの定量的な情報を算出する画像処理方法であって、
前記画像処理方法は、
画像を入力する入力処理と
画像の前景と背景を分割する領域分割処理と、
画像内の接触している複数のオブジェクトを分離する接触分離処理と、
各オブジェクトをクラス毎に分類する分類処理と、
オブジェクトに関する定量情報を生成する定量情報算出処理と、
を含み、
前記入力処理は、
定量情報の算出対象である画像を受付け、
前記領域分割処理は、
前記画像において、定量情報の算出対象であるオブジェクトが写っている領域を前景領域、その他を背景領域として画像を分割し、
前記接触分離処理は、
前記画像内の互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
前記領域分割処理で算出する領域分割結果に基づいて、
前記第1のオブジェクトと第2のオブジェクトの接触点を検出し、
接触点から最も近い背景領域を第1の境界基準画素、
第1の境界基準画素から接触点を挟んで逆方向にある背景領域を第2の境界基準画素として、
2つの境界基準画素を結ぶことで前記第1のオブジェクトと第2のオブジェクトを分離し、
前記分類処理は、
前記画像内の各オブジェクトをクラス毎に分類し、
前記定量情報算出処理は、
前記領域分割処理で算出する領域分割結果、前記接触分離処理で算出する接触分離結果、および、前記分類処理で算出する分類結果に基づいて、
オブジェクトに関する定量情報を生成し、出力する、
ことを特徴とする画像処理方法。 - 請求項6に記載の画像処理方法であって、
前記接触分離処理は、
画像端に存在する接触している複数のオブジェクトを分離するボーダーオブジェクト分離処理と、
画像端以外に存在する接触している複数のオブジェクトを分離する非ボーダーオブジェクト分離処理から構成され、
前記ボーダーオブジェクト分離処理は、
画像端に存在する互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
前記領域分割処理で算出する領域分割結果内の前景領域から各オブジェクトを代表する中心領域を抽出し、
前記各オブジェクトの中心領域同士の位置関係に基づいて、
前記第1のオブジェクトと第2のオブジェクトを分離し、
前記非ボーダーオブジェクト分離処理は、
画像端以外に存在する互いに接触している第1のオブジェクトと第2のオブジェクトを分割する方法として、請求項6に記載の接触分離処理を用いる、
ことを特徴とする画像処理方法。 - 請求項6または請求項7に記載の画像処理方法であって、
前記領域分割処理で算出する領域分割結果に含まれる、前景領域内の誤背景領域を修正する領域修正処理、
を更に含み、
前記領域修正処理は、前記領域分割結果内の前景領域または背景領域の接続状況や面積に基づいて、
前記領域分割結果内の背景領域を特定することで、
前記領域分割結果に含まれる前景領域内の誤背景領域を検出し、
検出した誤背景領域を前景領域に変換する
ことを特徴とする画像処理方法。 - 請求項6または請求項7に記載の画像処理方法であって、
画像内の球状および類円状のオブジェクト、または、球状および類円状を拡大縮小した形状のオブジェクトを定量情報の算出対象とする、
ことを特徴とする画像処理方法。 - 第1のオブジェクトと第2のオブジェクトが互いに接触している画像において、
前記第1のオブジェクトと前記第2のオブジェクトの少なくとも一方に属する各画素に対して、当該画素から最も近い背景までの距離を輝度値で示す距離マップを生成する処理と、
前記距離マップにおいて、第1軸に沿う輝度値が第2軸に沿う輝度値より低い対象画素(P)を特定する処理と、
前記対象画素から、前記第1軸の正方向に沿った画素が以下の条件a、b、cを満たした場合に当該画素を第1の境界基準画素(PR)とする処理と、
a)当該画素が背景画素であり、
b)当該画素の更に正方向に存在する第1の参考画素が背景画素である、
c)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第1の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
前記対象画素から、前記第1軸の負方向に沿った画素が以下の条件d、e、fを満たした場合に当該画素を第2の境界基準画素(PL)とする処理と、
d)当該画素が背景画素であり、
e)当該画素の更に負方向に存在する第2の参考画素が背景画素である、
f)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第2の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
前記第1の境界基準画素と前記第2の境界基準画素とを結んだ線分を、前記対象画素を通過する分離境界線として生成する処理と、
を含む画像処理方法。 - 試料の状態を判定する画像処理システムであって、
前記画像処理システムは、
試料の画像を取得する撮影装置と、
前記撮影装置が撮影した画像内のオブジェクトの定量的な情報を算出する画像処理装置と、
前記画像処理装置が出力するオブジェクトの定量的な情報から試料の状態を分析する試料状態分析装置と、
前記試料状態分析装置が出力する試料状態分析結果をユーザーに提示する表示装置と、
を含み、
前記画像処理装置は請求項1乃至5に記載の画像処理装置のいずれかを用いる
ことを特徴とする画像処理システム。 - 請求項11に記載の画像処理システムであって、
前記画像処理システムは、
前記撮影装置が取得した画像や
前記画像処理装置が出力する定量情報を保存するストレージ装置
を更に含み、
前記ストレージ装置は、
前記撮影装置が取得した画像、あるいは、画像と画像の属性情報および、
前記定量情報を紐付けて保存すること
を特徴とする画像処理システム。 - 請求項12に記載の画像処理システムであって、
前記画像処理システムは
前記撮影装置と
前記試料状態分析装置と
前記表示装置と、
外部装置と通信を行う通信装置と、
を有する画像解析装置と、
前記画像処理装置と、
外部装置と通信を行う通信装置と、
前記画像処理装置が出力する定量情報等を保存するストレージ装置と、
を有するサーバと、
から構成され、
前記通信装置は、
前記撮影装置が撮影した画像と、
前記サーバ内の画像処理装置またはストレージ装置が出力する定量情報を、
前記画像解析装置と前記サーバ間で送受信する
ことを特徴とする画像処理システム。 - 請求項12または請求項13に記載の画像処理システムであって、
前記ストレージ装置は、
前記撮影装置が取得する画像および試料の取得元を表す属性情報と、
前記画像処理装置が出力する定量情報を紐付けて保存し、
前記試料状態分析装置は、
異なる時刻に入力された、同一の属性情報を有する複数の画像および定量情報を用いて、
試料の状態変化を算出し、
算出した試料の状態変化に関する情報を試料状態分析結果として出力する
ことを特徴とする画像処理システム。 - 請求項12または請求項13に記載の画像処理システムであって、
前記ストレージ装置は、
前記画像処理装置が出力する定量情報を蓄積し、
前記試料状態分析装置は、
前記ストレージ装置が出力する蓄積された定量情報から、
平均値や分散値等の統計量を算出し、
前記撮影装置が取得する画像の定量情報と前記統計量との比較により、
分析した試料の状態を試料状態分析結果として出力する
ことを特徴とする画像処理システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019085082A JP7241598B2 (ja) | 2019-04-26 | 2019-04-26 | 画像処理方法、画像処理装置及び画像処理システム |
PCT/JP2020/004529 WO2020217643A1 (ja) | 2019-04-26 | 2020-02-06 | 画像処理方法、画像処理装置及び画像処理システム |
US17/605,349 US20230177699A1 (en) | 2019-04-26 | 2020-02-06 | Image processing method, image processing apparatus, and image processing system |
CN202080030691.3A CN113728357B (zh) | 2019-04-26 | 2020-02-06 | 图像处理方法、图像处理装置以及图像处理系统 |
EP20795159.1A EP3961562B1 (en) | 2019-04-26 | 2020-02-06 | Image processing method, image processing device, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019085082A JP7241598B2 (ja) | 2019-04-26 | 2019-04-26 | 画像処理方法、画像処理装置及び画像処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020181441A JP2020181441A (ja) | 2020-11-05 |
JP7241598B2 true JP7241598B2 (ja) | 2023-03-17 |
Family
ID=72942469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019085082A Active JP7241598B2 (ja) | 2019-04-26 | 2019-04-26 | 画像処理方法、画像処理装置及び画像処理システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230177699A1 (ja) |
EP (1) | EP3961562B1 (ja) |
JP (1) | JP7241598B2 (ja) |
CN (1) | CN113728357B (ja) |
WO (1) | WO2020217643A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7449111B2 (ja) * | 2020-02-18 | 2024-03-13 | キヤノン株式会社 | 検査装置、検査方法 |
DE102020111955A1 (de) * | 2020-05-04 | 2021-11-04 | Airbus Defence and Space GmbH | Gesichtserkennung mit neuronalen Netzen |
CN118628941B (zh) * | 2024-08-07 | 2024-10-11 | 中科云谷科技有限公司 | 边坡检测方法、装置、无人机及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006018394A (ja) | 2004-06-30 | 2006-01-19 | Nikon Corp | 細胞識別装置、細胞識別方法、細胞識別用プログラム、および細胞解析装置 |
JP2017111816A (ja) | 2015-12-15 | 2017-06-22 | 株式会社リコー | 物体分割方法及び装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5481620A (en) | 1991-09-27 | 1996-01-02 | E. I. Du Pont De Nemours And Company | Adaptive vision system |
US8687888B2 (en) * | 2010-11-18 | 2014-04-01 | Casio Computer Co., Ltd. | Region specification method, region specification apparatus, recording medium, server, and system |
JP6335695B2 (ja) * | 2014-07-09 | 2018-05-30 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
JP6571687B2 (ja) * | 2014-12-26 | 2019-09-04 | 株式会社日立製作所 | 画像処理装置及び画像処理方法 |
US20170091948A1 (en) * | 2015-09-30 | 2017-03-30 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for automated analysis of cell images |
-
2019
- 2019-04-26 JP JP2019085082A patent/JP7241598B2/ja active Active
-
2020
- 2020-02-06 EP EP20795159.1A patent/EP3961562B1/en active Active
- 2020-02-06 US US17/605,349 patent/US20230177699A1/en active Pending
- 2020-02-06 CN CN202080030691.3A patent/CN113728357B/zh active Active
- 2020-02-06 WO PCT/JP2020/004529 patent/WO2020217643A1/ja unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006018394A (ja) | 2004-06-30 | 2006-01-19 | Nikon Corp | 細胞識別装置、細胞識別方法、細胞識別用プログラム、および細胞解析装置 |
JP2017111816A (ja) | 2015-12-15 | 2017-06-22 | 株式会社リコー | 物体分割方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020181441A (ja) | 2020-11-05 |
EP3961562B1 (en) | 2023-12-20 |
CN113728357A (zh) | 2021-11-30 |
WO2020217643A1 (ja) | 2020-10-29 |
US20230177699A1 (en) | 2023-06-08 |
CN113728357B (zh) | 2023-12-12 |
EP3961562A4 (en) | 2023-01-18 |
EP3961562A1 (en) | 2022-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943346B2 (en) | Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning | |
US10839510B2 (en) | Methods and systems for human tissue analysis using shearlet transforms | |
JP6710135B2 (ja) | 細胞画像の自動分析方法及びシステム | |
Zhang et al. | Automated semantic segmentation of red blood cells for sickle cell disease | |
KR101932009B1 (ko) | 다중 객체 검출을 위한 영상 처리 장치 및 방법 | |
US20220215548A1 (en) | Method and device for identifying abnormal cell in to-be-detected sample, and storage medium | |
JP7241598B2 (ja) | 画像処理方法、画像処理装置及び画像処理システム | |
CN111881913A (zh) | 图像识别方法及装置、存储介质和处理器 | |
US8600143B1 (en) | Method and system for hierarchical tissue analysis and classification | |
CN109154978A (zh) | 用于检测植物疾病的系统和方法 | |
WO2020062360A1 (zh) | 一种图像融合分类的方法及装置 | |
US20080123959A1 (en) | Computer-implemented method for automated object recognition and classification in scenes using segment-based object extraction | |
Yadav et al. | An improved deep learning-based optimal object detection system from images | |
CN111199197B (zh) | 一种人脸识别的图像提取方法及处理设备 | |
WO2018050123A1 (zh) | 虹膜图像的检测方法和装置 | |
CN111095075B (zh) | 用于电子显微镜的全自动、无模板粒子拾取 | |
Hichri et al. | Interactive segmentation for change detection in multispectral remote-sensing images | |
CN117315210B (zh) | 一种基于立体成像的图像虚化方法及相关装置 | |
CN112907206A (zh) | 一种基于视频对象识别的业务审核方法、装置及设备 | |
CN108229514A (zh) | 物体检测方法、装置和电子设备 | |
Patange et al. | Blur Removal and Image Merging for Image Enhancement on Python | |
Aldakheel et al. | Detection of targeted region using deep learning-based multiscale AlexNet CNN scheme for hyperspectral satellite image | |
CN111553925B (zh) | 一种基于fcn的端对端农作物影像分割方法及系统 | |
CN106056579A (zh) | 一种基于背景对比的显著性检测方法 | |
Yan et al. | Cross-Scale Feature Selection Transformer for Street-Level Crop Classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |